English
全部
搜索
图片
视频
短视频
地图
资讯
更多
购物
航班
旅游
笔记本
报告不当内容
请选择下列任一选项。
无关
低俗内容
成人
儿童性侵犯
时长
全部
短(小于 5 分钟)
中(5-20 分钟)
长(大于 20 分钟)
日期
全部
过去 24 小时
过去一周
过去一个月
去年
清晰度
全部
低于 360p
360p 或更高
480p 或更高
720p 或更高
1080p 或更高
源
全部
Dailymotion
Vimeo
Metacafe
Hulu
VEVO
Myspace
MTV
CBS
Fox
CNN
MSN
价格
全部
免费
付费
清除筛选条件
安全搜索:
中等
严格
中等(默认)
关闭
筛选器
builtin.com
ReLU Activation Function Explained | Built In
The rectified linear unit (ReLU) or rectifier activation function introduces the property of nonlinearity to a deep learning model and solves the vanishing gradients issue. It interprets the positive part of its argument. It is one of the most popular activation functions in deep learning.
2024年2月26日
ReLU Function Explained
15:16
Master 20 Powerful Activation Functions — From ReLU to ELU & Beyond
MSN
Deep Learning with Yacine
6 个月之前
Question 2: Sigmoid vs ReLU(a) Write the formula for the Sigmo... | Filo
askfilo.com
4 个月之前
1:17
Activation Functions (Why ReLU Wins Everything)
YouTube
2 Minute AI
已浏览 1 次
2 个月之前
热门视频
06.激活函数relu
bilibili
十万伏特丘比特
已浏览 5608 次
2021年11月19日
1:33
Types of Activation function in Neural Network -Part 2 | ReLU #ai #education #shorts @krishnaik06
YouTube
Perceptron
已浏览 4 次
1 个月前
2:13
What is ReLU in deep learning?
YouTube
Alfred Zhong
已浏览 1 次
1 个月前
ReLU Vs Sigmoid
PyTorch Activation Functions - ReLU, Leaky ReLU, Sigmoid, Tanh and Softmax - MLK - Machine Learning Knowledge
machinelearningknowledge.ai
2021年3月10日
【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新
bilibili
编程八点档
已浏览 10万 次
2023年12月7日
1:20
Artificial Intelligence | AI on Instagram: "Activation functions are crucial for neural networks because they add a non-linearity, allowing the network to learn complex patterns. The sigmoid function, which outputs values between 0 and 1, is useful for making predictions in binary classification tasks. ReLU, which outputs the input if it’s positive and zero if it’s not, is popular because it helps the network learn faster and avoids some training problems. These functions let neural networks cre
Instagram
getintoai
已浏览 9265 次
3 个月之前
06.激活函数relu
已浏览 5608 次
2021年11月19日
bilibili
十万伏特丘比特
1:33
Types of Activation function in Neural Network -Part 2 | ReLU #ai
…
已浏览 4 次
1 个月前
YouTube
Perceptron
2:13
What is ReLU in deep learning?
已浏览 1 次
1 个月前
YouTube
Alfred Zhong
1:17
Activation Functions (Why ReLU Wins Everything)
已浏览 1 次
2 个月之前
YouTube
2 Minute AI
3:47
What Is The Role Of A ReLU Activation Function?
已浏览 2 次
2 个月之前
YouTube
AI and Machine Learning Explained
What is activation function?
已浏览 2149 次
2023年5月28日
YouTube
Hitanshu Soni
mod08lec68 - Flux quantization in a superconducting ring
已浏览 3883 次
2022年10月11日
YouTube
NPTEL-NOC IITM
forward and backward propagation using relu function
已浏览 260 次
2024年4月20日
YouTube
Omar Mustafa
Learn ReLU using PyTorch in 5 minutes
已浏览 195 次
2023年9月11日
YouTube
Jsil Tech
15:35
Quantization in deep learning | Deep Learning Tutorial 49 (Tensorflow,
…
已浏览 7.1万 次
2021年8月14日
YouTube
codebasics
15:04
Analysis of Quantization Error
已浏览 4.6万 次
2013年1月1日
YouTube
Barry Van Veen
LLaMa GPTQ 4-Bit Quantization. Billions of Parameters Made Small
…
已浏览 2.8万 次
2023年5月14日
YouTube
AemonAlgiz
Neural Networks From Scratch - Lec 9 - ReLU Activation Function
已浏览 2041 次
2022年1月31日
YouTube
ML For Nerds
1:21
一分钟带你认识常见激活函数(tanh、ReLU)
已浏览 1.4万 次
2021年12月21日
bilibili
蛋卷蛋卷呀
32:35
36、CNN卷积神经网络之ReLU激励层
已浏览 241 次
2019年6月21日
YouTube
东方耀
3:20
6.2ReLU函数详解
已浏览 431 次
2023年10月4日
bilibili
白话先生NIT
24:25
深度学习论文解读:ReLU函数
已浏览 6519 次
2020年9月7日
bilibili
覃秉丰讲AI
7:33
大模型激活函数:从ReLU到GLU的进化之路
已浏览 911 次
2 个月之前
bilibili
酌沧
0:11
【变化的n】神经网络梯度可视化 之 relu激活函数
已浏览 1153 次
2021年11月26日
bilibili
txsn
8:10
10大激活函数,ReLU真的是无敌的吗?
已浏览 8264 次
5 个月之前
bilibili
机器学习算法应用实战
2:49
ReLU Activation Function
已浏览 178 次
2019年10月4日
bilibili
knnstack
7:56
【油管强推】statquest 神经网络系列课程 激活函数 ReLU.
已浏览 167 次
2022年2月11日
bilibili
元気弹づ
0:47
人工智能-神经网络基础知识-Relu函数的原理
已浏览 178 次
2023年8月21日
bilibili
开源社区GitPP-COM
10:05
Activation Functions - EXPLAINED!
已浏览 15.2万 次
2020年3月19日
YouTube
CodeEmporium
13:05
LU factorization
已浏览 1.9万 次
2019年2月23日
YouTube
Dr Peyam
12:18
Tutorial 10- Rectified Linear Unit(relu) and Leaky Relu
已浏览 357 次
2019年9月30日
bilibili
从零开始的人工智能
8:28
1.2.5-ReLu函数简介
已浏览 2284 次
2001年2月5日
bilibili
数分小为老师
5:15
Deep Network Quantization and Deployment
已浏览 7763 次
2020年10月3日
YouTube
MATLAB
23:19
Quantization of the energy
已浏览 2.9万 次
2017年7月31日
YouTube
MIT OpenCourseWare
观看更多视频
更多类似内容
反馈