模型部署系列(零)前置环境
在这篇文章中我们会安装一些后续可能用到的工具。 CUDA CUDA(Compute Unified Device Architecture,统一计算架构)是 NVIDIA 推出的一种并行计算平台和编程模型,用于利用 NVIDIA GPU(图形处理单元)进行高性能计算。CUDA 允许开发者使用标准的编
动手学ROS2 (9.4)Gazebo仿真插件之两轮差速
小鱼又来了,完成了上节课的Gazebo加载FishBot,但是机器人还是不会动,你一定很不开心吧,本节课小鱼就带你一起通过配置两轮差速控制插件,让我们的机器人动起来~ 最终效果: Gazebo插件介绍 之前小鱼说过Gazebo是一个独立于ROS的软件,对外提供了丰富的API可以使用,gazebo的插
Kaggle竞赛动手系列(一)Forecasting Sticker Sales
Forecasting Sticker Sales | Kaggle 下载并读取数据 在data栏下载所有数据上传到Jupyter中,接下来我们开始读取数据 # 读取CSV文件
df_train = pd.read_csv('./data/train.csv')
df_test = pd
Windows Conda 安装Pytorch的小坑
有很长一段时间没有在Windows上配置过环境了,之前没有记录,导致这次配置时出了点小问题。 安装Pytorch 注意安装Pytorch如果是gpu版本不要使用pip清华源,清华源只有cpu版本 PyTorch 笔者使用官网的conda安装方式: conda install pytorch torc
Syncthing—在Linux和Windows之间同步数据
事情的起因是这样的:我在进行机器学习的学习中,前半段时间都是在我的迷你主机(Ubuntu 22.04)上使用jupyter进行实验,但是到了深度学习时,一些简单模型的训练,迷你主机尚能支持,更复杂的模型我只能在我的主力机(WIndows)上进行训练,因此我需要同步jupyter的数据。于是便接触到了
动手学深度学习v2(7.7)稠密连接网络(DenseNet)
ResNet极大地改变了如何参数化深层网络中函数的观点。 稠密连接网络(DenseNet) (Huang et al., 2017)在某种程度上是ResNet的逻辑扩展。让我们先从数学上了解一下
动手学深度学习v2(7.6)残差网络(ResNet)
随着我们设计越来越深的网络,深刻理解“新添加的层如何提升神经网络的性能”变得至关重要。更重要的是设计网络的能力,在这种网络中,添加层会使网络更具表现力, 为了取得质的突破,我们需要一些数学基础知识。 函数类 因此,只有当较复杂的函数类包含较小的函数类时,我们才能确保提高它们的性能。 对于深度神经网络
动手学深度学习v2(7.5)批量规范化
批量归一化(Batch Normalization, BN)-跟李沐老师动手学深度学习_哔哩哔哩_bilibili 训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。 本节将介绍批量规范化(batch normalization) (
动手学深度学习v2(7.4)含并行连结的网络(GoogLeNet)
在2014年的ImageNet图像识别挑战赛中,一个名叫GoogLeNet (Szegedy et al., 2015)的网络架构大放异彩。 GoogLeNet吸收了NiN中串联网络的思想,并
动手学深度学习v2(7.3)网络中的网络NiN
LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。 AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。 或者,可以想象在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全