Kaggle竞赛动手系列(一)Forecasting Sticker Sales
Forecasting Sticker Sales | Kaggle 下载并读取数据 在data栏下载所有数据上传到Jupyter中,接下来我们开始读取数据 # 读取CSV文件
df_train = pd.read_csv('./data/train.csv')
df_test = pd
Windows Conda 安装Pytorch的小坑
有很长一段时间没有在Windows上配置过环境了,之前没有记录,导致这次配置时出了点小问题。 安装Pytorch 注意安装Pytorch如果是gpu版本不要使用pip清华源,清华源只有cpu版本 PyTorch 笔者使用官网的conda安装方式: conda install pytorch torc
Syncthing—在Linux和Windows之间同步数据
事情的起因是这样的:我在进行机器学习的学习中,前半段时间都是在我的迷你主机(Ubuntu 22.04)上使用jupyter进行实验,但是到了深度学习时,一些简单模型的训练,迷你主机尚能支持,更复杂的模型我只能在我的主力机(WIndows)上进行训练,因此我需要同步jupyter的数据。于是便接触到了
动手学深度学习v2(7.7)稠密连接网络(DenseNet)
ResNet极大地改变了如何参数化深层网络中函数的观点。 稠密连接网络(DenseNet) (Huang et al., 2017)在某种程度上是ResNet的逻辑扩展。让我们先从数学上了解一下
动手学深度学习v2(7.6)残差网络(ResNet)
随着我们设计越来越深的网络,深刻理解“新添加的层如何提升神经网络的性能”变得至关重要。更重要的是设计网络的能力,在这种网络中,添加层会使网络更具表现力, 为了取得质的突破,我们需要一些数学基础知识。 函数类 因此,只有当较复杂的函数类包含较小的函数类时,我们才能确保提高它们的性能。 对于深度神经网络
动手学深度学习v2(7.5)批量规范化
批量归一化(Batch Normalization, BN)-跟李沐老师动手学深度学习_哔哩哔哩_bilibili 训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。 本节将介绍批量规范化(batch normalization) (
动手学深度学习v2(7.4)含并行连结的网络(GoogLeNet)
在2014年的ImageNet图像识别挑战赛中,一个名叫GoogLeNet (Szegedy et al., 2015)的网络架构大放异彩。 GoogLeNet吸收了NiN中串联网络的思想,并
动手学深度学习v2(7.3)网络中的网络NiN
LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。 AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。 或者,可以想象在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全
动手学深度学习v2(7.2)使用块的网络VGG
虽然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。 在下面的几个章节中,我们将介绍一些常用于设计深层神经网络的启发式概念。 与芯片设计中工程师从放置晶体管到逻辑元件再到逻辑块的过程类似,神经网络架构的设计也逐渐变得更加抽象。研究人员开始从单个神经
动手学深度学习v2(7.1)AlexNet
在LeNet提出后,卷积神经网络在计算机视觉和机器学习领域中很有名气。但卷积神经网络并没有主导这些领域。这是因为虽然LeNet在小数据集上取得了很好的效果,但是在更大、更真实的数据集上训练卷积神经网络的性能和可行性还有待研究。事实上,在上世纪90年代初到2012年之间的大部分时间里,神经网络往往被其