numpy.sum维度的思考 发表于 2018-08-09 | 分类于 Python | | 热度: ℃ 字数统计: 1,229 字 | 阅读时长 ≈ 5 分钟一个简单的例子首先看个你觉得很简单的例子12345>>> print(sum(range(5),-1))>>> from numpy import *>>> print(sum(range(5),-1))910 阅读全文 »
100 numpy exercises 发表于 2018-06-08 | 分类于 Python | | 热度: ℃ 字数统计: 5,134 字 | 阅读时长 ≈ 32 分钟numpy-100是github上的一个项目,这是一套基于jupyter notebook针对numpy练习题,这套练习对于熟悉numpy非常有帮助,里面的题目也很实用,有兴趣的可以去github上clone下来。1. Import the numpy package under the name np (★☆☆)1import numpy as np 阅读全文 »
反向传播(二) 发表于 2018-05-26 | 分类于 AI | | 热度: ℃ 字数统计: 1,377 字 | 阅读时长 ≈ 6 分钟如何让多层神经网络学习呢?我们已了解了使用梯度下降来更新权重,反向传播算法则是它的一个延伸。要使用梯度下降法更新隐藏层的权重,你需要知道各隐藏层节点的误差对最终输出的影响。每层的输出是由两层间的权重决定的,两层之间产生的误差,按权重缩放后在网络中向前传播。既然我们知道输出误差,便可以用权重来反向传播到隐藏层。 阅读全文 »
反向传播(一) 发表于 2018-04-20 | 分类于 AI | | 热度: ℃ 字数统计: 1,375 字 | 阅读时长 ≈ 5 分钟反向传播是神经网络的基石,它的名字也很容易理解,因为梯度的计算是通过网络向后进行,首先计算最终权重层的梯度,并且最后计算第一层权重的梯度。在计算前一层梯度时,重复使用来自上一层梯度的计算部分。这种误差信息的向后流动就形象的称为反向传播。 阅读全文 »
CS231n课程中文笔记汇总 发表于 2018-02-18 | 分类于 AI | | 热度: ℃ 字数统计: 260 字 | 阅读时长 ≈ 1 分钟 CS231n简介CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,目前大家说CS231n,大都指的是2016年冬季学期(一月到三月)的最新版本。对于不喜欢看英文笔记的同学,本文收集了CS231n课程的中文笔记。笔记来源:智能单元 - 知乎专栏。 阅读全文 »
卷积神经网络中的维度 发表于 2018-01-12 | 分类于 AI | | 热度: ℃ 字数统计: 1,716 字 | 阅读时长 ≈ 7 分钟 神经网络的维度是个经常让人迷糊的概念,本文以卷积神经网络为例介绍怎么计算维度。文中的公式也可以作为知识点backup。 阅读全文 »