Seven's Blog

Stay Hungry. Stay Foolish.


  • 首页

  • 标签

  • 分类

  • 归档

  • 搜索

numpy.sum维度的思考

发表于 2018-08-09 | 分类于 Python | | 热度: ℃
字数统计: 1,229 字 | 阅读时长 ≈ 5 分钟

一个简单的例子

首先看个你觉得很简单的例子

1
2
3
4
5
>>> print(sum(range(5),-1))
>>> from numpy import *
>>> print(sum(range(5),-1))
9
10

阅读全文 »

100 numpy exercises

发表于 2018-06-08 | 分类于 Python | | 热度: ℃
字数统计: 5,134 字 | 阅读时长 ≈ 32 分钟

numpy-100是github上的一个项目,这是一套基于jupyter notebook针对numpy练习题,这套练习对于熟悉numpy非常有帮助,里面的题目也很实用,有兴趣的可以去github上clone下来。

1. Import the numpy package under the name np (★☆☆)

1
import numpy as np
阅读全文 »

反向传播(二)

发表于 2018-05-26 | 分类于 AI | | 热度: ℃
字数统计: 1,377 字 | 阅读时长 ≈ 6 分钟

如何让多层神经网络学习呢?我们已了解了使用梯度下降来更新权重,反向传播算法则是它的一个延伸。要使用梯度下降法更新隐藏层的权重,你需要知道各隐藏层节点的误差对最终输出的影响。每层的输出是由两层间的权重决定的,两层之间产生的误差,按权重缩放后在网络中向前传播。既然我们知道输出误差,便可以用权重来反向传播到隐藏层。

阅读全文 »

反向传播(一)

发表于 2018-04-20 | 分类于 AI | | 热度: ℃
字数统计: 1,375 字 | 阅读时长 ≈ 5 分钟

反向传播是神经网络的基石,它的名字也很容易理解,因为梯度的计算是通过网络向后进行,首先计算最终权重层的梯度,并且最后计算第一层权重的梯度。在计算前一层梯度时,重复使用来自上一层梯度的计算部分。这种误差信息的向后流动就形象的称为反向传播。

阅读全文 »

前向传播

发表于 2018-03-20 | 分类于 AI | | 热度: ℃
字数统计: 768 字 | 阅读时长 ≈ 3 分钟

前向传播是神经网络用来将输入变成输出的流程。

阅读全文 »

CS231n课程中文笔记汇总

发表于 2018-02-18 | 分类于 AI | | 热度: ℃
字数统计: 260 字 | 阅读时长 ≈ 1 分钟

CS231n简介

CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,目前大家说CS231n,大都指的是2016年冬季学期(一月到三月)的最新版本。

对于不喜欢看英文笔记的同学,本文收集了CS231n课程的中文笔记。笔记来源:智能单元 - 知乎专栏。

阅读全文 »

卷积神经网络中的维度

发表于 2018-01-12 | 分类于 AI | | 热度: ℃
字数统计: 1,716 字 | 阅读时长 ≈ 7 分钟

神经网络的维度是个经常让人迷糊的概念,本文以卷积神经网络为例介绍怎么计算维度。文中的公式也可以作为知识点backup。

阅读全文 »
Seven

Seven

AI Technology

7 日志
2 分类
2 标签
RSS
GitHub E-Mail

© 2018 Seven
由 Hexo 强力驱动
Hosted by Coding Pages 总访问量次 | 总访客人 |
0%