记号
μ通常表示总体的均值,ˉx通常表示样本的均值。σ2表示总体的方差,方差的平方根σ表示总体的标准差。
方差
离散随机变量的方差公式如下:
Var(X)=σ2=1NN∑i=1(xi−μ)2
但是如果总体数据太多,我们需要使用样本方差来估计总体方差,样本方差的公式如下:
s2=1n−1n∑i=1(xi−¯x)2
这里需要注意的是,因为样本集中的样本偏差很可能变小了,样本方差总是偏向于低估总体方差,所以这里我们要除以n+1来略微的修正样本方差来估计总体方差。
记录我的生活
μ通常表示总体的均值,ˉx通常表示样本的均值。σ2表示总体的方差,方差的平方根σ表示总体的标准差。
离散随机变量的方差公式如下:
Var(X)=σ2=1NN∑i=1(xi−μ)2
学生表
Student(SId,Sname,Sage,Ssex)
–SId 学生编号,Sname 学生姓名,Sage 出生年月,Ssex 学生性别
1 | create table Student(SId varchar(10),Sname varchar(10),Sage datetime,Ssex varchar(10)); |
如果一个爬虫没有进行异常处理,那么在爬虫遇到异常时就会直接崩溃停止运行。下次再运行时就会从头开始。因此,想要开发一个具有顽强生命力的爬虫,必须要进行异常处理。
301 Moved permanently:重定向到新的URL,永久性
302 Found:重定向到临时的URL,非永久性
304 Not modified:请求的资源未更新
400 Bad Request:非法请求
401 Unauthorized:请求未经授权
403 Forbidden:禁止访问
404 Not found:没有找到对应页面
500 Internal server error:服务器内部出现错误
501 Not Implemented:服务器不支持实现请求所需要的功能
urllib.request.urlretrieve(url, filename=)
:将网页整体爬下来保存到文件里urllib.request.urlcleanup()
:清除使用urlretrieve时产生的缓存。file.info()
:输出使用urlopen获取的网页的信息file.getcode()
:输出使用urlopen获取的网页的状态码,如果状态码为200则表示获取网页正常,403表示禁止访问file.geturl()
:输出使用urlopen获取网页的网址正则表达式最基础的组成单位,每个正则表达式至少包含一个原子。常见的原子类型有:
\w
用来匹配任意的一个字母数组下划线,\d
用来匹配任意一个十进制数,\s
用来匹配任意一个空白字符,\W
用来匹配与\w
互补的字符,\D
与 \S
也同样是\d
与\s
取非)[jst]
,在应用的时候可以像pattern = 'pyth[jst]n'
一样使用)re.search(规则,对象)
是从内容中按照规定的规则搜索内容的函数。
本文是《算法图解》的简单理解与记录,没什么深度,大佬请略过。
首先,上图这种类型的结构就叫做图。我们经过简单的思考可以发现,从双子峰到金门大桥有三条路线,最短路径需要三步。这种寻找最短的路径的问题被称为最短路径问题(shorterst-path problem)。解决最短路径问题的算法被称为广度优先搜索。
广度优先搜索是一种用于图的查找算法,可帮助回答两类问题。
首先简明要点。
autograd
包。autograd
包为张量上所有的操作提供了自动求导。torch.Tensor
是这个包的核心类。如果设置.requires_grad = True
,那么将会追踪对于该张量的操作。当完成计算后,通过调用.backward()
,自动计算所有梯度,而这个张量的所有梯度将会自动积累到.grad
属性。单个感知器的表达能力有限,它只能表达线性决策面(超平面)。如果我们把众多的感知器互联起来,就像人的大脑做所的那样,再将激活函数更换为非线性函数,我们就可以表达种类繁多的非线性曲面。
f(x)=11+e−x
Sigmoid激活函数与机器学习当中的逻辑回归函数的计算公式完全一样。它的取值的分布在0到1之间,并且非常平滑。其主要用在一些简单的二分类或者是隐藏层数比较少的网络结构当中。
优势:取值在0到1之间,在做相应分类结果的时候非常容易的根据输出来进行判断。
劣势:Sigmoid激活函数如果放在深层的网络结构当中的时候,进行相应的梯度或者权重值修改的时候,容易引发梯度消散的问题。具体原因是因为Sigmoid激活函数的到函数在x=0时达到最大值14。如果我们使用标准方法来初始化网络中的权重,那么会使用一个均值为0标准差为1的高斯分布,我们会发现,wjσ′(zj)<14,所以在进行所有这些项的乘积时,最终结果肯定会指数及下降,项越多,乘积下降的也就越快。
感知器是人工智能和深度学习最底层的基础。感知器的结构包括以下三部分: