Saving Space with the __slots__
Class Attribute
By default, Python stores instance attributes in a per-instance dict
named __dict__
.
__slots__
Class AttributeBy default, Python stores instance attributes in a per-instance dict
named __dict__
.
最近在GPU服务器上安装 caffe2
遇到了一些问题,这里把踩坑的过程跟解决的方法记录下来。
在数学,尤其是概率论和相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的$K$维的向量$z$『压缩』到另外一个$K$维实向量$\sigma(z)$中,使得每一个元素的范围都在(0,1)之间,并且所有的元素和为$1$。
支持向量机(support vector machines)SVM是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机,支持向量机还包括核技巧(kernal trick)这使它成为实质上的非线性分类器。支持向量机的学习的策略就是间隔最大化。
Gradient Descent(梯度下降法)是一个一阶最优化算法,又被称为最速下降法。通过Gradient Descent算法对函数上当前点对应梯度的反方向的指定步长进行迭代搜索,我们可以很快的找到一个Local Minimum(局部极小值)。如果是对当前点对应梯度的正方向进行迭代搜索,我们可以求得一个Local Maximum(局部最大值)。
在机器学习和认知科学领域,人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN),是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。
接下来介绍下广义线性回归
,也很简单,我们不再只用线性函数来模拟数据,而是在外层添加了一个单调可微函数$g(z)$,即$f(x_i) = g(wx_i+b) $ ,如果 $ g=ln(x) $,则这个广义线性回归
就变成了对数线性回归
,其本质就是给原来线性变换加上了一个非线性变换,使得模拟的函数有非线性的属性。但本质上的参数还是线性的,主体是内部线性的调参。
线性回归,给定一个样本集合 $D=(x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)$ 这里的$x_i,y_i$都可以是高维向量,可以找到一个线性模拟$f(x_i)=wx_i+b$,只要确定了$w$跟$b$,这个线性模型就确定了,如何评估样本$y$与你的$f(x)$之间的差别,最常用的方法是最小二乘法。