老师的一个学生(玛丽安):汲取精华事实上是使‘精英民主化’ Tip of the stem is actually about democratizing excellence
学习最优秀的,并使其他人也变得优秀
1 改变并没有那么难!
- 一个阻碍人们改变的最大障碍是人们低估了自己能改变的能力:One of minority can make big difference.
- 改变起源于一个人或一组人的头脑中,然后再发展扩张。从一个人到很多人,在扩散的过程中,发生“蝴蝶效应”。
- 指数增长的力量:举例
梭罗:大多数人都活在沉默的压抑中。Most men lead lives of quiet desperation.
弗洛依德:“人们在舒适地麻木”。People are comfortably numb.
1 疾病模型VS健康模型
疾病模型:你病了,找到病、治好病、恢复健康。关注负面的解决。 健康模型:你病了,说明你健康不足,增强你的健康。关注正面的强化。
健康模型倡导:增强自身长处、改善人际关系,帮助人们找到对自己人生有意义的事和他们
1 消极:
问题缔造现实!你的关注点影响了你的认知。
心理学对于消极面的研究与对于积极面的研究,比例为21:1。
积极心理学的目标,是促成一种变化,让心理学从只关注补救生活中最糟糕的事,到同时建立生活中最美好的事。
据调查显示(2004),八成的哈佛学生在过去的一年里出现抑郁期,其中47%的大学生经历过无法正常学习的抑郁期。而科研调查显示(基于13500大学生),全国有94%的大学生感到压抑,其中有45%经历过无法正常学习的抑郁期。
名词解释:心理弹性
1 Time in : 学习后的短暂静思
Look inside:内省是必要的
哈佛教授研究:将老鼠反复的扔进迷宫中,一个不停的放入迷宫,一个每次从迷宫出来后稍作休息。并扫描脑电波。在短暂的休息中,会增强之前知识的理解和记忆,是学习的一个重要时期。
So what they say is that "replay maight consitutude a general mechanism of learning and memo
随机矩阵:元素为随机变量的矩阵,属于概率论与矩阵分析的交叉领域
系综:对符合某种分布的随机变量进行多次取值,得到的矩阵集合
具有统计独立性的实或复矩阵系综,在基变换下分布具有不变性,如果变换是正交的(orthogonal)、酉的(unitary)或辛的(symplectic),则分别得到高斯正交系综(Gaussian Orthogonal Ensemble,GOE),高斯酉系综(Gaussian Unitary Ensemble,GUE)或高斯辛系综(Gaussian Symplectic Ensemble,GSE)
此处可先简单理解为,酉变换是实数域的正交变换在复数域上的拓展。对应关系
1 瑞利熵函数
瑞利熵(Rayleigh quotient)函数定义如下: $$R(A,x)=\frac{x^HAx}{x^Hx}$$
- 其中$A$为$n\times n$的$Hermitian$矩阵;$x$为非零向量;$H$表示共轭转置
- $Hermitian$矩阵,即厄尔米特矩阵(共轭转置矩阵和自己相等的矩阵)
- 由于现实机器学习中很少遇见复数的情况,因此$A$可考虑为实对称矩阵
瑞利熵$R(A,x)$的重要性质: $$\lambda_{min}\leq R(A,x)\leq \lambda_{max}$$
- 其中$\la
1 血气分析基础
血气是指血液中所含的$O_2$和$CO_2$气体
- $O_2$的大部分与血红蛋白($Hb$)结合成氧合血红蛋白($HbO_2$)的形式存在,并进行运送,少部分以物理溶解形式存在,均随血流送往全身各组织器官。
- 血液中CO$2$的存在形式有三种,即:①物理溶解;②与水结合并解离为$HCO_3^-$和$H^+$($CO_2+H_2O→H_2CO
拉普拉斯特征映射(Laplacian Eigenmaps,简称LE)是一种基于图的降维算法
LE算法核心思想:在低维空间内,尽可能保证局部样本间的结构不变
LE算法步骤:
- 构建近邻图,方法可参考谱聚类一文中的数据转图
- 根据已构建的图计算邻接矩阵$W$、度矩阵$D$和拉普拉斯矩阵$L$
- 求解拉普拉斯矩阵,得到最小的$k$个特征值对应特征向量
- 特征向量组成矩阵$H$,每一行都对应每个样本的降维后的稠密表示
LE算法分析:
- 谱聚类相当于先经过LE(拉普拉斯特征映射)算法降维后的K-means聚类算法,因此谱聚类的核心推导过程就是LE算法。所以L
1 算法概况
谱聚类(spectral clustering):一种基于图的聚类算法
前置知识:图论基础概念、图论基础#3.1 理解拉普拉斯矩阵
核心思想:将数据转化为图的形式,距离近的数据间对应的边权重高,距离远的数据间对应的边权重低。之后通过切图的方式,使得不同子图间的边权值和尽可能低,子图内部的边权值和尽可能高,从而达到聚类的目的
2 算法细节
2.1 数据转图
核心思想:把每个样本看作一个节点,然后构建任意两点$(x_i,x_j)$间权重边$w_{ij}$
方法1