在统计学中,最小角回归(LARS)是一种将线性回归模型拟合到高维数据的算法
用
LARS也是不断迭代运行。不过LARS只需要
LARS算法的过程大致如下:
- 首先,像传统的前向选择一样,将所有系数
置为0,然后选择一个与响应值相关度最大的变量,比方说 。 - 然后,在这个方向上前进尽可能大的一步(增大/小系数
),直到另一个变量,比如 ,与目前的残差有同样大的相关度。 - 这时候,LARS算法和前向选择分道扬镳。不向前向选择中那样继续沿
方向前进,算法选择 与 的角平分线方向前进(即同时等量增大/小 和 ) - 直到第三个变量
达到相关度的要求,进入到这个”最相关”的集合中,然后再沿这三个变量的角平分线方向前进(同时等量增大/小 、 和 ),依次类推。
LARS算法优点:开销小