LASSO 问题的连续化策略

考虑 LASSO 问题

$$ \displaystyle \min_x \frac{1}{2}\|Ax-b\|_2^2 + \mu_0 \|x\|_1.$$

连续化策略从较大的正则化参数 $\mu_t$ 逐渐减小到 $\mu_0$(即 $\mu_1 \geq \cdots \geq \mu_{t-1} \geq \mu_t \geq \cdots \geq \mu_0$),并求解相应的 LASSO 问题:

$$ \min_x \frac{1}{2}\|Ax-b\|_2^2 + \mu_t \|x\|_1.$$

这样做的好处是:在求解 $\mu_t$ 对应的优化问题时,可以利用 $\mu_{t-1}$ 对应优化问题的解( $\mu_1$ 子问题使用随机初始点)作为 一个很好的逼近解以在较短的时间内完成求解过程; 分析可知 $\mu_t$ 越大,相应的 LASSO 问题越好解。因此, 连续化策略相当于是通过快速求解一系列简单问题(复杂问题有了好的初始解也就变简单了)来加速求解原始问题。

这里,在调用迭代算法求解 $\mu_t$ 对应的 LASSO 问题后,正则化参数 $\mu_{t+1}$ 的更新公式取为:

$$ \displaystyle \mu_{t+1} = \max \{ \mu_0, \mu_t \eta \}, $$

其中 $\eta \in (0,1)$ 为一个缩小因子。

目录

与 BP 问题罚函数的关系

对于 BP 问题

$$ \begin{array}{rl}\displaystyle \min_x & \hspace{-0.5em}\|x\|_1, \\
\mathrm{s.t.} & \hspace{-0.5em}Ax=b,\end{array} $$

利用二次罚函数法,令 $\tau > 0$ 为罚因子,则有

$$ \displaystyle\min_x \|x\|_1+\frac{\tau}{2}\|Ax-b\|^2, $$

$\mu=\frac{1}{\tau}$,不难看出 LASSO 问题的连续化策略与罚函数法的增大罚因子之间的对应。 在实际应用中,连续化策略对于快速求解 LASSO 问题是非常重要的。

初始化和迭代准备

输入信息: $A$, $b$, $\mu_0$ ,迭代初始值 $x^0$ 以及提供各参数的结构体 opts

输出信息: 迭代得到的解 $x$ 和结构体 out

function [x, out] = LASSO_con(x0, A, b, mu0, opts)

从输入的结构体 opts 中读取参数或采取默认参数。

if ~isfield(opts, 'maxit'); opts.maxit = 30; end
if ~isfield(opts, 'maxit_inn'); opts.maxit_inn = 200; end
if ~isfield(opts, 'ftol'); opts.ftol = 1e-8; end
if ~isfield(opts, 'gtol'); opts.gtol = 1e-6; end
if ~isfield(opts, 'factor'); opts.factor = 0.1; end
if ~isfield(opts, 'verbose'); opts.verbose = 1; end
if ~isfield(opts, 'mu1'); opts.mu1 = 100; end
if ~isfield(opts, 'gtol_init_ratio'); opts.gtol_init_ratio = 1/opts.gtol; end
if ~isfield(opts, 'ftol_init_ratio'); opts.ftol_init_ratio = 1e5; end
if ~isfield(opts, 'opts1'); opts.opts1 = struct(); end
if ~isfield(opts, 'etaf'); opts.etaf = 1e-1; end
if ~isfield(opts, 'etag'); opts.etag = 1e-1; end
L = eigs(A'*A,1);
if ~isfield(opts, 'alpha0'); opts.alpha0 = 1/L; end

通过 opts.method 选择求解正则化参数 $\mu_t$对应的子问题的算法。

if ~isfield(opts, 'method'); error('Need opts.method'); end
algf = eval(sprintf('@LASSO_%s_inn',opts.method));

添加所有子目录的路径到工作路径。

addpath(genpath(pwd));

迭代准备,注意到采取了连续化策略,因此 $\mu$ 以更大的 opts.mu1 开始。

out = struct();
out.fvec = [];
k = 0;
x = x0;
mu_t = opts.mu1;
tt = tic;

当前正则化系数 $\mu_t$$x$ 对应的函数值。

f = Func(A, b, mu_t, x);

opts1 是固定某一正则化系数 $\mu_t$ 时,相应子问题求解算法的停机准则参数取值集合。 opts1.ftol 为停机判据中的函数相对变化的阈值。|opts1.gtol| 为梯度范数阈值。注意到它们都随着外层迭代的进行而逐渐减小,这要求子问题求解的精确度逐渐提高。 在初始时,这两个阈值均选择较大的值。

opts1 = opts.opts1;
opts1.ftol = opts.ftol*opts.ftol_init_ratio;
opts1.gtol = opts.gtol*opts.gtol_init_ratio;
out.itr_inn = 0;

连续化循环

求解 LASSO 问题的经典技巧,通过采用连续化策略,从较大的 $\mu$ 逐渐减小到 $\mu_0$, 以加速收敛。对每个 $\mu_t$ 下调用 opts.method 来求解相应的子问题。

while k < opts.maxit

内层循环参数设置,记录在结构体 opts1

    opts1.maxit = opts.maxit_inn;
    opts1.gtol = max(opts1.gtol * opts.etag, opts.gtol);
    opts1.ftol = max(opts1.ftol * opts.etaf, opts.ftol);
    opts1.verbose = opts.verbose > 1;
    opts1.alpha0 = opts.alpha0;

仅当 opts.method'grad_huber' 时, opts1.sigma 给出 Huber 光滑化的范围;

    if strcmp(opts.method, 'grad_huber'); opts1.sigma = 1e-3*mu_t; end

调用内层循环函数,记录每一次内层循环的返回信息。 out.fvec 记录每一步的 $x$ 对应的原始函数值(正则化系数为 $\mu$ 而非当前 $\mu_t$)。

    fp = f;
    [x, out1] = algf(x, A, b, mu_t, mu0, opts1);
    f = out1.fvec(end);
    out.fvec = [out.fvec, out1.fvec];
    k = k + 1;

由于 $\ell_1$-范数不可导,这里 nrmG 表示 LASSO 问题的最优性条件的违反度来

    nrmG = norm(x - prox(x - A'*(A*x - b),mu0),2);

详细输出模式下打印每一次外层循环信息。

    if opts.verbose
        fprintf('itr: %d\tmu_t: %e\titr_inn: %d\tfval: %e\tnrmG: %.1e\n', k, mu_t, out1.itr, f, nrmG);
    end

当内层循环因达到收敛条件而退出时,缩减当前正则化系数 $\mu_t$, 并判断收敛。外层循环的收敛条件:当 $\mu$ 已经减小到与 $\mu_0$ 相同并且函数值或梯度满足收敛条件时,停止外层循环。

    if ~out1.flag
        mu_t = max(mu_t * opts.factor, mu0);
    end

    if mu_t == mu0 && (nrmG < opts.gtol || abs(f-fp) < opts.ftol)
        break;
    end

更新总迭代次数。

    out.itr_inn = out.itr_inn + out1.itr;
end

当外层循环终止时,记录当前的函数值、外层迭代次数和运行时间。

out.fval = f;
out.tt = toc(tt);
out.itr = k;

辅助函数

原始 LASSO 问题的目标函数。

    function f = Func(A, b, mu0, x)
        w = A * x - b;
        f = 0.5 * (w' * w) + mu0 * norm(x, 1);
    end

函数 $h(x)=\mu\|x\|_1$ 对应的邻近算子 $\mathrm{sign}(x)\max\{|x|-\mu,0\}$

    function y = prox(x, mu)
        y = max(abs(x) - mu, 0);
        y = sign(x) .* y;
    end
end

参考页面

该连续化策略调用具体的某一算法的内部迭代器,具体包括:

此页面的源代码请见: LASSO_con.m

版权声明

此页面为《最优化:建模、算法与理论》、《最优化计算方法》配套代码。 代码作者:文再文、刘浩洋、户将,代码整理与页面制作:杨昊桐。

著作权所有 (C) 2020 文再文、刘浩洋、户将