読者です 読者をやめる 読者になる 読者になる

Pythonで最急勾配法を実装し、グラフを描く

math

このエントリーをはてなブックマークに追加

最急勾配法(gradient method)は、ある目的関数の極値を求める方法の一つです。勾配がもっともきつい方向に\boldsymbol{x}を少しずつずらしていく方法です。極大値を求める場合は再急上昇法(gradient ascent method)、極小値を求める場合は最急降下法(gradient descent method)と言いわけます。

教科書「言語処理のための機械学習入門 (自然言語処理シリーズ) 」にのっとると、\boldsymbol{x}の更新式は以下のように書けます。

  • 再急上昇法:\boldsymbol{x}^{new} = \boldsymbol{x}^{old} + \epsilon \nabla_{\boldsymbol{x}} f(\boldsymbol{x}^{old})
  • 再急降下法:\boldsymbol{x}^{new} = \boldsymbol{x}^{old} - \epsilon \nabla_{\boldsymbol{x}} f(\boldsymbol{x}^{old})

ここで\epsilonは学習率(learning rate)といわれるパラメータで、適切な値に設定する必要があります。値が小さすぎると収束が遅くなり、値が大きすぎると発散の危険が増します。

今回はPythonにて、f(x)=x^4 - x^3という一変数関数の極小値を最急降下法で求めてみます。

実装コード

#!/usr/bin/env python3
# -*- coding: utf-8 -*-

import numpy as np
import matplotlib.pyplot as plt

# y = x^4 - x^3
def f1(x):
    return x**4 - x**3

# y = x^4 - x^3の導関数。yは3/4で最小値を取る
def f1_prime(x):
    return 4 * x**3 - 3 * x**2

# 最急降下法
def gradient_descent_method(f_prime, init_x, learning_rate):
    eps = 1e-10

    x = init_x
    x_history = [init_x]
    iteration_max = 1000

    # 収束するか最大試行回数に達するまで
    for i in range(iteration_max):

        # print(i+1, ":", x)

        # 最急上昇法の場合は-を+にする
        x_new = x - learning_rate * f_prime(x)

        # 収束条件を満たせば終了
        if abs(x - x_new) < eps:
            break

        x = x_new
        x_history.append(x)

    return (x, np.array(x_history))

def main():
    learning_rates = [ 0.1, 0.2, 0.4, 0.6, 0.8, 1.0 ]

    for i, learning_rate in enumerate(learning_rates):
        ans, x_history = gradient_descent_method(f1_prime, 0.1, learning_rate)

        # subplotの場所を指定
        plt.subplot(3, 2, (i+1)) # 3行2列の意味

        # グラフのタイトル
        plt.title("learning rate: " + str(learning_rate) + ", iteration: " + str(len(x_history)))

        # グラフを描く
        x = np.arange(-0.3, 1.0, 0.01)
        y = f1(x)
        plt.plot(x, y)

        # 移動した点を表示
        plt.plot(x_history, f1(x_history), 'o')

        # 点同士を線で結ぶ
        for i in range(len(x_history)-1):
            x1 = x_history[i]
            y1 = f1(x_history[i])
            x2 = x_history[i+1]
            y2 = f1(x_history[i+1])
            plt.plot([x1, x2], [y1, y2], linestyle='-', linewidth=2)

    # タイトルが重ならないようにする
    plt.tight_layout()

    # 画像保存用にfigを取り出す
    fig = plt.gcf()
    fig.set_size_inches(50.0, 60.0)

    # 画像を表示
    plt.show()

    # 画像を保存
    fig.savefig('gradient_descent_method.png')

main()

コードの簡単な説明

このコードでは、x=0.1をスタート地点として、f(x)が最小となるxの値を最急降下法で求めています。x=0.75に近い値が求まれば成功です。学習率の値を0.1, 0.2, 0.4, 0.6, 0.8, 1.0と変化させて、収束の様子を観察しています。値の更新は最大1,000回行い、十分収束したと判断すれば途中で更新を打ち切ります。

結果

以下のようなグラフが描けました。

f:id:minus9d:20150125210544p:plain

丸は点の移動の軌跡を表しています。学習率が小さい間は収束まで時間がかかっていることが分かります。学習率を0.4としたときが今回の中ではもっとも早く収束しています。また学習率を大きくしていくとまた収束が遅くなり、1.0とすると値が発散して収束しない状態に陥ってしまいました。

2変数の場合

2変数関数の場合もやってみました。Pythonで2変数関数に対して最急勾配法を用いる - minus9d's diary