【0から学ぶAI】第37回:k近傍法(k-NN)とは

目次

前回のおさらいと今回のテーマ

こんにちは!前回は、データを最適な境界で分類するアルゴリズムであるサポートベクターマシン(SVM)について学びました。SVMは、データ間の境界を見つけ出して分類を行う強力なアルゴリズムでした。今回は、SVMとは異なり、データの「近さ」を基にして分類や回帰を行うk近傍法(k-NN)について解説します。

k近傍法(k-Nearest Neighbors、略してk-NN)は、機械学習の中でもシンプルでありながら効果的なアルゴリズムで、特に分類問題や回帰問題に広く使われます。このアルゴリズムは、あるデータポイントの「近く」に位置する他のデータポイントを基にして、そのデータがどのクラスに属するかを予測します。それでは、k-NNの仕組みや利点について詳しく見ていきましょう。

k近傍法(k-NN)の基本概念

近傍とは?

k-NNにおける「近傍」とは、あるデータポイントに最も近い他のデータポイントのことを指します。k-NNでは、新しいデータポイントを分類する際に、そのデータに最も近いk個の近傍点を調べます。そして、そのk個の近傍点の多数決や平均を基に、新しいデータがどのクラスに属するか、あるいはどの値を持つかを決定します。

例えば、分類問題では、近くのデータポイントのクラスを調べ、それらの多数決で新しいデータポイントのクラスを決定します。回帰問題では、近くのデータポイントの数値を平均し、それを新しいデータポイントの予測値とします。

距離の測定

k-NNで重要なのが、データポイント間の距離を測る方法です。距離が近いほど、そのデータポイント同士が似ているとみなされます。k-NNでは一般的に、以下のような距離測定法が使われます。

  • ユークリッド距離: 最も一般的な距離測定法で、データポイント間の直線距離を計算します。2つの点の座標間の差の二乗和をルートで取ったものがユークリッド距離です。
  • マンハッタン距離: ユークリッド距離とは異なり、座標軸に沿って移動する距離を測ります。都市の道路網に例えると、直線で結ぶのではなく、道路に沿って移動する距離がマンハッタン距離です。
  • ミンコフスキー距離: ユークリッド距離とマンハッタン距離を含む一般的な距離測定法で、パラメータによって距離の形状を変えることができます。

k-NNでは、どの距離測定法を使うかによって結果が異なることがあるため、問題に応じた適切な距離測定法を選ぶことが重要です。

k-NNの仕組み

kの値を決める

k-NNアルゴリズムの中心的な要素の一つは、kの値をどのように決めるかです。kは、「いくつの近傍点を参照するか」を決定するパラメータであり、適切なkの値を選ぶことで、モデルの精度を向上させることができます。

  • kが小さい場合: kが小さいと、モデルは一部の近傍点に強く影響されるため、局所的なデータの変動に敏感になります。これにより、過学習のリスクが高まり、新しいデータに対してうまく予測できない可能性があります。
  • kが大きい場合: kが大きすぎると、モデルは広範囲のデータポイントを参考にするため、ノイズや無関係なデータが結果に影響を与えやすくなり、予測精度が低下することがあります。

適切なkの値を選ぶためには、データの特性に応じたクロスバリデーションを行い、最も良いkの値を見つけることが一般的です。

多数決と加重多数決

分類問題の場合、k個の近傍点を参照して、多数決で新しいデータポイントのクラスを決定します。しかし、すべての近傍点を同じ重みで扱うと、遠くにある点が結果に不必要な影響を与えることがあります。

この問題に対処するために、加重多数決が使われることがあります。加重多数決では、近傍点が新しいデータポイントに近いほど高い重みを与え、遠くの点には低い重みを与えます。これにより、近くにある重要なデータポイントが予測に強く反映され、精度が向上します。

k-NNのメリット

シンプルで直感的

k-NNは、そのシンプルさが最大の強みです。このアルゴリズムはトレーニングフェーズを持たず、データポイントを保持しておき、予測が必要なときにその場で計算を行うというインスタンスベース学習の一種です。学習プロセスがないため、実装が非常に簡単で、データセットのサイズが小さい場合には非常に効率的に動作します。

非線形データにも対応可能

k-NNは、データのパターンが線形でない場合でもうまく機能します。多くの機械学習アルゴリズムでは、データが線形に分離できることを前提としていますが、k-NNはデータの「近さ」に基づいて分類や回帰を行うため、非線形なデータに対しても強力な分類能力を発揮します。

k-NNのデメリット

計算コストが高い

k-NNの最大のデメリットは、予測時に計算コストがかかる点です。新しいデータポイントが与えられるたびに、すべてのデータポイントとの距離を計算する必要があるため、データセットが大きくなると、計算が非常に時間がかかるようになります。また、次元数が多いデータセットに対しては、距離計算の複雑さが増し、パフォーマンスが低下することがあります。この問題を解決するためには、データを適切に前処理したり、次元削減の手法を導入したりすることが有効です。

データのスケールに敏感

k-NNは、データのスケールに敏感なアルゴリズムです。距離に基づいて予測を行うため、異なるスケールを持つ特徴量が混在していると、スケールの大きい特徴量が結果に大きく影響を与えてしまうことがあります。この問題を解決するためには、データを正規化または標準化して、すべての特徴量が同じスケールになるようにする必要があります。

実際の応用例

レコメンデーションシステム

k-NNは、レコメンデーションシステムにおいて広く使われています。例えば、eコマースサイトや動画ストリーミングサービスでは、ユーザーの過去の行動に基づいて、類似したユーザーやアイテムを探し出し、それを基に新しいアイテムを推薦します。k-NNは、他のユーザーとの「近さ」を計算し、その近くにいるユーザーが好んだ商品を推薦することで、個別のユーザーに適したアイテムを提案します。

画像分類

画像分類の分野でも、k-NNは有効です。画像の特徴量(例えば、色、形、テクスチャなど)を基にして、未知の画像がどのカテゴリに属するかを予測します。k-NNは、このような非線形デ

ータにも対応できるため、特に手書き文字認識や物体認識などで効果的です。

次回

今回は、シンプルで直感的な分類・回帰アルゴリズムであるk近傍法(k-NN)について解説しました。k-NNは、データ間の「近さ」を基にして予測を行い、非線形な問題にも対応できる強力な手法です。次回は、確率に基づいて分類を行う手法であるナイーブベイズ分類について詳しく学びます。どうぞお楽しみに!

まとめ

今回学んだk近傍法(k-NN)は、近くにあるデータを基に分類や回帰を行うシンプルで効果的なアルゴリズムです。距離を基にしてデータを予測するため、非線形なデータにも対応可能であり、実装も簡単です。ただし、計算コストが高い点や、データのスケールに敏感であるというデメリットもあります。次回は、確率に基づいてデータを分類するナイーブベイズ分類について学び、さらに機械学習の知識を深めていきましょう!


注釈

  • ユークリッド距離: データポイント間の直線距離を計算する方法。
  • マンハッタン距離: 座標軸に沿って移動する距離を計算する方法。
  • ミンコフスキー距離: ユークリッド距離やマンハッタン距離を一般化した距離測定法。
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

株式会社PROMPTは生成AIに関する様々な情報を発信しています。
記事にしてほしいテーマや調べてほしいテーマがあればお問合せフォームからご連絡ください。
---
PROMPT Inc. provides a variety of information related to generative AI.
If there is a topic you would like us to write an article about or research, please contact us using the inquiry form.

コメント

コメントする

目次