記事一覧
-
第7章
【0から学ぶAI】第190回:Pix2Pix 〜 画像から画像への変換を行うモデルを解説
前回の振り返り:条件付きGAN(cGAN) 前回は、条件付きGAN(cGAN)について学びました。cGANは、生成するデータに条件を付加できる点が特徴で、特定の属性を持つデータを生成することが可能でした。これにより、笑顔の顔画像を生成したり、特定のカテゴリ... -
第7章
【0から学ぶAI】第189回:条件付きGAN(cGAN)〜 条件情報を付加して生成するGANを紹介
前回の振り返り:StyleGAN 前回は、StyleGANについて学びました。StyleGANは、画像生成において特定のスタイルを細かく制御することができ、特に顔画像生成でその性能が注目されています。スタイルベースのアーキテクチャを採用することで、画像の特定の要... -
第7章
【0から学ぶAI】第188回:StyleGAN 〜 高品質な画像生成を実現するモデルを解説
前回の振り返り:CycleGAN 前回は、CycleGANを取り上げ、スタイル変換を可能にするGANの仕組みを解説しました。CycleGANは、異なるドメイン間(例えば、昼と夜、写真と絵画)の変換を行い、その際にペアデータを必要としないという特性を持っていました。... -
第7章
【0から学ぶAI】第187回:CycleGAN 〜 スタイル変換を可能にするGANの一種を解説
前回の振り返り:DCGAN(Deep Convolutional GAN) 前回は、DCGAN(Deep Convolutional GAN)について解説しました。DCGANは、畳み込みニューラルネットワーク(CNN)を利用して高品質な画像を生成する能力を持つGANで、特に画像生成やデザインの分野で応... -
第7章
【0から学ぶAI】第186回:DCGAN(Deep Convolutional GAN)
前回の振り返り:生成的敵対ネットワーク(GAN) 前回は、生成的敵対ネットワーク(GAN)について学びました。GANは、生成器(Generator)と識別器(Discriminator)の2つのモデルが競い合いながら学習を進めることで、新しいデータを生成するモデルです。... -
第7章
【0から学ぶAI】第185回:生成的敵対ネットワーク(GAN)の詳細
前回の振り返り:変分オートエンコーダ(VAE) 前回は、確率的生成モデルである変分オートエンコーダ(VAE)について学びました。VAEは、データを潜在空間に圧縮し、その圧縮データから新しいデータを生成できるモデルです。VAEの大きな特徴は、確率分布に... -
第7章
【0から学ぶAI】第184回:変分オートエンコーダ(VAE)の詳細
前回の振り返り:オートエンコーダの仕組み 前回は、オートエンコーダについて詳しく解説しました。オートエンコーダは、データを圧縮(エンコード)し、その圧縮データから元のデータを再構成(デコード)するモデルです。このプロセスは、次元削減や特徴... -
第6章
【0から学ぶAI】第182回:自己回帰モデル
前回の振り返り:生成モデルとは 前回は、生成モデルの基本概念について学びました。生成モデルは、訓練データを基に新しいデータを生成するモデルであり、画像生成やテキスト生成などの多様な応用が可能です。代表的な手法には、ガウス混合モデル(GMM)... -
第6章
【0から学ぶAI】第181回:生成モデルとは
前回の振り返り:第6章のまとめ 前回は、これまで学んできたモデルの解釈性に関する知識を振り返り、SHAP値やLIMEを用いたモデル解釈の重要性を確認しました。これらの手法により、ブラックボックスモデルがどのように予測を行っているかを説明しやすくな... -
第6章
【0から学ぶAI】第180回:第6章のまとめと理解度チェック
前回の振り返り:モデルの解釈性向上 前回は、SHAP値(Shapley Additive Explanations)やLIME(Local Interpretable Model-agnostic Explanations)を用いて、モデルの予測を解釈する方法について解説しました。これらの手法により、ブラックボックスモデ... -
第6章
【0から学ぶAI】第179回:モデルの解釈性向上
前回の振り返り:蒸留(Knowledge Distillation) 前回は、蒸留(Knowledge Distillation)について解説しました。蒸留では、大規模なモデルの知識を小規模なモデルに移すことで、モデルのサイズを縮小しつつも性能を維持することができました。これにより... -
第6章
【0から学ぶAI】第178回:蒸留(Knowledge Distillation)
前回の振り返り:モデルの軽量化と高速化 前回の記事では、モデルを軽量化し、推論速度を向上させる手法について解説しました。特にモデル圧縮や並列処理、パラメータシェアリングといったテクニックを用いることで、モデルの効率を改善する方法に焦点を当... -
第7章
【0から学ぶAI】第183回:オートエンコーダの詳細 〜データのエンコードとデコードの仕組みを紹介
前回のおさらいと今回のテーマ こんにちは!前回は、自己回帰モデルについて解説しました。自己回帰モデルは、時系列データなどで次の値を予測する際に活用される生成モデルの一種で、現在のデータポイントに基づいて次のステップを予測する仕組みでした。... -
第6章
【0から学ぶAI】第171回:学習率スケジューリング
前回の振り返り:早期停止 前回の記事では、早期停止(Early Stopping)という過学習を防ぐための手法について解説しました。モデルが訓練データに対して過度に適合し始めた兆候を検証データで捉え、学習を適切なタイミングで終了することで、計算リソース... -
第6章
【0から学ぶAI】第173回:ドロップアウトの詳細
前回の振り返り:正則化 前回の記事では、正則化(Regularization)の重要性について説明しました。L1正則化やL2正則化は、モデルの複雑さを抑制し、過学習を防ぐための手法です。これにより、モデルは訓練データに過度に適合することを避け、新しいデータ...
