0から学ぶAI– category –
-
第8章
【0から学ぶAI】第213回:Jupyter Notebookの使い方 〜インタラクティブな開発ツールの基本操作を紹介
前回のおさらいと今回のテーマ こんにちは!前回は、Anacondaを使ったPythonの開発環境の構築方法について解説しました。Anacondaを利用することで、仮想環境を簡単に設定し、Pythonやライブラリを効率的に管理できるようになりましたね。 今回は、そのAna... -
第8章
【0から学ぶAI】第220回:データ前処理の実践 〜欠損値処理や特徴量スケーリングの方法を解説
前回のおさらいと今回のテーマ こんにちは!前回は、Pythonの機械学習ライブラリScikit-learnを使って、基本的な機械学習モデルの構築と評価方法を解説しました。データの分割、モデルの訓練、そして評価のステップを一貫して行うことで、機械学習の基礎的... -
第7章
【0から学ぶAI】第209回:Neural Radiance Fields(NeRF)
前回のおさらいと今回のテーマ こんにちは!前回は、拡散モデル(Diffusion Models)について学びました。拡散モデルの基本的な仕組みや応用、他の生成モデルとの違いについて解説しました。拡散モデルは高品質なデータ生成が可能で、GANやVAEの限界を克服... -
第7章
【0から学ぶAI】第208回:拡散モデル(Diffusion Models)
前回のおさらいと今回のテーマ こんにちは!前回は、生成モデルの課題と限界について学びました。生成モデルが抱える品質や計算コスト、倫理的な問題について解説し、それらの課題に対する対策も紹介しました。生成モデルは非常に強力なツールですが、その... -
第7章
【0から学ぶAI】第206回:生成モデルの応用例 〜 画像生成、テキスト生成、音声合成の具体的な応用を紹介
前回の振り返り:モデルの安全性とフィルタリング 前回は、AIモデルの安全性を確保するためのフィルタリング技術について学びました。ブラックリスト方式や自然言語処理(NLP)フィルタリング、ヒューマン・イン・ザ・ループ(HITL)など、さまざまな手法... -
第7章
【0から学ぶAI】第207回:生成モデルの課題と限界
前回のおさらいと今回のテーマ こんにちは!前回は、生成モデルの応用例について学びました。画像生成、テキスト生成、音声合成など、さまざまな具体的な応用例を紹介しました。生成モデルは、芸術からビジネス、医療まで幅広い分野で利用されていますが、... -
第7章
【0から学ぶAI】第205回:モデルの安全性とフィルタリング 〜 不適切な出力を防ぐ手法を説明
前回の振り返り:プロンプトチューニング 前回は、プロンプトチューニングについて学びました。プロンプトの最適化により、事前学習済みのモデルから期待する出力を引き出しやすくする方法です。プロンプトの設計は、モデルの精度向上や応答の一貫性を保つ... -
第7章
【0から学ぶAI】第204回:プロンプトチューニング 〜 プロンプトを最適化してモデルの性能を向上させる方法を解説
前回の振り返り:大規模事前学習モデル 前回は、大規模なデータセットで事前にトレーニングされたモデルについて解説しました。これらのモデルは、事前学習によって得られた一般的な特徴を特定のタスクに応用することで、高いパフォーマンスを発揮します。... -
第7章
【0から学ぶAI】第202回:自己教師あり学習の応用 〜 ラベルなしデータからの学習方法を説明
前回の振り返り:音声生成の評価指標 前回は、音声生成の評価方法について解説しました。PESQやSTOIのような客観的な評価指標から、MOSのような主観的評価まで、音声合成の品質を測定する手法を紹介しました。今回は、そのような音声生成モデルをはじめと... -
第7章
【0から学ぶAI】第203回:大規模事前学習モデル 〜 事前学習済みモデルの利点と活用法を紹介
前回の振り返り:自己教師あり学習の応用 前回は、ラベルなしデータから特徴を学習する自己教師あり学習の応用について解説しました。自然言語処理や画像認識、音声処理といったさまざまな分野で、ラベル付きデータを大量に用意するコストを削減しつつ、高... -
第7章
【0から学ぶAI】第201回:音声生成の評価指標 〜 PESQやSTOIなどの評価方法を解説
前回の振り返り:Tacotron 前回は、Tacotronについて解説しました。Tacotronは、テキストから音声への変換を行うモデルで、音声アシスタントやナレーション生成など、幅広い音声合成アプリケーションで利用されています。特にTacotron 2では、生成された音... -
第7章
【0から学ぶAI】第199回:WaveNet 〜 高品質な音声生成モデルを説明
前回の振り返り:音声生成モデル 前回は、音声生成技術の基本について解説しました。音声合成技術は、ルールベース、ユニット選択、パラメトリック音声合成などの従来手法から、ニューラルネットワークを活用したWaveNetやTacotronといった現代的なアプロ... -
第7章
【0から学ぶAI】第198回:音声生成モデル 〜 音声合成技術の基本を解説
前回の振り返り:テキスト生成の評価指標 前回は、テキスト生成の評価指標について解説し、生成されたテキストの質を評価するための基準となるパープレキシティやBLEUスコアについて説明しました。パープレキシティはモデルの予測精度を測るための指標であ... -
第7章
【0から学ぶAI】第197回:テキスト生成の評価指標 〜 パープレキシティやBLEUスコアを紹介
前回の振り返り:BERTとマスク化言語モデル 前回は、自然言語処理における強力なモデルであるBERT(Bidirectional Encoder Representations from Transformers)と、その学習方法の一つであるマスク化言語モデル(MLM)について解説しました。BERTは、文章... -
第7章
【0から学ぶAI】第196回:BERTとマスク化言語モデル 〜 BERTの学習方法であるマスク化を説明
前回の振り返り:位置エンコーディング 前回は、Transformerモデルにおける位置エンコーディングについて解説しました。位置エンコーディングは、シーケンス内の単語の順序情報を扱うための手法であり、Transformerが単語の順序や文脈を理解するために重要...
