株式会社PROMPT– Author –
-
第7章
【0から学ぶAI】第205回:モデルの安全性とフィルタリング 〜 不適切な出力を防ぐ手法を説明
前回の振り返り:プロンプトチューニング 前回は、プロンプトチューニングについて学びました。プロンプトの最適化により、事前学習済みのモデルから期待する出力を引き出しやすくする方法です。プロンプトの設計は、モデルの精度向上や応答の一貫性を保つ... -
第7章
【0から学ぶAI】第204回:プロンプトチューニング 〜 プロンプトを最適化してモデルの性能を向上させる方法を解説
前回の振り返り:大規模事前学習モデル 前回は、大規模なデータセットで事前にトレーニングされたモデルについて解説しました。これらのモデルは、事前学習によって得られた一般的な特徴を特定のタスクに応用することで、高いパフォーマンスを発揮します。... -
第7章
【0から学ぶAI】第203回:大規模事前学習モデル 〜 事前学習済みモデルの利点と活用法を紹介
前回の振り返り:自己教師あり学習の応用 前回は、ラベルなしデータから特徴を学習する自己教師あり学習の応用について解説しました。自然言語処理や画像認識、音声処理といったさまざまな分野で、ラベル付きデータを大量に用意するコストを削減しつつ、高... -
第7章
【0から学ぶAI】第202回:自己教師あり学習の応用 〜 ラベルなしデータからの学習方法を説明
前回の振り返り:音声生成の評価指標 前回は、音声生成の評価方法について解説しました。PESQやSTOIのような客観的な評価指標から、MOSのような主観的評価まで、音声合成の品質を測定する手法を紹介しました。今回は、そのような音声生成モデルをはじめと... -
第7章
【0から学ぶAI】第201回:音声生成の評価指標 〜 PESQやSTOIなどの評価方法を解説
前回の振り返り:Tacotron 前回は、Tacotronについて解説しました。Tacotronは、テキストから音声への変換を行うモデルで、音声アシスタントやナレーション生成など、幅広い音声合成アプリケーションで利用されています。特にTacotron 2では、生成された音... -
第7章
【0から学ぶAI】第199回:WaveNet 〜 高品質な音声生成モデルを説明
前回の振り返り:音声生成モデル 前回は、音声生成技術の基本について解説しました。音声合成技術は、ルールベース、ユニット選択、パラメトリック音声合成などの従来手法から、ニューラルネットワークを活用したWaveNetやTacotronといった現代的なアプロ... -
第7章
【0から学ぶAI】第198回:音声生成モデル 〜 音声合成技術の基本を解説
前回の振り返り:テキスト生成の評価指標 前回は、テキスト生成の評価指標について解説し、生成されたテキストの質を評価するための基準となるパープレキシティやBLEUスコアについて説明しました。パープレキシティはモデルの予測精度を測るための指標であ... -
第7章
【0から学ぶAI】第197回:テキスト生成の評価指標 〜 パープレキシティやBLEUスコアを紹介
前回の振り返り:BERTとマスク化言語モデル 前回は、自然言語処理における強力なモデルであるBERT(Bidirectional Encoder Representations from Transformers)と、その学習方法の一つであるマスク化言語モデル(MLM)について解説しました。BERTは、文章... -
第7章
【0から学ぶAI】第195回:位置エンコーディング 〜 シーケンス内の単語の位置情報を扱う方法を解説
前回の振り返り:マルチヘッド注意機構 前回は、マルチヘッド注意機構について詳しく解説しました。この機構は、Transformerモデルの中核を成す技術で、複数の視点から文脈を理解することで、テキスト生成や意味理解を高めることができます。マルチヘッド... -
第7章
【0から学ぶAI】第196回:BERTとマスク化言語モデル 〜 BERTの学習方法であるマスク化を説明
前回の振り返り:位置エンコーディング 前回は、Transformerモデルにおける位置エンコーディングについて解説しました。位置エンコーディングは、シーケンス内の単語の順序情報を扱うための手法であり、Transformerが単語の順序や文脈を理解するために重要... -
第7章
【0から学ぶAI】第194回:マルチヘッド注意機構 〜 Transformerモデルの核心部分を紹介
前回の振り返り:GPTモデルの内部構造 前回は、GPTモデルの内部構造について解説しました。GPTはTransformerのデコーダ部分を基盤とし、自己注意機構やマスク付き自己注意といった技術を使って自然で一貫性のあるテキストを生成します。これにより、チャッ... -
第7章
【0から学ぶAI】第193回:GPTモデルの内部構造 〜 GPTシリーズの詳細な構造を説明
前回の振り返り:テキスト生成モデルの詳細 前回は、テキスト生成モデルについて詳しく解説しました。テキスト生成は、シーケンス・ツー・シーケンスモデル、RNN(再帰型ニューラルネットワーク)、Transformerといった技術によって、自然な文章を自動的に... -
第7章
【0から学ぶAI】第192回:テキスト生成モデルの詳細 〜 言語モデルによるテキスト生成の仕組みを解説
前回の振り返り:画像生成の評価指標 前回は、画像生成の評価指標について解説しました。特に、生成された画像の品質を評価するために使われるFIDスコアやIS(Inception Score)について詳しく学びました。これらの指標は、生成されたデータが実データにど... -
第7章
【0から学ぶAI】第191回:画像生成の評価指標 〜 FIDスコアなどの評価方法を解説
前回の振り返り:Pix2Pix 前回は、Pix2Pixについて解説しました。Pix2Pixは、画像から画像への変換を行うモデルで、例えば白黒画像をカラー化する、スケッチからリアルな画像を生成するといったさまざまな変換タスクに応用されます。生成器と識別器の協調... -
第7章
【0から学ぶAI】第200回:Tacotron 〜 テキストから音声への変換モデルを紹介
前回の振り返り:WaveNet 前回は、WaveNetについて解説しました。WaveNetは、音声波形を直接生成するニューラルネットワークベースのモデルであり、高品質な音声合成を実現する技術です。音声波形をサンプリング単位で生成することで、従来の音声合成技術...
