top of page



読了時間: 12分
ニューラルネットワークから見たTransformerのアーキテクチュア
この記事からわかること 大規模言語モデル(LLM)は、事前学習と微調整の2段階の学習プロセスを通じて、多様な自然言語処理タスクに対応することができる。 GPTのアーキテクチャは、Self-Attention機構、ポジショナルエンコーディング、フィードフォワードネットワークな...


読了時間: 11分
位置情報が言語理解の鍵を握る。Transformerモデルが自然言語処理に革命をもたらす理由とは?
本記事は「Attention Is All You Need」と題されたTransformerに関する論文(12 Jun 2017)の内容を含んでいる。ここでは、単語の位置情報を使った言語理解について解説する。 この記事からわかること...

読了時間: 3分
ベクトルと類似度について
こんにちは、今日もLLMに、はまってますか? さて、今日は数値ベクトルと類似度の話をしようと思います。 直感的に内容を掴んでいただけたら幸いです。 もし、話を読んで、もっとわかるところからということがあったら、もう少し深く話をしますのでお付き合いいただけたらです。...


読了時間: 10分
自然言語処理から見たTransformerにおけるMulti-HeadAttention
はじめに 本記事は、「Attention Is All You Need」と題された論文(12 Jun 2017)の内容を基に自然言語処理に焦点を当てた専門用語の解説を含む、主要なポイントの解説である。今回は、特にマルチヘッド注意(Multi-Head...


読了時間: 14分
自然言語処理の観点におけるTransformerのAttention機構
本記事は「Attention Is All You Need」と題された論文(12 Jun 2017)の内容を含んでいる。これは、自然言語処理(NLP)に革命をもたらした Transformer モデルに関する重要な研究である。以下は、TransformerのSelf-At...
bottom of page