AI推進準備室 > AIrepVol5

「私的AI研究会」レポート VOL.5

これまで取り上げたテーマを振り返ってみる。以下は CQ 出版刊「インターフェース 2023年4月号」特集3 からの抜粋。

※ 最終更新:2023/03/18 

ディープ・ラーニングの今 2023

ディープ・ラーニング(深層学習)の位置づけ

ディープ・ラーニングの応用例

ディープ・ラーニングのシステム構成

  deep2023_02.jpg

 引用 → スマホでAI!?エヌビディアのアーム買収で何が起こるのか?

代表的なフレームワーク ➡ ディープラーニングのフレームワーク

画像処理向け深層学習のタスク

深層学習タスクの入手先

  *1 公式のソースコードは未公開だが、ウェブページで一部機能を試すことができる
  *2 公式のソースコードは非公開だが、ベータ版を試すための権利を申し込むことができる

 

深層学習の最新アーキテクチャ Transformer

Transformer とは

 Transformer は最新のニューラル・ネットワークの一つ。従来の CNN(畳み込みニューラル・ネットワーク)や RNN(再帰型ニューラル・ネットワーク)にとって代わる新技術。2017年にグーグルとトロント大学の研究者によって開発された。「ChatGPT」「Stable Diffusion」などにも使われ現在、汎用人工知能に向けた開発が続いている。

代表的な Transformer アーキテクチャ

 角国の企業や研究機関で開発された Transformer モデル、もしくは Transformer モデルを含んだ AIツール。大きな流れとしてグーグルと OpenAI社が主要な開発を行っている。グーグルが開発した「BERT」から派生したもの、OpenAI社の「GPT」から派生したものなどがある。OpenAI社の「CLIP」を起源とする画像生成AIも Transformer アーキテクチャのファミリ・ツリーを広げている。「BERT」「GPT」「CLIP」の深層モデルを中心にこれらをもとにしたAIツールが作られている。

    画像引用 → TRANSFORMER MODELS: AN INTRODUCTION AND CATALOG

更新履歴

参考資料

 

Last-modified: 2023-03-19 (日) 16:42:32