AI用語集

AI(人工知能)・機械学習・LLM・RAG・MCPなど、ビジネスで押さえておくべき主要なAI用語25語をわかりやすく解説します。AI初心者の方からビジネス活用を目指す方まで、辞書としてお役立てください。

エッジAIとは

Edge AI

AI倫理・ビジネス

クラウドではなく、スマートフォン・IoTデバイス・製造ライン等のエッジ(末端)デバイスでAI処理を実行する技術・アーキテクチャ。

クラウドへのデータ送信なしにリアルタイム処理できるため、低遅延・プライバシー保護・通信コスト削減のメリットがあります。スマートフォンでの顔認識・工場設備の異常検知・自動運転車のリアルタイム判断などで活用。Qualcomm・Apple・NVIDIAなどがエッジAI向けチップを開発しており、LLMの小型化(SLM)技術と組み合わせることでデバイス上でのLLM実行も現実化しています。

コンピュータビジョンとは

Computer Vision

AI基礎

画像や動画をコンピュータが認識・解析する技術。物体検出・顔認識・医療画像診断・自動運転など幅広い分野で活用される。

深層学習(特にCNN)の進歩により、特定のタスクで人間の認識能力を超えるまでになりました。製造業での外観検査・小売業での無人レジ・医療での病変検出・セキュリティでの顔認証など、産業応用が急速に広がっています。最近ではテキストと画像を組み合わせたマルチモーダルAIへと発展しています。

トークンとは

Token

AIエージェント・ツール連携

LLMがテキストを処理する際の基本単位。日本語では概ね1〜2文字、英語では1単語程度に相当し、APIの利用料金・処理速度・コンテキスト長の基準となる。

GPT-4は最大128,000トークン、Claude 3は最大200,000トークンのコンテキストウィンドウを持ちます。「1,000トークンあたり$0.003」のように課金される仕組みのため、コスト管理の観点からトークン数の把握が重要です。プロンプト設計時に不要な情報を削ることでコストを最適化でき、長文処理のシステム設計ではトークン上限を意識したアーキテクチャが必要です。

ニューラルネットワークとは

Neural Network

AI基礎

人間の脳の神経細胞(ニューロン)のつながりを模倣したAIモデル。入力層・隠れ層・出力層からなる多層構造でデータを処理する。

各ニューロンが重み付きで接続され、誤差逆伝播法によって学習します。層を深くした「深層学習」により性能が飛躍的に向上。現在は画像認識のCNN・言語処理のTransformer・生成モデルのGANなど多様な発展形が実用化されており、AIシステムの中核をなす技術です。

プロンプトとは

Prompt

生成AI・LLM

LLMに対して与える入力テキスト(指示・質問・文脈)。プロンプトの設計次第でAIの出力品質が大きく変わるため、その設計技術が重要視される。

単純な質問から、役割指定・例示・制約条件を含む複雑な構造まで多様な形式があります。「〜として振る舞ってください」「以下の手順で考えてください」などの指示が有効です。Chain-of-Thought(思考の連鎖)・Few-shot(例示)・System Promptなどのテクニックが体系化されており、AI活用の質を左右する重要スキルです。

プロンプトエンジニアリングとは

Prompt Engineering

生成AI・LLM

LLMから望む出力を得るためのプロンプト設計・最適化技術。AIを効果的に活用するためのビジネス必須スキルとして注目されている。

Chain-of-Thought(ステップバイステップの思考誘導)・RAG(外部知識の注入)・Few-shot(例示による誘導)など様々な手法があります。タスクの明確化・制約条件の設定・出力フォーマット指定が基本です。AIが業務に浸透するにつれ、エンジニアだけでなくビジネスパーソン全般に求められるスキルとなっています。

ファインチューニングとは

Fine-tuning

生成AI・LLM

事前学習済みモデルを特定タスクや特定ドメインのデータで追加学習する手法。汎用モデルを業務特化型モデルへカスタマイズできる。

医療・法律・金融など専門分野での精度向上、特定の文体・形式への適応、社内用語・独自ルールの学習などに活用されます。フルファインチューニング(全パラメータ更新)とLoRA・QLoRAなどの効率的な手法(一部パラメータのみ更新)があり、コストと性能のバランスで使い分けます。

ハルシネーションとは

Hallucination

生成AI・LLM

AIが事実と異なる情報を自信を持って生成してしまう現象。LLMが「もっともらしい」文章を生成する仕組み上、避けられないリスク。

存在しない研究論文の引用・誤った事実の断言・数値の捏造などが典型例です。RAGによる外部知識の参照・出力の根拠明示・人間によるレビューなどの対策が重要です。ビジネス活用では特に法的・医療・財務情報での誤情報リスクに注意が必要で、AIの出力を無条件に信頼しない運用設計が求められます。

バイアスとは

Bias

AI倫理・ビジネス

AIモデルが学習データの偏りや設計上の問題から、特定のグループに対して不公平な予測・判断を行ってしまう問題。

歴史的な差別を反映したデータで学習したモデルが採用・融資審査で人種・性別による不公平な判断をする事例が報告されています。学習データのバランス調整・公平性指標の測定・多様なチームによるモデル評価などの対策が必要です。AI倫理・規制の観点から最重要課題の一つであり、高リスクAIシステムでは定期的なバイアス監査が求められます。

マルチモーダルとは

Multimodal

生成AI・LLM

テキスト・画像・音声・動画など複数の異なる種類のデータを統合的に処理・生成できるAIの能力または方式。

GPT-4V・Claude 3・Geminiなど主要LLMがマルチモーダル対応を進め、「画像を見て説明する」「図表から分析する」「音声を文字起こしして要約する」などが可能になりました。製造業の外観検査と報告書作成の自動化、医療画像診断と所見生成の統合など、実業務での応用が急速に広がっています。

A

AI(人工知能)とは

Artificial Intelligence

AI基礎

人間の知能をコンピュータで模倣・再現する技術の総称。学習・推論・問題解決・認識などの能力を持つシステムを指す。

1956年のダートマス会議で「人工知能」という概念が生まれ、その後「AIの冬」を経て現在の飛躍的な発展を遂げました。機械学習・深層学習の進歩により、画像認識・音声認識・自然言語処理など広範な分野で人間を超える性能を発揮。医療診断・自動運転・金融分析まで、あらゆるビジネス領域でAI活用が加速しています。

AIエージェントとは

AI Agent

AIエージェント・ツール連携

自律的に目標達成のために計画・実行・ツール使用・結果評価を繰り返すAIシステム。単純な質問応答を超え、複数ステップのタスクを自律実行できる。

LLMを「頭脳」として、ウェブ検索・コード実行・ファイル操作・API呼び出しなどのツールを組み合わせてタスクを遂行します。AutoGPT・LangChain Agents・Claude Agents等が代表例。2025〜2026年の最大トレンドとして、人間の業務をAIが代理する「AIワーカー」の実用化が急速に進んでいます。

APIとは

Application Programming Interface

AIエージェント・ツール連携

Application Programming Interface。ソフトウェア同士が通信・連携するための接続仕様。AIサービスをアプリケーションに統合する際の標準的な方法。

OpenAI API・Claude API(Anthropic)・Gemini API(Google)などのAI APIを利用することで、自社サービスにAI機能を組み込めます。REST APIとして提供されることが多く、HTTP経由でリクエストを送りJSON形式でレスポンスを受け取ります。プログラミング知識があれば誰でもAI機能を自社製品に統合できるため、AI民主化の重要な基盤となっています。

AI倫理とは

AI Ethics

AI倫理・ビジネス

AIシステムの開発・利用において公正性・透明性・安全性・プライバシー保護を確保するための原則・規範・ガバナンスの総称。

EU AI規制法(2024年)や各国のAIガイドラインが整備され、特に医療・金融・採用などハイリスク分野での厳格な対応が求められています。バイアス除去・説明可能なAI(XAI)・データ保護・著作権対応など多面的な取り組みが必要です。企業はAI倫理委員会の設置・リスクアセスメントの実施・従業員教育など、ガバナンス体制の整備が急務となっています。

AGI(汎用人工知能)とは

Artificial General Intelligence

AI倫理・ビジネス

人間と同等以上に、あらゆる知的タスクをこなせる汎用的なAIシステム。現在のAIは特定タスク特化型であり、AGIはまだ実現されていない。

OpenAI・DeepMind・Anthropicなど主要AI研究機関がAGI開発を目標に掲げています。現在の深層学習ベースのAIでは「汎用性」の実現に限界があるとされ、記号推論との統合・自己改善能力・常識的推論の実現が課題です。AGI実現後に「AIが自らを改善し知性が爆発的に向上するシナリオ(知能爆発)」を懸念する声もあり、AI安全性研究の動機となっています。

F

Function Callingとは

Function Calling

AIエージェント・ツール連携

LLMが外部関数・APIを呼び出せる機能。AIが必要なツールを選択し、適切なパラメータで実行できることで、実世界のシステムと連携可能になる。

OpenAI・Anthropic・Googleなど主要LLM APIが対応。「今日の天気は?」という質問に対してAIが天気APIを呼び出して回答する、「在庫を確認して」という指示に対して在庫管理システムを参照するなど、LLMと外部システムを自然に連携させます。AIエージェント・ツール呼び出しの基盤技術であり、MCPとの組み合わせで拡張されています。

M

MCP(Model Context Protocol)とは

Model Context Protocol

AIエージェント・ツール連携

AnthropicがAIエージェントとツール・データソース間のインターフェースを標準化するために開発したオープンプロトコル(2024年発表)。

MCP対応クライアント(Claude等)は、MCP対応サーバー(GitHub・Slack・データベース等)に対して統一的な方法でアクセスできます。USB-Cのようにデバイスとケーブルの組み合わせを標準化するイメージです。各社が独自APIを実装するコストを削減し、AIエージェントのエコシステム拡大を促進。Anthropic発の規格ながら業界標準として急速に普及しています。

R

RAG(検索拡張生成)とは

Retrieval-Augmented Generation

生成AI・LLM

LLMの回答生成時に外部の知識ベースを検索して関連情報を注入する技術。ハルシネーション(誤情報生成)を減らし、最新・社内情報に対応できる。

企業内文書・製品マニュアル・法令データベースなどをベクトルDBに格納し、質問に関連する情報をリアルタイムで検索してLLMに渡します。モデルの再学習なしに専門知識を扱えるコスト効率の高い手法として、企業AIの主流アーキテクチャになっています。LlamaIndex・LangChainなどのフレームワークで実装が容易です。

最新AI情報をニュースレターで受け取る

AI用語集に関連する最新ニュースや活用事例を毎日お届けします。

無料で購読する →