チャットGPTのような大規模言語モデルを企業で利用する際に問題となるのが、ハルシネーション(幻覚)だ。MIT発のスタートアップは、モデルの回答がどの程度信頼できるかを示すツールを開発した。
- こちらは会員限定の記事です。
メールアドレスの登録で続きを読めます。
-
- 有料会員にはメリットがいっぱい!
-
- 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
- オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
重要テーマが押さえられる。
- 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。
- こちらは有料会員限定の記事です。
有料会員になると制限なしにご利用いただけます。
-
- 有料会員にはメリットがいっぱい!
-
- 毎月120本以上更新されるオリジナル記事で、人工知能から遺伝子療法まで、先端テクノロジーの最新動向がわかる。
- オリジナル記事をテーマ別に再構成したPDFファイル「eムック」を毎月配信。
重要テーマが押さえられる。
- 各分野のキーパーソンを招いたトークイベント、関連セミナーに優待価格でご招待。