Appleは、Siriの人工知能(AI)強化機能の一部を2026年まで提供しないことを正式に発表した。当初2025年に予定されていたこの機能は、Siriをより個別化し、アプリ間のタスク処理を可能にするものだったが、開発の複雑さから延期されることとなった。

Appleによれば、新しいSiriはユーザーの個人的なコンテキストを理解し、アプリ間のデータを活用してアクションを実行できるようになる。しかし、これを実現するにはさらなる時間が必要とされる。これらの機能は「Apple Intelligence」戦略の一環であり、ユーザーのデバイス上の情報にアクセスして適切な提案を行うことを目指している。

SiriのAI強化機能、何が変わるのか

Appleが開発を進めるSiriのAI強化機能は、従来の音声アシスタントの枠を超え、ユーザーの行動や文脈をより深く理解することを目的としている。この新機能により、Siriはアプリをまたいだタスクの処理が可能になり、ユーザーの意図をより的確に読み取れるようになる予定だ。

具体的には、Siriがデバイス上のデータにアクセスし、「家族から送られたフライト情報を確認」「友人からおすすめされたポッドキャストを探す」といった、より高度なリクエストに対応することが可能になる。これまでは、ユーザーが手動でアプリを開いて情報を探す必要があったが、新しいSiriではその手間が大幅に軽減される。

また、AppleはChatGPTとの統合を進めるなど、Siriの会話能力を強化している。これにより、Siriはより自然なやり取りを実現し、ユーザーの意図を正確にくみ取る能力を向上させることが期待される。しかし、これらの進化はまだ道半ばであり、Appleはさらなる開発と調整を必要としている。

AppleがAI機能を慎重に進める理由

AppleがSiriのAI機能を拡充しつつも、その導入を延期する背景には、プライバシー保護と技術的な課題があると考えられる。Appleは「プライバシー重視」の姿勢を崩さず、新しいAI機能がユーザーのデータを安全に扱うことを最優先している。このため、新たに開発されるAI機能は、デバイス上での処理を中心とした設計になっている。

Appleは独自のクラウドコンピューティングインフラを構築し、ユーザーのデータを外部に漏らさずにAI機能を実現する方向に進んでいる。しかし、この仕組みの確立には多くの時間とリソースを要する。加えて、AIの高度化に伴い、Siriがデバイス上の情報を適切に処理し、的確な応答を行うための調整も必要となる。このバランスを取りながらの開発が、今回の遅延につながったとみられる。

さらに、SiriはAppleのエコシステム全体に深く統合されており、単に新機能を追加するだけでは済まない。iPhoneやiPad、Mac、Apple Watchなど、さまざまなデバイスで一貫した動作を保証する必要がある。このような複雑な環境の中で、Appleが慎重に開発を進めるのは必然ともいえる。

AI音声アシスタントの進化、今後の課題は

AI技術の進化により、音声アシスタントの役割は大きく変わろうとしている。GoogleのGemini、AmazonのAlexaなど、競合他社もAIを活用した音声アシスタントの開発に力を入れており、Siriもこの競争の中で進化を求められている。

ただし、AI音声アシスタントの高度化には課題も多い。Siriがアプリ間のタスクを処理するには、アプリごとのデータの取得や統合が不可欠であり、サードパーティアプリとの連携が重要になる。現状では、Appleの純正アプリを中心とした対応が想定されるが、他社製アプリとの統合がどこまで進むのかは不透明だ。

また、音声アシスタントの進化にはユーザーの受け入れも影響する。過去には、AIアシスタントが意図しない応答をしたり、誤解を招く回答をしたりする例も報告されており、精度の向上が不可欠だ。AppleがどこまでSiriを進化させ、使い勝手とプライバシーの両立を図るのか、今後の動向に注目が集まる。

Source:PhoneArena