Appleは、iPhone 16シリーズ向けに開発した新機能「Visual Intelligence」を、今後のiOSアップデートでiPhone 15 Proにも提供する計画を明らかにした。
Visual Intelligenceは、カメラを対象に向けることで、その対象に関する詳細な情報を取得できる機能で、Google Lensに対抗する技術として注目されている。Daring Fireballによれば、この機能はiOS 18.4で追加される可能性が高く、早ければ4月にも利用できる見込みだ。
この機能の導入により、ユーザーは街中のレストランの情報取得や、未知の植物や建築物の識別など、日常のさまざまなシーンで利便性が向上すると期待される。Appleは今後さらに詳細を発表するとみられており、正式なリリース時期に注目が集まる。
Appleの「Visual Intelligence」はどのように動作するのか

AppleがiPhone 16シリーズ向けに開発したVisual Intelligenceは、カメラを用いた情報取得機能であり、AIと機械学習を活用することで対象物を自動識別する。ユーザーがカメラを向けた物体や建物、風景、文字などを解析し、関連情報を即座に提供する仕組みだ。
この技術は、従来の「Visual Lookup」よりも高度な解析能力を持ち、対象の識別精度や情報の網羅性が強化されているとみられる。たとえば、動植物の識別ではより細かい特徴を認識し、類似種との違いも判別可能になるかもしれない。また、店舗やランドマークの解析では、リアルタイムで詳細なデータを取得できる可能性がある。
さらに、Visual Intelligenceは、カメラに映るテキストの翻訳や、商品検索などにも応用できると予想される。特に海外旅行時には、看板やメニューを即座に翻訳したり、見知らぬ地での情報収集を簡単にしたりすることが期待される。このように、Visual Intelligenceは日常のさまざまなシーンで活用できる機能となりそうだ。
iPhone 15 Proへの追加がもたらす影響と制約
今回の発表で注目すべき点は、Visual IntelligenceがiPhone 15 Proにも提供されることだ。当初はiPhone 16シリーズ専用とされていたが、Appleはソフトウェアアップデートによって既存のデバイスにも展開する方針を明らかにした。
ただし、すべてのiPhone 15モデルではなく、Proシリーズ限定の提供となる点には注意が必要だ。この制限は、処理能力やハードウェア仕様の違いによるものと考えられる。Visual Intelligenceの動作には、A17 Proチップの性能や、特定のニューラルエンジンの処理能力が必要となる可能性があるため、iPhone 15無印や15 Plusでは対応しないとみられる。
また、すでにリリースされている「Visual Lookup」との違いや、どのように両者が使い分けられるのかも気になるところだ。Appleは現時点で詳細な仕様を明かしていないが、既存機能の拡張版であるならば、より広範囲な情報を瞬時に取得できるようになる可能性がある。今後のアップデートで、どのような制限が設けられるのかも注目したい。
今後のAppleの戦略とVisual Intelligenceの進化
AppleがVisual IntelligenceをiPhone 15 Proにも提供する背景には、AI技術の普及と、それを活用したユーザー体験の強化があると考えられる。特に、Appleは近年、デバイス単体でのAI処理を強化しており、クラウドを介さずに高速処理できることを特徴としている。
今後、iOSのアップデートに伴い、この技術がさらに進化する可能性もある。例えば、デバイス内での処理速度が向上すれば、リアルタイム翻訳や高度な画像解析がより快適に利用できるようになるかもしれない。また、Appleが提供する他のAI技術と連携することで、Visual Intelligenceの活用シーンはさらに広がる可能性がある。
さらに、将来的にはApple Vision Proなどのデバイスとの統合も考えられる。視覚情報を活用する機能であるため、AR(拡張現実)との相性も良く、今後のAppleのエコシステムにどのように組み込まれるのかが注目される。Appleがどのような形でこの技術を発展させていくのか、今後の動向に期待したい。
Source:AppleInsider