2020 Appleの新製品発表!最新ARKit4はどこが進化した?注目ポイントまとめ
NEWS
2020.09.24
ブログ
こんにちは。エム・ソフトの有村です。
9月16日に開催された「Apple Event」にて、Appleの新製品発表会が行われ、最新のiPadやApple Watchなどが発表されました。
また、6月22日(月)に行われた開発者会議「WWDC2020」では、iOSとiPadOSにおけるAR機能の新バージョン「ARKit4」を発表するなど、iOSでARを扱う際に注目すべき情報がいくつか発表されています。
今回はAppleの新製品発表会とARKit4の注目トピックについてご紹介したいと思います。
目次
Apple新製品発表会について
結論を先に言ってしまうと、今回の新製品発表会ではAR,VRの分野で大きな発表はありませんでした。
今回のApple Eventは、事前に公開されていたイベント案内ページのAppleロゴからARオブジェクトを表示する仕掛けがあったので、
「ARに関する大きな発表があるのではないか?」
といった予想をしていたのですが、結果そういった情報はなく、個人的には少々残念でした。
ただし、注目すべき情報がいくつかありましたので、ご紹介したいと思います。
↓AppleロゴのAR再生動画
iPad Air A14 Bionicチップによる処理高速化
1点目は第4世代のiPad Airです。
今回は10.9インチのサイズの全画面式でホームボタンは廃止されました。現在発売されているiPad Proに見た目、性能共に近づいたような印象です。
個人的に最も注目しているのは最新のA14 Bionicのプロセッサが搭載されたこと。
これにより、処理性能が格段に向上します。
出典:アップル
ARアプリやWebARは処理負荷が高い為、快適に使用する為にはある程度高スペックの端末を使う必要がありますが、このA14 Bionicが搭載されたiPad Airであれば、非常に速くAR処理を行うことが可能になります。
AR体験をできるだけ快適にしたい、といった場合は非常におすすめの端末です。
ただし、今回発表されたiPad Air(iPad含む)にはLiDARセンサーが搭載されていない為、
ARにおいて重要な、周辺環境の認識や自己位置推定の精度等については既存のiPad Proが一歩優勢かな、という印象です。
LiDARについてはこちらの記事に詳細を載せていますので、合わせてご覧ください。
iOS 14のSpatial Audioで「音のAR体験」の向上
イベントでは新製品の紹介だけでなく、iOS 14の正式版のリリース発表も行われました。
AR技術と関連して重要だと感じたのは、AirPods Proに新しく搭載されるSpatial Audio(空間オーディオ)機能。
AirPods Proに内蔵された加速度センサーやジャイロセンサーで顔の向きや動きを認識し、頭の動きに合わせて音声が聞こえるように調整してくれる機能です。
AR体験、というと視覚情報のみに意識が向きがちですが、「どの方向から音が鳴っているのか?」といった音声情報も非常に重要です。
この機能はiPhoneとイヤホンの位置関係を認識し、頭を動かしても音が聞こえる方向を自然に再現することができるので、今後のAR体験の質が大きく向上できる可能性があります。
例えば、自分の視覚に入っていない方向から音が聞こえることで、視覚外の情報に気づかせることもできますし、
ARオブジェクトが発する音の方向を再現することで、よりリアルな体験を演出、といったこともできるようになります。
ARに特化した新製品発表はなし
今回のイベントでは「最新のiPhoneでLiDARセンサーが搭載されるのではないか?」「Apple Glassが発表されるのではないか?」と様々な憶測が
AR界隈で飛び交っていましたが、残念ながらそういった製品の発表はありませんでした。
ただしこれについては、「2020年の新iPhoneは、例年より数週間遅れて発売する」とAppleは予告していたので、ひょっとすると発表時期もそれに合わせて後ろ倒しになっているのかもしれません。
なので数週間後、最新iPhone等の発表が行われる可能性は十分にあります。
新製品の発表はまだあるのか、LiDARセンサーが搭載しているのか等は今後も動向をチェックしていきたいところですね。
ARKit 4のアップデートについて
開発者会議WWDC2020にて、iOSとiPadOSにおけるAR機能の新バージョン「ARKit4」が発表されました。
新しい機能がいくつかありますので、ご紹介します。
Location Anchors機能が追加
「Location Anchors(ロケーション・アンカー)」は、緯度・経度・高度の情報とアップルの3D地図データの情報を元に、現実の有名スポットにARオブジェクトを置くことができる機能です。
スポットの位置とARが紐づいている為、置かれているARオブジェクトを自由な角度から見たり、周りを歩いたりすることができます。
この機能のすごいところは、実際の世界の特定の場所にCGの物体を置けることです。
現状のARでは、端末ごとにそれぞれARを「個別に表示」させるようなものが多く、複数の人が同じ場所で同じARオブジェクトを見ることが難しかったのですが、この機能が追加されることで、全員が同じオブジェクトを同じ場所で見ることが可能になります。
↓9分15秒あたりから「Ferry Building」という文字オブジェクトが表示されています。
現時点で使用できる対象モデルがiPhone XS、iPhone XS Max、iPhone XR以降で、一部の都市のみ(日本は該当なし)での展開なので、今すぐ実用化できる技術ではないものの、
今後さらなる技術の応用が期待できる機能となっています。
LiDAR搭載のiPad ProでDepth API機能が追加
こちらはLiDARセンサを用いた新規機能です。
LiDARのシーン認識機能により、周囲の深度情報をピクセル単位で収集可能になりました。
これによって、ARオブジェクトを瞬時に配置したり、オブジェクトのオクルージョン機能の精度が向上します。
一言でいうと、より早くリアリティのあるAR体験ができるようになったということですね。
オクルージョンについては以下の記事でも書いていますので、ぜひ合わせてご覧ください。
ただし、こちらの機能はLiDARセンサが搭載されたiPad Pro限定の機能になりますので、
対象の端末が少ない、という点は少し残念なところです。
フェイストラッキングの対応端末が拡大
こちらは厳密にいうと新機能ではないのですが、使用できる端末が増えた為、紹介します。
フェイストラッキング機能(フロントカメラで顔・表情等を判別する機能)は、これまでiPhone Xシリーズ、iPad Proシリーズ等に限定されていたのですが、今回のアップデートによってA12 Bionicチップ以降を搭載したすべてのデバイスで利用可能になりました。
↓ミー文字の作り方動画
まとめ
今回のApple新製品発表では個人的に新iPhoneの発表がなかったことが驚きでした。
先述の通り、開発期間の遅れによって発表も遅くなっているのかもしれないので、今後も動向をチェックしていきたいと思います。
ARKit4のアップデートについては、AR性能の向上や将来性の高そうな新規機能はあるものの、対応端末や利用場所が限られている機能が多いので「一般人が手軽に利用できる」という観点で見るとまだまだ、といった印象です。
フェイストラッキング機能のように、他の機能も対応端末の拡大を期待したいですね。
エム・ソフトでは、iOSのVR、ARアプリ製品の開発、また、MRを含めたXRシステム開発に日々取り組んでいます。
これらの技術を活用したアプリケーション開発のご相談や、各種デモ・事例紹介のご依頼など、お気軽にご相談下さい。
- CATEGORY
- Pinspect
- RayBrid KeyMaker
- ブログ
- 開発ノート
- セミナー・イベント
- 【終了済】セミナー・イベント
- メディア
- イベント
- 資料