JP2022176559A - 眼鏡型端末、プログラム及び画像表示方法 - Google Patents

眼鏡型端末、プログラム及び画像表示方法 Download PDF

Info

Publication number
JP2022176559A
JP2022176559A JP2021083054A JP2021083054A JP2022176559A JP 2022176559 A JP2022176559 A JP 2022176559A JP 2021083054 A JP2021083054 A JP 2021083054A JP 2021083054 A JP2021083054 A JP 2021083054A JP 2022176559 A JP2022176559 A JP 2022176559A
Authority
JP
Japan
Prior art keywords
image
point cloud
unit
data
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021083054A
Other languages
English (en)
Inventor
賢 白神
Satoshi Shiraga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cellid
Cellid Inc
Original Assignee
Cellid
Cellid Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cellid, Cellid Inc filed Critical Cellid
Priority to JP2021083054A priority Critical patent/JP2022176559A/ja
Publication of JP2022176559A publication Critical patent/JP2022176559A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】適切な大きさの拡張現実画像を表示できるようにする。【解決手段】眼鏡型端末1は、被写体を撮影することにより撮像画像データを作成する撮像部11と、撮像画像データに含まれる被写体の特徴点に対応する点群データを作成する点群データ作成部161と、入力された点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに点群データ作成部161が作成した点群データを入力し、データ変換モデルから出力される深度値を取得することにより、眼鏡型端末1から、撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する被写体の位置までの奥行距離を特定する奥行距離特定部163と、奥行距離に基づいて決定した大きさのAR画像を作成する画像作成部166と、ユーザUが被写体を見ている状態でAR画像をユーザUが視認できるように表示する表示部12と、を有する。【選択図】図4

Description

本発明は、拡張現実画像を表示するための眼鏡型端末、プログラム及び画像表示方法に関する。
従来、情報端末が被写体を撮像して作成した撮像画像に含まれる被写体の特徴点に基づいてモバイル端末の位置を推定し、推定した位置に基づいて、モバイル端末が作成した撮像画像に拡張現実画像を重ね合わせて表示部に表示させるシステムが知られている(例えば、特許文献1を参照)。
特開2016-170060号公報
特徴点に基づいて端末の位置を推定することができるとしても、撮像画像を生成した情報端末から被写体までの距離を特定することは困難である。したがって、情報端末を使用しているユーザが見ている被写体に対して適切な大きさで拡張現実画像を表示することができないという問題があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、適切な大きさの拡張現実画像を表示できるようにすることを目的とする。
本発明の第1の態様の眼鏡型端末は、ユーザが装着する眼鏡型端末であって、被写体を撮影することにより撮像画像データを作成する撮像部と、前記撮像画像データに含まれる前記被写体の特徴点に対応する複数の特徴点データを含む点群データを作成する点群データ作成部と、前記点群データが入力されると、前記点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに前記点群データ作成部が作成した点群データを入力し、前記データ変換モデルから出力される前記深度値を取得することにより、前記眼鏡型端末から、前記撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する前記被写体の位置までの奥行距離を特定する奥行距離特定部と、前記奥行距離に基づいて決定した大きさの拡張現実画像を作成する画像作成部と、前記ユーザが前記被写体を見ている状態で前記拡張現実画像を前記ユーザが視認できるように表示する表示部と、を有する。
前記眼鏡型端末は、複数の基準点群データと、前記眼鏡型端末の位置及び向きとを関連付けて記憶する記憶部と、前記記憶部に記憶された前記複数の基準点群データと前記点群データ作成部が作成した前記点群データとを比較することにより、前記点群データ作成部が作成した前記点群データに対応する前記眼鏡型端末の現在位置及び現在向きを特定する位置特定部と、をさらに有し、前記画像作成部は、前記現在位置及び前記現在向きに基づいて前記拡張現実画像の種類、及び前記拡張現実画像の向き、位置又は大きさの少なくともいずれかを決定してもよい。
前記表示部は、前記拡張現実画像が投影される透明なレンズと、前記拡張現実画像を前記レンズに投影する投影部と、を有し、前記投影部は、前記ユーザが前記レンズを介して前記被写体を視認している間に、前記レンズに前記拡張現実画像を投影してもよい。
前記眼鏡型端末は、前記奥行距離特定部が特定した前記奥行距離に基づいて、当該奥行距離に対応する前記特徴点の位置を前記ユーザが視認する際の視差を特定する視差特定部をさらに有し、前記表示部は、前記ユーザの右目に対応する右側レンズと、前記ユーザの左目に対応する左側レンズと、を有し、前記画像作成部は、前記視差に基づく角度だけ向きが異なる、前記右側レンズに投影される右側拡張現実画像と、前記左側レンズに投影される左側拡張現実画像と、を作成してもよい。
前記奥行距離特定部が特定した前記奥行距離に基づいて、当該奥行距離に対応する前記特徴点を前記ユーザが視認する際の視差を特定する視差特定部をさらに有し、前記表示部は、前記ユーザの右目に対応する右側レンズと、前記ユーザの左目に対応する左側レンズと、を有し、前記画像作成部は、前記右側レンズ及び前記左側レンズのそれぞれにおける位置が前記視差に基づく距離だけ異なる位置に投影されるように、前記右側レンズに投影される右側拡張現実画像と、前記左側レンズに投影される左側拡張現実画像と、を作成してもよい。
前記眼鏡型端末は、前記ユーザの右目と左目との間隔を特定する間隔特定部をさらに有し、前記画像作成部は、前記視差特定部が特定した前記視差と、前記間隔特定部が特定した前記間隔とに基づいて前記右側拡張現実画像と前記左側拡張現実画像とを作成してもよい。
前記画像作成部は、前記被写体の位置に基づいて、前記眼鏡型端末の正面方向と、前記眼鏡型端末と前記被写体とを結ぶ方向と、の角度差を特定した結果に基づいて決定した大きさの前記右側拡張現実画像及び前記左側拡張現実画像を作成してもよい。
本発明の第2の態様のプログラムは、コンピュータを、被写体を撮影することにより作成された撮像画像データに含まれる前記被写体の特徴点に対応する複数の特徴点データを含む点群データを作成する点群データ作成部と、前記点群データが入力されると、前記点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに前記点群データ作成部が作成した点群データを入力し、前記データ変換モデルから出力される前記深度値を取得することにより、前記被写体を撮影した端末から、前記撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する前記被写体の位置までの奥行距離を特定する奥行距離特定部と、前記奥行距離に基づいて決定した大きさの拡張現実画像を作成する画像作成部と、として機能させる。
本発明の第3の態様の画像表示方法は、コンピュータが実行する、被写体を撮影することにより作成された撮像画像データに含まれる前記被写体の特徴点に対応する複数の特徴点データを含む点群データを作成するステップと、前記点群データが入力されると、前記点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに、作成した前記点群データを入力し、前記データ変換モデルから出力される前記深度値を取得することにより、前記被写体を撮影した端末から、前記撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する前記被写体の位置までの奥行距離を特定するステップと、前記奥行距離に基づいて決定した大きさの拡張現実画像を作成するステップと、を有する。
本発明によれば、適切な大きさの拡張現実画像を表示できるようになるという効果を奏する。
画像表示システムの構成を示す図である。 情報処理装置が機械学習モデルMを有する場合における眼鏡型端末と情報処理装置との関係を示す図である。 眼鏡型端末のハードウェア構成を示す図である。 眼鏡型端末の機能構成を示す図である。 ユーザが見ている被写体の一例を示す図である。 点群データ作成部が作成した点群データの一例を示す図である。 画像作成部がAR画像の大きさを決定する動作について説明するための図である。 画像作成部が右側用のAR画像の位置と左側用のAR画像の位置を決定する動作について説明するための図である。 眼鏡型端末における処理の流れを示すフローチャートである。
[画像表示システムSの構成]
図1は、画像表示システムSの構成を示す図である。画像表示システムSは、眼鏡型端末1及び情報処理装置2を備えており、眼鏡型端末1に拡張現実画像(以下、「AR画像」という。)を表示させることができる。眼鏡型端末1は、無線通信回線W及びネットワークNを介して情報処理装置2との間でデータを送受信することができる。無線通信回線Wは、例えばWi-Fi(登録商標)又は携帯通信回線である。ネットワークNは、例えばインターネット又はイントラネットである。
眼鏡型端末1は、ユーザUが頭部に装着して使用する端末であり、透明なレンズの部分にAR画像を表示することができる。ユーザUは、レンズを通して周辺の被写体を見ながら、表示されたAR画像を見ることができる。
詳細については後述するが、眼鏡型端末1は、ユーザUが見ている被写体に応じて、AR画像を表示する位置、AR画像の大きさ及びAR画像の向きを決定する。眼鏡型端末1は、例えば、AR画像を近くに表示することが予め定められている被写体までの距離が大きい場合に、当該被写体までの距離が小さい場合に比べて小さくAR画像を表示する。また、被写体とAR画像との位置関係が予め定められている場合、ユーザUと被写体との位置関係に応じて異なる向きにAR画像を表示する。
眼鏡型端末1は、ユーザUが見ている領域を撮像して撮像画像データを作成する撮像デバイス(例えばカメラ)を有している。眼鏡型端末1は、撮像画像データに含まれている被写体の輪郭線上の複数の特徴点の画素値を含む点群データを作成し、眼鏡型端末1の位置及び向きが関連付けられた基準点群データを参照することにより、三次元空間における眼鏡型端末1の位置及び向きを特定する。眼鏡型端末1は、例えばGPS衛星から受信した電波に基づいて特定した概略の位置を示すデータを情報処理装置2に送信し、情報処理装置2から、概略の位置の周辺の位置及び向きに対応する基準点群データを取得する。
眼鏡型端末1の位置は、例えば緯度・経度・高度によって表されてもよく、所定の位置を原点とするX座標・Y座標・Z座標によって表されてもよい。眼鏡型端末1の向きは、所定の向きに対する角度により表される。眼鏡型端末1の向きは、例えば北向きに対する角度により表される。
また、眼鏡型端末1は、点群データを所定のデータ変換モデルに入力し、データ変換モデルから出力される点群データに含まれる複数の特徴点それぞれの深度値に基づいて、眼鏡型端末1の位置から点群データに対応する被写体までの奥行方向の距離(以下、「奥行距離」という場合がある。)を特定する。深度値は、眼鏡型端末1から特徴点データに対応する被写体の位置までの奥行方向の距離である。
眼鏡型端末1は、例えば作成した点群データに含まれている複数の特徴点それぞれに対応する奥行距離を特定する。データ変換モデルは、点群データを入力すると、入力された点群データに対応する撮像画像データが撮像された位置から点群データに含まれている複数の特徴点までの奥行距離(すなわち被写体の特徴点までの距離)を出力するソフトウェア又はデータベースである。
データ変換モデルは、例えば、点群データに含まれる複数の特徴点の位置の組み合わせ(すなわち点群のパターン)と、当該点群データに含まれる複数の特徴点それぞれの深度値とを教師データとして機械学習することにより作成された機械学習モデルである。眼鏡型端末1は、情報処理装置2から取得して記憶しているデータ変換モデルを使用してもよく、情報処理装置2が記憶さいているデータ変換モデルを使用してもよい。
図2は、情報処理装置2が機械学習モデルMを有する場合における眼鏡型端末1と情報処理装置2との関係を示す図である。眼鏡型端末1は、点群データを情報処理装置2に送信することにより、点群データを機械学習モデルMに入力する。情報処理装置2は、機械学習モデルMから出力される深度値を眼鏡型端末1に送信する。
眼鏡型端末1は、眼鏡型端末1が記憶している複数のAR画像又は情報処理装置2から取得可能な複数のAR画像のうち、特定した眼鏡型端末1の位置及び向きに対応するAR画像を、眼鏡型端末1の位置及び向きに対応する位置に表示させる。また、眼鏡型端末1は、眼鏡型端末1が特定した被写体の特徴点までの奥行距離に基づいて、表示させるAR画像の大きさを決定する。
眼鏡型端末1が作成した撮像画像データが二次元空間上の複数の位置に配置された画素により構成されている場合、眼鏡型端末1は、撮像画像データに含まれている被写体までの距離を特定することが困難である。このような場合、眼鏡型端末1は、被写体までの距離に適した大きさのAR画像を表示することが困難である。
しかし、眼鏡型端末1は、上記のとおり、点群データをデータ変換モデルに入力することにより、点群データに含まれる複数の特徴点までの距離を特定することができるので、眼鏡型端末1の位置及び向きに対応する位置に、適切な大きさのAR画像を適切な向きで表示することができる。このような眼鏡型端末1は、ユーザUが眼鏡型端末1を通して見ている被写体に対応する位置にテキスト又は図形を表示する観光案内用のアプリケーション又はゲームアプリケーション等のように、AR画像を利用する各種のアプリケーションに好適である。
以下、眼鏡型端末1の構成及び動作を詳細に説明する。
[眼鏡型端末1の構成]
図3は、眼鏡型端末1のハードウェア構成を示す図である。図4は、眼鏡型端末1の機能構成を示す図である。
図3に示すように、眼鏡型端末1は、撮像部11と、右側レンズ121と、左側レンズ122と、右側投影部123と、左側投影部124と、を有する。右側レンズ121、左側レンズ122、右側投影部123及び左側投影部124は、図4に示す表示部12を構成する。表示部12は、ユーザUが被写体を見ている状態でAR画像をユーザが視認できるように表示する。表示部12においては、右側投影部123が右側レンズ121に向けて投影画像L1と投影し、左側投影部124が左側レンズ122に向けて投影画像L2を投影することにより、AR画像を右側レンズ121及び左側レンズ122に表示する。
撮像部11は、被写体を撮影することにより撮像画像データを作成する撮像素子を有する。図3に示す例においては、撮像部11が眼鏡型端末1の中央付近に設けられているが、撮像部11が設けられている位置は、ユーザUが見る領域に対応する撮像画像データを作成することができる限りにおいて任意である。
右側レンズ121は、ユーザUの右目に対応しており、ユーザUが眼鏡型端末1を装着した状態でユーザUの右目の前方に位置する。右側レンズ121は光透過性を有しており、ユーザUは、右側レンズ121を介して周辺の被写体を見ることができる。また、右側レンズ121は、右側投影部123が投影したAR画像をユーザUが見ることができる態様で表示する。右側レンズ121は、例えば右側投影部123が右側レンズ121の一部の領域に投影した光を伝搬した後にユーザUの右目に向けて屈折させる導光板を有している。
左側レンズ122は、右側レンズ121と同等の構成を有する。左側レンズ122は、ユーザUの左目に対応しており、ユーザUが眼鏡型端末1を装着した状態でユーザUの左目の前方に位置する。左側レンズ122は光透過性を有しており、ユーザUは、左側レンズ122を介して周辺の被写体を見ることができる。また、左側レンズ122は、左側投影部124が投影したAR画像をユーザUが見ることができる態様で表示する。左側レンズ122は、例えば左側投影部124が左側レンズ122の一部の領域に投影した光を伝搬した後にユーザUの右目に向けて屈折させる導光板を有している。
右側投影部123は、AR画像を右側レンズ121に投影する。右側投影部123は、画像作成部166から入力された右目用のAR画像を右側レンズ121に投影する。右側投影部123及び左側投影部124は、ユーザが右側レンズ121及び左側レンズ122を介して被写体を視認している間に、右側レンズ121及び左側レンズ122にAR画像を投影する。
左側投影部124は、AR画像を左側レンズ122に投影する。左側投影部124は、画像作成部166から入力された左目用のAR画像を左側レンズ122に投影する。
続いて、図4を参照しながら眼鏡型端末1の内部構成及び機能について説明する。図4に示すように、眼鏡型端末1は、撮像部11及び表示部12に加えて、操作部13と、通信部14と、記憶部15と、制御部16と、を有する。制御部16は、点群データ作成部161と、位置特定部162と、奥行距離特定部163と、間隔特定部164と、視差特定部165と、画像作成部166と、を有する。
操作部13は、ユーザUによる眼鏡型端末1の操作を受けるためのデバイスである。操作部13は、例えばタッチスイッチ又はプッシュスイッチであってもよく、スマートフォン又はタブレット等の外部端末から操作用データを受信する近距離無線通信デバイスであってもよい。操作部13は、ユーザUの操作内容を示す操作データを間隔特定部164に入力する。
通信部14は、情報処理装置2とデータを送受信するための通信インターフェースを有する。通信部14は、例えば無線通信回線Wを用いて通信するための無線通信コントローラを有する。通信部14は、情報処理装置2から受信した深度値を奥行距離特定部163に入力する。通信部14は、情報処理装置2から受信した基準点群データを記憶部15に記憶させてもよい。
記憶部15は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の記憶媒体を有する。記憶部15は、制御部16が実行するプログラムを記憶する。また、記憶部15は、情報処理装置2から受信した基準点群データ、及び深度値データを記憶する。また、記憶部15は、複数の基準点群データと、眼鏡型端末1の位置及び向きとを関連付けて記憶する。基準点群データに関連付けられた眼鏡型端末1の位置は、例えば緯度・経度・高度により表される。基準点群データに関連付けられた眼鏡型端末1の向きは、所定の向きに対する角度により表される。
制御部16は、例えばCPU(Central Processing Unit)を有している。制御部16は、記憶部15に記憶されたプログラムを実行することにより、点群データ作成部161、位置特定部162、奥行距離特定部163、間隔特定部164、視差特定部165及び画像作成部166として機能する。
点群データ作成部161は、撮像部11から入力された撮像画像データに含まれる被写体の特徴点に対応する複数の特徴点データを含む点群データを作成する。特徴点は、被写体の形状の特徴を示す点であり、撮像画像データに含まれる被写体の輪郭線上の点である。特徴点は、例えば輪郭線の方向が変化する点である。図5及び図6を参照して点群データについて説明する。
図5は、ユーザUが見ている被写体の一例を示す図である。図5(a)は、撮像部11が作成した撮像画像データに対応しており、ユーザUが正面を向いた状態で見た被写体H1~H6を示している。図5(a)における左右方向がX方向、上下方向がY方向、奥行方向がZ方向である。図5(b)は、ユーザUが見ている空間を上方から見た状態を示している。
図6は、図5(a)に示した被写体H1~H6が含まれる撮像画像データに基づいて点群データ作成部161が作成した点群データの一例を示す図である。図6においては、撮像画像データに含まれている被写体H1~H6の複数の特徴点が黒点により示されている。点群データに含まれる複数の特徴点データそれぞれには、例えば、撮像画像データにおけるX座標、Y座標を示す座標データ、及び画素値(R値、G値、B値)が含まれている。点群データ作成部161は、作成した点群データを位置特定部162及び奥行距離特定部163に通知する。
位置特定部162は、例えば記憶部15に記憶された複数の基準点群データと点群データ作成部161が作成した点群データとを比較することにより、点群データ作成部161が作成した点群データに対応する現在位置及び現在向きを特定する。位置特定部162は、点群データ作成部161が作成した点群データに含まれている複数の特徴点の位置関係に最も近いパターンの基準点群データを選択し、選択した基準点群データに関連付けて記憶部15に記憶されている位置及び向きを、眼鏡型端末1の位置及び向きとして特定する。位置特定部162は、情報処理装置2から複数の基準点群データを取得して、取得した複数の基準点群データと点群データ作成部161が作成した点群データとを比較してもよい。位置特定部162は、特定した眼鏡型端末1の位置及び向きを画像作成部166に通知する。
奥行距離特定部163は、点群データ作成部161から通知された点群データに基づいて、点群データに含まれる少なくとも一部の特徴点データに対応する被写体の位置の深度値を特定する。奥行距離特定部163は、例えば、点群データ作成部161から点群データが入力されると、点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに点群データ作成部161が作成した点群データを入力する。奥行距離特定部163は、データ変換モデルから出力される、複数の特徴点データそれぞれに対応する深度値を取得することにより、眼鏡型端末1から、撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する被写体の位置までの奥行距離を特定する。
情報処理装置2がデータ変換モデルとして機能する機械学習モデルを記憶している場合、奥行距離特定部163は、通信部14を介して点群データを情報処理装置2に送信することにより、点群データをデータ変換モデルに入力し、データ変換モデルから出力される、複数の特徴点データそれぞれに対応する深度値を取得する。記憶部15がデータ変換モデルを記憶している場合、奥行距離特定部163は、記憶部15に記憶されているデータ変換モデルに点群データを入力することにより、複数の特徴点データそれぞれに対応する深度値を取得してもよい。
間隔特定部164は、ユーザUの右目と左目との間隔を特定する。間隔特定部164は、例えば、操作部13から入力された操作内容が示す右目と左目の間隔を示す数値に基づいて、ユーザUの右目と左目の間隔を特定する。撮像部11が、ユーザUの右目及び左目を撮像することができる場合、間隔特定部164は、撮像部11がユーザUの右目及び左目を撮像して作成された撮像画像データに基づいて右目と左目の間隔を特定してもよい。間隔特定部164は、特定した右目と左目の間隔を画像作成部166に通知する。
視差特定部165は、奥行距離特定部163が特定した奥行距離に基づいて、当該奥行距離に対応する特徴点の位置をユーザUが視認する際の視差を特定する。視差は、特定の奥行距離の位置にある点にAR画像を表示する場合に、点群データ作成部161における点群データ作成部161の基準点に対する位置と、奥行距離特定部163における奥行距離特定部163の基準点に対する位置との差である。
視差特定部165は、AR画像を表示する位置が眼鏡型端末1から遠ければ遠いほど視差を小さくし、AR画像を表示する位置が眼鏡型端末1に近ければ近いほど視差が大きくする。視差特定部165は、例えば、予め奥行距離と視差とが関連付けられた視差算出用テーブルを参照することにより視差を特定してもよく、奥行距離と視差との関係を示す式を用いて視差を特定してもよい。
画像作成部166は、ユーザUが表示部12で見るためのAR画像データが含まれる表示用画像データを作成する。画像作成部166は、表示用データとして、例えば右側投影部123が右側レンズ121に投影する右側投影画像データ、及び左側投影部124が左側レンズ122に投影する左側投影画像データを作成する。画像作成部166は、眼鏡型端末1の現在位置及び現在向きに基づいてAR画像の種類、及び拡張現実画像の向き、位置又は大きさの少なくともいずれかを決定する。AR画像の種類は、AR画像の形状、色、AR画像に含まれるテキストの内容等により定められる。拡張現実画像の位置は、右側投影画像データ及び左側投影画像データに対応する画像領域における位置であり、眼鏡型端末1によりユーザが拡張現実画像を見る位置に対応する。
画像作成部166は、奥行距離特定部163から通知された位置に、奥行距離特定部163から通知された向きに対応する向きのAR画像をユーザUが見ることができるように表示用画像データを作成する。また、奥行距離に基づいて決定した大きさのAR画像をユーザUが見ることができるように投影用画像データを作成する。画像作成部166は、奥行距離が大きければ大きいほど小さいAR画像を作成する。画像作成部166は、例えば、奥行距離特定部163が特定した奥行距離とAR画像の大きさとの関係が、基準となる奥行距離とAR画像の大きさとの関係と同じになるように、AR画像の大きさを決定する。
図7及び図8は、画像作成部166の動作について説明するための図である。図7は、画像作成部166がAR画像の大きさを決定する動作について説明するための図である。図7(a)及び図7(b)は、それぞれ被写体までの奥行距離が異なる状態でユーザUが見ている被写体H1~H6が含まれている空間に重ねてAR画像A1及びAR画像A2が表示された状態を示している。図7(a)は、図7(b)よりも被写体に近い位置からユーザUが被写体を見ている状態を示している。
この場合、画像作成部166は、図7(b)の状態において、図7(a)の状態で表示されるAR画像A1よりも小さいAR画像A2をユーザUが見るように投影画像データを作成する。このように、画像作成部166が、奥行距離特定部163が特定した奥行方向の距離に応じて異なる大きさのAR画像データを作成することにより、ユーザUは、被写体の大きさに適した大きさのAR画像を見ることができる。
図8は、画像作成部166が右側用のAR画像の位置と左側用のAR画像の位置を決定する動作について説明するための図である。図8に示す枠の左右方向の幅は、画像作成部166が作成する表示用画像の左右方向の幅に相当する。図8におけるAR画像Bは、ユーザUが見るAR画像である。図8においては、AR画像Bが、側面に1本の縦線が描かれた円柱であるという場合を例示している。
画像作成部166は、右側レンズ121及び左側レンズ122のそれぞれにおける位置が視差に基づく距離だけ異なる位置に投影されるように、右側レンズ121に投影される右側AR画像BRと、左側レンズに投影される左側AR画像BLと、を作成する。また、画像作成部166は、視差に基づく角度だけ向きが異なる、右側レンズに投影される右側AR画像BRと、左側レンズに投影される左側AR画像BLと、を作成する。
図8(a)は、眼鏡型端末1からAR画像を表示する位置(被写体H3と被写体H6の付近)までの距離がD1である場合を示している。AR画像BR1は、点群データ作成部161に表示される右側画像データにおけるAR画像の位置に対応しており、AR画像BL1は、点群データ作成部161に表示される左側画像データにおけるAR画像の位置に対応している。
図8(b)は、眼鏡型端末1からAR画像を表示する位置までの距離がD1よりも大きいD2である場合を示している。AR画像BR2は、点群データ作成部161に表示される右側画像データにおけるAR画像の位置を示しており、AR画像BL2は、点群データ作成部161に表示される左側画像データにおけるAR画像の位置を示している。眼鏡型端末1からAR画像を表示する位置までの距離が大きければ大きいほど視差が小さくなるので、図8(b)に示すように、AR画像BR2とAR画像BL2との間隔は、図8(a)におけるAR画像BR1とAR画像BL1との間隔よりも小さい。
また、図8(a)におけるAR画像BR1とAR画像BL1のそれぞれに描かれている縦線の位置の差と、図8(b)におけるAR画像BR2とAR画像BL2のそれぞれに描かれている縦線の位置の差とが異なっているように、右側AR画像の向きと左側AR画像との角度差は視差に基づいて決定されている。
このように、画像作成部166は、ユーザUがいる空間における眼鏡型端末1からAR画像を表示する位置までの距離に基づいて、右側レンズ121にAR画像を表示する位置と左側レンズ122にAR画像を表示する位置との差、及び右側レンズ121に表示するAR画像の向きと左側レンズ122に表示するAR画像の向きとの差を決定する。その結果、ユーザUは、右目で見るAR画像と左目で見るAR画像とがずれることなくAR画像を見ることができる。
画像作成部166は、間隔特定部164から入力されたユーザUの右目と左目の間隔にさらに基づいて、右側レンズ121にAR画像を表示する位置と左側レンズ122にAR画像を表示する位置とを決定してもよい。すなわち、画像作成部166は、視差特定部165が特定した視差と、間隔特定部164が特定した右目と左目の間隔とに基づいて右側AR画像と左側AR画像とを作成する。
画像作成部166は、右目と左目の間隔が大きければ大きいほど、右側レンズ121にAR画像を表示する位置と左側レンズ122にAR画像を表示する位置との間隔を大きくする。また、画像作成部166は、右目と左目の間隔が大きければ大きいほど、右側レンズ121に表示するAR画像の向きと左側レンズ122に表示するAR画像の向きとの角度差を大きくする。画像作成部166がこのように動作することで、ユーザUの右目と左目の間隔に適した位置に右目用AR画像及び左目用AR画像のそれぞれを表示することができるので、右目で見るAR画像と左目で見るAR画像とがずれることを防げる。
画像作成部166は、被写体の位置に基づいて、眼鏡型端末1の正面方向と、眼鏡型端末1と被写体とを結ぶ方向と、の角度差を特定し、特定した結果に基づいて決定した大きさの右側拡張現実画像及び左側拡張現実画像を作成してもよい。画像作成部166は、角度差がない場合、右側拡張現実画像の大きさと左側拡張現実画像の大きさとを同じにする。画像作成部166は、角度差が大きければ大きいほど、右側拡張現実画像の大きさと左側拡張現実画像の大きさとの差を大きくする。画像作成部166は、例えば被写体の位置が眼鏡型端末1の正面方向に対して右側にある場合、右側拡張現実画像を左側拡張現実画像よりも大きくする。画像作成部166が右側拡張現実画像及び左側拡張現実画像の大きさをこのように決定することにより、右側拡張現実画像と左側拡張現実画像とが同等の大きさでユーザの網膜に投影されるので、ユーザが鮮明な拡張現実画像を見ることができる。
[眼鏡型端末1における処理の流れ]
図9は、眼鏡型端末1における処理の流れを示すフローチャートである。図9に示す処理は、眼鏡型端末1においてAR画像を表示する操作が行われた時点から開始している。
点群データ作成部161は、撮像部11が作成した撮像画像データを取得する(S11)。点群データ作成部161は、取得した撮像画像データに基づいて点群データを作成する(S12)。位置特定部162は、記憶部15に記憶されている複数の基準点群データと、点群データ作成部161が作成した点群データとを比較することにより、眼鏡型端末1の位置及び向きを特定する(S13)。
また、奥行距離特定部163は、点群データ作成部161が作成した点群データをデータ変換モデルに入力することにより(S14)、眼鏡型端末1から点群データに含まれている特徴点それぞれまでの奥行距離を特定する(S15)。視差特定部165は、奥行距離特定部163が特定した奥行距離に基づいて視差を特定する(S16)。なお、S13の処理と、S14及びS15の処理との実行順序は任意である。
続いて、画像作成部166は、位置特定部162がS13において特定した眼鏡型端末1の位置及び向きに基づいて、AR画像を表示する位置及び向きを決定する。また、画像作成部166は、奥行距離特定部163がS15において特定した奥行距離に基づいて、AR画像の大きさを決定する。さらに、画像作成部166は、視差特定部165がS16において特定した視差に基づいて、右目用AR画像の位置と左目用AR画像の位置を決定し(S17)、表示部12に入力する画像データを作成する。画像作成部166は、作成した画像データを表示部12に入力することにより、AR画像を表示部12に表示させる(S18)。
制御部16は、AR画像を表示する動作を終了するための操作をユーザUから受け付けるまで(S19においてNO)、S11からS18までの処理を繰り返す。制御部16は、AR画像を表示する動作を終了するための操作をユーザUから受け付けると(S19においてYES)、AR画像を表示する処理を終了する。
[変形例]
以上の説明においては、右側レンズ121及び左側レンズ122が透過性を有しており、ユーザUが、右側レンズ121及び左側レンズ122を介して被写体を見るという場合を説明したが、画像作成部166は、AR画像とともに、撮像部11が作成した撮像画像データに基づく撮像画像を表示部12に表示させてもよい。この場合、右側レンズ121及び左側レンズ122のそれぞれに視差が考慮された画像が表示されるように、撮像部11が、右側レンズ121の近傍に右目用の撮像素子を有しており、左側レンズ122の近傍に左目用の撮像素子を有しており、画像作成部166は、右目用の撮像画像を右側レンズ121に表示させ、左目用の撮像画像を左側レンズ122に表示させることが望ましい。
[眼鏡型端末1による効果]
以上説明したように、眼鏡型端末1は、撮像画像データに基づいて点群データ作成部161が作成した点群データをデータ変換モデルに入力し、データ変換モデルから出力される深度値を取得することにより、眼鏡型端末1から、撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する被写体の位置までの奥行距離を特定する。そして、画像作成部166は、特定された奥行距離に基づいて、被写体の位置の近傍に表示させるAR画像の大きさを決定する。
眼鏡型端末1がこのように構成されていることで、撮像部11が作成した撮像画像データが二次元平面上の複数の画素の画素値により構成され、点群データ作成部161が作成した点群データに深度値が含まれていない場合であっても、適切な大きさのAR画像を表示部12に表示することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 眼鏡型端末
2 情報処理装置
11 撮像部
12 表示部
13 操作部
14 通信部
15 記憶部
16 制御部
121 右側レンズ
122 左側レンズ
123 右側投影部
124 左側投影部
161 点群データ作成部
162 位置特定部
163 奥行距離特定部
164 間隔特定部
165 視差特定部
166 画像作成部

Claims (9)

  1. ユーザが装着する眼鏡型端末であって、
    被写体を撮影することにより撮像画像データを作成する撮像部と、
    前記撮像画像データに含まれる前記被写体の特徴点に対応する複数の特徴点データを含む点群データを作成する点群データ作成部と、
    前記点群データが入力されると、前記点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに前記点群データ作成部が作成した点群データを入力し、前記データ変換モデルから出力される前記深度値を取得することにより、前記眼鏡型端末から、前記撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する前記被写体の位置までの奥行距離を特定する奥行距離特定部と、
    前記奥行距離に基づいて決定した大きさの拡張現実画像を作成する画像作成部と、
    前記ユーザが前記被写体を見ている状態で前記拡張現実画像を前記ユーザが視認できるように表示する表示部と、
    を有する眼鏡型端末。
  2. 複数の基準点群データと、前記眼鏡型端末の位置及び向きとを関連付けて記憶する記憶部と、
    前記記憶部に記憶された前記複数の基準点群データと前記点群データ作成部が作成した前記点群データとを比較することにより、前記点群データ作成部が作成した前記点群データに対応する前記眼鏡型端末の現在位置及び現在向きを特定する位置特定部と、
    をさらに有し、
    前記画像作成部は、前記現在位置及び前記現在向きに基づいて前記拡張現実画像の種類、及び前記拡張現実画像の向き、位置又は大きさの少なくともいずれかを決定する、
    請求項1に記載の眼鏡型端末。
  3. 前記表示部は、
    前記拡張現実画像が投影される透明なレンズと、
    前記拡張現実画像を前記レンズに投影する投影部と、
    を有し、
    前記投影部は、前記ユーザが前記レンズを介して前記被写体を視認している間に、前記レンズに前記拡張現実画像を投影する、
    請求項1又は2に記載の眼鏡型端末。
  4. 前記奥行距離特定部が特定した前記奥行距離に基づいて、当該奥行距離に対応する前記特徴点の位置を前記ユーザが視認する際の視差を特定する視差特定部をさらに有し、
    前記表示部は、前記ユーザの右目に対応する右側レンズと、前記ユーザの左目に対応する左側レンズと、を有し、
    前記画像作成部は、前記視差に基づく角度だけ向きが異なる、前記右側レンズに投影される右側拡張現実画像と、前記左側レンズに投影される左側拡張現実画像と、を作成する、
    請求項3に記載の眼鏡型端末。
  5. 前記奥行距離特定部が特定した前記奥行距離に基づいて、当該奥行距離に対応する前記特徴点を前記ユーザが視認する際の視差を特定する視差特定部をさらに有し、
    前記表示部は、前記ユーザの右目に対応する右側レンズと、前記ユーザの左目に対応する左側レンズと、を有し、
    前記画像作成部は、前記右側レンズ及び前記左側レンズのそれぞれにおける位置が前記視差に基づく距離だけ異なる位置に投影されるように、前記右側レンズに投影される右側拡張現実画像と、前記左側レンズに投影される左側拡張現実画像と、を作成する、
    請求項3に記載の眼鏡型端末。
  6. 前記ユーザの右目と左目との間隔を特定する間隔特定部をさらに有し、
    前記画像作成部は、前記視差特定部が特定した前記視差と、前記間隔特定部が特定した前記間隔とに基づいて前記右側拡張現実画像と前記左側拡張現実画像とを作成する、
    請求項5に記載の眼鏡型端末。
  7. 前記画像作成部は、前記被写体の位置に基づいて、前記眼鏡型端末の正面方向と、前記眼鏡型端末と前記被写体とを結ぶ方向と、の角度差を特定した結果に基づいて決定した大きさの前記右側拡張現実画像及び前記左側拡張現実画像を作成する、
    請求項5又は6に記載の眼鏡型端末。
  8. コンピュータを、
    被写体を撮影することにより作成された撮像画像データに含まれる前記被写体の特徴点に対応する複数の特徴点データを含む点群データを作成する点群データ作成部と、
    前記点群データが入力されると、前記点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに前記点群データ作成部が作成した点群データを入力し、前記データ変換モデルから出力される前記深度値を取得することにより、前記被写体を撮影した端末から、前記撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する前記被写体の位置までの奥行距離を特定する奥行距離特定部と、
    前記奥行距離に基づいて決定した大きさの拡張現実画像を作成する画像作成部と、
    として機能させるためのプログラム。
  9. コンピュータが実行する、
    被写体を撮影することにより作成された撮像画像データに含まれる前記被写体の特徴点に対応する複数の特徴点データを含む点群データを作成するステップと、
    前記点群データが入力されると、前記点群データに含まれる少なくとも一部の特徴点データに対応する深度値を出力するデータ変換モデルに、作成した前記点群データを入力し、前記データ変換モデルから出力される前記深度値を取得することにより、前記被写体を撮影した端末から、前記撮像画像データに含まれる少なくとも一部の複数の特徴点に対応する前記被写体の位置までの奥行距離を特定するステップと、
    前記奥行距離に基づいて決定した大きさの拡張現実画像を作成するステップと、
    を有する画像表示方法。
JP2021083054A 2021-05-17 2021-05-17 眼鏡型端末、プログラム及び画像表示方法 Pending JP2022176559A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021083054A JP2022176559A (ja) 2021-05-17 2021-05-17 眼鏡型端末、プログラム及び画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021083054A JP2022176559A (ja) 2021-05-17 2021-05-17 眼鏡型端末、プログラム及び画像表示方法

Publications (1)

Publication Number Publication Date
JP2022176559A true JP2022176559A (ja) 2022-11-30

Family

ID=84234145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021083054A Pending JP2022176559A (ja) 2021-05-17 2021-05-17 眼鏡型端末、プログラム及び画像表示方法

Country Status (1)

Country Link
JP (1) JP2022176559A (ja)

Similar Documents

Publication Publication Date Title
US10242504B2 (en) Head-mounted display device and computer program
CN110022470B (zh) 使用合成图像训练对象检测算法的方法和系统和存储介质
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
US10999412B2 (en) Sharing mediated reality content
US20210232858A1 (en) Methods and systems for training an object detection algorithm using synthetic images
CN211128024U (zh) 3d显示设备
KR20110070326A (ko) 머리 위치 추적을 이용한 입체 영상 표시 장치 및 이의 동작 방법
US11762623B2 (en) Registration of local content between first and second augmented reality viewers
WO2021110038A1 (zh) 3d显示设备、3d图像显示方法
JP6649010B2 (ja) 情報処理装置
US10296098B2 (en) Input/output device, input/output program, and input/output method
CN107592520B (zh) Ar设备的成像装置及成像方法
WO2016008342A1 (en) Content sharing methods and apparatuses
CN112929638A (zh) 眼部定位方法、装置及多视点裸眼3d显示方法、设备
JP2022176559A (ja) 眼鏡型端末、プログラム及び画像表示方法
WO2021237952A1 (zh) 一种增强现实的显示系统及方法
JP2006197036A (ja) 立体画像表示装置および立体画像表示方法
JP6378794B1 (ja) 画像処理装置、画像処理プログラム、及び、画像処理方法
US20170302904A1 (en) Input/output device, input/output program, and input/output method
CN214756700U (zh) 3d显示设备
JP5428723B2 (ja) 画像生成装置、画像生成方法、および、プログラム
CN113689551A (zh) 一种三维内容的展示方法、装置、介质及电子设备
JP2024062935A (ja) 立体視表示コンテンツを生成する方法および装置
JP2023062575A (ja) 画像処理装置、画像処理方法及びプログラム
JP6701693B2 (ja) 頭部装着型表示装置およびコンピュータープログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231128

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240424