JP7409497B2 - 位置合わせ支援装置、位置合わせ支援方法およびプログラム - Google Patents

位置合わせ支援装置、位置合わせ支援方法およびプログラム Download PDF

Info

Publication number
JP7409497B2
JP7409497B2 JP2022522494A JP2022522494A JP7409497B2 JP 7409497 B2 JP7409497 B2 JP 7409497B2 JP 2022522494 A JP2022522494 A JP 2022522494A JP 2022522494 A JP2022522494 A JP 2022522494A JP 7409497 B2 JP7409497 B2 JP 7409497B2
Authority
JP
Japan
Prior art keywords
subject
display
adjustment amount
content
support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022522494A
Other languages
English (en)
Other versions
JPWO2021229821A1 (ja
Inventor
涼平 西條
真一郎 永徳
卓矢 合田
優一 槙
宇翔 草深
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021229821A1 publication Critical patent/JPWO2021229821A1/ja
Application granted granted Critical
Publication of JP7409497B2 publication Critical patent/JP7409497B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Description

本発明の実施形態は、拡張現実に係るコンテンツと被写体との位置合わせを支援する、位置合わせ支援装置、位置合わせ支援方法およびプログラムに関する。
近年、現実の空間に仮想物体などのデジタル情報を重畳表示させる、拡張現実(AR:Augmented Reality)技術が注目されている。ユーザは、例えば、可搬型のディスプレイデバイスを通して、現実空間にデジタル情報(ARコンテンツ)が重畳された拡張現実を体験することができる。
ARコンテンツを用いた適用例として、眼鏡型のデバイスを用いて歩行者の視界にナビゲーション情報を重畳させる技術が提案されている(例えば、非特許文献1参照)。
矢野 椋也ほか、「眼鏡型ウェアラブル端末を用いたランドマーク確認に基づく屋外歩行者ナビゲーション」、マルチメディア,分散,協調とモバイル(DICOMO2016)シンポジウム2016論文集、419~427ページ、2016年7月
デジタル情報を現実空間に重畳表示するシステムの一例は、透過型ディスプレイとカメラとを備える情報提示端末を用いて実現される。ユーザが情報提示端末を把持し、ディスプレイを現実空間内の被写体にかざすと、カメラによって撮影された被写体の映像データに基づくARコンテンツ(以下、単に「コンテンツ」とも言う)がディスプレイ上に表示される。これにより、ユーザは、ディスプレイを通して被写体を観察しつつ、ディスプレイ上のコンテンツを視認することができる。
ここで、ディスプレイを通して観察される被写体とコンテンツとの位置合わせは、ユーザ自身が端末の位置や角度を調整することによって行う必要がある。従来のシステムでは、そのような位置合わせ操作をユーザに促すために、例えば、重畳対象の被写体を示す提示情報が用いられる。
図10は、従来の提示情報の一例を示す。図10では、ユーザにより、情報提示端末の表示画面SCを通して被写体OB11,OB12が観察されるとともに、表示画面SC上に提示情報GI11,GI12が表示される。提示情報GI11は、「黄色の円」という文字情報を含み、対象となる被写体がOB11であり、GI11をOB11に重畳させるよう誘導している。同様に、提示情報GI12は、「青い三角形」という文字情報を含み、対象となる被写体がOB12であり、GI12をOB12に重畳させるよう誘導している。なお、図10では色情報を網掛けにより表現している。
このように、従来のシステムでは、提示情報内でそれぞれの対象となる被写体を明示することによって、コンテンツの提供者が見せたい場所に情報提示端末を向けさせるための位置合わせを促す。従来のシステムでは、事前に定義された提示情報が継続的に使用され、また具体的にどのような位置合わせ操作を行うべきかはユーザに任されているので、コンテンツの提供者が意図したコンテンツと被写体の位置関係へと適切に誘導するのは容易ではない。
この発明は上記事情に着目してなされたもので、その目的とするところは、コンテンツと被写体とが適切な位置関係になるような位置合わせを効率的に支援する技術を提供することにある。
上記課題を解決するため、この発明の第1の態様は、ディスプレイ上に表示されるコンテンツと、上記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援装置に関する。位置合わせ支援装置は、上記被写体に対する上記ディスプレイの支持状態を算出する状態算出部と、上記支持状態について、上記コンテンツと上記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出する調整量算出部と、上記調整量を含む提示情報を生成し出力する提示情報生成部とを備える。ここで、上記調整量算出部は、事前に出力された上記提示情報に対して上記ディスプレイのユーザにより実施された位置合わせ操作に関する実績データを用いて、上記調整量を算出する。
この発明の第1の態様によれば、ディスプレイのユーザに対して、コンテンツと被写体との位置合わせを支援する情報が提示される。その際、事前に出力された提示情報に対してユーザによってなされた位置合わせ操作に関する実績データを用いて調整量が算出され、提示情報に含められる。これにより、実際にどのような位置合わせ操作が行われる傾向にあるかを考慮して、ユーザに提示する情報を生成することができ、より効率的な誘導を行うことができる。
すなわちこの発明の第1の態様によれば、コンテンツと被写体とが適切な位置関係になるような位置合わせを効率的に支援する技術を提供することができる。
図1は、この発明の一実施形態に係る位置合わせ支援装置を備えたシステム全体の機能構成を示す図である。 図2は、この発明の一実施形態に係る位置合わせ支援装置のハードウェア構成を示すブロック図である。 図3は、図1に示したシステムにおける撮影範囲とユーザによる観察範囲の関係を示す略図である。 図4は、図1に示したシステムの動作に係る記号または符号について説明する図である。 図5は、図1に示したシステムによる誘導情報の生成に係る処理フローの一例を示す図である。 図6Aは、従来の提示情報の表示例を示す図である。 図6Bは、図1に示したシステムにおける提示情報の表示例を示す図である。 図7は、図1に示したシステムで使用される実績データの一例を示す図である。 図8は、図1に示したシステムによるキャリブレーションの処理フローの一例を示す図である。 図9Aは、誘導情報の補正イメージの第1の例を示す図である。 図9Bは、誘導情報の補正イメージの第2の例を示す図である。 図10は、従来の提示情報の一例を示す図である。
以下、図面を参照してこの発明に係わる実施形態を説明する。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。
[一実施形態]
(1)構成
図1は、この発明の一実施形態に係る位置合わせ支援装置を含む、位置合わせ支援システムの全体構成の一例を示す図である。
位置合わせ支援システム1は、位置合わせ支援装置としての情報処理端末10と、ディスプレイデバイス20とを備える。
ディスプレイデバイス20は、例えば透明ディスプレイを備える可搬型のデバイスである。ユーザは、例えば手でディスプレイデバイス20を把持して、現実空間内の被写体を透過的に観察しつつ、撮影された被写体に関するコンテンツの閲覧を行うことができる。ただし、閲覧の間ユーザがディスプレイデバイス20を手で把持し続ける必要はなく、ディスプレイデバイス20が適切に支持された状態にあればよい。したがって、以下で「把持」というとき、必ずしも手で把持し続ける用途に限定することを意図したものではなく、説明の便宜上「把持」と表現するにすぎない。ここでは、「把持」は、単なる「支持」と交換可能に使用される。また、ここでは「コンテンツ」とは、ディスプレイ上で実現される拡張現実の内容全般を指し、「デジタル情報」と交換可能に使用される。
ディスプレイデバイス20は、撮影部21と、加速度計測部22と、映像表示部23と、送受信部24とを備える。
撮影部21は、現実空間内の被写体を撮影し、映像データまたは画像データを生成する機能を有する。なお、説明の便宜のため、以下では「映像データ」と言うが、画像(静止画)データであってもよい。
加速度計測部22は、加速度センサなど、ディスプレイデバイス20にかかる加速度を計測し、加速度データを出力する機能を有する。
映像表示部23は、例えば透明ディスプレイを備え、被写体を透過的に観察できるようにするとともに、コンテンツを表示する機能を有する。
送受信部24は、例えばBluetooth(登録商標)インタフェースを備え、情報処理端末10との間でデータの送受信を可能にする機能を有する。
情報処理端末10は、一実施形態に係る位置合わせ支援装置の一例である。情報処理端末10は、ディスプレイデバイス20から転送された映像データをもとに、画像認識、提示情報生成等の処理を行い、処理の結果をディスプレイデバイス20に送信する機能を有する。情報処理端末10は、上記機能を実現するための専用の端末であってもよいし、スマートフォン、タブレット端末、パーソナルコンピュータなどの汎用端末に専用のアプリケーションソフトウェアをインストールしたものであってもよい。
情報処理端末10は、映像取得部11と、把持状態計算部12と、画像認識部13と、提示情報生成部14と、コンテンツ情報データベース(DB)15と、誘導情報生成部16と、送受信部17とを備える。
映像取得部11は、撮影部21により撮影された映像データを取得する機能を有する。
把持状態計算部12は、支持状態を算出する状態算出部として、ユーザによるディスプレイデバイス20の把持(支持)状態を表す値を算出する機能を有する。一実施形態では、把持状態計算部12は、ユーザがディスプレイデバイス20を把持している角度(以下、「把持角度」)を算出する。例えば把持状態計算部12は、加速度計測部22で計測された加速度データを取得し、ディスプレイデバイス20にかかる重力加速度に基づいてユーザがディスプレイデバイス20を把持している角度を算出する。
画像認識部13は、撮影部21により撮影された映像データから被写体を認識する機能を有する。画像認識部13は、例えば、あらかじめ記憶された辞書画像(図示せず)とのマッチングにより被写体を認識する。
提示情報生成部14は、認識された被写体にあらかじめ関連付けられたコンテンツと、ユーザにコンテンツと被写体との位置関係を調整するための位置合わせ操作を促す誘導情報とを組み合わせた提示情報を生成し、出力する機能を有する。
コンテンツ情報データベース(DB)15は、被写体にあらかじめ関連付けられたコンテンツに関する情報を記憶する。
誘導情報生成部16は、コンテンツと被写体との位置合わせを支援する誘導情報を生成し出力する機能を有する。誘導情報生成部16は、調整量計算部161と、学習部162と、把持状態データベース(DB)163とを備える。
調整量計算部161は、調整量算出部として、誘導情報に含めるべき調整量を算出する機能を有する。調整量は、ディスプレイデバイス20の位置合わせ操作に係る物理量であり、例えば、角度、距離、向き等で表される。調整量計算部161は、把持状態計算部12によって算出されたディスプレイデバイス20の支持状態の値(例えば把持角度)、被写体とディスプレイデバイス20との間の距離、コンテンツと被写体との適切な位置関係に関する情報(例えば、コンテンツが関連付けられた被写体の特定の部分に関する情報(例えば高さ))、誘導情報に対するユーザの位置合わせ操作(例えば角度調整量)の傾向、または被写体もしくは提示情報ごとの支持状態(例えば把持角度)の傾向などの要素に基づいて、位置合わせのために提示する調整量を算出する機能を有する。
学習部162は、ユーザによるディスプレイデバイス20の位置合わせ操作または支持状態の調整操作の傾向を学習する。
把持状態DB163は、ユーザによるディスプレイデバイス20の位置合わせ操作に関するデータ(以下、「実績データ」と言う)を記憶する。一実施形態によれば、実績データは、事前に出力された提示情報に対して実際にユーザにより実施された位置合わせ操作を表す情報を蓄積したものである。実績データは、被写体またはコンテンツごとの操作または支持状態の傾向の学習に使用され得る。
送受信部17は、例えばBluetoothインタフェースを備え、ディスプレイデバイス20との間でペアリングによりデータの送受信を可能にする機能を有する。送受信部17と送受信部24は、他の無線接続または有線接続方式により接続されてもよい。
なお、情報処理端末10およびディスプレイデバイス20は、上記のように別々のデバイスとして構成されてもよいし、一体型のデバイスとして構成されてもよい。また、送受信部17と送受信部24が一体的に構成されてもよい。
図2は、一実施形態に係る位置合わせ支援装置としての情報処理端末10のハードウェア構成の一例を示す。情報処理端末10は、制御部101、記憶部102、通信インタフェース(I/F)103、入力部104、出力部105、およびバッテリ106を備える。
制御部101は、CPU(Central Processing Unit)1011と、ROM(Read Only Memory)1012と、RAM(Random Access Memory)1013などを含み、各構成要素を制御する。CPU1011がROM1012または記憶部102に記憶されたプログラムをRAM1013に展開し、このプログラムを実行することによって、制御部101は、上述した情報処理端末10の様々な機能を実行可能となる。
記憶部102は、例えば、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、半導体メモリ(例えばフラッシュメモリ)などの補助記憶装置であり、制御部101で実行されるプログラムや、プログラムを実行するために必要な設定データなどを非一時的に記憶する。
通信インタフェース103は、無線通信または有線通信のためのインタフェースである。通信インタフェース103は、例えば上記のようにBluetoothインタフェースを含み、ディスプレイデバイス20との間のデータ伝送を可能にする。
入力部104は、例えば、タッチスクリーン、キーボード、マウスなど、ユーザからの入力を受け付ける。出力部105は、例えば、ディスプレイやスピーカなどである。
バッテリ106は、情報処理端末10の各構成要素に電力を供給する。
(2)動作
次に、以上のように構成された情報処理端末10とディスプレイデバイス20とを備える位置合わせ支援システム1の動作について説明する。
(2-1)概要
まず、以下で説明する位置合わせシステム1の動作の概要について説明する。
図3は、ディスプレイデバイス20の撮影部21による撮影範囲と、映像表示部23越しに見える観察範囲の関係の一例を示す。ユーザUSは、ディスプレイデバイス20を把持し、現実空間内の被写体OBにかざすことにより、映像表示部23越しに被写体OBを観察している。この図では、ユーザUSが、水平の基準位置RPから肩を中心に略円運動により移動した把持角度θでディスプレイデバイスを把持しているものとする。
図3の上方の吹き出しに示されるように、映像表示部23により提供される表示画面23Dには、認識された被写体OBにあらかじめ関連付けられたコンテンツCTSが表示される。これにより、ユーザUSは、表示画面23D上で被写体OBを含む現実空間にコンテンツCTSが重畳表示された拡張現実を体験することができる。
図3の例では、コンテンツCTSは、「先端は500m」というテキスト情報を含んでおり、被写体OBの先端部OBTの高さが500mであることを示している。ここで、実線で描かれた表示画面23Dは、ユーザUSが実際に観察する範囲であるのに対し、破線21Vは、撮影部21により撮影される範囲を示している。このように、撮影部21の画角ρと映像表示部23越しに見える角度φが必ずしも一致しないことから、ユーザUSが観察する範囲23Dと撮影部21により撮影される映像データの範囲21Vも必ずしも一致しない。コンテンツCTSが撮影部21により撮影された映像データに基づいて提示されるので、映像表示部23を通して観察される被写体OBとコンテンツCTSとの位置関係は、コンテンツCTSの提供者が設定した位置関係からずれたものとなることがある。この例では、「先端は500m」というコンテンツCTSは、表示画面23Dにおいて、被写体OBの先端部OBTの近くに(または先端部OBTに重畳して)表示されることが望まれるが、ユーザUSの観察範囲(表示画面23D)には先端部OBTが観察されていない。したがって、コンテンツ提供者が望む位置関係を実現するためには、ユーザUSの観察範囲(表示画面23D)内に先端部OBTがくるような位置合わせ操作が必要である。
実施形態によれば、ユーザUSがディスプレイデバイス20を把持して観察を行う際に、被写体とARコンテンツの位置関係がコンテンツ提供者によって設定された関係になるように、ユーザに位置合わせ操作を促す誘導情報が提示される。その際、必要な位置合わせ操作に関する調整量が、ユーザによる位置合わせ操作の傾向を考慮して算出される。一実施形態に係る情報処理端末10は、あらかじめ取得された、「提示した誘導情報に対する当該ユーザの位置合わせ操作に関する実績データ」と「ある指定された被写体の誘導情報に対する1または複数のユーザの位置合わせ操作に関する実績データ」の両方またはいずれか一方を用いて、ユーザの操作の傾向を把握し、その傾向に合わせて実際に提示する誘導情報の値を補正する。
言い換えれば、情報処理端末10は、被写体とデバイスとの間の距離とディスプレイデバイスの把持角度からユーザが注視している範囲を推定し、提示情報と異なる範囲を注視していた場合にはより正確な把持角度へ調整するための誘導情報を出力する。その際、ユーザのデバイス利用開始時に誘導情報に対する実際の位置合わせ操作量のキャリブレーションを行い、その後の誘導情報をユーザごとに補正する。追加的にまたは代替的に、情報処理端末10は、被写体または提示情報ごとに支持状態の傾向を学習し、学習結果を用いて、ユーザに提示する誘導情報を被写体または提示情報ごとに補正する。
なお、以下では特にディスプレイデバイス20の垂直方向の把持角度の調整を例に挙げて説明するが、実施形態の適用範囲を垂直方向の把持角度のみに限定するものではない。実施形態に係る装置またはシステムは、例えば、水平方向の把持角度や被写体との距離に関する誘導情報を提示するものであってもよい。
また、以下では特にディスプレイデバイス20が透明ディスプレイを備えるものとして説明するが、これに限定されるものではなく、ディスプレイデバイス20は、ユーザが現実空間を透過的に観察できるものであれば、光学透過式であってもビデオ透過式であってもよい。
情報処理端末10は、撮影時における被写体とディスプレイデバイス20との間の距離、ユーザによるディスプレイデバイス20の把持角度、コンテンツによって言及される被写体の特定の部分(すなわち、コンテンツと被写体との適切な位置関係に関連してあらかじめ指定された被写体の特定の部分)の高さ、または目標とする把持角度に基づき、ユーザに位置合わせを支援する情報として把持角度調整の誘導情報を与えることで、ディスプレイデバイス20を目的の角度に傾けるよう誘導する。
また、ディスプレイデバイス20の把持角度調整の誘導情報に対して、ユーザごとに実際の角度補正の大きさが異なりうることを考慮して、ユーザに合わせた誘導情報を生成し出力する。具体的には以下の2つの方式が考えられる。
(A)ユーザがディスプレイデバイス20の利用を開始するときに、ユーザに把持角度に関する誘導情報を提示し、その誘導情報に対してユーザが実際に調整した角度をもとにキャリブレーションを行い、被写体の観察中にユーザに提示すべき誘導情報をユーザごとに補正する
(B)各被写体および提示情報に対する、1または複数のユーザ各々の把持角度を逐次的に学習し、学習結果に基づいて被写体または提示情報ごとにユーザに提示すべき誘導情報を決定する
なお、ここでは前提条件として、
・カメラのフレームレートが低く(例えば1fpsなど)、メモリやプロセッサを搭載しないディスプレイデバイスでAR表現を行う
・被写体は映像データから認識できる
・ディスプレイ端末越しに見えている範囲がカメラの画角全体と必ずしも一致するとは限らない
・ユーザはディスプレイ越しに被写体を観察している
ものとする。
図4は、位置合わせ支援システム1の動作の説明に先立って、以下で使用する記号/符号の定義を説明する図である。
図4では、図3と同様にユーザUSがディスプレイデバイス20を把持して被写体OBにかざしているものとする。ここでは、表示されるコンテンツ(図示せず)は、図3と同様に被写体OBの先端OBTについて言及しているものとする。なお、映像表示部23により提供される表示画面23Dには、ユーザに位置合わせ操作を促す誘導情報が表示される。ここでは誘導情報は、「θa度上にあげて」というテキストGITと、矢印イメージGIAとを含む。なお、23Bは、ディスプレイデバイス20のバッテリ等が格納されている不透明な部分を示す。
d: 被写体-ディスプレイデバイス間の距離
h: コンテンツによって言及される被写体の特定の部分(この例では先端OBT)の高さ
θc: ユーザが被写体にディスプレイデバイスをかざした把持角度(水平面上の基準位置RPに対して)
θt: 補正後の目標とする把持角度(d、hを用いて算出する)(TPはディスプレイデバイスの目標位置)
θa: ユーザに提示する把持角度の調整量(θc、θtを用いて算出する)(図示せず)
(2-2)処理フロー
図5は、被写体に関するコンテンツの提示、誘導情報の生成および把持角度調整に関する処理フローの一例を示す。
まずステップS101において、ディスプレイデバイス20の撮影部21が、被写体を撮影し、映像データを生成する。また加速度計測部22が、ディスプレイデバイス20にかかる垂直方向の加速度を計測し、加速度データを生成する。映像データおよび加速度データは、それぞれ任意のタイミングで(例えば1秒ごとに)、送受信部24を介して情報処理端末10に送信される。映像データと加速度データはそれぞれ異なる送信間隔で送信されてもよい。
ステップS102において、情報処理端末10の映像取得部11が映像データを、把持状態計算部12が加速度データを取得する。
ステップS103において、画像認識部13が、例えば、画像認識用の辞書画像に基づいて、映像データ内の被写体を認識する。
ステップS104において、誘導情報生成部16が、被写体-ディスプレイデバイス間距離dを算出する。誘導情報生成部16は、例えば、画像認識用の辞書画像と、映像データ内で認識された被写体のサイズ比から、距離dを算出することができる。
ステップS105において、把持状態計算部12が、ディスプレイデバイス20の加速度と重力加速度を用いて、ディスプレイデバイス20の把持角度θcを算出する。把持角度θcは、加速度センサ計測値からの傾斜角度の算出として一般に知られている方法を使用して算出されてよい。上述したように、垂直方向の把持角度に限らず、支持状態に関する他の物理量が算出されてもよい。
ステップS106において、調整量計算部161が、コンテンツと被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出し、誘導情報を生成する。ここで、調整量計算部161は、事前に出力された提示情報に対してユーザにより実施された位置合わせ操作に関する実績データに基づいて調整量を算出する。一実施形態によれば、調整量計算部161は、過去の学習によって得られた被写体または提示情報ごとの目標把持角度の傾向、および/またはキャリブレーション結果により最適化された計算モデルを用いて、誘導情報を生成する。具体的な調整量の算出方法、学習方法、およびキャリブレーション方法については後述する。誘導情報は、算出された調整量を含む。一実施形態によれば、誘導情報は、調整量の大きさに応じた矢印イメージとテキスト情報とを含む。
ステップS107において、提示情報生成部14が、被写体に関するコンテンツと誘導情報とを合わせた提示情報を生成する。提示情報は、送受信部17を介して送信され、送受信部24を介してディスプレイデバイス20により受信される。
ステップS108において、ディスプレイデバイス20は、受信した提示情報を映像表示部23によりユーザに提示する。提示情報の表示例について図6Aおよび図6Bを参照して説明する。
図6Aは、従来の提示情報の表示例を示す。撮影部により撮影される範囲CVと、映像表示部の表示画面DVとは一致しない。コンテンツCTSは、「先端は500m」というテキスト情報を含み、被写体OBの先端部OBTの部分に言及しているが、表示画面DVにおいてコンテンツCTSと先端部OBTの位置は、コンテンツ提供者が意図した位置関係からずれている。従来技術では、その後の位置合わせはユーザに任され、ユーザが自身の判断で把持角度を調整する必要がある。
図6Bは、一実施形態による提示情報が、映像表示部23により提供される表示画面23Dに表示される例を示す。図6Bにおいても、撮影部21による撮影範囲21Vと、表示画面23Dによる観察範囲とは一致しない。図6Bの左側に示されるように、提示情報生成部14により生成された提示情報が、表示画面23Dに表示される。提示情報は、図6Aの例と同じコンテンツCTSに加え、誘導情報として、上向きの矢印イメージGIAと、「15°上にあげて」というテキスト情報GITとを含む。「15°上」という情報は、調整量計算部161によって算出された調整量にあたる。矢印イメージGIAは、調整量を反映する長さおよび向きになるように生成されてよい。
表示画面23Dに表示された提示情報を確認したユーザは、「15°上にあげる」という位置合わせ操作(ディスプレイデバイス20を把持する角度の調整)を行う。ユーザは、正確な「15°」がわからなかったとしても、表示された矢印イメージGIAの長さを頼りに、テキスト情報GITで指示された調整を行うことができる。これにより、図6Bの右側に示されるように、表示画面23D上で透過的に観察される被写体OBの先端部OBTの位置が変わり、コンテンツCTSがその言及内容に対応する適切な位置関係に表示される。
次いで、ステップS109において、ディスプレイデバイス20は、加速度計測部22により、提示情報(誘導情報)を表示した後のディスプレイデバイス20にかかる垂直方向の加速度を計測し、送受信部24を介して情報処理端末10に送信する。
ステップS110において、情報処理端末10の把持状態計算部12は、提示情報を出力した後の加速度データを取得する。
ステップS111において、把持状態計算部12は、取得した加速度データと重力加速度に基づき、位置合わせ操作が行われた後のディスプレイデバイス20の把持角度θ’tを算出する。例えば、把持状態計算部12は、提示情報がディスプレイデバイス20に送信されてから一定時間が経過したことにより位置合わせ操作が実施されたものと推定して、位置合わせ操作後の把持角度θ’tを算出する。あるいは把持状態計算部12は、加速度データの変化に基づいて、位置合わせ操作が実施されたものと判断してもよい。
ステップS112において、誘導情報生成部16は、位置合わせ操作後の把持角度θ’tおよび距離dを実績データとして把持状態DB163に登録し、把持状態DB163に蓄積された実績データを用いて学習を行い、調整量計算部161によって使用される計算モデルを更新する。
図7は、把持状態DBに記憶される実績データの一例を示す。実績データは、例えば、被写体IDと、提示情報と、提示情報で言及される被写体の特定の部分の高さと、撮影距離と、ディスプレイデバイス20の把持角度(実測値)とを含む。なお、図7に示した実績データは、その前提として、ある展示会場に高さ333mのタワーのミニチュア模型が展示されており、ユーザがミニチュア模型にディスプレイデバイス20をかざすと、あらかじめ準備されたコンテンツ「タワーのてっぺんは333m」を含む提示情報が表示画面23Dに表示される状況を想定している。ここで、提示情報で言及される「タワーのてっぺん」はミニチュア模型では高さ2.0mの位置にあたるものとする。すなわち、コンテンツの提供者は、ユーザに「タワーのてっぺん」(高さ2.0mの位置)に上記コンテンツを重ねて見てもらうことを意図している。
図7において、被写体IDは、画像認識部13によって認識された被写体を識別する符号であり、提示情報は、コンテンツに含まれる「タワーのてっぺんは333m」というテキスト情報であり、提示情報で言及される被写体の特定の部分の高さは、ミニチュア模型の高さ2.0mであり、調整後にユーザがディスプレイデバイス20を把持する角度は15°(実測値)である。
ただし、位置合わせ支援システム1は、上記の例に限定されるものではなく、博物館や展示会などで展示物にかざす場合に加えて、屋外で建築物等にかざす場合にも適用可能であることに留意されたい。
(2-3)キャリブレーションフロー
図8は、キャリブレーション処理のフローの一例を示す。
まずステップS201において、情報処理端末10の誘導情報生成部16が、キャリブレーション用の調整量(「補正用の調整量」ともいう)θ’aをもちいた誘導情報を生成する。キャリブレーション用の調整量θ’aは、固定値であってもよいし、状況に応じて変更可能としてもよい(例えば、ユーザごとに変更されてもよい)。誘導情報は、図4に例示したように、矢印イメージGIAおよび/またはテキストGITとして生成される。必要な調整量と調整方向は、それぞれ矢印イメージの長さと向きによって表され得る。
次いでステップS202において、提示情報生成部14が、誘導情報に基づきユーザに提示するキャリブレーション用の提示情報を生成する。提示情報は、送受信部17および24を介してディスプレイデバイス20に受信される。
ステップS203において、映像表示部23が、情報処理端末10から送信されたキャリブレーション用の提示情報を表示する。
ステップS204において、加速度計測部22が、キャリブレーション用の提示情報の表示に応じてユーザが把持角度調整を行った後の垂直方向の加速度を計測する。加速度データは、送受信部24により情報処理端末10に送信する。
ステップS205において、把持状態計算部12が、加速度データを取得する。
ステップS206において、把持状態計算部12が、ディスプレイデバイス20から送信された加速度データと重力加速度を用いて、キャリブレーション用の提示情報に対してユーザが行った把持角度の調整量θ’cを算出する。調整量θ’cの計算例についてはさらに後述する。
ステップS207において、誘導情報生成部16が、ユーザが行った把持角度の調整量θ’cに基づき、調整量計算部161によって使用される計算モデルを補正する。
(2-4)調整量の算出例
調整量計算部161は、例えば式(1)により、目標の把持角度θtを算出することができる。
Figure 0007409497000001
上述したように、
d: 被写体-ディスプレイデバイス間の距離
h: コンテンツによって言及される被写体の特定の部分の高さ
θc: ユーザが被写体にディスプレイデバイスをかざした把持角度
θt: 補正後の目標とする把持角度(d、hを用いて算出する)
θa: ユーザに提示する把持角度の調整量(θc、θtを用いて算出する)
を表す。
また調整量計算部161は、目標の把持角度θtを用いて、例えば式(2)により、ユーザに提示する調整量θaを算出することができる。
Figure 0007409497000002
(2-5)キャリブレーションによる調整量の算出例
調整量計算部161は、ユーザがディスプレイデバイス20の使用を開始するときに、当該ユーザの操作の傾向を考慮するため、キャリブレーションを行うことができる。
調整量の算出に関して上述したのと同様に、情報処理端末10は、まず誘導情報生成部16の制御の下でキャリブレーション用の調整量θ’aを含むキャリブレーション用の誘導情報を生成する。誘導情報を含む提示情報は、ディスプレイデバイス20に送信され、映像表示部23を介してユーザに提示される。そして、情報処理端末10は、提示後のディスプレイデバイス20の加速度に基づいて、キャリブレーション用の調整量θ’aに対してユーザが実際に行った調整量θ’cを算出し、例えば式(3)により、定数αを算出する。算出されたαは、図示しない記憶部に記憶される。
Figure 0007409497000003
θ’a: キャリブレーション用の調整量
θ’c: θ’aに対してユーザが行った調整量
α: 定数
その後、ユーザによるディスプレイデバイス20の使用時に、調整量計算部161は、記憶された定数αを用いて、例えば式(2)を次式(2’)のように拡張することにより、調整量θaを算出する。
Figure 0007409497000004
式(2’)により算出される調整量θaは、当該ユーザの操作の傾向を考慮して補正されており、ユーザにより適切な位置合わせ操作を促すことができる。
(2-6)学習方法(実施例1)
学習部162による学習方法の第1の実施例として、式(4)に示すように、実績データに含まれる、位置合わせ操作後のディスプレイデバイス20の把持角度θ’t、被写体-ディスプレイデバイス間距離d、および被写体の特定の部分の高さhを利用して、重み係数w0,w1,w2を最適化するように学習を行うことができる。学習部162は、学習済みモデルを図示しない記憶部に記憶させ、学習のたびに更新することができる。
Figure 0007409497000005
誘導情報の生成の際には、調整量計算部161が、記憶部から最新の学習済みモデルを読み出し、観察しようとする被写体-可搬型ディスプレイデバイス間距離dと、被写体の特定の部分の高さhとを用いて、ユーザに把持角度調整の誘導情報を提示する際の調整後の目標とする把持角度θtを決定する。
学習部162による学習は、ユーザが観察を行うたびに逐次的に実施し得る。逐次的に学習を行い重み係数を最適化する手法として、例えば、ベイズ線形回帰の手法を利用することができる。
(2-7)学習方法(実施例2)
学習部162による学習方法の第2の実施例として、式(5)のガウス関数を用いることができる。この例では、学習部162は、実績データに含まれる、各被写体または各コンテンツに対するユーザの観察時のディスプレイデバイス20の把持角度θ’tが、式(5)のガウス関数に従うと仮定し、定数A,μ,σを最適化する学習を行う。
Figure 0007409497000006
誘導情報の生成の際には、調整量計算部161が、式(5)においてy(例えば把持角度xで観察を行ったユーザの人数)が最大になるディスプレイデバイス20の把持角度xを、ユーザに把持角度調整の誘導情報を提示する際の調整後の目標とする把持角度(目標値)θtとして決定する。なお、把持状態DB163にはあらかじめある一定量以上のデータが蓄積されているものとする。
学習部162が把持状態DB163に蓄積されたデータを用いて学習を行い、定数A,μ,σを最適化する手法として、例えば、最小二乗法を用いることができる。
(3)効果
以上詳述したように、この発明の一実施形態では、ディスプレイデバイス20と情報処理端末10とを備える位置合わせ支援システム1において、ユーザがディスプレイデバイス20を被写体OBにかざして観察する際に、ディスプレイデバイス20の映像表示部23上に表示されるコンテンツCTSと、映像表示部23を通して透過的に観察される被写体OBとの位置関係が、コンテンツ提供者が設定した関係になるように、誘導情報をユーザに提示する。その際、情報処理端末10は、被写体とディスプレイデバイス間の距離、ユーザのディスプレイデバイス把持角度、提示情報が言及する箇所の高さ、目標とする把持角度のうち少なくともいずれか1つを利用して誘導情報の値を補正する。言い換えれば、情報処理端末10は、あらかじめ取得された実績データに基づき、上述したようなキャリブレーションを行うことによって当該ユーザの操作の傾向を踏まえて、または上述したような学習を行うことによって被写体もしくはコンテンツに対する操作の傾向を踏まえて、補正された誘導情報を生成することができる。
これにより、ディスプレイデバイス20を用いたARコンテンツの提示において、被写体とコンテンツが適切な位置関係になるような位置合わせを促す場合に、より適切に補正された誘導情報をユーザに提示することができ、より正確な操作を誘導することができる。またキャリブレーションと学習を併用することによって、各ユーザの操作の傾向と、被写体もしくはコンテンツに応じた操作の傾向との両方が考慮されるので、さらに正確な操作が期待される。
図9A,9Bは、補正された誘導情報の一例を示す。図9A,9Bは、いずれも、実際に傾けてほしい角度が30°の場合を想定しており、図9Aは、指示よりも大きく調整する傾向のあるユーザUS11に提示する誘導情報、図9Bは、指示よりも小さく調整する傾向のあるユーザUS12に提示する誘導情報の例を示す。
図9Aにおいて、被写体OBに対し、ユーザUS11には、表示画面23D11内に、矢印IDA11と、「15°上にあげて」という指示IDT11が表示される。23B11は、バッテリ等が格納されている部分を示す。
図9Bにおいて、被写体OBに対し、ユーザUS12には、表示画面23D12内に、図9AのIDA11よりも大きな矢印IDA12と、「45°上にあげて」という指示IDT12が表示される。23B12は、バッテリ等が格納されている部分を示す。
このように、実際に傾けてほしい角度が30°の場合に、ユーザの操作の傾向に合わせて、提示する調整量を補正することにより(図9Aでは15°、図9Bでは45°)、コンテンツ提供者の意図に沿ったより正確な位置合わせを実現することができる。
[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。例えば、ユーザがディスプレイデバイス20を把持する角度の調整を促す誘導情報を生成する例を説明したが、上述したように、垂直方向の角度調整のみに限定されず、水平方向の角度調整や、被写体とディスプレイデバイスとの距離の調整など、他の観点での調整を促すこともできる。
また、上記実施形態では、主に透明ディスプレイを通した光学透過により観察する方法に関して説明したが、これに限定されるものではなく、上記実施形態はビデオ透過(カメラ映像をディスプレイ上に表示するなど)により透過的に観察する方法にも適用可能である。
ディスプレイデバイス20または情報処理端末10が備える各機能部を、複数の装置に分散配置し、これらの装置が互いに連携することにより処理を行うようにしてもよい。また各機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。
また、以上で説明した各処理の流れは、説明した手順に限定されるものではなく、いくつかのステップの順序が入れ替えられてもよいし、いくつかのステップが同時並行で実施されてもよい。また、以上で説明した一連の処理は、時間的に連続して実行される必要はなく、各ステップは任意のタイミングで実行されてもよい。
以上で記載した手法は、計算機(コンピュータ)に実行させることができるプログラム(ソフトウェア手段)として、例えば磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体(記憶媒体)に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、計算機に実行させるソフトウェア手段(実行プログラムのみならずテーブル、データ構造も含む)を計算機内に構成させる設定プログラムをも含む。上記装置を実現する計算機は、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウェア手段を構築し、このソフトウェア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、計算機内部あるいはネットワークを介して接続される機器に設けられた磁気ディスク、半導体メモリ等の記憶媒体を含むものである。
この発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
1…位置合わせ支援システム
10…情報処理端末
11…映像取得部
12…把持状態計算部
13…画像認識部
14…提示情報生成部
15…コンテンツ情報データベース
16…誘導情報生成部
161…調整量計算部
162…学習部
163…把持状態データベース
17…送受信部
20…ディスプレイデバイス
21…撮影部
22…加速度計測部
23…映像表示部
24…送受信部

Claims (7)

  1. ディスプレイ上に表示されるコンテンツと、前記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援装置であって、
    前記被写体に対する前記ディスプレイの支持状態を算出する状態算出部と、
    前記支持状態について、前記コンテンツと前記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出する調整量算出部と、
    前記調整量を含む提示情報を生成し出力する提示情報生成部と、
    を備え、
    前記調整量算出部は、
    ユーザにあらかじめ提示した補正用調整量と、それに対して前記ユーザが実施した実績調整量とを含む実績データに基づき、補正係数を算出する第1算出部と、
    前記コンテンツと前記被写体との適切な位置関係に係る前記ディスプレイの支持状態を表す目標値を算出する第2算出部と、
    前記ディスプレイの現在の支持状態を表す値と前記目標値との差に前記補正係数を乗じることによって前記調整量を算出する第3算出部と、
    を備える、
    位置合わせ支援装置。
  2. ディスプレイ上に表示されるコンテンツと、前記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援装置であって、
    前記被写体に対する前記ディスプレイの支持状態を算出する状態算出部と、
    前記支持状態について、前記コンテンツと前記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出する調整量算出部と、
    前記調整量を含む提示情報を生成し出力する提示情報生成部と、
    1もしくは複数のユーザから得られる実績データに基づいて、前記コンテンツまたは前記被写体ごとに、前記コンテンツと前記被写体との適切な位置関係に関連してあらかじめ指定された前記被写体の特定の部分の高さと、前記被写体と前記ディスプレイとの間の距離とを説明変数とし、前記提示情報を出力した後の前記ディスプレイの支持角度を目的変数とするモデルを学習する第1学習部と、
    を備え、
    前記調整量算出部は、前記第1学習部によって学習されたモデルに対し、前記被写体の特定の部分の高さと前記被写体と前記ディスプレイとの間の距離とを入力して得られる出力値を目標支持角度として用いて、前記調整量を算出する、
    位置合わせ支援装置。
  3. ディスプレイ上に表示されるコンテンツと、前記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援装置であって、
    前記被写体に対する前記ディスプレイの支持状態を算出する状態算出部と、
    前記支持状態について、前記コンテンツと前記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出する調整量算出部と、
    前記調整量を含む提示情報を生成し出力する提示情報生成部と、
    1もしくは複数のユーザから得られる実績データに基づいて、前記提示情報を出力してから所定の時間経過後の前記ディスプレイの支持角度をx、前記実績データに含まれるユーザの人数をyとするガウス関数y=f(x)の各定数を最適化する第2学習部と、
    を備え、
    前記調整量算出部は、前記第2学習部によって最適化された前記ガウス関数においてyを最大にするxを目標支持角度として用いて、前記調整量を算出する、
    位置合わせ支援装置。
  4. ディスプレイ上に表示されるコンテンツと、前記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援方法であって、
    前記被写体に対する前記ディスプレイの支持状態を算出することと、
    前記支持状態について、前記コンテンツと前記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出することと、
    前記調整量を含む提示情報を生成し出力することと
    を備え、
    前記調整量は、
    ユーザにあらかじめ提示した補正用調整量と、それに対して前記ユーザが実施した実績調整量とを含む実績データに基づき、補正係数を算出し、
    前記コンテンツと前記被写体との適切な位置関係に係る前記ディスプレイの支持状態を表す目標値を算出し、
    前記ディスプレイの現在の支持状態を表す値と前記目標値との差に前記補正係数を乗じることによって算出される、
    位置合わせ支援方法。
  5. ディスプレイ上に表示されるコンテンツと、前記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援方法であって、
    前記被写体に対する前記ディスプレイの支持状態を算出することと、
    前記支持状態について、前記コンテンツと前記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出することと、
    前記調整量を含む提示情報を生成し出力することと、
    1もしくは複数のユーザから得られる実績データに基づいて、前記コンテンツまたは前記被写体ごとに、前記コンテンツと前記被写体との適切な位置関係に関連してあらかじめ指定された前記被写体の特定の部分の高さと、前記被写体と前記ディスプレイとの間の距離とを説明変数とし、前記提示情報を出力した後の前記ディスプレイの支持角度を目的変数とするモデルを学習することと、
    を備え、
    前記調整量は、前記学習することによって学習されたモデルに対し、前記被写体の特定の部分の高さと前記被写体と前記ディスプレイとの間の距離とを入力して得られる出力値を目標支持角度として用いて、算出される、
    位置合わせ支援方法。
  6. ディスプレイ上に表示されるコンテンツと、前記ディスプレイを通して透過的に観察される被写体との位置合わせを支援する、位置合わせ支援方法であって、
    前記被写体に対する前記ディスプレイの支持状態を算出することと、
    前記支持状態について、前記コンテンツと前記被写体との位置関係を適切にするための位置合わせ操作に係る調整量を算出することと、
    前記調整量を含む提示情報を生成し出力することと、
    1もしくは複数のユーザから得られる実績データに基づいて、前記提示情報を出力してから所定の時間経過後の前記ディスプレイの支持角度をx、前記実績データに含まれるユーザの人数をyとするガウス関数y=f(x)の各定数を最適化することと、
    を備え、
    前記調整量は、前記最適化することによって最適化された前記ガウス関数においてyを最大にするxを目標支持角度として用いて、算出される、
    位置合わせ支援方法。
  7. 請求項1乃至のいずれか一項に記載の位置合わせ支援装置の各部による処理をコンピュータに実行させるプログラム。
JP2022522494A 2020-05-15 2020-05-15 位置合わせ支援装置、位置合わせ支援方法およびプログラム Active JP7409497B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/019555 WO2021229821A1 (ja) 2020-05-15 2020-05-15 位置合わせ支援装置、位置合わせ支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2021229821A1 JPWO2021229821A1 (ja) 2021-11-18
JP7409497B2 true JP7409497B2 (ja) 2024-01-09

Family

ID=78525567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022522494A Active JP7409497B2 (ja) 2020-05-15 2020-05-15 位置合わせ支援装置、位置合わせ支援方法およびプログラム

Country Status (3)

Country Link
US (1) US20230168498A1 (ja)
JP (1) JP7409497B2 (ja)
WO (1) WO2021229821A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017348A1 (ja) 2012-07-24 2014-01-30 ソニー株式会社 画像表示装置および画像表示方法
JP2017135605A (ja) 2016-01-28 2017-08-03 コニカミノルタ株式会社 画像表示装置
JP2019179214A (ja) 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
JP2020030704A (ja) 2018-08-23 2020-02-27 株式会社日立製作所 ガイダンスシステム及びガイダンス制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017348A1 (ja) 2012-07-24 2014-01-30 ソニー株式会社 画像表示装置および画像表示方法
JP2017135605A (ja) 2016-01-28 2017-08-03 コニカミノルタ株式会社 画像表示装置
JP2019179214A (ja) 2018-03-30 2019-10-17 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び映像表示システムを備える移動体
JP2020030704A (ja) 2018-08-23 2020-02-27 株式会社日立製作所 ガイダンスシステム及びガイダンス制御方法

Also Published As

Publication number Publication date
US20230168498A1 (en) 2023-06-01
JPWO2021229821A1 (ja) 2021-11-18
WO2021229821A1 (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
KR102426728B1 (ko) 포커스 제어 방법 및 이를 지원하는 전자 장치
KR102382865B1 (ko) 카메라 모듈, 카메라 모듈을 포함하는 전자 장치
JP6609929B2 (ja) 両眼光学拡張現実システムの深さ−視差較正
CN111696213B (zh) 图像生成装置、图像生成方法以及计算机可读介质
KR20170115350A (ko) 전자 장치 및 그의 동작 방법
WO2021082753A1 (zh) 蛋白质的结构信息预测方法、装置、设备及存储介质
US20200175046A1 (en) Deep reinforcement learning-based multi-step question answering systems
US9256986B2 (en) Automated guidance when taking a photograph, using virtual objects overlaid on an image
US20140300722A1 (en) Image-based measurement tools
US20140176705A1 (en) Photographing apparatus, information providing method, and computer product
US20150153182A1 (en) System and method for calibrating a navigation heading
JP2021508033A (ja) 距離測定装置およびその制御方法
JP2021189822A (ja) 画像処理システム、及び、画像処理方法、並びに、画像処理プログラム
WO2016103621A1 (ja) 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法
JP7409497B2 (ja) 位置合わせ支援装置、位置合わせ支援方法およびプログラム
US10638222B1 (en) Optimization of microphone array geometry for direction of arrival estimation
JP2018038322A (ja) 栽培支援装置、栽培システム、及びプログラム
JP2014026378A (ja) 端末装置、サーバ装置、情報処理システム、情報処理方法、およびプログラム
WO2022046307A2 (en) Systems and methods for personalized exercise protocols and tracking thereof
CN108895603A (zh) 送风设备及其送风控制方法、装置和可读存储介质
KR20200098796A (ko) 사용자 참여형 인체 3차원 모델링 장치 및 방법
WO2019017224A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2013179425A1 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
KR20180106178A (ko) 무인 비행체, 전자 장치 및 그에 대한 제어 방법
JP7334155B2 (ja) 表示方法および表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7409497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150