JP2021063922A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2021063922A
JP2021063922A JP2019188845A JP2019188845A JP2021063922A JP 2021063922 A JP2021063922 A JP 2021063922A JP 2019188845 A JP2019188845 A JP 2019188845A JP 2019188845 A JP2019188845 A JP 2019188845A JP 2021063922 A JP2021063922 A JP 2021063922A
Authority
JP
Japan
Prior art keywords
information processing
real object
calibration
contact operation
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019188845A
Other languages
English (en)
Inventor
周藤 泰広
Yasuhiro Shudo
泰広 周藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019188845A priority Critical patent/JP2021063922A/ja
Priority to PCT/JP2020/027831 priority patent/WO2021075113A1/ja
Publication of JP2021063922A publication Critical patent/JP2021063922A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position

Abstract

【課題】例えば、適切なキャリブレーションが行われる情報処理装置を提供する。【解決手段】実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、実物体上の接触操作が行われた位置を、オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行うキャリブレーション処理部を有する情報処理装置である。【選択図】図2

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
ユーザが視認している実物体に仮想表示物を重畳する、所謂、光学シースルー型のディスプレイを使用した拡張現実(AR(Augmented Reality))に関する技術が知られている。係るAR技術では、実物体の位置をディスプレイの位置に変換するパラメータを用いた演算が行われる。実物体の位置に精度良く仮想物体を重畳するために、当該パラメータをキャリブレーションする提案がなされている(例えば、下記非特許文献1を参照のこと)。
J. Grubert、Y. Itoh、K. Moser、J. E. Swan II、"A Survey of Calibration Methods for Optical See-Through Head-Mounted Displays"、[online]、2017年9月13日、[2019年8月27日検索]、インターネット<URL:https://arxiv.org/abs/1709.04299>
このような分野では、できるたけ簡便にキャリブレーションが行われることが望まれる。
本開示は、上述した点に鑑みてなされたものであり、ユーザにかかる負荷を極力小さくした簡便な方法でパラメータをキャリブレーションすることが可能な情報処理装置、情報処理方法及びプログラムを提供することを目的の一つとする。
本開示は、例えば、
実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、実物体上の接触操作が行われた位置を、オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行うキャリブレーション処理部を有する
情報処理装置である。
本開示は、例えば、
キャリブレーション処理部が、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、実物体上の接触操作が行われた位置を、オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行う
情報処理方法である。
本開示は、例えば、
キャリブレーション処理部が、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、実物体上の接触操作が行われた位置を、オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行う
情報処理方法をコンピュータに実行させるプログラムである。
図1は、本実施形態に係る情報処理装置の外観例を示す図である。 図2は、本実施形態に係る情報処理装置の内部構成例を説明する際に参照される図である。 図3は、本実施形態に係る情報処理装置が有する機能を説明する際に参照される図である。 図4は、本実施形態に係るオブジェクトの一例を説明する際に参照される図である。 図5は、本実施形態に係る情報処理装置で行われるキャリブレーション処理の流れを説明するためのフローチャートである。
以下、本開示の実施形態等について図面を参照した説明がなされる。なお、説明は以下の順序で行われる。
<本実施形態において考慮すべき問題>
<一実施形態>
<変形例>
以下に説明する実施形態等は本開示の好適な具体例であり、本開示の内容がこれらの実施形態等に限定されるものではない。
<本実施形態において考慮すべき問題>
始めに、本開示の理解を容易とするために、本開示において考慮すべき問題について説明する。光学シースルー型のディスプレイを用いたAR技術ではカメラとディスプレイ間をキャリブレーションすることで、実物体に対する仮想物体の重畳を実現している。カメラとディスプレイとは、個々の内部パラメータと、相対関係の外部パラメータとで表現されて扱われる。ここで、ユーザ毎にディスプレイの視点位置は微妙に異なるため個別のキャリブレーションが必要となる。また、かけズレや後発におけるズレも発生することからユーザが光学シースルー型のディスプレイを視聴した際にキャリブレーションを行うことにより重畳精度を改善することが可能となる。係るキャリブレーションは、できるだけユーザに対して負担の少ない方法で行われることが望まれる。また、できるだけ場所の制約がないようにキャリブレーションを行えることが望まれる。以上の観点を踏まえつつ、本開示の実施形態についての詳細な説明がなされる。
<一実施形態>
[情報処理装置の外観例]
本実施形態では、情報処理装置(情報処理装置1)として眼鏡型のウエアラブル機器を例にした説明がなされる。図1は、本実施形態に係る情報処理装置1の外観例を示す図である。情報処理装置1は、通常の眼鏡と同様に、眼前に位置する左画像表示部3A及び右画像表示部3Bを有している。左画像表示部3A及び右画像表示部3Bは、例えば、シースルー型の表示部(光学シースルーディスプレイ)として構成されている。なお、左右の表示部を特に区別する必要無い場合には、左画像表示部3A及び右画像表示部3Bは、表示部3と適宜、総称される。
情報処理装置1は、左画像表示部3A及び右画像表示部3Bを保持するためのフレーム5を有する。フレーム5は、金属や合金、プラスチック、これらの組合せといった、通常の眼鏡を構成する材料と同じ材料から作製されている。
フレーム5には、電池、各種センサ、スピーカ等が搭載されている。例えば、フレーム5の所定位置には、ユーザの視線方向に存在する物体を認識するための外向きのカメラ11が搭載されている。カメラ11は、例えば、カメラ11A及びカメラ11Bを有するステレオカメラとして構成されており、カメラ11により奥行に関する情報が取得可能とされている。なお、奥行に関する情報を取得するためのデプスセンサ(例えば、ToF(Time of Flight)やLiDAR(Light Detection and Ranging)等)がフレーム5に搭載されていても良い。また、フレーム5には、内向き(ユーザの目に向かう側)のカメラ12が搭載されている。カメラ12は、左目用のカメラ12A及び右目用のカメラ12Bを有している。
[情報処理装置の内部構成例]
図2は、本実施形態に係る情報処理装置1の内部構成例を説明するための図である。情報処理装置1は、例えば、信号処理部21と、センサ部22と、キャリブレーション処理部23と、AR重畳処理部24と、描画処理部25とを有している。
信号処理部21は、情報処理装置1全体を統括的に制御する。また、信号処理部21は、センサ部22から供給されるセンシングデータに対して公知の処理を行う。例えば、信号処理部21は、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作を、センサ部22から供給されるセンシングデータに基づいて検出する。なお、信号処理部21により行われる他の処理の具体的内容は後述される。
センサ部22には、情報処理装置1が有するセンサを総称したものである。センサ部22には、上述したカメラ11や12が含まれる。上述したように、センサ部22に、奥行き情報を取得するためのデプスセンサが含まれていても良い。
キャリブレーション処理部23は、キャリブレーション処理を行う。キャリブレーション処理とは、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、実物体上の接触操作が行われた位置を、オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定する処理である。なお、キャリブレーション処理の具体的な内容については後述される。
AR重畳処理部24は、表示部3にオブジェクトを重畳する位置(具体的には、座標)を演算して設定する。AR重畳処理部24は、演算結果を描画処理部25に供給する。
描画処理部25は、AR重畳処理部24から供給された表示部3の位置(描画位置)に、仮想物体を重畳して表示する描画処理を行う。描画処理部25による処理により、表示部3を介して視認される実空間にオブジェクトが描画(重畳表示)される。
メモリ部26は、情報処理装置1が有するメモリを総称したものである。メモリ部26は、例えば、情報処理装置1で実行されるプログラムが格納されるROM(Read Only Memory)やワークメモリとして使用されるRAM(Random Access Memory)を含む。メモリ部26は、情報処理装置1に内蔵されていても良いし、着脱自在とされていても良い。メモリ部26の具体例としては、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、光磁気記憶デバイス、これらを組み合わせた記憶デバイス等が挙げられる。メモリ部26には、後述するキャリブレーションの対象となるパラメータを保存する領域が設定されている。
なお、以上説明した情報処理装置1の構成は一例であって、情報処理装置1が他の構成を有していても良い。例えば、情報処理装置1が、他の装置と通信を行うための通信部や音声を再生するためのスピーカ、自身の位置を把握するためのセンサ等を有していても良い。
[情報処理装置の機能]
図3は、情報処理装置1の機能の一例を説明するための機能ブロック図である。情報処理装置1の機能としては、例えば、平面検出処理、ポインタ生成処理、描画位置演算処理、ディスプレイ描画処理、タッチ検出処理、タッチ対応点保存処理、及び、キャリブレーション処理が挙げられる。
平面検出処理では、情報処理装置1の周囲に存在する壁面やテーブル上の面等の平面が検出される。例えば、接触操作が行われる実物体のデプスに基づいて当該実物体上の平面が検出される。平面検出処理は、カメラ11により得られる画像やデプスセンサの出力に基づいて行われる。より具体的には、カメラ11の撮像画像に基づいて検出される奥行方向の距離の差分が一定以内である面が平面として検出される。平面は、厳密な意味で平らである必要はなく、一定範囲内の凹凸があっても良い。平面検出処理により、検出された平面を規定する平面方程式が得られる。平面検出処理により検出された平面に、後述するオブジェクトが描画される。なお、平面検出処理には、カメラ11により撮像した2次元画像に対する画像認識処理など、デプス検出以外の別の認識処理を用いてもよい。
なお、平面検出処理により複数の平面が検出され得る。本実施形態では、検出された複数の平面のうち、情報処理装置1(より具体的には情報処理装置1を使用しているユーザ)に最も近い位置にある平面が、オブジェクトが重畳される平面として設定される。
ポインタ生成処理では、平面検出処理により得られた平面方程式で規定される平面に、例えば3個のポインタ座標が設定される。そして、各ポインタ座標を中心とする円が規定される。設定されたポインタ座標は、描画位置演算処理で使用される。
描画位置演算処理では、各ポインタ座標をそれぞれ表示部3における座標(u,v)に変換する演算が行われる。具体的には、描画位置演算処理では、下記の数式1に基づく演算が行われる。
[式1]
Figure 2021063922
数式1において、(u,v)は表示部3の座標、(x,y,z)は実空間の座標であり、具体的にはポインタ座標、Aは表示部3の内部パラメータ(画角、焦点距離等のパラメータ)であり情報処理装置1の出荷時に設定されている既知の値である。また、数式1における[R|T]は、撮像ユニット(本実施形態におけるカメラ11)の姿勢(回転(Rotation))と位置(並進(Translation))を表している。この[R|T]がキャリブレーションの対象となるパラメータである。以下の説明では、[R|T]がキャリブレーションパラメータ[R|T]と適宜称される。
なお、描画位置演算処理で行われる演算で用いられるキャリブレーションパラメータ[R|T]は、予め設定されているデフォルトのキャリブレーションパラメータである。描画位置演算処理により、ポインタ生成処理で設定された3個のポインタ座標(x,y,z)に対応する3個のポインタ座標(u,v)が得られる。なお、本実施形態では、ポインタ生成処理で円が設定されていることから、円を平面に投影するために、円を楕円に変換する楕円方程式を用いた演算がなされる。描画位置演算処理による演算結果がディスプレイ描画処理に用いられる。また、描画位置演算処理による演算結果(3個のポインタ座標(u,v))は、タッチ対応点保存処理によりメモリ部26に保存(記憶)される。
描画処理では、ポインタ座標(u,v)を中心とする楕円が、平面検出処理により検出された実物体上の平面上(同一平面上)のデプスの位置に描画される処理が行われる。例えば、図4に示すように、平面の一例であるテーブル面に、3個のポインタ座標のそれぞれを中心とする3個の楕円形状の仮想マーカ(3個のオブジェクトの一例)が描画される。表示部3に表示された3個の楕円をユーザは認識する。なお、オブジェクトの形状は楕円でなく、矩形、多角形等、任意の形状とすることができる。オブジェクトの形状によっては、上述した楕円方程式を用いた演算が行われなくても良い。また、個々のオブジェクトを明確に区別するために、オブジェクト毎の色や形状が異なるようにされても良い。
描画処理によりオブジェクトが描画された後、ユーザに対して、オブジェクトの中心付近を指でタッチする接触操作を促す報知がなされる。係る報知は、表示部3に文字を描画することにより行われても良いし、音声の再生により行われても良い。報知に応じてユーザはオブジェクトの中心付近に対する接触操作を行う。
タッチ検出処理では、ユーザによりなされた接触操作が検出される。接触操作は、例えば、ユーザの指先により行われる(図4参照)。なお、ユーザの指先でなく、ペン等を用いた接触操作が行われても良い。
一例として、所定のオブジェクトの中心付近のデプスとユーザの指先のデプスとが検出され、その差分が所定以下になったら、当該オブジェクトに対する接触操作がなされたものと検出される。ユーザの指先の動きが一定時間(例えば、数秒)、略静止していることが、カメラ11による撮像画像に基づいて検出されたことに応じて、接触操作がなされものと検出されても良い。また、その他の公知の方法により接触操作が検出されても良い。
タッチ検出処理により、ユーザの接触操作に対応する位置であるタッチ点(x,y,z)が検出される。本実施形態では、3個のオブジェクトのそれぞれに対して接触操作がなされることから、タッチ検出処理により3個のタッチ点が検出される。検出された3個のタッチ点は、タッチ点保存処理でメモリ部26に保存される。即ち、メモリ部26には、描画位置演算処理により得られたポインタ座標(u,v)とタッチ点(x,y,z)の組が3組、保存される。
キャリブレーション処理では、メモリ部26に保存されている3組のポインタ座標(u,v)とタッチ点(x,y,z)の対応をそれぞれ使用した数式1による演算が行われることにより、現在のユーザの使用環境に対応するキャリブレーションパラメータ[R|T]が演算される。換言すれば、キャリブレーション処理では、上述した接触操作の検出結果に基づいて、実物体の位置を表示部3における位置に変換するパラメータであるキャリブレーションパラメータ[R|T]が適切に設定される。設定されたキャリブレーションパラメータ[R|T]は、メモリ部26に保存される。以降の情報処理装置1におけるAR処理では、キャリブレーション処理により得られたキャリブレーションパラメータ[R|T]が用いられる。
なお、本実施形態では、カメラと表示部3(ディスプレイ)間の相対関係、回転、並進を補正するためには、実空間における座標と表示部3における座標の対応が少なくとも3個(3組)必要であることから、3個のオブジェクトが平面上(平面上のデプス位置)に描画される。勿論、平面に描画されるオブジェクトの数は、3個ではなく4個以上であっても良い。
本実施形態では、上述した複数の機能のうち、平面検出処理、ポインタ生成処理、タッチ検出処理、タッチ対応点保存処理は、信号処理部21により行われる。従って、本実施形態では、信号処理部21が、接触操作を検出する接触操作検出部及び実物体上の平面を検出する平面検出部として機能する。また、本実施形態では、キャリブレーション処理は、キャリブレーション処理部23により行われる。また、本実施形態では、描画位置演算処理はAR重畳処理部24により行われる。従って、本実施形態では、AR重畳処理部24が描画位置演算処理部として機能する。また、本実施形態では、描画処理が描画処理部25により行われる。
[キャリブレーション処理の流れ]
続いて、図5のフローチャートが参照されつつ、情報処理装置1で行われるキャリブレーション処理の流れについての説明がなされる。
ステップST11では、キャリブレーション処理が開始される。キャリブレーション処理は、例えば、情報処理装置1の使用開始時に行われる。具体的には、圧力センサ等により情報処理装置1のフレーム5がユーザの耳に掛けられたことが検出される。かかる検出がなされると、以下に説明するキャリブレーション処理が行われる。なお、情報処理装置1に対する所定の操作(例えば、電源をオンする操作)がなされたときにキャリブレーション処理が行われるようにしても良い。また、内側のカメラ12により表示部3と目(例えば瞳孔)との間の相対関係のズレが所定以上となったことが検出された場合に、キャリブレーション処理が行われるようにしても良い。また、使用中においても情報処理装置1の使用位置が変化することも想定されることから、使用開始後にもキャリブレーション処理が周期的に行われるようにしても良い。そして、処理がステップST12に進む。
ステップST12では、ユーザに対してテーブルや壁面等の平面に近づくことが指示される。係る指示は、文字の表示や音声の再生により行われる。そして、処理がステップST13に進む。
ステップST13では、平面検出処理により平面が検出される。例えば、ユーザにより接触操作が行われる。そして、当該接触操作が行われたテーブル等の実物体上の位置のデプスが検出され、検出されたデプスに基づいて実物体上の平面が検出される。なお、予め平面検出処理により検出された平面に近づくことがユーザに対して指示されても良い。そして、処理がステップST14に進む。
ステップST14では、ポインタ生成処理により3個のポインタ座標(x,y,z)のそれぞれを中心とする円が設定される。そして、描画位置演算処理により、3個のポインタ座標(x,y,z)のそれぞれにデフォルトのキャリブレーションパラメータを使用した演算が行われることにより3個のポインタ座標(u,v)が得られる。3個のポインタ座標(u,v)のそれぞれを中心とする3個の楕円状のオブジェクトが、平面検出処理で検出された平面上のデプスの位置に描画される。そして、描画されたオブジェクトの中心付近に対して接触操作を行うことを促す報知が、ユーザに対してなされる。そして、処理がステップST15に進む。
ステップST15では、ユーザによる接触操作に対応するタッチ点がタッチ点検出処理により検出される。そして、処理がステップST16に進む。
ステップST16では、ポインタ座標(u,v)とタッチ点(x,y,z)とのペア数が十分であるか否かが判断される。本例では、3個のオブジェクトが描画されることから、3個のタッチ点(x,y,z)が検出される。従って、ステップST16では、ポインタ座標(u,v)とタッチ点(x,y,z)とのペア数が3組以上であるか否かが判断される。係る判断は、例えば、信号処理部21に行われる。
ステップST16の判断結果がNoである場合には、処理がステップST15に戻り、再度、タッチ点検出処理が行われる。なお、この際に、接触操作がなされていないオブジェクトが強調されたり、既に接触操作がなされたオブジェクトが消去されるようにし、ユーザが接触操作を行っていないオブジェクトが認識され易くしても良い。
ステップST16の判断結果がYesである場合には、処理がステップST17に進む。ステップST17では、3組のポインタ座標(u,v)及びタッチ点(x,y,z)の対応を使用したキャリブレーション処理が行われることによりキャリブレーションパラメータ[R|T]が設定される。設定後のキャリブレーションパラメータ[R|T]がメモリ部26に保存される。保存されたキャリブレーションパラメータ[R|T]が次に更新されるまで使用される。そして、処理がステップST18に進み、キャリブレーション処理が終了される。
[本実施形態により得られる効果]
本実施形態によれば、キャリブレーションパラメータを適切に設定することできる。また、本実施形態では、キャリブレーション処理用の特定のオブジェクト等を用意する必要がない。
また、ユーザは、平面に描画されたオブジェクトに対して接触操作を行うだけで良いので、ユーザに対して過度の負担を強いることなく、簡便にキャリブレーション処理を行うことができる。また、ユーザは、実物体に対して接触操作を行うことにより触感を得られるのでタッチ点が空間中の実物体が存在しない位置に対する操作を行うことに比べて安定する。ユーザにとって位置を特定しやすい実物体上に重畳してオブジェクトが表示されることにより、実空間における3次元の位置が安定して検出されることで、キャリブレーション処理の精度が向上する。
また、例えば周囲の実物体の同一平面にオブジェクトが描画されることにより、タッチ点が当該平面上に存在するという拘束条件を利用できるので、キャリブレーション処理に係る演算を簡略化することができる。
また、周囲に平面が存在すればキャリブレーション処理を行うことができるので、キャリブレーション処理を行う際の場所的な制約を略なくすことができる。
<変形例>
以上、本開示の一実施形態について具体的に説明したが、本開示の内容は上述した一実施形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。以下、変形例について説明する。
情報処理装置1は、眼鏡型に限定されることはなく、頭部に装着されるHUD(Head Up Display)でも良いし、ヘルメッ卜型や車のフロン卜ガラス(ヘッドアップディスプレイ)型の表示デバイスをであっても良い。また、必ずしも人体に装着されるものではなく、可搬型の装置であっても良い。
上述した実施形態に係る情報処理装置1の機能の一部がクラウド上の機器で行われても良い。この場合には、当該クラウド上の機器が情報処理装置となり得る。
本開示は、装置、方法、プログラム、システム等により実現することもできる。例えば、上述した実施形態で説明した機能を行うプログラムをダウンロード可能とし、実施形態で説明した機能を有しない装置が当該プログラムをダウンロードしてインストールすることにより、当該装置において実施形態で説明した制御を行うことが可能となる。本開示は、このようなプログラムを配布するサーバにより実現することも可能である。また、各実施形態、変形例で説明した事項は、適宜組み合わせることが可能である。
なお、本開示中に例示された効果により本開示の内容が限定して解釈されるものではない。
本開示は、以下の構成も採ることができる。
(1)
実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、前記実物体上の前記接触操作が行われた位置を、前記オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行うキャリブレーション処理部を有する
情報処理装置。
(2)
前記接触操作が行われた前記実物体上の位置を検出する接触操作検出部を有する
(1)に記載の情報処理装置。
(3)
前記接触操作検出部は、前記接触操作が行われた前記実物体上の位置のデプスを検出する
(2)に記載の情報処理装置。
(4)
前記接触操作が行われる前記実物体のデプスに基づき前記実物体上の平面を検出する平面検出部を有し、
前記3個のオブジェクトは前記実物体上の前記平面上のデプスの位置に重畳表示される
(3)に記載の情報処理装置。
(5)
前記3個のオブジェクトは、検出された前記実物体上の同一平面上に重畳表示される
(4)に記載の情報処理装置。
(6)
前記パラメータは、前記実物体を撮影する撮影ユニットの姿勢と位置とを含むパラメータである
(1)から(5)までの何れかに記載の情報処理装置。
(7)
前記撮影ユニットを有する
(6)に記載の情報処理装置。
(8)
前記平面検出部は、検出された複数の平面のうち、最も近くに位置する平面を、前記オブジェクトを重畳表示する平面として設定する
(4)又は(5)に記載の情報処理装置。
(9)
前記キャリブレーション処理部は、前記情報処理装置の使用開始時に前記キャリブレーション処理を行う
(1)から(8)までの何れかに記載の情報処理装置。
(10)
前記キャリブレーション処理部は、前記ディスプレイと目との位置の間のずれが所定以上である場合に前記キャリブレーション処理を行う
(1)から(8)までの何れかに記載の情報処理装置。
(11)
前記3個のオブジェクトの前記ディスプレイにおけるそれぞれの描画位置を演算する描画位置演算処理部を有する
(1)から(10)までの何れかに記載の情報処理装置。
(12)
前記描画位置演算処理部により設定された前記描画位置に前記オブジェクトを表示する処理を行う描画処理部を有する
(11)に記載の情報処理装置。
(13)
キャリブレーション処理部が、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、前記実物体上の前記接触操作が行われた位置を、前記オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行う
情報処理方法。
(14)
キャリブレーション処理部が、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、前記実物体上の前記接触操作が行われた位置を、前記オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行う
情報処理方法をコンピュータに実行させるプログラム。
1・・・情報処理装置
3・・・表示部
11・・・カメラ
21・・・信号処理部
22・・・センサ部
23・・・キャリブレーション処理部
24・・・AR重畳処理部
25・・・描画処理部

Claims (14)

  1. 実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、前記実物体上の前記接触操作が行われた位置を、前記オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行うキャリブレーション処理部を有する
    情報処理装置。
  2. 前記接触操作が行われた前記実物体上の位置を検出する接触操作検出部を有する
    請求項1に記載の情報処理装置。
  3. 前記接触操作検出部は、前記接触操作が行われた前記実物体上の位置のデプスを検出する
    請求項2に記載の情報処理装置。
  4. 前記接触操作が行われる前記実物体のデプスに基づき前記実物体上の平面を検出する平面検出部を有し、
    前記3個のオブジェクトは前記実物体上の前記平面上のデプスの位置に重畳表示される
    請求項3に記載の情報処理装置。
  5. 前記3個のオブジェクトは、検出された前記実物体上の同一平面上に重畳表示される
    請求項4に記載の情報処理装置。
  6. 前記パラメータは、前記実物体を撮影する撮影ユニットの姿勢と位置とを含むパラメータである
    請求項1に記載の情報処理装置。
  7. 前記撮影ユニットを有する
    請求項6に記載の情報処理装置。
  8. 前記平面検出部は、検出された複数の平面のうち、最も近くに位置する平面を、前記オブジェクトを重畳表示する平面として設定する
    請求項4に記載の情報処理装置。
  9. 前記キャリブレーション処理部は、前記情報処理装置の使用開始時に前記キャリブレーション処理を行う
    請求項1に記載の情報処理装置。
  10. 前記キャリブレーション処理部は、前記ディスプレイと目との位置の間のずれが所定以上である場合に前記キャリブレーション処理を行う
    請求項1に記載の情報処理装置。
  11. 前記3個のオブジェクトの前記ディスプレイにおけるそれぞれの描画位置を演算する描画位置演算処理部を有する
    請求項1に記載の情報処理装置。
  12. 前記描画位置演算処理部により設定された前記描画位置に前記オブジェクトを表示する処理を行う描画処理部を有する
    請求項11に記載の情報処理装置。
  13. キャリブレーション処理部が、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、前記実物体上の前記接触操作が行われた位置を、前記オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行う
    情報処理方法。
  14. キャリブレーション処理部が、実物体に対して重畳表示された少なくとも3個のオブジェクトのそれぞれに対する接触操作の検出結果に基づいて、前記実物体上の前記接触操作が行われた位置を、前記オブジェクトを表示するディスプレイにおける位置に変換するパラメータを設定するキャリブレーション処理を行う
    情報処理方法をコンピュータに実行させるプログラム。
JP2019188845A 2019-10-15 2019-10-15 情報処理装置、情報処理方法及びプログラム Pending JP2021063922A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019188845A JP2021063922A (ja) 2019-10-15 2019-10-15 情報処理装置、情報処理方法及びプログラム
PCT/JP2020/027831 WO2021075113A1 (ja) 2019-10-15 2020-07-17 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019188845A JP2021063922A (ja) 2019-10-15 2019-10-15 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021063922A true JP2021063922A (ja) 2021-04-22

Family

ID=75486206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019188845A Pending JP2021063922A (ja) 2019-10-15 2019-10-15 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2021063922A (ja)
WO (1) WO2021075113A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4095320B2 (ja) * 2002-03-19 2008-06-04 キヤノン株式会社 センサ較正装置、センサ較正方法、プログラム、記憶媒体
JP5295714B2 (ja) * 2008-10-27 2013-09-18 株式会社ソニー・コンピュータエンタテインメント 表示装置、画像処理方法、及びコンピュータプログラム
US9760123B2 (en) * 2010-08-06 2017-09-12 Dynavox Systems Llc Speech generation device with a projected display and optical inputs
US9378592B2 (en) * 2012-09-14 2016-06-28 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US10198865B2 (en) * 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10070120B2 (en) * 2014-09-17 2018-09-04 Qualcomm Incorporated Optical see-through display calibration
JP6596914B2 (ja) * 2015-05-15 2019-10-30 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Also Published As

Publication number Publication date
WO2021075113A1 (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
US11003410B2 (en) Augmented reality display sharing
US10701509B2 (en) Emulating spatial perception using virtual echolocation
EP3411777B1 (en) Method of object motion tracking with remote device for mixed reality system, mixed reality system and computer readable medium
US10942024B2 (en) Information processing apparatus, information processing method, and recording medium
CN107209950B (zh) 从现实世界材料自动生成虚拟材料
US10088971B2 (en) Natural user interface camera calibration
US9728010B2 (en) Virtual representations of real-world objects
KR102222974B1 (ko) 홀로그램 스냅 그리드
KR102537784B1 (ko) 전자 장치 및 그 제어 방법
KR102213725B1 (ko) 모바일 디바이스 착용 시의 머리 움직임 추적
US9264702B2 (en) Automatic calibration of scene camera for optical see-through head mounted display
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
US20160117864A1 (en) Recalibration of a flexible mixed reality device
US11755122B2 (en) Hand gesture-based emojis
US20150379770A1 (en) Digital action in response to object interaction
KR20220110205A (ko) 헤드 장착식 디스플레이들에 대한 컨텐츠 안정화
US20220067966A1 (en) Localization and mapping using images from multiple devices
WO2019142560A1 (ja) 視線を誘導する情報処理装置
US20200211275A1 (en) Information processing device, information processing method, and recording medium
US11961195B2 (en) Method and device for sketch-based placement of virtual objects
WO2021075113A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2024006128A1 (en) Perspective correction of user input objects
CN117642775A (zh) 用于确定对象的保持的信息处理装置