JP2020113159A - Information terminal device and program - Google Patents
Information terminal device and program Download PDFInfo
- Publication number
- JP2020113159A JP2020113159A JP2019005017A JP2019005017A JP2020113159A JP 2020113159 A JP2020113159 A JP 2020113159A JP 2019005017 A JP2019005017 A JP 2019005017A JP 2019005017 A JP2019005017 A JP 2019005017A JP 2020113159 A JP2020113159 A JP 2020113159A
- Authority
- JP
- Japan
- Prior art keywords
- information
- time
- unit
- posture
- presentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、遅延を抑制して姿勢を推定することが可能な情報端末装置及びプログラムに関する。 The present invention relates to an information terminal device and a program capable of estimating a posture while suppressing a delay.
画像を撮像するカメラの姿勢を推定する技術として例えば、特許文献1,2や非特許文献1の技術がある。特許文献1では、画像から特徴記述子を抽出し、複数の画像における当該記述子の対応関係を求めることで画像間の姿勢変化を推定する手法が提案されている。特徴記述子の正規化にセンサの情報を利用することで信頼性を高めている。特許文献2では、センサで初期姿勢を推定し画像で補正する手法が提案されている。センサにより姿勢推定の解空間を減少させ、画像による姿勢最適化の収束を高める効果があると主張している。非特許文献1では、深層学習を利用することで画像及びセンサから姿勢推定している。
Techniques for estimating the orientation of a camera that captures an image include, for example, techniques disclosed in
しかしながら、以上のような従来技術には、次の課題があった。すなわち、情報量の多い画像から姿勢を推定するには処理負荷がかかることにより、撮像してから姿勢算出までに時間を要するため、姿勢算出結果が得られた時点では姿勢が変化している虞がある。特に、光学シースルー型ヘッドマウントディスプレイ(HMD)などで実世界の景色が遅延無く視認できる場合に、この姿勢算出結果を用いて拡張現実(AR)表示アプリを実現しようとする場合などには、姿勢推定結果の反映が遅れてしまうという問題がある。 However, the above conventional techniques have the following problems. That is, since a processing load is required to estimate a posture from an image having a large amount of information, it takes time from image capturing to posture calculation. Therefore, the posture may change when the posture calculation result is obtained. There is. In particular, if you want to realize an augmented reality (AR) display application by using this attitude calculation result when the real world scenery can be viewed without delay on an optical see-through type head mounted display (HMD), etc. There is a problem that the reflection of the estimation result will be delayed.
この遅れの結果として、カメラが背景や対象物に対して動いている場合に、こうした従来技術の姿勢推定を用いたAR表示を体験するユーザの立場においては、不自然な表示となってしまう虞があった。すなわち、見えている現時刻の背景や対象物に対して、現時刻の姿勢とは異なる過去時刻の姿勢に基づいてAR表示が行われることにより、AR表示として重畳を行うべき本来の位置から乖離した位置に重畳が行われ、不自然な表示となってしまう虞があった。例えば、動きが速い場合、現在時刻からわずか0.1秒〜0.2秒程度の遅延を伴う過去時刻の姿勢を利用する場合であっても、不自然な表示となってしまう虞があった。 As a result of this delay, when the camera is moving with respect to the background or the object, the display may be unnatural from the standpoint of the user who experiences the AR display using such conventional posture estimation. was there. In other words, the AR display is performed based on the posture at the past time that is different from the posture at the current time with respect to the visible background or object at the current time, so that the AR display deviates from the original position to be superimposed. There is a risk that superimposition will be performed at the position where it is displayed, resulting in an unnatural display. For example, when the movement is fast, even if the posture at the past time with a delay of only 0.1 seconds to 0.2 seconds from the current time is used, the display may be unnatural.
上記従来技術の課題に鑑み、本発明は、遅延を抑制して姿勢を推定することが可能な情報端末装置及びプログラムを提供することを目的とする。 In view of the problems of the above-mentioned conventional techniques, it is an object of the present invention to provide an information terminal device and a program capable of estimating a posture while suppressing a delay.
上記目的を達成するため、本発明は、情報端末装置であって、撮像を行って撮像画像を得る撮像部と、前記撮像画像より、過去時刻における前記撮像部の姿勢情報を推定する第一推定部と、前記撮像部の姿勢が反映されるセンサ値を継続的に取得するセンサ部と、前記継続的に取得したセンサ値より未来時刻に向けての姿勢変化情報を推定する第二推定部と、前記姿勢情報と前記姿勢変化情報とを合成した合成姿勢情報を得る合成部と、を備えることを特徴とする。また、コンピュータを前記情報端末装置として機能させるプログラムであることを特徴とする。 In order to achieve the above-mentioned object, the present invention is an information terminal device, and an image capturing unit that captures an image to obtain a captured image, and first estimation that estimates posture information of the image capturing unit at a past time from the captured image. Unit, a sensor unit that continuously acquires a sensor value that reflects the attitude of the imaging unit, and a second estimation unit that estimates attitude change information toward a future time from the continuously acquired sensor value. A combining unit that obtains combined posture information that combines the posture information and the posture change information. Further, it is a program for causing a computer to function as the information terminal device.
本発明によれば、撮像画像より高精度に過去の姿勢情報を推定し、未来時刻に向けての姿勢変化情報はセンサ値に基づいて推定しておき、且つ、これら姿勢情報と姿勢変化情報を合成した合成姿勢情報を得ておくことにより、現在時刻が未来時刻に到達した際に、この合成姿勢情報によって遅延が抑制されており且つ高精度な姿勢推定結果を得ることができる。 According to the present invention, the posture information in the past is estimated with high accuracy from the captured image, the posture change information toward the future time is estimated based on the sensor value, and the posture information and the posture change information are calculated. By obtaining the synthesized combined posture information, when the current time reaches the future time, delay can be suppressed by this combined posture information and a highly accurate posture estimation result can be obtained.
図1は、一実施形態に係る情報端末装置の機能構成図である。図示するように、情報端末装置10は、撮像部1、センサ部2、第一推定部3、第二推定部4、合成部5及び提示部6を備える。情報端末装置10のハードウェア構成は、スマートフォン、タブレット端末、デスクトップ型又はラップトップ型のコンピュータ、HMD等として実装される一般的なコンピュータ装置によって実現することができる。
FIG. 1 is a functional configuration diagram of an information terminal device according to an embodiment. As illustrated, the information terminal device 10 includes an imaging unit 1, a
図2は、情報端末装置10を実現することが可能な一般的なコンピュータ装置20のハードウェア構成の例を示す図である。図2に示すように、コンピュータ装置20は、所定命令を実行するCPU(中央演算装置)101、CPU101の実行命令の一部又は全部をCPU101に代わって又はCPU101と連携して実行する専用プロセッサ102(GPU(グラフィック演算装置)や深層学習専用プロセッサ等)、CPU101や専用プロセッサ102にワークエリアを提供する主記憶装置としてのRAM103、補助記憶装置としてのROM104、カメラ201、シースルー型ではない通常のディスプレイ202、光学シースルー型HMDを実現する場合のためのシースルー型ディスプレイ203、センサ204及び通信インタフェース205と、これらの間でデータを授受するためのバスBと、を備える。なお、ディスプレイ202及びシースルー型ディスプレイ203は、実施形態に応じてそのいずれか一方のみが備わるようにしてもよい。
FIG. 2 is a diagram showing an example of a hardware configuration of a general computer device 20 capable of realizing the information terminal device 10. As shown in FIG. 2, the computer device 20 includes a CPU (central processing unit) 101 that executes a predetermined instruction, and a dedicated processor 102 that executes a part or all of the execution instructions of the
詳細を後述する情報端末装置10の各部は、各部の機能に対応する所定のプログラムをROM104から読み込んで実行するCPU101及び/又は専用プロセッサ102によって実現することができる。ここで、撮像関連の処理が行われる場合にはさらに、カメラ201が連動して動作し、表示関連の処理が行われる場合にはさらに、ディスプレイ202又はシースルー型ディスプレイ203が連動して動作し、各種のセンサ値の取得が行われる際にはさらにセンサ204(1種類以上)が連動して動作し、ネットワークを経由したデータ送受信に関する通信関連の処理が行われる場合にはさらに通信インタフェース205が連動して動作する。
Each unit of the information terminal device 10, which will be described in detail later, can be realized by the
なお、情報端末装置10は、スマートフォン端末等の1台のコンピュータ装置20によって実現されてもよいし、2台以上のコンピュータ装置20によって実現されてもよい。例えば、少なくともカメラ201及びシースルー型ディスプレイ203を備えるHMD端末である第一のコンピュータ装置20と、このHMD端末において表示するためのAR重畳コンテンツを提供するスマートフォン端末である第二のコンピュータ装置20とを、両端末の通信インタフェース205を介した近距離無線などによって相互に通信可能としたシステムを、情報端末装置10としてもよい。これに加えて、またはこれに代えて、ネットワーク上のサーバ端末である第三のコンピュータ装置20において、情報端末装置10の一部(用途としてユーザが存在する現場でAR表示を実現する場合は、撮像部1、センサ部2及び提示部6を除く)の機能が実現されてもよい。
The information terminal device 10 may be realized by one computer device 20 such as a smartphone terminal, or may be realized by two or more computer devices 20. For example, a first computer device 20 that is an HMD terminal including at least a
以下、情報端末装置10の各部を説明する。図3は、情報端末装置10の各部が連携して動作することによる、情報端末装置10全体としての動作の時間推移の模式例を示す図である。図3では、その時間軸が横軸方向で共通のものとして線L1上に例えば時刻t1,t2,…,t8として示されており、この時間軸上において各部の処理の模式例が示されている。以下の説明においては適宜、この図3の例を参照する。 Hereinafter, each unit of the information terminal device 10 will be described. FIG. 3 is a diagram showing a schematic example of a time transition of the operation of the information terminal device 10 as a whole by the respective parts of the information terminal device 10 operating in cooperation with each other. In FIG. 3, the time axis is shown as, for example, times t 1 , t 2 ,..., T 8 on the line L1 as being common in the horizontal axis direction, and a schematic example of the processing of each unit on this time axis is shown. It is shown. In the following description, the example of FIG. 3 will be referred to as appropriate.
撮像部1は、撮像を行い、得られた画像を時刻情報(撮像時刻のタイムスタンプ)とともに撮像情報として第一推定部3および提示部6へ出力する。撮像部1は、ハードウェアとしてはデジタルカメラ等によるカメラ201を用いて実現することができる。
The image capturing unit 1 captures an image and outputs the obtained image to the first estimating
図4は、一実施形態に係る撮像部1の動作のフローチャートである。ステップS11では、現時刻が撮像タイミングに到達したか否かを判定し、到達していればステップS12へと進み、到達していなければステップS11に戻り、この判定を繰り返す。ステップS12ではこの撮像タイミングにおいて撮像を行い、得られた画像にタイムスタンプを紐づけた撮像情報を、第一推定部3及び提示部6へと転送してから、(すなわち、第一推定部3及び提示部6が処理のために参照する画像バッファとしてのRAM103へと転送してから、)ステップS11へと戻る。以上の図4のフローにより、ステップS11で判定される撮像タイミングごとに、撮像部1による撮像が繰り返されることとなる。
FIG. 4 is a flowchart of the operation of the image capturing unit 1 according to the embodiment. In step S11, it is determined whether or not the current time has reached the image capturing timing. If the current time has arrived, the process proceeds to step S12, and if not, the process returns to step S11 and this determination is repeated. In step S12, imaging is performed at this imaging timing, and imaging information in which a time stamp is associated with the obtained image is transferred to the
ステップS11の撮像タイミングは、予め指定しておく所定の時間間隔ごととしてよいが、実際の撮像時刻(撮像情報における時刻情報として反映される撮像時刻)は、例えば画像の焦点を合わせる等の処理完了を待つことにより、所定の撮像タイミングからズレがあるものであってもよい。図3の例では、線L1上に示されるこのような撮像時刻t1,t2,…,t8において線L2上に示すような撮像情報I1,I2,…,I8が得られたうえで転送を開始され、この転送が完了した状態が線L3上に示されている。この転送には一般に、不均一な遅延が発生しうるものである。この不均一な遅延の原因には、汎用的なコンピュータ装置20である情報端末装置10においてその他の処理(本発明に関係する処理以外の、オペレーティングシステムによって管理されるバックグラウンド処理など)が同時並行で実施されることによって発生する不均一な負荷等が含まれる。図3の例ではこの不均一な遅延により例えば、撮像時刻t2の撮像情報I2の転送所要時間よりも、撮像時刻t3の撮像情報I3の転送所要時間の方が長くなっている。 The image capturing timing in step S11 may be set at predetermined time intervals specified in advance, but the actual image capturing time (image capturing time reflected as time information in the image capturing information) is, for example, processing completion such as focusing of an image. It may be that there is a deviation from a predetermined imaging timing by waiting for. In the example of FIG. 3, the imaging information I 1 , I 2 ,..., I 8 as shown on the line L2 is obtained at the imaging times t 1 , t 2 ,..., T 8 as shown on the line L1. Then, the transfer is started, and the state in which the transfer is completed is shown on the line L3. This transfer is typically subject to non-uniform delay. The cause of this non-uniform delay is that other processes (such as background processes managed by the operating system other than the processes related to the present invention) are concurrently performed in the information terminal device 10 which is a general-purpose computer device 20. Including non-uniform load and the like caused by the implementation of. In the example of FIG. 3, due to this non-uniform delay, for example, the transfer required time of the image pickup information I 3 at the image pickup time t 3 is longer than the transfer required time of the image pickup information I 2 at the image pickup time t 2 .
なお、図4のフローによる撮像部1の処理に対する追加的な処理として、遅延(転送所要時間)が大きく次の撮像タイミング(ステップS11の肯定判定タイミング)に達しても転送が完了していない場合、この転送完了していない撮像情報を破棄するようにしてもよい。このような破棄処理が部分的に発生した場合であっても、情報端末装置10は姿勢推定処理を継続的に実施することが可能である。 As an additional process to the process of the image capturing unit 1 according to the flow of FIG. 4, when the delay (transfer required time) is large and the transfer is not completed even when the next image capturing timing (affirmative determination timing of step S11) is reached. The image pickup information that has not been transferred may be discarded. Even when such a discarding process partially occurs, the information terminal device 10 can continuously perform the posture estimation process.
なお、提示部6で撮像情報を利用する必要がない実施形態の場合(例えば、シースルー型HMDによってAR表示を行う実施形態の場合)には、撮像部1から提示部6へと撮像情報を出力することは省略し、第一推定部3のみへと撮像情報を出力するようにすればよい。
In the case of an embodiment in which it is not necessary to use the imaging information in the presentation unit 6 (for example, in the case of an embodiment in which AR display is performed by a see-through HMD), the imaging information is output from the imaging unit 1 to the
第一推定部3は、撮像部1から入力される撮像情報における撮像画像In(n=1,2,…)から所定の対象物(撮像対象)を検出したうえで、撮像部1を構成するカメラ201を基準とした、撮像対象の相対的な姿勢情報Pn(n=1,2,…)を推定して、この姿勢情報Pnを合成部5へと出力する。この姿勢情報は、カメラ201のカメラパラメータを既知のものとして与えておいたうえで、並進成分行列と回転成分行列との積の平面射影変換の行列の形で得ることができる。この姿勢推定処理それ自体には任意の既存の手法を用いてよく、例えば、撮像対象を白黒の正方マーカ(ARマーカ)として前掲の非特許文献2の手法を用いてもよいし、任意模様の撮像対象に対して、自然特徴情報(特徴点及びその周辺から得られる特徴量)の一例であるSIFT特徴情報の抽出によって撮像対象を検出する前掲の非特許文献3の手法を用いてもよい。あるいは、図1ではそのデータ授受の流れは省略しているが、第一推定部3では入力として撮像部1で得た撮像画像Inのみでなくセンサ部2によるセンサ値smも利用することにより、前掲の非特許文献1の深層学習の手法を用いて姿勢推定してもよい。また、これら姿勢推定処理を継続的に行うに際しては、ある初期時刻において対象検出を行い、その後の時刻では検出よりも高速に実施可能な対象追跡を行うようにしてもよい。
The
図5は、一実施形態に係る第一推定部3の動作のフローチャートである。ステップS31では、姿勢推定に関して未処理であり、且つ、撮像部1から転送済みである撮像情報が存在するか否かを判定し、存在していればステップS32へと進み、存在していなければステップS31に戻り、条件を満たす撮像情報が現れるまでこの判定を繰り返す。ステップS32では、その直前のステップS31で肯定判定を得た撮像情報における撮像画像In(n=1,2,…)を対象として姿勢推定処理を行い、得られた姿勢情報Pn(n=1,2,…)を合成部5へと出力してから、ステップS31へと戻る。
FIG. 5 is a flowchart of the operation of the
第一推定部3による処理は、マルチコアで構成されたCPU101及び/又はGPU等の専用プロセッサ102においてマルチスレッドにより姿勢推定処理プログラムを複数同時並行で実行することにより、複数の姿勢推定を同時並行で実施してもよい。すなわち、図5のフローがスレッドごとに実施されることで、複数同時並行で実施されてもよい。この場合、ステップS31における未処理の判断は、マルチスレッドにおける自スレッド以外の他スレッドにおいて未処理であるか否かも含めて判断すればよい。この場合、他スレッドにおいて既に姿勢推定処理が開始されているが現時点で未完了であるものは、自スレッドにおいて処理すべき対象から除外するよう判断することで、スレッド間で同じ処理が重複することを避けるようにすればよい。
The processing by the
図3の例では、第一推定部3による処理が3個同時並行で実施される場合が線L4,L5,L6上において、個別の姿勢推定処理が実施されている時間範囲をハッチ付与の枠として示すことによって、示されている。
In the example of FIG. 3, when three processes by the
すなわち、線L4上では第一スレッドにより時刻t1,t2間で転送完了し未処理となっている撮像画像I1を対象として姿勢推定処理が開始され、時刻t3,t4間で姿勢推定処理が完了してその姿勢情報P1が得られている。また、線L4上では第一スレッドにより撮像画像I4に対して時刻t4,t5間で姿勢推定処理を開始して時刻t6,t7間でその姿勢情報P4が得られている。同様に、線L5上では第二スレッドにより撮像画像I2に対して時刻t2,t3間で姿勢推定処理を開始して時刻t5,t6間でその姿勢情報P2が得られ、撮像画像I5に対して時刻t5,t6間で姿勢推定処理を開始して時刻t8後でその姿勢情報P5が得られている。同様に、線L6上では第三スレッドにより撮像画像I3に対して時刻t3,t4間で姿勢推定処理を開始して時刻t5,t6間でその姿勢情報P3が得られ、撮像画像I6に対して時刻t6,t7間で姿勢推定処理を開始して時刻t8後にその姿勢情報P6が得られている。 That is, on the line L4, the posture estimation process is started for the unprocessed captured image I 1 that has been transferred between the times t 1 and t 2 by the first thread, and the posture is estimated between the times t 3 and t 4. The estimation process is completed and the posture information P 1 is obtained. Further, on the line L4, the posture estimation process is started by the first thread for the captured image I 4 between times t 4 and t 5 , and the posture information P 4 is obtained between times t 6 and t 7 . .. Similarly, on the line L5, the posture estimation process is started between the times t 2 and t 3 with respect to the captured image I 2 by the second thread, and the posture information P 2 is obtained between the times t 5 and t 6 , The posture estimation process is started for the captured image I 5 between times t 5 and t 6 , and the posture information P 5 is obtained after time t 8 . Similarly, on the line L6, the attitude estimation process is started between the times t 3 and t 4 with respect to the captured image I 3 by the third thread, and the attitude information P 3 is obtained between the times t 5 and t 6 , The posture estimation process is started for the captured image I 6 between times t 6 and t 7 , and the posture information P 6 is obtained after time t 8 .
このように、姿勢推定処理の対象となる撮像画像が得られてから姿勢情報を推定するには、ある程度の時間を要する。図3の例では、第一推定部3の動作は、撮像情報が入力される度に処理待ち状態のスレッド(ステップS31において肯定判断待ちにあるスレッド)が姿勢推定処理を開始し、撮像部1による撮像間隔2〜3個分の時間がかかっている様子を図示している。撮像情報の内容や前述したその他のバックグラウンド処理の存在等によって処理負荷が変化するため、実行時には処理がいつ完了するかは未知である。
As described above, it takes some time to estimate the posture information after the captured image that is the target of the posture estimation processing is obtained. In the example of FIG. 3, in the operation of the
姿勢推定処理が完了して撮像画像In(n=1,2,…)のものとして得られた姿勢情報Pn(n=1,2,…)は、そのデータ量が撮像画像のデータ量と比べて非常に小さいため、少なくとも一定時間の転送完了時間を要した撮像画像の場合とは異なり、当該得られた時刻とほぼ同時に合成部5へと出力され(すなわち、合成部5が参照するRAM103へと出力されて書き込まれ)、合成部5において参照可能となる。
The amount of data of the posture information P n (n=1,2,...) Obtained as the captured image I n (n=1,2,...) After the posture estimation process is completed is the data amount of the captured image. Since it is much smaller than that, unlike the case of a captured image that requires at least a certain transfer completion time, it is output to the
なお、図3の例では全フレーム(時間軸上での撮像画像In(n=1,2,…)の全て)を対象として姿勢推定処理を行っているが、時間軸上でフレームを間引いたうえで姿勢推定処理を行うようにしてもよい。例えば、概ね1/3に間引くことで、3スレッド分の線L4,L5,L6の全てではなく、そのうちの1スレッドのみの線L4に示される姿勢推定処理のみを行うようにしてもよい。 In the example of FIG. 3, the posture estimation processing is performed for all frames (all of the captured images I n (n=1,2,...) on the time axis), but frames are thinned on the time axis. Alternatively, the posture estimation process may be performed. For example, by thinning out to approximately 1/3, it is possible to perform only the posture estimation processing indicated by the line L4 of only one thread of the lines L4, L5, and L6 for three threads.
間引く際は、ステップS31において姿勢推定処理の判断対象とするものを予め時間軸上において一定割合で間引いて残ったもののみとする第一手法を用いてもよいし、ステップS31において未処理(前述の通りマルチスレッドの場合、他スレッドで処理開始されているものは処理済とする)且つ転送済のものが複数ある場合に、現在時刻に最も近いもののみを選び、選ばれなかったものは以降の時点における姿勢推定対象から除外する(マルチスレッドの場合、全スレッドにおいて除外する)第二手法を用いてもよいし、第一手法及び第二手法を組み合わせてもよい。第一手法に関して、CPU101及び/又は専用プロセッサ102の負荷状況を一定時間ごとに監視し、負荷が大きいほど間引き割合を増やすようにすることで、CPU101及び/又は専用プロセッサ102の負荷が動的に最適化されるようにしてもよい。
At the time of thinning out, the first method may be used in which the objects to be judged in the posture estimation processing in step S31 are thinned out in advance at a fixed rate on the time axis and only the remaining objects are unprocessed in step S31. As in the case of multi-threading, those that have been started in other threads are processed.) And when there are multiple transferred ones, only the one that is closest to the current time is selected. A second method of excluding the object from the posture estimation target at the time of (in the case of multi-thread, excluding all threads) may be used, or the first method and the second method may be combined. Regarding the first method, the load status of the
センサ部2は、計測した値を時刻情報(計測時刻のタイムスタンプ)とともにセンサ情報として第二推定部4へ出力する。センサ部2を実現するハードウェアとしては、携帯端末に標準装備されていることの多い、加速度や並進運動を計測する加速度センサ及び/又は慣性センサ(回転角速度や回転運動を計測するジャイロセンサ)等の、1つ以上のセンサデバイスで構成されたセンサ204用いることができる。
The
センサ部2では具体的に、カメラ201の姿勢を表現するものとして、センサ情報を取得する。このために例えば、センサ部2を実現するハードウェアとしてのセンサ204はカメラ201と共通の筐体に固定して設置しておく等により、センサ204とカメラ201との相対的位置関係がこの共通の筐体への固定によって剛体的に変化しない位置関係となるようにしておけばよい。
Specifically, the
図6は、一実施形態に係るセンサ部2の動作のフローチャートである。ステップS21では、現時刻が計測タイミングに到達したか否かを判定し、到達していればステップS22へと進み、到達していなければステップS21に戻り、この判定を繰り返す。ステップS22ではこの計測タイミングにおいてセンサ部2が計測を行い、得られたセンサ値にタイムスタンプを紐づけたセンサ情報を第二推定部4へと出力してからステップS21へと戻る。以上の図6のフローにより、ステップS21で判定される計測タイミングごとに、センサ部2によるセンサ計測が繰り返されることとなる。
FIG. 6 is a flowchart of the operation of the
この繰り返しにより、センサ情報が時系列上のものとして得られることとなる。センサ情報の任意の2時刻ta,tb間での変化は、撮像部1を実現するハードウェアとしてのカメラ201の姿勢の2時刻ta,tb間での変化を計測したものとなり、第一推定部3で得た相対的な姿勢情報と同種類の情報を与えるものとなる。すなわち、相対的な姿勢情報(基準姿勢からの変化としての姿勢情報)の表現の一例として並進成分行列と回転成分行列との積の平面射影変換の行列の形で第一推定部3で得たのと同種の情報として、時系列上のセンサ情報をセンサ部2において得ることができる。
By repeating this, the sensor information is obtained in time series. The change between any two times t a and t b of the sensor information is a change in the attitude of the
ステップS21における計測タイミングは、予め指定しておく所定の時間間隔ごととしてよい。この計測タイミングは、ステップS11における撮像部1による撮像タイミングよりもその間隔を細かい(短い)ものとして設定することが好ましい。図3では、撮像タイミングにおける1回分の間隔をなす時刻t1,t2間に、線L7上に示すようにセンサ計測が7回行われてセンサ値s1,s2,…s7が得られており、計測タイミングの間隔が撮像タイミングの間隔よりも概ね6倍の細かさ(1/6倍の短さ)で設定される場合が例として示されている。 The measurement timing in step S21 may be set at predetermined time intervals that are designated in advance. This measurement timing is preferably set such that the interval is finer (shorter) than the imaging timing by the imaging unit 1 in step S11. In FIG. 3, the sensor measurement is performed 7 times as shown on the line L7 between the times t 1 and t 2 forming one interval at the imaging timing, and the sensor values s 1 , s 2 ,..., S 7 are obtained. The case where the measurement timing interval is set to be 6 times finer (1/6 times shorter) than the imaging timing interval is shown as an example.
なお、図3の例では、m回目(m=1,2,…)の計測で得られたセンサ値をsmとして表記している。センサ値以外のデータ、例えば線L2,L3上に示される撮像画像In(n=1,2,…)は撮像時刻tnに対応するものであり、下付き文字がn回目の撮像時刻tnに対応するものとなっているが、センサ値smに関しては、その下付き文字はセンサ部2による計測回数mに対応し、撮像時刻tnに直接対応しているわけではない。(ただし、図3の例では撮像時刻tnに関して概ね、「m=6n-5」の対応関係が存在することで、撮像時刻tnと概ね同時にm=6n-5回目のセンサ値s6n-5が取得されている。)また、図3では、センサ値smに関して表示が煩雑化するのを避けるために、その全てに対してではなく主要な説明で参照するもののみに対して、文字表記を付与してある。
In the example of FIG. 3, it is denoted m-th (m = 1, 2, ...) of the sensor value obtained by the measurement as s m. Data other than the sensor value, for example, the captured images I n (n=1,2,...) Shown on the lines L2, L3 correspond to the capturing time t n , and the subscript indicates the n-th capturing time t. Although it corresponds to n , the subscript of the sensor value s m corresponds to the number of measurements m by the
計測処理が完了して得られたセンサ情報sm(m=1,2,…)は、そのデータ量が撮像画像のデータ量と比べて非常に小さいため、少なくとも一定時間の転送完了時間を要した撮像画像の場合とは異なり、当該得られた時刻とほぼ同時に第二推定部4へと出力され(すなわち、第二推定部4が参照するRAM103へと出力されて書き込まれ)、第二推定部4において参照可能となる。
The sensor information s m (m=1,2,...) Obtained after the measurement process is completed requires a transfer completion time of at least a certain time because its data amount is much smaller than the data amount of the captured image. Unlike the case of the captured image, the second estimation is output almost simultaneously with the obtained time to the second estimation unit 4 (that is, output to and written to the
第二推定部4は、センサ部2から時系列上で継続的に入力されているセンサ情報を用いて、現時刻から見て未来における提示部6の提示処理間隔において変化することとなる姿勢変化情報を提示処理間隔ごとに推定して、合成部5へと出力する。なお、後述するように、提示部6は所定の提示処理間隔(フレームレート)において、提示処理を継続的に実施することで、AR表示等を実現することができるものである。
The second estimation unit 4 uses the sensor information continuously input from the
図3では、線L4,L5,L6上に示される第一推定部3の場合と同様に、線L8上に第二推定部4による個別の推定処理が、実施されている時間範囲をハッチ付与の枠として示すことにより、示されている。図3では、提示部6の提示処理間隔が撮像部1による撮像時刻t1,t2,…,t8に一致して定まる場合を例として、線L8上に第二推定部4による処理の例が示されている。
In FIG. 3, as in the case of the
すなわち、現時刻t現在が撮像時刻t2,t3間(t2<t現在<t3)にあって11個目のセンサ情報s11までが参照可能となっている場合に、未来における提示部6の提示処理間隔である時刻t3,t4間での姿勢変化情報ΔP3,4を、11個目のセンサ情報s11までを用いて現時刻t現在において推定開始し、その後の現時刻がこの間隔の終端側にある未来時刻t4に到達する前に推定処理を完了する。同様に、現時刻t現在が撮像時刻t3,t4間(t3<t現在<t4)にあって17個目のセンサ情報s17までが参照可能となっている場合に、未来における提示部6の提示処理間隔である時刻t4,t5間での姿勢変化情報ΔP4,5を、17個目のセンサ情報s17までを用いて現時刻t現在において推定開始し、その後の現時刻がこの間隔の終端側にある未来時刻t5に到達する前に推定処理を完了する。
That is, when the present time t present is between the imaging times t 2 and t 3 (t 2 <t present <t 3 ) and up to the eleventh sensor information s 11 can be referred to, presentation in the future the time t 3, t posture change information [Delta] P 3, 4 of between 4 is a presenting
同様に、現時刻t現在が撮像時刻t4,t5間(t4<t現在<t5)にあって24個目のセンサ情報s24までが参照可能となっている場合に、未来における提示部6の提示処理間隔である時刻t5,t6間での姿勢変化情報ΔP5,6を、24個目のセンサ情報s24までを用いて現時刻t現在において推定開始し、その後の現時刻がこの間隔の終端側にある未来時刻t6に到達する前に推定処理を完了する。同様に、現時刻t現在が撮像時刻t6,t7間(t6<t現在<t7)のうち時刻t6の直後付近にあって時刻t6で得られた31個目のセンサ情報s31までが参照可能となっている場合に、未来における提示部6の提示処理間隔である時刻t6,t7間(時刻t6は過去だが時刻t7は未来となる)での姿勢変化情報ΔP6,7を、31個目のセンサ情報s31までを用いて現時刻t現在において推定開始し、その後の現時刻がこの間隔の終端側にある未来時刻t7に到達する前に推定処理を完了する。同様に、現時刻t現在が撮像時刻t6,t7間(t6<t現在<t7)にあって36個目のセンサ情報s36までが参照可能となっている場合に、未来における提示部6の提示処理間隔である時刻t7,t8間での姿勢変化情報ΔP7,8を、36個目のセンサ情報s36までを用いて現時刻t現在において推定開始し、その後の現時刻がこの間隔の終端側にある未来時刻t8に到達する前に推定処理を完了する。
Similarly, if the present time t present is between the imaging times t 4 and t 5 (t 4 <t present <t 5 ) and up to the 24th sensor information s 24 can be referred to, the posture change information [Delta] P 5, 6 in between time t 5, t 6 is a presentation process
第二推定部4において、現時刻t現在までに参照可能となっているセンサ情報を入力として用いて姿勢変化情報を推定開始し、この処理を完了するにはある程度の時間を要する。(すなわち、この完了時刻をt完了とすると、t現在<t完了である。)以上のような図3の例においては、線L8上に示される第二推定部4の動作は、処理開始時までのセンサ情報を用いて姿勢推定処理を実行し、撮像間隔0.5〜0.8個分程度の時間がかかっている様子を図示している。第一推定部3における画像処理を含む処理の場合のように画像内容等で処理負荷が大きく変化しうる場合とは異なり、センサ情報の内容によって第二推定部4の処理負荷はそれほど変化することはないため、処理開始時には処理がいつ完了するかは凡そ既知である。
In the second estimation unit 4, the posture change information estimated start using the sensor information that is referable up to the current time t current as an input, to complete this process takes some time. (That is, when this completion time is t completion , t current <t completion .) In the example of FIG. 3 as described above, the operation of the second estimation unit 4 shown on the line L8 is at the start of processing. The posture estimation process is executed using the sensor information up to, and it takes a time of about 0.5 to 0.8 imaging intervals. Unlike the case where the processing load may change significantly depending on the image content such as the case of processing including image processing in the
この考察に基づき、第二推定部4で処理完了の所要時間T第二推定と、合成部5での合成処理完了の所要時間T合成と、提示部6において提示処理を行うのに要する時間T提示(1フレーム分の提示処理を行うために必要な、AR表示情報等を準備するための時間)と、を加算(T第二推定+T合成+T提示)して、提示部6における次の提示間隔t始端,t終端における終端側時刻t終端からこの加算分だけ遡った時刻以前に、第二推定部4における処理を開始することが望ましい。すなわち、以上の図3の例でも説明してきた推定処理を開始するタイミングとしての現時刻t現在は、以下の式(1)の条件を満たすものとして設定しておくことが望ましい。(なお、以下の式(1)及び以上説明してきた例においては、時刻の値に関して通常そのように扱われているのと同様に、未来側の時刻ほどその値が大きくなるものとして、時刻の大小を定めている。以降の説明でも同様である。)
t現在≦t終端-(T第二推定+T合成+T提示) …(1)
Based on this consideration, the required time T second estimation process completion in the second estimation unit 4, a required time T Synthesis of completion of processing by the combining
t present ≤ t terminal- (T second estimation + T synthesis + T presentation ) (1)
なお、式(1)における3つの所要時間T第二推定、T合成及びT提示に関しては、情報端末装置10が利用される実環境等でその実績値を実験的に収集しておき、その実績値における何らかの代表値等を用いるようにすればよい。例えば、平均値や最頻値を用いてもよいし、平均値や最頻値に所定のマージンを加えた値などを用いてもよい。 Regarding the three required times T second estimation , T synthesis, and T presentation in Expression (1), the actual values are experimentally collected in the actual environment in which the information terminal device 10 is used, and the actual results are obtained. A representative value or the like of the values may be used. For example, an average value or mode value may be used, or a value obtained by adding a predetermined margin to the average value or mode value may be used.
第二推定部4による姿勢変化の推定処理それ自体には、適用可能対象が姿勢データに限定されない任意種類の時系列データの未来の挙動を予測する任意の既存手法を用いてよく、例えば、カルマンフィルタ(Kalman filter)や深層学習を利用してよい。 For the posture change estimation processing itself by the second estimation unit 4, any existing method for predicting future behavior of any type of time series data whose applicable target is not limited to posture data may be used, for example, a Kalman filter. (Kalman filter) or deep learning may be used.
図7は、一実施形態に係る第二推定部4の動作のフローチャートである。ステップS41では、現時刻が推定タイミングに到達したか否かを判定し、到達していればステップS42へと進み、到達していなければステップS41に戻り、肯定判定が得られるまでステップS41を繰り返す。ステップS42では、ステップS41で肯定判定を得た現在時点t現在までにおいて参照可能となっている時系列上の履歴としてのセンサ情報を用いて、提示部6における次の提示間隔t始端,t終端での姿勢変化情報を推定して合成部5へと出力し、ステップS41へと戻る。
FIG. 7 is a flowchart of the operation of the second estimation unit 4 according to the embodiment. In step S41, it is determined whether or not the current time has reached the estimated timing, and if it has arrived, the process proceeds to step S42, and if it has not arrived, the process returns to step S41, and step S41 is repeated until a positive determination is obtained. .. In step S42, using the sensor information as a history of the time on the series has become visible in until an affirmative decision obtained present time t currently in step S41, the next presentation interval t start in the
ステップS41の判定は、少なくとも前述の式(1)を満たすものとして判定すればよい。詳細には、以下の考察に基づいてステップS41の肯定判定を得る現時刻と、その次のステップS42において推定対象となる姿勢変化情報と、を設定することができる。 The determination in step S41 may be determined as satisfying at least the above equation (1). Specifically, it is possible to set the current time at which an affirmative determination is made in step S41 based on the following consideration, and the posture change information to be estimated in the next step S42.
ここで、第二推定部4では現時刻t現在に対する未来としての、提示部6における次の提示間隔t始端,t終端(始端側時刻t始端及び終端側時刻t終端のうち少なくとも終端側時刻t終端が現時刻t現在に対する未来であり、t現在<t終端となる)での変化予測として、姿勢変化情報を推定する。未来予測は一般に、より先の未来に対するより長期の予測となるほどその予測精度が落ちる傾向があることが想定される。従って、未来に対する姿勢変化情報の推定精度を確保するためには、可能な限り近い未来を予測対象として設定することが好ましい。
Here, as the future for the second estimation unit 4 at the current time t current, following presentation interval t start in the
従って、提示部6におけるk番目(k=1,2,…)の処理間隔を間隔t始端[k],t終端[k](k番目の始端側時刻t始端[k]及びk番目の終端側時刻t終端[k]で定まる間隔。従って、t始端[k]=t終端[k-1]の関係がある。)とすると、現時刻t現在がk番目の提示処理間隔t始端[k],t終端[k]内にある場合(t始端[k]<t現在<t終端[k])に、最も近い未来であるその次のk+1番目の処理間隔t始端[k+1],t終端[k+1]での姿勢変化情報を推定するように、ステップS41におけるk番目の姿勢変化情報の推定開始タイミングとする現時刻現時刻t現在[k]を、k番目の提示処理間隔t始端[k],t終端[k]と同期(タイミングの間隔を一致させることによる同期)させて設定しておくことが望ましい。すなわち、k番目の提示処理間隔の長さt終端[k]-t始端[k]よりも短い所定値c(0<c<t終端[k]-t始端[k]…(2))を設定しておき、ステップS41におけるk番目の姿勢変化情報の推定開始タイミング(その次のk+1番目の提示処理間隔t始端[k+1],t終端[k+1]での姿勢変化情報の推定開始タイミング)とする現時刻t現在[k]を以下の式(3)のように設定してよい。
t現在[k]=t終端[k]-c …(3)
Therefore, the k-th (k=1, 2,...) Processing interval in the
t present [k] = t terminal [k] -c …(3)
なお、式(2)の範囲内の定数cによって式(3)でk+1番目の提示処理間隔t始端[k+1],t終端[k+1]の姿勢変化情報を推定開始するように設定すると、式(1)(「t終端=t終端[k+1]」且つ「t現在=t現在[k]」とした式(1))が成立しない場合、すなわち、現時刻がk番目の提示処理間隔t始端[k],t終端[k]内にある時点でその次のk+1番目の提示処理間隔t始端[k+1],t終端[k+1]での姿勢変化情報を推定開始すると、その終端時刻t終端[k+1]までに推定処理が完了しない場合、姿勢変化情報を推定する対象をさらに次のk+2番目の提示処理間隔t始端[k+2],t終端[k+2]とすればよい。このように設定しても依然として式(1)(「t終端=t終端[k+2]」且つ「t現在=t現在[k]」とした式(1))が成立しない場合、予測対象をさらにその先のk+3,k+4,…番目の提示処理間隔における姿勢変化情報とし、式(1)が成立するような最も近い未来の提示処理間隔を姿勢変化情報の推定対象とすればよい。 Note that the posture change information at the k+1-th presentation processing interval t starting point [k+1] , t terminal [k+1] in equation (3) is estimated to be started by the constant c within the range of equation (2). If (1) with “t end =t end [k+1] ” and “t present =t present [k] ” does not hold, that is, the current time is k th presentation processing interval t start [k], the following k + 1-th presentation processing interval t starting at some point in t end [k] [k + 1] , the attitude at t end [k + 1] When the change information is estimated, if the estimation process is not completed by the end time t terminal [k+1] , the target for which the posture change information is estimated is the next k+ second presentation processing interval t start point [k+]. 2] , t terminal [k+2] . Even if you set in this way, if the formula (1) (“t end = t end [k+2] ” and “t present = t present [k] ” (1)) does not hold, the prediction target Is the posture change information at the further k+3, k+4,...th presentation processing interval, and the closest future presentation processing interval such that Eq. Good.
逆に、現時刻がk番目の提示処理間隔t始端[k],t終端[k]内にある時点で式(2)を満たす何らかの定数cによって姿勢変化情報の推定開始タイミングt現在[k]を設定し、姿勢変化情報の推定対象をk番目の提示処理間隔t始端[k],t終端[k]としてその終端時刻t終端[k]までに推定処理が完了する場合(式(1)が「t終端=t終端[k]」且つ「t現在=t現在[k]」の場合でも成立する場合)、その通りに設定してもよい。すなわち、現時刻がk番目の提示処理間隔t始端[k],t終端[k]内にある時点で姿勢変化情報の推定開始タイミングt現在[k]を設定し、姿勢変化情報の推定対象をその現時刻t現在[k]が属するk番目の提示処理間隔t始端[k],t終端[k]における姿勢変化情報としてもよい。 On the contrary, when the present time is within the k-th presentation processing interval t start point [k] , t end [k] , the posture change information estimation start timing t current [k] set, attitude change the estimation target k-th presentation processing interval t start information [k], if the estimation processing until the end time t end [k] as t end [k] is completed (formula (1) Is satisfied even when “t end =t end [k] ” and “t present =t present [k] ”), it may be set as it is. That is, the estimation start timing t present [k] of the posture change information is set at the time when the present time is within the k-th presentation processing interval t start end [k] , t end [k] , and the posture change information estimation target is set. The attitude change information at the k-th presentation processing interval t start point [k] , t end [k] to which the current time t present [k] belongs may be used.
合成部5は、第一推定部3から得られる姿勢情報と第二推定部4から得られる姿勢変化情報とを合成し、現時刻から見た未来における姿勢情報を合成し、合成姿勢情報として提示部6へと出力する。後述するように、この未来の合成姿勢情報は、合成部5で合成された後の未来において提示部6で利用される際には、提示部6の提示タイミングである現時刻に対応するものとして利用されることとなる。
The
一実施形態では、提示部6の提示タイミングは撮像部1での撮像時刻と一致して設定され、合成部5の合成処理開始時点(=現時刻t合成開始)で参照可能となっている最新の姿勢情報Paと、当該姿勢情報に紐づけられている時刻taから次の提示タイミングtiまでの1つ以上の姿勢変化情報ΔPk,k+1(k=a,a+1,…,i-2,i-1)と、を用いて、以下の式(4)で合成姿勢情報Peiを合成する。ここで前述のように、姿勢情報Paは現時刻t合成開始から見て過去である時刻taの撮像画像Iaから第一推定部3により推定され、現時刻t合成開始において合成部5において参照可能となっているものである。また、次の提示タイミングtiは現時刻t合成開始から見て未来となるものである。
In one embodiment, the presentation timing of the
既に説明したように、姿勢情報Paと姿勢変化情報ΔPk,k+1とは共に平面射影変換行列の形で得ることができるものである。式(4)ではこの行列の積を求めることで、同じく平面射影変換行列の形で合成姿勢情報Peiを得ている。 As already described, both the posture information P a and the posture change information ΔP k,k+1 can be obtained in the form of a plane projective transformation matrix. In equation (4), the product of these matrices is obtained, and thus the combined posture information Pe i is also obtained in the form of a plane projective transformation matrix.
なお、合成部5では、参照可能な最新の姿勢情報Paであっても、対応する姿勢変化情報ΔPk,k+1(k=a,a+1,…,i-2,i-1)が存在しないものは採用しない。すなわち、合成部5では、参照可能な姿勢情報Paであって、且つ、対応する姿勢変化情報ΔPk,k+1(k=a,a+1,…,i-2,i-1)が存在するものの中から最新のものとして、姿勢情報Paを選択して、式(4)により合成処理を行う。
In the
図3の例では、線L9上に式(4)による合成部5の合成処理が示されている。式(4)の通り、合成処理は平面射影変換行列(サイズ3×3)の積算であり高速に(ほぼ瞬時に)計算可能であるため、線L9上では線L4,L5,L6上の第一推定部3や線L8上の第二推定部4の処理例の場合とは異なり、処理時間範囲をハッチ付与枠で示すことはせず、ほぼ瞬時に得られた合成姿勢情報Pei(i=4,5,6,7,8)のみを示している。
In the example of FIG. 3, the combining process of the combining
具体的に、線L9上では以下のように各合成姿勢情報Pei(i=7,8)が得られている。未来の提示時刻t7に対して現時刻t合成開始(t6<t合成開始<t7)にて、参照可能であり且つ対応する姿勢変化情報が存在する時刻t3の姿勢情報P3と、この時刻t3から未来の提示時刻t7までの間の姿勢変化情報ΔP3,4,ΔP4,5,ΔP5,6,ΔP6,7と、を式(4)により合成することで以下の式(4-7)のように未来の提示時刻t7における合成姿勢情報Pe7が得られる。
Pe7=ΔP6,7ΔP5,6ΔP4,5ΔP3,4P3 …(4-7)
Specifically, each combined posture information Pe i (i=7,8) is obtained on the line L9 as follows. At the present time t synthesis start (t 6 <t synthesis start <t 7 ) with respect to the future presentation time t 7 , it is possible to refer to the posture information P 3 at time t 3 at which there is corresponding posture change information. , By combining the posture change information ΔP 3,4, ΔP 4,5 , ΔP 5,6 , ΔP 6,7 from this time t 3 to the future presentation time t 7 by the equation (4). synthetic attitude information Pe 7 in the presentation time t 7 of the future can be obtained as shown in the following equation (4-7).
Pe 7 = ΔP 6,7 ΔP 5,6 ΔP 4,5 ΔP 3,4 P 3 …(4-7)
同様に、未来の提示時刻t8に対して現時刻t合成開始(t7<t合成開始<t8)にて、参照可能であり且つ対応する姿勢変化情報が存在する時刻t4の姿勢情報P4と、この時刻t4から未来の提示時刻t8までの間の姿勢変化情報ΔP4,5,ΔP5,6,ΔP6,7,ΔP7,8と、を式(4)により合成することで以下の式(4-8)のように未来の提示時刻t8における合成姿勢情報Pe8が得られる。
Pe8=ΔP7,8ΔP6,7ΔP5,6ΔP4,5P4 …(4-8)
Similarly, the posture information at time t 4 that can be referred to at the present time t synthesis start (t 7 <t synthesis start <t 8 ) with respect to the future presentation time t 8 and at which corresponding posture change information exists P 4 and the posture change information ΔP 4,5 , ΔP 5,6 , ΔP 6,7 , ΔP 7,8 from this time t 4 to the future presentation time t 8 are combined by equation (4). By doing so, the combined posture information Pe 8 at the future presentation time t 8 can be obtained as in the following Expression (4-8).
Pe 8 = ΔP 7,8 ΔP 6,7 ΔP 5,6 ΔP 4,5 P 4 …(4-8)
なお、線L9上のその他の合成姿勢情報Pei(i=4,5,6)に関しても、線L8上では不図示となっている姿勢変化情報ΔP1,2,ΔP2,3等と、姿勢情報P1,P2,P3のいずれかと、を上記の(4-7),(4-8)の例の場合と同様に適切な合成処理開始タイミングt合成開始において適切に選択することで、式(4)により合成することが可能である。 As for the other combined posture information Pe i (i=4,5,6) on the line L9, the posture change information ΔP 1,2 , ΔP 2,3, etc. not shown on the line L8, and one of orientation information P 1, P 2, P 3 , the above (4-7), a suitable selection in a similar appropriate synthetic processing start timing t synthesis initiation and in the example of (4-8) Then, it can be synthesized by the formula (4).
提示部6では、撮像部1から得られる撮像情報と合成部5から得られる合成姿勢情報とを用いて、合成姿勢情報に応じた提示情報を生成したうえでこの提示情報を撮像情報に対して重畳することで提示する。ここで、合成姿勢情報に応じた提示情報の生成に関しては、既存のAR技術を用いて、情報端末装置10がその用途として実現するアプリケーション内容に応じた任意内容のものを生成してよい。例えば、撮像情報に撮影されている対象物に対して、この対象物の空間的位置及び撮像しているカメラ201の姿勢(すなわち、合成姿勢情報において表現されている姿勢)に応じた空間位置を占める、対象物に対する解説コメントが記載された看板を、CG(コンピュータグラフィック)等によって生成したものを提示情報としてもよい。
The
なお、上記の実施形態は、提示部6がシースルー型ディスプレイ203ではなく、通常のディスプレイ202を用いて実現される場合のものである。提示部6がシースルー型ディスプレイ203を用いて実現される実施形態においては、提示部6では、撮像情報(シースルー型ディスプレイ203を通じてユーザに見えている景色に相当する)を用いることなく、合成姿勢情報や現実空間に存在する対象物(カメラ201に撮像されている対象物)に応じて生成された提示情報のみを、シースルー型ディスプレイ203上に表示するようにしてよい。
The above-described embodiment is for the case where the
図8は、一実施形態に係る合成部5及び提示部6の動作のフローチャートである。図8において、ステップS51,S52,S53が合成部5の動作に関する部分であり、ステップS54,S55が提示部6の動作に関する部分である。
FIG. 8 is a flowchart of operations of the
ステップS51では、現在時刻が合成部5における合成処理のタイミングに到達したか否かが判定され、到達していればステップS52へと進み、到達していなければステップS51に戻ってステップS51の判定を繰り返す。なお、ステップS51で肯定判定を得るタイミングは、既に説明した合成部5における合成開始時刻t合成開始である。ステップS52では、当該肯定判定を得た現在時刻t合成開始において利用可能である姿勢情報と、対応する姿勢変化情報とを取得してステップS53へと進む。ステップS53では、ステップS52において取得した情報を用いて、合成部5が前述の式(4)により、合成姿勢情報を得て提示部6へと出力してから、ステップS54へと進む。
In step S51, it is determined whether or not the current time has reached the timing of the synthesizing process in the
ステップS54では、現在時刻(ステップS52で肯定判定を得た時刻t合成開始のすぐ後に相当する)が、提示部6における提示タイミングに到達したか否かを判定し、到達していればステップS55へと進み、到達していなければステップS54に戻ってステップS54の判定を繰り返す。ステップS55では、当該到達した現在時刻に対応する合成姿勢情報を用いて提示情報を生成したうえで、シースルー型ディスプレイ203の場合はこの提示情報のみを、又は、通常のディスプレイ202の場合はこの提示情報を撮像情報に重畳したものを、提示部6が提示してから、ステップS51へと戻る。
In step S54, it is determined whether or not the present time (corresponding to immediately after the start of the time t combination for which an affirmative determination is obtained in step S52) has reached the presentation timing in the
なお、提示部6による提示情報の生成や、さらに撮像情報に重畳する処理は、ステップS53内において合成部5が合成姿勢情報を得た後にただちに実施するようにして、ステップS55では既に生成・重畳されている提示情報等をそのまま提示するようにしてもよい。
Note that the generation of the presentation information by the
ステップS54で肯定判定を得るタイミングとしての提示部6による提示タイミングは、既に言及した通り、所定レートのものとすることができ、例えば、撮像部1による撮像時刻(あるいは撮像タイミング)に一致させてよい。なお、第二推定部4の説明の際に既に言及したk回目の提示処理間隔t始端[k],t終端[k]は、この提示タイミングによって定義されるものである。すなわち、始端側時刻t始端[k]と終端側時刻t始端[k]とは共に提示タイミングであり、且つ、互いに隣接する提示タイミングである。
The presentation timing by the
ステップS51における肯定判定を得る時刻としての合成タイミングt合成開始は、ステップS54の提示タイミングと同期(タイミングの間隔を一致させることによる同期)させて、この提示タイミングの直前にある所定時刻として設定してよい。すなわち、k回目の合成タイミングをt合成開始[k]とすると、以下の式(5A)〜(5C)のように提示タイミングと同期させてこれを設定してよい。
t始端[k]< t合成開始[k]<t終端[k] …(5A)
t合成開始[k]= t終端[k]-b (bは以下の式(5C)の範囲にある定数) …(5B)
0<b<t終端[k]- t始端[k] …(5C)
The synthesis timing t, which is the time at which an affirmative determination is obtained in step S51, is started in synchronization with the presentation timing in step S54 (synchronization by matching the timing intervals) and set as a predetermined time immediately before this presentation timing. You can That is, when the k-th combining timing is t combining start [k] , this may be set in synchronization with the presentation timing as in the following equations (5A) to (5C).
t start point [k] <t synthesis start [k] <t end point [k] …(5A)
t synthesis start [k] = t termination [k] -b (b is a constant within the range of the following formula (5C)) (5B)
0<b<t end [k] -t start [k] …(5C)
なお、図3の例では、線L9上に示される合成姿勢情報Pei(i=4,5,…,8)は、上記の合成タイミングt合成開始[k]ではなく、この合成処理が完了した時刻位置に示されるものである。(合成処理は画像転送と比べると瞬時であるが、式(1)でも説明したように、変動しうる幾分かの時間を要するものである。) In the example of FIG. 3, the combined posture information Pe i (i=4,5,..., 8) shown on the line L9 is not the above-mentioned combined timing t combined start [k] , and this combined process is completed. It is shown at the time position. (Composite processing is instantaneous compared to image transfer, but as described in equation (1), it takes some time that can fluctuate.)
図3の例では、線L10上に提示部6による処理例が示されている。すなわち、撮像時刻ti(i=4,5,…,8)と一致して提示部6による提示タイミングが設定され、この提示タイミングti(i=4,5,…,8)の直前で対応する合成姿勢情報Pei(i=4,5,…,8)を用いて提示情報Ai(i=4,5,…,8)を生成しておき、提示タイミングti(i=4,5,…,8)において提示情報A i(i=4,5,…,8)を提示部6が提示している。
In the example of FIG. 3, a processing example by the
以上のように、その一実施形態として例示された本発明によれば、可能な限り現在時刻に近い過去の撮像画像から高精度に、カメラ201の姿勢を姿勢情報として求めておき、且つ、この過去の姿勢情報の現在時刻までの微小時間における変化分も、センサ204の出力に未来予測を適用して姿勢変化情報として求めておき、現在時刻におけるカメラ201の姿勢を合成姿勢情報として得るので、現在時刻におけるカメラ201の姿勢を遅延なく高精度に求めることができる。この合成姿勢情報を用いて提示部6においてAR表示を実現すれば、特にシースルー型ディスプレイ203を用いる場合(ユーザに見えている景色が常に現在となる場合)であっても、遅延なく高精度なAR表示が実現されることとなる。
As described above, according to the present invention exemplified as one embodiment thereof, the attitude of the
なお、シースルー型ではない通常のディスプレイ202で提示部6を実現する場合も、提示情報を重畳する対象の撮像画像として、撮像された直後の現在時刻とみなせるもの(カメラ201で映像撮影している際のプレビュー表示等で得られるもの)を採用することで、すなわち、姿勢情報を得るのは過去の撮像画像を用いるが、提示情報を重畳する対象としては現在の撮像画像を用いることで、シースルー型ディスプレイ203の場合とほぼ同様に、現在時刻において遅延なく高精度なAR表示を実現することができる。
Even when the
すなわち、図3の例であれば、線L10上の提示タイミングti(i=4,5,…,8)における提示情報A i(i=4,5,…,8)を、これと同時刻である撮像時刻ti(i=4,5,…,8)において撮像された撮像画像Ii(i=4,5,…,8)に対して重畳したものを、提示部6において映像として提示するようにすればよい。
That is, in the example of FIG. 3, the presentation information A i (i=4,5,..., 8) at the presentation timing t i (i=4,5,..., 8) on the line L10 is the same as this. In the
以下、本発明のその他の実施形態などに関する追加説明を行う。 Hereinafter, additional description regarding other embodiments of the present invention will be given.
(1)一定条件が満たされる場合に、合成部5が合成姿勢情報を合成する処理の負荷を軽減することが可能な実施形態として、次がある。既に説明したように、合成部5では繰り返し合成姿勢情報を合成しているが、k回目の合成処理と、その次のk+1回目の合成処理において、式(4)で利用する姿勢情報Paが変化しない場合、既に求まっているk回目の合成姿勢情報Pekを用いて、式(4)の全ての積を計算することなく、k+1回目の合成姿勢情報Pek+1への変化分に対応する1つの姿勢変化情報ΔPk,k+1のみを積算することで、以下の式(6)のようにk+1回目の合成姿勢情報Pek+1を簡素に計算してもよい。
Pek+1=ΔPk,k+1Pek …(6)
(1) The following is an embodiment in which the
Pe k+1 = ΔP k,k+1 Pe k …(6)
なお、k+2回目以降においても依然としてk回目において式(4)で利用する姿勢情報Paが変化しない場合は、同様に式(6)を繰り返し利用してよい。 If the posture information P a used in the equation (4) does not change at the k-th time even after the k+2th time, the equation (6) may be repeatedly used.
ここで、k回目の合成処理と、その次のk+1回目(及びこれ以降)の合成処理において、式(4)で利用する姿勢情報Paが変化しないと判断される場合としては、次の第一及び第二の場合が挙げられる。ここで説明のため、k回目及びk+1回目の合成処理で利用する姿勢情報をそれぞれ、a[k]番目及びa[k+1]番目の撮像時刻ta[k]及びta[k+1](これらが同時刻の場合を含む)の撮像画像Ia[k]及びIa[k+1]から得たものとして、Pa[k]及びPa[k+1]と表記する。第一の場合として、a[k]=a[k+1]である場合、すなわち、利用する姿勢情報がk回目とk+1回目とで、同じ撮像時刻ta[k]=ta[k+1]の撮像画像から得られたものである場合がある。第一の場合はこの定義の通り、自動で判断することが可能である。第一の場合に該当するのは、この同じ撮像時刻ta[k]=ta[k+1]よりも後の撮像画像が破棄されてしまっている場合、又は、この撮像時刻ta[k]=ta[k+1]よりも後の撮像画像は得られているが、k+1回目の合成処理の開始時点においてはその姿勢情報の推定処理が完了していない場合、となる。 Here, in the case where it is determined that the posture information P a used in Expression (4) does not change in the k-th combining process and the k+1-th (and subsequent) combining processes that follow, The first and second cases of are mentioned. For the sake of explanation, the posture information used in the k-th and k+1-th synthesis processing is respectively a[k]-th and a[k+1]-th imaging times t a[k] and t a[k +1] (including the case where they are at the same time) is described as P a[k] and P a[k+1] as obtained from the captured images I a[k] and I a[k+1] To do. In the first case, when a[k]=a[k+1], that is, when the posture information to be used is the k-th time and the k+1-th time, the same imaging time t a[k] =t a[ It may have been obtained from a captured image of [k+1] . In the first case, it is possible to judge automatically according to this definition. The first case corresponds to the case where captured images after this same capturing time t a[k] =t a[k+1] have been discarded, or this capturing time t a[ When the captured image after k] =t a[k+1] is obtained, but when the estimation process of the posture information is not completed at the start point of the k+1-th synthesis process, ..
第二の場合として、a[k]≠a[k+1]であり、別の撮像時刻ta[k]≠ta[k+1]の撮像画像Ia[k]及びIa[k+1]から姿勢情報Pa[k]及びPa[k+1]が得られているが、これら姿勢情報がほぼ等しく変化がないと判定される場合がある。すなわち、「Pa[k]≒Pa[k+1]」と判定される場合である。この判定は例えば、両行列の差のノルム|Pa[k]-Pa[k+1]|(行列の各成分の絶対値和によるノルム等、以下同様)が閾値以下であることによって判定すればよい。 In the second case, a[k]≠a[k+1], and the captured images I a[k] and I a[k ] at different imaging times t a[k] ≠t a[k+1] Although the posture information P a[k] and P a[k+1] are obtained from +1], it may be determined that the posture information does not change substantially equally. That is, this is the case where “P a[k] ≈P a[k+1] ” is determined. This judgment is made, for example, by the fact that the norm of difference between both matrices |P a[k] -P a[k+1] | (norm by sum of absolute value of each element of matrix, etc., below) is below threshold do it.
式(6)を適用する具体例として、前述の式(4-7)及び(4-8)の例に関して、k回目(k=7回目)は式(4-7)で算出し、k+1回目(k+1=8回目)において、図3の例とは異なり仮に姿勢情報P4が利用できなかったとする場合、あるいは、姿勢情報P4は利用可能だが「P3≒P4」と判定された場合には、式(4-8)の多数の積算に代えて以下の式(7)で直前の合成姿勢情報Pe7に姿勢変化情報ΔP7,8を乗ずるのみで、合成姿勢情報Pe8を簡素に計算することが可能である。
Pe8=ΔP7,8Pe7 …(7)
As a specific example of applying the formula (6), with respect to the examples of the above formulas (4-7) and (4-8), the k-th time (k=7-th time) is calculated by the formula (4-7), and k+ At the first time (k+1=8th time), unlike the example of FIG. 3, if the posture information P 4 is not available, or the posture information P 4 is available, but “P 3 ≈P 4 ” If it is determined, instead of multiplying a large number of equations (4-8), by multiplying the immediately preceding synthetic posture information Pe 7 by the posture change information ΔP 7,8 in the following formula (7), the synthetic posture information It is possible to calculate Pe 8 simply.
Pe 8 = ΔP 7,8 Pe 7 …(7)
(2)既に説明したように、撮像部1は所定の撮像レートにおいて繰り返し撮像を行い、時間軸上での撮像画像In(n=1,2,…)を得る。そして、第一推定部3においては、この全て撮像画像In(n=1,2,…)を姿勢情報の推定対象としてもよいし、既に説明した第一手法により一定割合で間引いたもののみを姿勢情報の推定対象としてもよい。
(2) As described above, the imaging unit 1 repeatedly performs imaging at a predetermined imaging rate and obtains a captured image I n (n=1, 2,...) On the time axis. Then, in the
ここで、第一手法における間引き割合を動的に決定する実施形態として、次も可能である。この実施形態では、合成部5がタイミングを同期させて合成姿勢情報を合成する対象としての提示部6における提示タイミングは、撮像部1における撮像時刻(あるいは撮像タイミング)に合致させることを前提とする。第一推定部3では追加処理として、この提示タイミングにおいて、あるいは、ステップS31の推定処理が完了したタイミングにおいて、あるいは、その他の任意の所定タイミングにおいて、過去の同一の提示タイミングt過去に対するものとして合成部5で得た合成姿勢情報Pe過去と、この過去時刻t過去にて撮像部1で撮像画像I過去を撮像して第一推定部3で既に推定済みとなっているその姿勢情報P過去と、のうち、参照可能であり且つ現在時刻に近い側のものを比較する処理を行う。すなわち、両行列の差のノルム|Pe過去-P過去|を評価する処理を行う。
Here, the following is also possible as an embodiment of dynamically determining the thinning rate in the first method. In this embodiment, it is premised that the presentation timing of the
この比較処理により差のノルムが所定閾値以下となることで、両者が概ね等しい、すなわち、「Pe過去≒P過去」と判定されることはすなわち、合成部5で用いた姿勢変化情報の精度が高いことを意味している。そして、センサ204の出力に基づいて得られた姿勢変化情報の精度が高いということはすなわち、実際のカメラ201の姿勢変化が小さく、その動きが小さいことが原因であると想定される。従って、高精度であるが計算負荷も高い第一推定部3による撮像画像を用いた姿勢情報の推定処理レートを下げても、合成部5で得られる合成姿勢情報の精度は維持されることが期待される。
Since the norm of the difference becomes equal to or less than the predetermined threshold value by this comparison process, both are substantially equal, that is, it is determined that “Pe past ≈P past ” means that the accuracy of the posture change information used in the combining
上記の考察に基づき、「Pe過去≒P過去」と判定された場合には、第一推定部3においては推定処理の間引き割合を動的に大きくするように変更してよい。より一般には、Pe過去ととP過去と相違を差ノルム|Pe過去-P過去|として評価し、差ノルムが小さいほど推定処理の間引き割合を大きく設定してよい。評価対象としての過去時刻t過去は、直近の利用可能な1つのみとしてもよいし、2つ以上のものとして、差ノルムの線形和で評価してもよい。
Based on the above discussion, when it is determined that "Pe past ≒ P past" may be modified as in the
図3の例であれば、時刻t4において、合成姿勢情報Pe4が式(4)による積「Pe4=ΔP3,4ΔP2,3ΔP1,2P1」(既に述べた通り、ΔP2,3及びΔP1,2は線L8上において不図示であるが、適切な時間範囲で推定可能なものである)として合成完了した後に、時刻t6と時刻t7との間で第一推定部が時刻t4の姿勢情報P4の推定を完了するので、例えばその直後の時刻t7において合成姿勢情報Pe4と姿勢情報P4とを比較し、一致度合が低ければ間引き割合を小さくし、一致度合が高ければ間引き割合を維持あるいは大きくする、といった動的な間引き割合の設定が可能である。 In the example of FIG. 3, at time t 4 , the combined posture information Pe 4 is the product “Pe 4 =ΔP 3,4 ΔP 2,3 ΔP 1,2 P 1 ”according to equation (4) (as already described, Although [Delta] P 2,3 and [Delta] P 1, 2 are not shown in the line L8, after the completion of the synthesis as is capable estimation at the appropriate time range), the in between times t 6 and time t 7 Since the one estimation unit completes the estimation of the posture information P 4 at time t 4 , for example, at time t 7 immediately thereafter, the synthetic posture information Pe 4 and the posture information P 4 are compared, and if the degree of coincidence is low, the thinning rate is set to It is possible to set a dynamic thinning-out ratio such that the thinning-out ratio is reduced and the thinning-out ratio is maintained or increased if the degree of coincidence is high.
なお、この実施形態は、第一推定部3においてカメラ201の姿勢を推定するために用いる正方マーカ等の対象物は、静止していることを前提とする。
It should be noted that this embodiment is premised on that an object such as a square marker used for estimating the posture of the
(3)合成部5が式(4)により合成姿勢情報を得る処理を開始する時刻t合成開始において、次の提示タイミングtiまでの1つ以上の姿勢変化情報ΔPk,k+1(k=a,a+1,…,i-2,i-1)のうち、第二推定部4の推定処理による未来予測値としてではなく、センサ部2による実測の値が既に得られているものがあれば、未来予測値を実測の値に置き換えて、式(4)を適用するようにしてもよい。
(3) at time t synthesis initiation to begin the process of obtaining synthetic posture
すなわち、a<r<i-1として、k=a,a+1,…,r-1,rまでは、予測値ΔPk,k+1に対応するセンサ実測値がΔPk,k+1[実測]として得られており、k=r+1,r+2,…,i-2,i-1までは予測値ΔPk,k+1のみが得られている場合に、式(4)に代えて、以下の式(8)で合成姿勢情報を求めるようにしてよい。 That is, assuming that a<r<i-1, up to k=a,a+1,...,r-1,r, the measured sensor value corresponding to the predicted value ΔP k,k+1 is ΔP k,k+1. It is obtained as [actual measurement] , and when k=r+1,r+2,...,i-2,i- 1 only the predicted value ΔP k,k+1 is obtained, the equation (4 ), the combined posture information may be obtained by the following equation (8).
なお、この実施形態においては、第二推定部4によるステップS42における推定処理に対する追加処理として、過去に既に求めた予測値ΔPk,k+1のうち、センサ部2からの出力(時刻tk,tk+1間での出力)に基づく実測値ΔPk,k+1[実測]が参照可能なものがある場合に、この参照可能となった実測値ΔPk,k+1[実測]を合成部5に対して出力する処理を行うものとする。
In addition, in this embodiment, as an additional process to the estimation process in step S42 by the second estimation unit 4, among the predicted values ΔP k,k+1 already obtained in the past, the output from the sensor unit 2 (time t k , output between t k+1 ) and the measured value ΔP k,k+1 [measured] that can be referred to, this measured value ΔP k,k+1 [measured] Is output to the
例えば、前述の式(4-7)の例で、この合成処理開始時点での4つの推定された姿勢変化情報ΔP3,4,ΔP4,5,ΔP5,6,ΔP6,7のうち過去側の3つに関して、実測の姿勢変化情報ΔP3,4[実測],ΔP4,5[実測],ΔP5,6[実測]が得られて出力されている場合、式(4-7)に代えて以下の式(9)で合成姿勢情報を得るようにしてよい。
Pe7=ΔP6,7ΔP5,6[実測]ΔP4,5[実測]ΔP3,4[実測]P3 …(9)
For example, in the example of the above formula (4-7), of the four estimated posture change information ΔP 3,4, ΔP 4,5 , ΔP 5,6 , ΔP 6,7 at the start of the combining process. For the past three, if the measured posture change information ΔP 3,4 [measured], ΔP 4,5 [measured] , ΔP 5,6 [measured] is obtained and output, the formula (4-7 Instead of ), combined posture information may be obtained by the following equation (9).
Pe 7 = ΔP 6,7 ΔP 5,6 [measured] ΔP 4,5 [measured] ΔP 3,4 [measured] P 3 …(9)
(4)第一推定部3で得る姿勢情報(基準姿勢からの変化としての姿勢情報)と、第二推定部4で得る姿勢変化情報と、は3次元空間内での姿勢変化に対応する変換を2次元画像座標(斉次座標)において行う平面射影変換行列(サイズ3×3)の形で得る場合を例として説明してきたが、その他の形を用いてもよい。例えば、姿勢情報及び姿勢変化情報は、3次元空間内での姿勢変化をそのまま表現するものとして、以下の式(10)で与えられる回転成分rij(1≦i,j≦3)と並進成分tX,tY,tZで構成されるカメラ201の外部パラメータM(サイズ4×4)の形を用いるようにしてもよい。この外部パラメータMを用いる場合も、合成部5による合成は以上の式(4)やその他の式の例と同様に積の形で、ほぼ瞬時に行うことが可能である。提示部6において提示情報を生成する際は、外部パラメータMに加えてカメラ201の所定の内部パラメータを用いてCG分野で既知の数学的関係により透視投影行列(カメラ行列)を求め、モデル空間で定義されている3次元CGモデルを撮像部1の画像座標へと、この透視投影行列を用いて投影したものにより、提示情報を生成してよい。あるいは、外部パラメータM及び内部パラメータから既知のエピポーラ幾何の関係を用いて、空間内の同一平面上にある点を2つの異なるカメラ位置で撮像した際の、この点の2つの画像座標間での変換関係として平面射影変換行列を求め、この平面射影変換行列を用いて既に説明した手法で提示情報を生成してもよい。
(4) The posture information (posture information as a change from the reference posture) obtained by the
10…情報端末装置、1…撮像部、2…センサ部、3…第一推定部、4…第二推定部、5…合成部、6…提示部 10... Information terminal device, 1... Imaging unit, 2... Sensor unit, 3... First estimation unit, 4... Second estimation unit, 5... Synthesis unit, 6... Presentation unit
Claims (10)
前記撮像画像より、過去時刻における前記撮像部の姿勢情報を推定する第一推定部と、
前記撮像部の姿勢が反映されるセンサ値を継続的に取得するセンサ部と、
前記継続的に取得したセンサ値より未来時刻に向けての姿勢変化情報を推定する第二推定部と、
前記姿勢情報と前記姿勢変化情報とを合成した合成姿勢情報を得る合成部と、を備えることを特徴とする情報端末装置。 An image capturing section that captures an image to obtain a captured image;
From the captured image, a first estimation unit that estimates orientation information of the imaging unit at a past time,
A sensor unit that continuously acquires a sensor value that reflects the attitude of the imaging unit,
A second estimation unit that estimates the posture change information toward the future time from the continuously acquired sensor value,
An information terminal device, comprising: a combining unit that obtains combined attitude information that combines the attitude information and the attitude change information.
前記第二推定部では、前記表示時刻である未来時刻に向けて前記姿勢変化情報を推定することを特徴とする請求項1に記載の情報端末装置。 Further comprising a presentation unit that performs an augmented reality display at each display time using the synthetic posture information,
The information terminal device according to claim 1, wherein the second estimation unit estimates the posture change information toward a future time that is the display time.
前記提示部では、現在時刻が当該未来時刻に到達した際に、当該予め合成した合成姿勢情報を用いて拡張現実表示を行うことを特徴とする請求項2に記載の情報端末装置。 In the synthesizing unit, the posture change information estimated as being directed to a future time in the second estimating unit and the posture information are synthesized in advance to obtain synthetic posture information at the future time,
The information terminal device according to claim 2, wherein when the present time reaches the future time, the presenting unit displays the augmented reality by using the preliminarily combined synthetic posture information.
現時刻において参照可能となっている姿勢情報が直前時刻において参照可能となっている姿勢情報から変化しないと判定される場合には、直前時刻において得られた合成姿勢情報と、直前時刻から現時刻までの間の姿勢変化情報と、を合成することによって、現時刻における合成姿勢情報を得ることを特徴とする請求項1ないし5のいずれかに記載の情報端末装置。 The synthesis unit repeatedly obtains synthetic posture information by synthesizing posture information and posture change information that can be referred to at the time,
If it is determined that the attitude information that can be referenced at the current time does not change from the attitude information that can be referenced at the immediately previous time, the combined attitude information obtained at the immediately previous time and the current time from the immediately previous time 6. The information terminal device according to claim 1, wherein the combined posture information at the current time is obtained by synthesizing the posture change information up to and including.
前記合成部では未来時刻としての各時刻に対して合成姿勢情報を得ており、
前記第一推定部では、前記得られる各時刻の撮像画像の全部または一部を対象として姿勢情報を推定し、且つ、
前記第一推定部では、繰り返して、前記第一推定部が過去時刻において既に推定した姿勢情報と、当該過去時刻に対応するものとして前記合成部によって得られた合成姿勢情報と、を比較して両者の一致度合いを評価し、且つ、
前記第一推定部では、当該一致度合いが大きいほど、前記得られる各時刻の撮像画像の全ての中から、より大きな間引き割合で間引いたもののみを、姿勢情報を推定する対象とすることを特徴とする請求項1ないし6のいずれかに記載の情報端末装置。 The image capturing unit obtains a captured image at each time,
In the synthesizing unit, synthetic posture information is obtained for each time as a future time,
In the first estimation unit, the posture information is estimated for all or part of the obtained captured images at each time, and
The first estimating unit repeatedly compares the posture information already estimated at the past time by the first estimating unit with the synthetic posture information obtained by the synthesizing unit as corresponding to the past time. Evaluate the degree of agreement between the two, and
In the first estimation unit, as the degree of matching is larger, only the thinned-out images with a larger thinning-out ratio among all the captured images at the respective times obtained are targets for estimating the posture information. The information terminal device according to any one of claims 1 to 6.
前記合成部では各時刻において、当該時刻において参照可能となっている姿勢情報及び姿勢変化情報を合成することによって合成姿勢情報を得ており、当該時刻において参照可能となっている姿勢変化情報の中に、前記第二推定部で取得された対応する実測の姿勢変化情報が存在する場合には、前記第二推定部により推定された姿勢変化情報に代えて当該実測の姿勢変化情報を用いて、合成姿勢情報を得ることを特徴とする請求項1ないし7のいずれかに記載の情報端末装置。 At the second estimation unit, at each time, the posture change information is estimated toward a future time based on the time, and the posture change information already estimated at the past time is continuously detected by the sensor unit. If there is a corresponding actually measured posture change information by the sensor value acquired in, obtain the actually measured posture change information,
At each time, the synthesizing unit obtains the synthesized posture information by synthesizing the posture information and the posture change information which can be referred to at the time, and the posture change information which can be referred to at the time. In the case where the corresponding actually-measured posture change information acquired by the second estimation unit is present, the actually-measured posture change information is used instead of the posture change information estimated by the second estimation unit, The information terminal device according to claim 1, wherein the combined attitude information is obtained.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019005017A JP7074694B2 (en) | 2019-01-16 | 2019-01-16 | Information terminal equipment and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019005017A JP7074694B2 (en) | 2019-01-16 | 2019-01-16 | Information terminal equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113159A true JP2020113159A (en) | 2020-07-27 |
JP7074694B2 JP7074694B2 (en) | 2022-05-24 |
Family
ID=71668070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019005017A Active JP7074694B2 (en) | 2019-01-16 | 2019-01-16 | Information terminal equipment and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7074694B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013534616A (en) * | 2010-05-17 | 2013-09-05 | コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ | Method and system for fusing data originating from image sensors and motion or position sensors |
JP2016504611A (en) * | 2012-11-02 | 2016-02-12 | クアルコム,インコーポレイテッド | Using multiple sensors for mapping and self-location estimation |
JP2017072560A (en) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | Information processing apparatus, position and/or attitude estimation method, and computer program |
-
2019
- 2019-01-16 JP JP2019005017A patent/JP7074694B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013534616A (en) * | 2010-05-17 | 2013-09-05 | コミシリア ア レネルジ アトミック エ オ エナジーズ オルタネティヴズ | Method and system for fusing data originating from image sensors and motion or position sensors |
JP2016504611A (en) * | 2012-11-02 | 2016-02-12 | クアルコム,インコーポレイテッド | Using multiple sensors for mapping and self-location estimation |
JP2017072560A (en) * | 2015-10-09 | 2017-04-13 | ソニー株式会社 | Information processing apparatus, position and/or attitude estimation method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP7074694B2 (en) | 2022-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6425780B1 (en) | Image processing system, image processing apparatus, image processing method and program | |
US10789765B2 (en) | Three-dimensional reconstruction method | |
US8928736B2 (en) | Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program | |
JP4297197B2 (en) | Calibration processing apparatus, calibration processing method, and computer program | |
JP6735592B2 (en) | Image processing apparatus, control method thereof, and image processing system | |
JP6491517B2 (en) | Image recognition AR device, posture estimation device, and posture tracking device | |
WO2015134794A2 (en) | Method and system for 3d capture based on structure from motion with simplified pose detection | |
US20210044787A1 (en) | Three-dimensional reconstruction method, three-dimensional reconstruction device, and computer | |
JP2019190974A (en) | Calibration device, calibration method and program | |
US8531505B2 (en) | Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium | |
JP2018026064A (en) | Image processor, image processing method, system | |
JP2017036970A (en) | Information processor, information processing method, and program | |
JP6662382B2 (en) | Information processing apparatus and method, and program | |
EP3998582A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
WO2022247548A1 (en) | Positioning method, apparatus, electronic device, and storage medium | |
US11100699B2 (en) | Measurement method, measurement device, and recording medium | |
JP6552256B2 (en) | Image processing apparatus and image processing apparatus control method | |
CN113610702B (en) | Picture construction method and device, electronic equipment and storage medium | |
JP2017037426A (en) | Information processor, information processing method, and program | |
US11816854B2 (en) | Image processing apparatus and image processing method | |
JP7074694B2 (en) | Information terminal equipment and programs | |
JP2008203991A (en) | Image processor | |
CN111260544B (en) | Data processing method and device, electronic equipment and computer storage medium | |
JP2020120362A (en) | Image processing device, image processing method, and program | |
JP2022112168A (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220512 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7074694 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |