JP2016110546A - Display device and display method - Google Patents

Display device and display method Download PDF

Info

Publication number
JP2016110546A
JP2016110546A JP2014249724A JP2014249724A JP2016110546A JP 2016110546 A JP2016110546 A JP 2016110546A JP 2014249724 A JP2014249724 A JP 2014249724A JP 2014249724 A JP2014249724 A JP 2014249724A JP 2016110546 A JP2016110546 A JP 2016110546A
Authority
JP
Japan
Prior art keywords
acceleration
image
captured
display
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014249724A
Other languages
Japanese (ja)
Other versions
JP6437811B2 (en
Inventor
森永 康夫
Yasuo Morinaga
康夫 森永
佐藤 隆
Takashi Sato
隆 佐藤
山本 隆二
Ryuji Yamamoto
隆二 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014249724A priority Critical patent/JP6437811B2/en
Publication of JP2016110546A publication Critical patent/JP2016110546A/en
Application granted granted Critical
Publication of JP6437811B2 publication Critical patent/JP6437811B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To display a virtual object in an aspect having reality in response to motion of an object in real space.SOLUTION: A terminal device 1 comprises: an image acquisition unit 11 which acquires a captured image generated by capturing real space; an acceleration derivation unit 20 which derives image acceleration which is acceleration of an object in the captured image on the basis of difference between positions in a plurality of captured images of the same object displayed in the respective captured images and difference between times at which the respective captured images are captured; a terminal acceleration acquisition unit 31 which acquires terminal acceleration which is the measured acceleration of the terminal device 1; a determination unit 41 which derives corrected acceleration obtained by correcting the image acceleration by the terminal acceleration to determine a display aspect of a virtual object using the corrected acceleration; and a display unit 44 which displays, according to the display aspect, the virtual object in synchronization with the captured image in real space.SELECTED DRAWING: Figure 2

Description

本発明は、拡張現実感技術を利用した表示装置及び表示方法に関する。   The present invention relates to a display device and a display method using augmented reality technology.

撮像装置などで撮像された現実空間の画像に仮想オブジェクトを同期して表示する拡張現実感(AR:Augmented Reality)技術が知られている。例えば特許文献1には、現実空間の画像に仮想オブジェクトを同期して表示する際、現実空間の重力方向を仮想空間に反映させる情報処理装置が開示されている。   Augmented Reality (AR) technology for displaying a virtual object in synchronization with a real space image captured by an imaging device or the like is known. For example, Patent Document 1 discloses an information processing apparatus that reflects the gravity direction of the real space in the virtual space when the virtual object is displayed in synchronization with the image in the real space.

特開2011−197777号公報JP 2011-197777 A

ところで、現実空間の物体はそれ自体の位置が変化する(動く)場合がある。このような場合に、特許文献1の情報処理装置のように単に現実空間の重力方向を考慮しただけでは、仮想オブジェクトの表示をリアリティのある態様で表示できないおそれがある。例えば、現実空間において、ボールを入れた箱を上下方向に動かすと、箱の中からボールが飛び出すことが考えられる。しかしながら、現実空間の物体を箱、仮想オブジェクトをボールとした場合に、単に重力方向を考慮しただけでは、仮想オブジェクトであるボールが常に現実空間の物体である箱に追従するように表示され、現実の物理現象に沿った表示とならないおそれがある。また、撮像装置が動くことにより、画像として表示される物体の位置が相対的に変化する場合がある。このような場合においても、現実の物体の動きに応じて、仮想オブジェクトをリアリティのある態様で表示できないおそれがある。   By the way, an object in the real space may change (move) in its own position. In such a case, there is a possibility that the virtual object cannot be displayed in a realistic manner simply by considering the direction of gravity in the real space as in the information processing apparatus of Patent Document 1. For example, in a real space, if a box containing a ball is moved up and down, the ball may jump out of the box. However, if the object in the real space is a box and the virtual object is a ball, the ball, which is a virtual object, always follows the box, which is an object in the real space, simply considering the direction of gravity. There is a risk that the display does not conform to the physical phenomenon. Further, there are cases where the position of an object displayed as an image changes relatively as the imaging apparatus moves. Even in such a case, the virtual object may not be displayed in a realistic manner in accordance with the actual movement of the object.

本発明は上記問題点に鑑みてなされたものであり、現実空間の物体の動きに合わせて、仮想オブジェクトをリアリティのある態様で表示することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to display a virtual object in a realistic manner in accordance with the movement of an object in the real space.

本発明の一態様に係る表示装置は、仮想空間のオブジェクトである仮想オブジェクトを現実空間の画像に同期させて表示する表示装置であって、現実空間を撮像することにより生成された撮像画像を取得する画像取得手段と、画像取得手段により取得された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、撮像画像における物体の加速度である画像加速度を導出する加速度導出手段と、測定された表示装置の加速度である装置加速度を取得する加速度取得手段と、加速度導出手段により導出された画像加速度を、加速度取得手段により取得された装置加速度によって補正した補正加速度を導出し、補正加速度を用いて仮想オブジェクトの表示態様を決定する決定手段と、決定手段が決定した表示態様によって、仮想オブジェクトを現実空間の撮像画像に同期させて表示する表示手段と、を備える。   A display device according to one embodiment of the present invention is a display device that displays a virtual object that is an object in a virtual space in synchronization with an image in the real space, and obtains a captured image generated by imaging the real space Based on the difference in position between the captured images of the same object displayed in each of the plurality of captured images acquired by the image acquiring means and the time at which each captured image was captured, Acceleration deriving means for deriving image acceleration that is the acceleration of the object in the captured image, acceleration obtaining means for obtaining device acceleration that is the measured acceleration of the display device, and image acquisition derived by the acceleration deriving means for obtaining the acceleration Determination of deriving a corrected acceleration corrected by the device acceleration acquired by the means and determining the display mode of the virtual object using the corrected acceleration Comprises a stage, the display mode determining means has determined, and display means for displaying to synchronize the virtual object on the captured image of the physical space, the.

この表示装置によれば、同一の物体の各撮像画像間での位置の差及び各撮像画像が撮像された時刻の差に基づいて画像加速度が導出されるとともに、装置加速度が取得される。そして、画像加速度を装置加速度によって補正した補正加速度が導出され、当該補正加速度に基づいた表示態様によって仮想オブジェクトが撮像画像に同期表示される。このように、撮像された物体の加速度である画像加速度が考慮されて仮想オブジェクトの表示態様が決定されることにより、現実空間の物体の加速度に応じて仮想オブジェクトが表示される。これにより、現実の物理現象に沿った、リアリティのある態様で仮想オブジェクトを表示することができる。更に、画像加速度を装置加速度によって補正した補正加速度が用いられているので、表示装置自体の動きが考慮されて仮想オブジェクトの表示態様が決定される。例えば表示装置が動きながら撮像した複数の撮像画像から画像加速度が導出される場合においては、表示装置自体の動きに起因して撮像画像に表示される物体の位置が相対的に変化し、導出される画像加速度の値が物体の現実の動きから乖離した値となるおそれがある。この点、装置加速度によって画像加速度を補正した補正加速度を用いることにより、表示装置自体の動きを考慮して、現実空間の物体の動きに合わせた仮想オブジェクトを表示することができる。以上より、現実空間の物体の動きに合わせて、仮想オブジェクトをリアリティのある態様で表示することができる。   According to this display device, the image acceleration is derived and the device acceleration is acquired based on the difference in position between the captured images of the same object and the difference in time at which the captured images are captured. Then, a corrected acceleration obtained by correcting the image acceleration by the device acceleration is derived, and the virtual object is displayed synchronously with the captured image in a display mode based on the corrected acceleration. Thus, the virtual object is displayed according to the acceleration of the object in the real space by determining the display mode of the virtual object in consideration of the image acceleration that is the acceleration of the imaged object. Thereby, the virtual object can be displayed in a realistic manner in accordance with an actual physical phenomenon. Furthermore, since the corrected acceleration obtained by correcting the image acceleration by the device acceleration is used, the display mode of the virtual object is determined in consideration of the movement of the display device itself. For example, when image acceleration is derived from a plurality of captured images captured while the display device is moving, the position of the object displayed in the captured image is relatively changed due to the movement of the display device itself, and is derived. There is a risk that the image acceleration value deviates from the actual movement of the object. In this regard, by using the corrected acceleration obtained by correcting the image acceleration by the device acceleration, it is possible to display a virtual object in accordance with the movement of the object in the real space in consideration of the movement of the display device itself. As described above, the virtual object can be displayed in a realistic manner in accordance with the movement of the object in the real space.

決定手段は、画像加速度から装置加速度を減算することにより補正加速度を導出してもよい。これにより、画像加速度から装置加速度を適切にキャンセルすることができ、現実の物体の動きを適切に反映した補正加速度を導出できる。   The determining means may derive the corrected acceleration by subtracting the device acceleration from the image acceleration. Thereby, the apparatus acceleration can be appropriately canceled from the image acceleration, and a corrected acceleration that appropriately reflects the movement of the actual object can be derived.

決定手段は、装置加速度の大きさが所定の値よりも大きい場合に、画像加速度、及び装置加速度を0として、表示態様を決定してもよい。装置加速度が大きい場合すなわち表示装置が激しく動いている場合には、各撮像画像間における物体の位置の差から導出される画像加速度の値の信頼性が低いと考えられる。このため、装置加速度が所定の値よりも大きい場合に、画像加速度及び装置加速度を0として表示態様を決定することにより、信頼性が低い情報に基づいて仮想オブジェクトの表示態様が決定されることを回避することができる。   The determining means may determine the display mode by setting the image acceleration and the device acceleration to 0 when the magnitude of the device acceleration is larger than a predetermined value. When the device acceleration is large, that is, when the display device is moving violently, it is considered that the reliability of the image acceleration value derived from the difference in the position of the object between the captured images is low. Therefore, when the device acceleration is larger than a predetermined value, the display mode is determined by setting the image acceleration and the device acceleration to 0, so that the display mode of the virtual object is determined based on information with low reliability. It can be avoided.

加速度取得手段により取得された装置加速度を、装置加速度が測定された時刻と対応づけて記憶する装置加速度記憶手段を更に備え、決定手段は、加速度導出手段により画像加速度が導出された時刻を導出タイミングとして特定するとともに、装置加速度記憶手段に記憶された装置加速度のうち、導出タイミングよりも所定の時間分だけ過去の装置加速度を用いて、画像加速度を補正してもよい。画像加速度は、異なる時刻に撮像された複数の撮像画像から導出される。そのため導出には撮像間隔(複数の撮像画像のうち最初に撮像された撮像画像の撮像時刻と最後に撮像された撮像画像の撮像時刻との差)が必要となる。また、画像加速度の導出には計算時間が必要となる。当該撮像間隔及び計算時間等を考慮すると、導出された画像加速度は導出タイミングよりも所定の時間分だけ過去の装置加速度に対応する。このため、導出タイミングよりも所定の時間分だけ過去の装置加速度を用いて画像加速度を補正することによって、より適切に現実の物体の動きを反映した補正加速度を導出できる。   The apparatus further comprises apparatus acceleration storage means for storing the apparatus acceleration acquired by the acceleration acquisition means in association with the time when the apparatus acceleration is measured, and the determining means derives the time when the image acceleration is derived by the acceleration deriving means. In addition, the image acceleration may be corrected using the device acceleration stored in the device acceleration storage means for a predetermined time before the derivation timing. The image acceleration is derived from a plurality of captured images captured at different times. Therefore, derivation requires an imaging interval (difference between the imaging time of the first captured image and the imaging time of the last captured image among the plurality of captured images). Also, calculation time is required to derive the image acceleration. Considering the imaging interval and calculation time, the derived image acceleration corresponds to the past device acceleration by a predetermined time from the derivation timing. For this reason, by correcting the image acceleration by using the past apparatus acceleration for a predetermined time from the derivation timing, it is possible to derive the corrected acceleration more appropriately reflecting the movement of the actual object.

決定手段は、装置加速度の大きさが所定の値よりも大きい場合に、所定の時間よりも長い一定時間の間、画像加速度、及び装置加速度を0として、表示態様を決定してもよい。装置加速度が大きくなったときに、所定の時間よりも長い一定時間、画像加速度及び装置加速度を0とすることによって、少なくとも、装置加速度が大きくなったタイミングに係る画像加速度及び装置加速度を0として表示態様を決定することができる。これにより、信頼性が低い情報に基づいて仮想オブジェクトの表示態様が決定されることをより確実に回避することができる。   The determining unit may determine the display mode by setting the image acceleration and the device acceleration to 0 for a certain time longer than the predetermined time when the magnitude of the device acceleration is larger than a predetermined value. When the device acceleration is increased, the image acceleration and the device acceleration at the timing when the device acceleration is increased are displayed as 0 by setting the image acceleration and the device acceleration to 0 for a certain time longer than a predetermined time. Aspects can be determined. Thereby, it can avoid more reliably that the display mode of a virtual object is determined based on information with low reliability.

加速度導出手段は、画像取得手段により取得された撮像画像を記憶する画像記憶手段と、画像記憶手段に記憶された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、物体の速度である画像速度を計算する速度計算手段と、速度計算手段により計算された画像速度を記憶する速度記憶手段と、速度記憶手段に記憶された複数の画像速度の差に基づき、画像加速度を計算する加速度計算手段と、加速度計算手段により計算された画像加速度を記憶する画像加速度記憶手段と、を有していてもよい。このような構成により、撮像画像から画像加速度を導出することができる。   The acceleration deriving unit includes an image storage unit that stores the captured image acquired by the image acquisition unit, and a position between the captured images of the same object displayed on each of the plurality of captured images stored in the image storage unit. Based on the difference and the difference in time at which each captured image was captured, speed calculation means for calculating the image speed, which is the speed of the object, speed storage means for storing the image speed calculated by the speed calculation means, and speed storage You may have an acceleration calculation means to calculate an image acceleration based on the difference of the several image speed memorize | stored in the means, and an image acceleration memory | storage means to memorize | store the image acceleration calculated by the acceleration calculation means. With such a configuration, the image acceleration can be derived from the captured image.

ところで、本発明は、上記のように表示装置の発明として記述できる他に、以下のように表示方法の発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。   By the way, the present invention can be described as an invention of a display apparatus as described below, in addition to the invention of a display device as described above. This is substantially the same invention only in different categories, and has the same operations and effects.

すなわち、本発明の別の態様に係る表示方法は、仮想空間のオブジェクトである仮想オブジェクトを現実空間の画像に同期させて表示する表示装置が行う表示方法であって、現実空間を撮像することにより生成された撮像画像を取得するステップと、撮像画像を取得するステップにおいて取得された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、撮像画像における物体の加速度である画像加速度を導出するステップと、測定された表示装置の加速度である装置加速度を取得するステップと、画像加速度を導出するステップにおいて導出された画像加速度を、装置加速度を取得するステップにおいて取得された装置加速度によって補正した補正加速度を導出し、補正加速度を用いて仮想オブジェクトの表示態様を決定するステップと、決定するステップにおいて決定された表示態様によって、仮想オブジェクトを現実空間の撮像画像に同期させて表示するステップと、を含む。   That is, a display method according to another aspect of the present invention is a display method performed by a display device that displays a virtual object that is an object in a virtual space in synchronization with an image in the real space, and by imaging the real space. The step of acquiring the generated captured image and the difference in position between the captured images of the same object displayed in each of the plurality of captured images acquired in the step of acquiring the captured image, and each captured image is captured. Derived in the step of deriving the image acceleration that is the acceleration of the object in the captured image, the step of obtaining the device acceleration that is the measured acceleration of the display device, and the step of deriving the image acceleration Deriving the corrected acceleration obtained by correcting the image acceleration by the device acceleration acquired in the step of acquiring the device acceleration, Determining a display form of the virtual object using the positive acceleration, the display mode determined in the determining step, and displaying to synchronize the virtual object on the captured image of the physical space.

本発明によれば、現実空間の物体の動きに合わせて、仮想オブジェクトをリアリティのある態様で表示することができる。   According to the present invention, a virtual object can be displayed in a realistic manner in accordance with the movement of an object in real space.

本実施形態に係る端末装置の表示イメージを示す図である。It is a figure which shows the display image of the terminal device which concerns on this embodiment. 本実施形態に係る端末装置の機能ブロック図である。It is a functional block diagram of the terminal device concerning this embodiment. 本実施形態に係る端末装置のハードウェア構成図である。It is a hardware block diagram of the terminal device which concerns on this embodiment. 図2の端末加速度記憶部の加速度テーブルを示す表である。It is a table | surface which shows the acceleration table of the terminal acceleration memory | storage part of FIG. 撮像画像から画像加速度を導出するイメージを示す図である。It is a figure which shows the image which derives | leads-out image acceleration from a captured image. 図6(a)は図2のオブジェクト記憶部が記憶するオブジェクトのイメージを示す図であり、図6(b)は図2のオブジェクト記憶部のオブジェクトテーブルを示す表である。6A is a diagram showing an image of an object stored in the object storage unit of FIG. 2, and FIG. 6B is a table showing an object table of the object storage unit of FIG. 図2の端末装置が行う表示方法の一連の処理を示すフローチャートである。It is a flowchart which shows a series of processes of the display method which the terminal device of FIG. 2 performs. 比較例に係る端末装置の表示イメージを示す図である。It is a figure which shows the display image of the terminal device which concerns on a comparative example. 比較例に係る端末装置の表示イメージを示す図である。It is a figure which shows the display image of the terminal device which concerns on a comparative example.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same reference numerals are used for the same or equivalent elements, and redundant descriptions are omitted.

本実施形態に係る表示装置は、拡張現実感(AR:AugmentedReality)技術を利用することにより、撮像装置によって撮像した現実空間の画像に仮想オブジェクトを同期して表示する装置である。より詳細には、本実施形態に係る表示装置は、撮像した物体の動きから撮像画像における物体の加速度を計算し、当該計算した加速度により仮想オブジェクトを制御することによって、現実の物理現象に沿ったリアリティのある態様で仮想オブジェクトを表示する装置である。   The display device according to the present embodiment is a device that displays a virtual object in synchronization with an image of a real space imaged by an imaging device by using augmented reality (AR) technology. More specifically, the display device according to the present embodiment calculates the acceleration of the object in the captured image from the motion of the captured object, and controls the virtual object with the calculated acceleration, thereby following the actual physical phenomenon. It is an apparatus that displays a virtual object in a form with reality.

図1は、本実施形態に係る端末装置の表示イメージを示す図である。図1(a)に示される表示イメージでは、撮像装置により撮像された現実空間の物体である箱Rと、箱Rの中に入っているかのように表示された仮想オブジェクトであるボールBVとが端末装置のディスプレイに表示されている。そして、図1(b)に示されるように箱Rが上方向に移動させられると、箱R及び仮想オブジェクトであるボールBVがともに上方向に移動して表示される。更に、図1(c)に示されるように上方向に移動していた箱Rの移動方向が下方向に変化させられると、箱Rは下方向に移動して表示される。一方で、ボールBVは図1(b)に示した上方向への移動によって上方向の速度を有しているため図1(c)に示されるように箱Rが下方向に移動した場合には箱Rから離れて上方向に跳ね上げられるように表示される。このような表示は現実の物理現象に沿ったリアリティのある表示であり、撮像画像における物体の加速度を導出することによって実現している。以下、図2を参照しながら本実施形態に係る表示装置の一例である端末装置の機能について詳細に説明する。   FIG. 1 is a diagram illustrating a display image of the terminal device according to the present embodiment. In the display image shown in FIG. 1A, a box R that is an object in the real space imaged by the imaging device, and a ball BV that is a virtual object displayed as if it is in the box R. It is displayed on the display of the terminal device. Then, when the box R is moved upward as shown in FIG. 1B, both the box R and the ball BV, which is a virtual object, are moved upward and displayed. Further, as shown in FIG. 1C, when the moving direction of the box R that has been moved upward is changed downward, the box R is moved downward and displayed. On the other hand, since the ball BV has an upward speed due to the upward movement shown in FIG. 1B, when the box R moves downward as shown in FIG. 1C. Is displayed so as to be flipped up away from the box R. Such a display is a realistic display in accordance with an actual physical phenomenon, and is realized by deriving the acceleration of the object in the captured image. Hereinafter, the function of the terminal device which is an example of the display device according to the present embodiment will be described in detail with reference to FIG.

図2は、本実施形態に係る端末装置の機能ブロック図である。図2に示される端末装置1は、仮想空間のオブジェクト(仮想オブジェクト)を現実空間の画像に同期させて表示する表示装置である。仮想オブジェクトとは、例えばコンピュータを用いて作成されるコンピュータグラフィックス(CG:computer graphics)である。現実空間の画像とは、例えば撮像装置により撮像された静止画像(撮像画像)である。仮想オブジェクトを現実空間の画像に同期させて表示するとは、現実空間の画像のうち仮想オブジェクトが関連付けられた所定の位置に、仮想オブジェクトを重畳表示することをいう。例えば、図1(a)に示される表示イメージでは、現実空間の物体である箱Rの中に仮想オブジェクトであるボールBVが入っているように見える位置が、仮想オブジェクトが関連付けられた所定の位置であり、当該所定の位置にボールBVが表示されている。   FIG. 2 is a functional block diagram of the terminal device according to the present embodiment. The terminal device 1 shown in FIG. 2 is a display device that displays an object (virtual object) in a virtual space in synchronization with an image in the real space. A virtual object is computer graphics (CG: computer graphics) created using a computer, for example. The real space image is, for example, a still image (captured image) captured by an imaging device. Displaying a virtual object in synchronization with an image in the real space means that the virtual object is superimposed and displayed at a predetermined position associated with the virtual object in the real space image. For example, in the display image shown in FIG. 1A, a position where a ball BV, which is a virtual object, is contained in a box R, which is an object in real space, is a predetermined position associated with the virtual object. The ball BV is displayed at the predetermined position.

端末装置1は、ユーザにより用いられ、撮像機能を有する装置である。端末装置1は、例えば、スマートフォン等の携帯電話機、タブレット型端末、ノートPC(Personal Computer)等である。端末装置1は、機能的には、画像取得部11と、画像記憶部21と、速度計算部22と、速度記憶部23と、加速度計算部24と、画像加速度記憶部25と、端末加速度取得部31と、端末加速度記憶部32と、決定部41と、オブジェクト記憶部42と、画像合成部43と、表示部44と、を備える。   The terminal device 1 is a device that is used by a user and has an imaging function. The terminal device 1 is, for example, a mobile phone such as a smartphone, a tablet terminal, a notebook PC (Personal Computer), or the like. Functionally, the terminal device 1 has an image acquisition unit 11, an image storage unit 21, a speed calculation unit 22, a speed storage unit 23, an acceleration calculation unit 24, an image acceleration storage unit 25, and terminal acceleration acquisition. Unit 31, terminal acceleration storage unit 32, determination unit 41, object storage unit 42, image composition unit 43, and display unit 44.

端末装置1は、図3に示されるハードウェアによって構成される。図3は、本実施形態に係る端末装置のハードウェア構成図である。図3に示されるように、端末装置1は、物理的には、1又は複数のCPU(Central Processing Unit)101、主記憶装置であるRAM(RandomAccessMemory)102及びROM(Read Only Memory)103、データ送受信デバイスである通信モジュール104、半導体メモリ等の補助記憶装置105、タッチパネル等のユーザの入力を受け付ける入力装置106、ディスプレイ等の出力装置107、カメラ等の撮像装置108、並びに、端末装置1の加速度を測定する加速度センサ109等のハードウェアを備えるコンピュータとして構成される。撮像装置108は、現実空間を撮像することにより撮像画像を生成する。図2における端末装置1の各機能は、CPU101、RAM102等のハードウェア上に1又は複数の所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107、撮像装置108及び加速度センサ109を動作させるとともに、RAM102及び補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。   The terminal device 1 is configured by hardware shown in FIG. FIG. 3 is a hardware configuration diagram of the terminal device according to the present embodiment. As shown in FIG. 3, the terminal device 1 physically includes one or more CPUs (Central Processing Units) 101, a RAM (Random Access Memory) 102 and a ROM (Read Only Memory) 103 that are main storage devices, data Communication module 104 as a transmission / reception device, auxiliary storage device 105 such as a semiconductor memory, input device 106 that accepts user input such as a touch panel, output device 107 such as a display, imaging device 108 such as a camera, and acceleration of the terminal device 1 It is comprised as a computer provided with hardware, such as the acceleration sensor 109 which measures this. The imaging device 108 generates a captured image by imaging the real space. Each function of the terminal device 1 in FIG. 2 is such that one or a plurality of predetermined computer software is read on hardware such as the CPU 101 and the RAM 102, so that the communication module 104, the input device 106, and the output are controlled under the control of the CPU 101. This is realized by operating the device 107, the imaging device 108, and the acceleration sensor 109, and reading and writing data in the RAM 102 and the auxiliary storage device 105.

図2に戻って、端末装置1の機能構成について詳細に説明する。画像取得部11は、撮像装置108により撮像されて生成された撮像画像を取得する画像取得手段として機能する。画像取得部11は、撮像装置108によって撮像画像が生成される度に撮像画像を取得するものであってもよいし、所定の間隔で撮像装置108から撮像画像を取得するものであってもよい。画像取得部11が取得する撮像画像のメタ情報には、少なくとも撮像時刻(画像を撮像した時刻)が含まれている。画像取得部11は、取得した撮像画像及び該撮像画像のメタ情報を画像記憶部21に格納する。   Returning to FIG. 2, the functional configuration of the terminal device 1 will be described in detail. The image acquisition unit 11 functions as an image acquisition unit that acquires a captured image generated by being captured by the imaging device 108. The image acquisition unit 11 may acquire a captured image every time a captured image is generated by the imaging device 108, or may acquire a captured image from the imaging device 108 at a predetermined interval. . The meta information of the captured image acquired by the image acquisition unit 11 includes at least an imaging time (time when the image was captured). The image acquisition unit 11 stores the acquired captured image and meta information of the captured image in the image storage unit 21.

画像記憶部21は、画像取得部11により取得された複数の撮像画像を記憶する画像記憶手段として機能する。画像記憶部21は、第1記憶領域と第2記憶領域とを有している。第1記憶領域には、画像取得部11により取得された複数の撮像画像のうち最新の撮像画像及び該撮像画像のメタ情報が記憶されている。第2記憶領域には、第1記憶領域に記憶された撮像画像よりも過去の(撮像時刻が古い)撮像画像及び該撮像画像のメタ情報が記憶されている。画像取得部11は、画像記憶部21に新たな撮像画像を格納する際には、第1記憶領域に記憶された情報を第2記憶領域に格納し直した後に、新たな撮像画像及び該撮像画像のメタ情報を第1記憶領域に格納する。   The image storage unit 21 functions as an image storage unit that stores a plurality of captured images acquired by the image acquisition unit 11. The image storage unit 21 has a first storage area and a second storage area. The first storage area stores the latest captured image among the plurality of captured images acquired by the image acquisition unit 11 and meta information of the captured image. The second storage area stores a past captured image (with an imaging time older than the captured image) stored in the first storage area and meta information of the captured image. When storing a new captured image in the image storage unit 21, the image acquisition unit 11 stores the information stored in the first storage area in the second storage area, and then stores the new captured image and the captured image. The meta information of the image is stored in the first storage area.

速度計算部22は、画像記憶部21に記憶された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、物体の速度である画像速度を計算する速度計算手段として機能する。なお、以下の説明において、ベクトル量である速度及び加速度等の演算は、全てベクトル量の演算を示している。速度計算部22は、物体特定処理、動きベクトル導出処理、及び画像速度導出処理を行う。   The speed calculation unit 22 is based on the difference in position between the captured images of the same object displayed in each of the plurality of captured images stored in the image storage unit 21 and the difference in time at which each captured image was captured. It functions as a speed calculation means for calculating the image speed, which is the speed of the object. In the following description, calculation of vector quantities such as speed and acceleration all indicate vector quantity calculations. The speed calculation unit 22 performs an object identification process, a motion vector derivation process, and an image speed derivation process.

物体特定処理とは、撮像画像中の特徴点を抽出し、当該特徴点に基づいて撮像画像中に含まれる物体を特定する処理である。特徴点とは、画像の境目及び角等の特徴となる点であり、例えば画像の色彩が大きく変化する箇所、濃淡の濃い箇所、輪郭などである。特徴点に基づいて撮像画像中に含まれる物体を特定するために、例えば、抽出した特徴点と、予め記憶された特徴点とがマッチングされる。予め記憶された特徴点は、現実の物体に対応づけられている。上記マッチングによって、撮像画像中に含まれている物体を特定することができる。なお、物体に対応づけられた特徴点は、端末装置1中に記憶されていてもよいし、端末装置1と通信可能な外部のデータベースに記憶されていてもよい。速度計算部22は、画像記憶部21の第1記憶領域に格納された撮像画像(以下、第1画像と記載する場合がある)及び第2記憶領域に格納された撮像画像(以下、第2画像と記載する場合がある)の双方に対して、物体特定処理を行う。   The object specifying process is a process of extracting a feature point in a captured image and specifying an object included in the captured image based on the feature point. The feature points are points that become features such as borders and corners of the image, and are, for example, a location where the color of the image changes greatly, a dark portion, a contour, or the like. In order to specify the object included in the captured image based on the feature points, for example, the extracted feature points are matched with the feature points stored in advance. The feature points stored in advance are associated with real objects. By the above matching, an object included in the captured image can be specified. The feature points associated with the object may be stored in the terminal device 1 or may be stored in an external database that can communicate with the terminal device 1. The speed calculation unit 22 includes a captured image stored in the first storage area of the image storage unit 21 (hereinafter sometimes referred to as a first image) and a captured image stored in the second storage area (hereinafter referred to as a second image). Object identification processing is performed on both of them (which may be described as images).

動きベクトル導出処理とは、第1画像及び第2画像を比較することにより、物体特定処理において特定された物体の動きを動きベクトルとして導出する処理である。動きベクトルとは、基準となる画像(フレーム)からの物体の動きをベクトルで表現したものである。速度計算部22は、第1画像及び第2画像の双方に表示されている物体について、第1画像における位置と第2画像における位置とを比較し、第2画像における位置から第1画像における位置までの移動量及び移動方向を動きベクトルとして導出する。速度計算部22は、同一の物体に含まれる複数の特徴点それぞれの動きベクトルを導出する。すなわち、同一の物体について複数の動きベクトルが導出される。なお、複数の画像から動きベクトルを導出する処理については、例えば「Bruce D. Lucas and Takeo Kanade. An Iterative Image RegistrationTechnique with an Application to Stereo Vision.International Joint Conferenceon Artificial Intelligence, pages 674-679, 1981.」等に記載された手法を用いて行うことができる。   The motion vector deriving process is a process of deriving the motion of the object specified in the object specifying process as a motion vector by comparing the first image and the second image. A motion vector represents a motion of an object from a reference image (frame) as a vector. The speed calculation unit 22 compares the position in the first image with the position in the second image for the object displayed in both the first image and the second image, and the position in the first image from the position in the second image. The amount and direction of movement up to are derived as motion vectors. The speed calculation unit 22 derives a motion vector for each of a plurality of feature points included in the same object. That is, a plurality of motion vectors are derived for the same object. Regarding the process of deriving motion vectors from multiple images, for example, `` Bruce D. Lucas and Takeo Kanade.An Iterative Image Registration Technique with an Application to Stereo Vision.International Joint Conferenceon Artificial Intelligence, pages 674-679, 1981. '' Etc. can be performed using the method described in the above.

画像速度導出処理とは、第1記憶領域に記憶された第1画像のメタ情報及び第2記憶領域に記憶された第2画像のメタ情報と、動きベクトル導出処理において導出された動きベクトルとに基づいて、撮像画像中の物体の速度である画像速度を導出する処理である。速度計算部22は、第2画像のメタ情報に含まれた第2画像の撮像時刻と第1画像のメタ情報に含まれた第1画像の撮像時刻との差である撮像時刻差を導出する。また、速度計算部22は、第1画像及び第2画像から導出された、同一の物体に係る複数の特徴点の動きベクトルから一の動きベクトルを求める。当該一の動きベクトルは、例えば複数の特徴点の動きベクトルの平均のベクトル(以下、平均ベクトルと記載する場合がある)とされる。速度計算部22は、撮像時刻差と一の動きベクトルとから画像速度を導出する。速度計算部22は、導出した画像速度及び該画像速度の時刻情報を速度記憶部23に格納する。ここで、画像速度の時刻情報は、例えば第1画像のメタ情報に含まれている撮像時刻とされる。   The image speed derivation process includes the meta information of the first image stored in the first storage area, the meta information of the second image stored in the second storage area, and the motion vector derived in the motion vector derivation process. This is a process for deriving an image speed that is the speed of an object in the captured image. The speed calculation unit 22 derives an imaging time difference that is a difference between the imaging time of the second image included in the meta information of the second image and the imaging time of the first image included in the meta information of the first image. . Further, the speed calculation unit 22 obtains one motion vector from the motion vectors of a plurality of feature points related to the same object, which are derived from the first image and the second image. The one motion vector is, for example, an average vector of motion vectors of a plurality of feature points (hereinafter sometimes referred to as an average vector). The speed calculation unit 22 derives the image speed from the imaging time difference and one motion vector. The speed calculation unit 22 stores the derived image speed and the time information of the image speed in the speed storage unit 23. Here, the time information of the image speed is, for example, an imaging time included in the meta information of the first image.

また、簡単のため撮像装置108による撮像画像の生成が同一間隔で周期的に行われる場合(すなわち撮像時刻差が常に一定である場合)と仮定して、平均ベクトルに定数を乗算した値を画像速度としてもよい。なお、撮像時刻差が一定でない場合には、時刻差に反比例した数を乗算して画像速度を求め、位置を更新する場合には画像速度に時刻差に比例した数を乗算したものを位置に加算すればよい。また、動きベクトルの始点の奥行が推定できる場合には、透視変換の逆変換を適用して、見かけの動きベクトルの大きさを奥行によって補正した値の平均値を画像速度としてもよい。奥行によって補正することにより、精度の高い画像速度が導出される。なお、動画像から特徴点の座標(奥行)を推定する方法としては、例えば「Carlo Tomasi and Takeo Kanade. (November 1992). "Shape andmotion from image streams under orthography: a factorization method.".International Journal of Computer Vision, 9 (2): 137-154.」に記載された公知のTomasi-Kanada法等を用いることができる。   Further, for the sake of simplicity, it is assumed that captured image generation by the imaging device 108 is periodically performed at the same interval (that is, when the imaging time difference is always constant), and the value obtained by multiplying the average vector by a constant is the image It may be speed. When the imaging time difference is not constant, the image speed is obtained by multiplying the number inversely proportional to the time difference, and when the position is updated, the position obtained by multiplying the image speed by the number proportional to the time difference is used as the position. What is necessary is just to add. In addition, when the depth of the start point of the motion vector can be estimated, an average value of values obtained by correcting the magnitude of the apparent motion vector by the depth by applying the inverse transformation of the perspective transformation may be used as the image speed. By correcting by depth, a highly accurate image speed is derived. For example, “Carlo Tomasi and Takeo Kanade. (November 1992).“ Shape and motion from image streams under orthography: a factorization method. ”. International Journal of The publicly known Tomasi-Kanada method described in Computer Vision, 9 (2): 137-154.

速度記憶部23は、速度計算部22により導出(計算)された画像速度を記憶する速度記憶手段として機能する。速度記憶部23は、第3記憶領域と第4記憶領域とを有している。第3記憶領域には、速度計算部22により導出された画像速度のうち最新の画像速度及び該画像速度の時刻情報が記憶されている。第4記憶領域には、第3記憶領域に記憶された画像速度よりも過去の(時刻情報が古い)画像速度及び該画像速度の時刻情報が記憶されている。速度計算部22は、速度記憶部23に新たな画像速度を格納する際には、第3記憶領域に記憶された情報を第4記憶領域に格納し直した後に、新たな画像速度及び該画像速度の時刻情報を第3記憶領域に格納する。   The speed storage unit 23 functions as a speed storage unit that stores the image speed derived (calculated) by the speed calculation unit 22. The speed storage unit 23 has a third storage area and a fourth storage area. The third storage area stores the latest image speed among the image speeds derived by the speed calculation unit 22 and time information of the image speed. The fourth storage area stores the past image speed (the time information is older) than the image speed stored in the third storage area and the time information of the image speed. When storing the new image speed in the speed storage unit 23, the speed calculation unit 22 stores the information stored in the third storage area in the fourth storage area, and then stores the new image speed and the image. Speed time information is stored in the third storage area.

加速度計算部24は、速度記憶部23に記憶された複数の画像速度の差に基づき、撮像画像における物体の加速度である画像加速度を計算する加速度計算手段として機能する。すなわち、加速度計算部24は、第3記憶領域に記憶された画像速度及び第4記憶領域に記憶された画像速度の差である速度差と、第3記憶領域に記憶された時刻情報及び第4記憶領域に記憶された時刻情報の差である時刻差とをそれぞれ求め、当該速度差及び時刻差から画像加速度を導出(計算)する。加速度計算部24は、導出した画像加速度及び該画像加速度の時刻情報を画像加速度記憶部25に格納する。ここで、画像加速度の時刻情報は、例えば、第3記憶領域に記憶されている時刻情報(つまり第1画像の撮像時刻)、及び、画像加速度を導出した時刻(導出タイミング)を示す情報とされる。   The acceleration calculation unit 24 functions as an acceleration calculation unit that calculates an image acceleration, which is an acceleration of an object in the captured image, based on a difference between a plurality of image speeds stored in the speed storage unit 23. That is, the acceleration calculation unit 24 calculates the speed difference that is the difference between the image speed stored in the third storage area and the image speed stored in the fourth storage area, the time information stored in the third storage area, and the fourth information. A time difference which is a difference between time information stored in the storage area is obtained, and an image acceleration is derived (calculated) from the speed difference and the time difference. The acceleration calculation unit 24 stores the derived image acceleration and time information of the image acceleration in the image acceleration storage unit 25. Here, the time information of the image acceleration is, for example, information indicating the time information stored in the third storage area (that is, the imaging time of the first image) and the time when the image acceleration is derived (derivation timing). The

画像加速度記憶部25は、加速度計算部24により導出(計算)された画像加速度を記憶する画像加速度記憶手段として機能する。画像加速度記憶部25は、少なくとも、加速度計算部24によって導出された最新の画像加速度及び該画像加速度の時刻情報を記憶している。なお、画像加速度記憶部25は、複数の画像加速度及び時刻情報を記憶してもよい。   The image acceleration storage unit 25 functions as an image acceleration storage unit that stores the image acceleration derived (calculated) by the acceleration calculation unit 24. The image acceleration storage unit 25 stores at least the latest image acceleration derived by the acceleration calculation unit 24 and time information of the image acceleration. Note that the image acceleration storage unit 25 may store a plurality of image accelerations and time information.

上述した、画像記憶部21、速度計算部22、速度記憶部23、加速度計算部24、及び画像加速度記憶部25によって、画像加速度を導出する加速度導出部20が構成されている。すなわち、加速度導出部20は、画像取得部11により取得された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、画像加速度を導出する加速度導出手段として機能する。   The above-described image storage unit 21, speed calculation unit 22, speed storage unit 23, acceleration calculation unit 24, and image acceleration storage unit 25 constitute an acceleration deriving unit 20 that derives image acceleration. That is, the acceleration deriving unit 20 determines the difference in position between the captured images of the same object displayed in each of the plurality of captured images acquired by the image acquiring unit 11 and the difference in time at which the captured images are captured. Functions as an acceleration deriving means for deriving the image acceleration.

端末加速度取得部31は、端末装置1の加速度である端末加速度(装置加速度)を取得する加速度取得手段として機能する。端末加速度取得部31は、例えば加速度センサ109によって測定された加速度を所定の間隔(例えば数10m秒〜数秒間隔)で取得する。また、端末加速度取得部31は、一定の間隔ではなくランダムに、加速度センサ109から加速度を取得してもよい。端末加速度取得部31は、加速度とともに該加速度の測定時刻を加速度センサ109から取得する。加速度センサ109によって測定される加速度には、端末加速度及び重力加速度の双方が含まれている。そのため、端末加速度取得部31は、加速度センサ109によって測定された加速度から重力加速度を減算した値を端末加速度として取得する。   The terminal acceleration acquisition unit 31 functions as an acceleration acquisition unit that acquires terminal acceleration (apparatus acceleration) that is the acceleration of the terminal device 1. The terminal acceleration acquisition unit 31 acquires, for example, acceleration measured by the acceleration sensor 109 at a predetermined interval (for example, several tens of milliseconds to several seconds). In addition, the terminal acceleration acquisition unit 31 may acquire acceleration from the acceleration sensor 109 at random instead of a constant interval. The terminal acceleration acquisition unit 31 acquires the acceleration measurement time from the acceleration sensor 109 together with the acceleration. The acceleration measured by the acceleration sensor 109 includes both terminal acceleration and gravitational acceleration. Therefore, the terminal acceleration acquisition unit 31 acquires a value obtained by subtracting the gravitational acceleration from the acceleration measured by the acceleration sensor 109 as the terminal acceleration.

端末加速度記憶部32は、端末加速度取得部31により取得された端末加速度を、該端末加速度の測定時刻を示すタイムスタンプと対応づけて記憶する装置加速度記憶手段として機能する。端末加速度記憶部32は、端末加速度取得部31によって取得された端末加速度のうち、最新の端末加速度のみではなく、該最新の端末加速度よりも過去に取得された端末加速度を、タイムスタンプと対応づけて加速度テーブルに記憶している。図4は、図2の端末加速度記憶部32の加速度テーブルを示す表である。図4に示される例では、端末加速度記憶部32の加速度テーブルTにおいて、20ミリ秒間隔で取得された端末加速度の測定時刻である11時41分12.000秒〜12.060秒を示すタイムスタンプ(11:41:12.000〜12.060)それぞれに対応して、端末加速度(0.1、0.2、0.0、0.0)が記憶されている。すなわち、加速度テーブルTには、端末加速度取得部31によって20ミリ秒ごとに取得された端末加速度が記憶されている。   The terminal acceleration storage unit 32 functions as a device acceleration storage unit that stores the terminal acceleration acquired by the terminal acceleration acquisition unit 31 in association with a time stamp indicating the measurement time of the terminal acceleration. The terminal acceleration storage unit 32 associates not only the latest terminal acceleration among terminal accelerations acquired by the terminal acceleration acquisition unit 31 but also terminal accelerations acquired in the past from the latest terminal acceleration with time stamps. Is stored in the acceleration table. FIG. 4 is a table showing an acceleration table of the terminal acceleration storage unit 32 of FIG. In the example shown in FIG. 4, in the acceleration table T of the terminal acceleration storage unit 32, a time indicating 11: 41: 12.000 seconds to 12.060 seconds, which is the measurement time of the terminal acceleration acquired at intervals of 20 milliseconds. The terminal acceleration (0.1, 0.2, 0.0, 0.0) is stored corresponding to each stamp (11: 41: 12.000 to 12.060). That is, the acceleration table T stores the terminal acceleration acquired by the terminal acceleration acquisition unit 31 every 20 milliseconds.

端末加速度記憶部32は、加速度テーブルTを記憶するためのバッファを有している。当該バッファは、一定のサイズにされてリングバッファの形態とされてもよい。この場合、端末加速度取得部31により新たな端末加速度が格納される際に、バッファ内の最も古い(最も過去に格納された)端末加速度の値に上書きするようにして、新たな端末加速度が記憶されてもよい。   The terminal acceleration storage unit 32 has a buffer for storing the acceleration table T. The buffer may be a fixed size and in the form of a ring buffer. In this case, when a new terminal acceleration is stored by the terminal acceleration acquisition unit 31, the oldest terminal acceleration value stored in the buffer is overwritten with the new terminal acceleration stored in the buffer. May be.

図2に戻って、決定部41は、加速度導出部20により導出された画像加速度を、端末加速度記憶部32に記憶された端末加速度によって補正した補正加速度を導出し、当該補正加速度を用いて仮想オブジェクトの表示態様(具体的には表示位置)を決定する決定手段として機能する。すなわち、決定部41は、補正加速度導出処理及び表示態様決定処理を行う。以下、それぞれの処理について詳細に説明する。   Returning to FIG. 2, the determination unit 41 derives a corrected acceleration obtained by correcting the image acceleration derived by the acceleration deriving unit 20 with the terminal acceleration stored in the terminal acceleration storage unit 32, and uses the corrected acceleration to generate a virtual acceleration. It functions as a determining unit that determines the display mode (specifically, the display position) of the object. That is, the determination unit 41 performs a corrected acceleration derivation process and a display mode determination process. Hereinafter, each process will be described in detail.

まず、補正加速度導出処理について説明する。決定部41は、画像加速度から端末加速度を減算することにより補正加速度を導出する。また、決定部41は、画像加速度の導出に要する時間を考慮して補正加速度を導出してもよい。すなわち、決定部41は、加速度導出部20(より詳細には加速度計算部24)により画像加速度が導出された時刻を導出タイミングとして特定する。具体的には、決定部41は、画像加速度記憶部25を参照し、画像加速度の時刻情報(より詳細には、画像加速度を導出した時刻(導出タイミング)を示す情報)を、最新の画像加速度の導出タイミングとして特定する。そして、決定部41は、端末加速度記憶部32に記憶された端末加速度のうち、上述した導出タイミングよりも所定の時間分だけ過去の端末加速度により画像加速度を補正する。当該所定の時間は、撮像画像から画像加速度を導出するために要する時間(以下、導出タイムラグと記載する場合がある)に相当する時間とされる。   First, the corrected acceleration deriving process will be described. The determination unit 41 derives a corrected acceleration by subtracting the terminal acceleration from the image acceleration. The determination unit 41 may derive the corrected acceleration in consideration of the time required for deriving the image acceleration. That is, the determination unit 41 specifies the time when the image acceleration is derived by the acceleration deriving unit 20 (more specifically, the acceleration calculating unit 24) as the deriving timing. Specifically, the determination unit 41 refers to the image acceleration storage unit 25 and uses the image acceleration time information (more specifically, information indicating the time (derivation timing) at which the image acceleration is derived) as the latest image acceleration. It is specified as the derivation timing. And the determination part 41 correct | amends an image acceleration by a terminal acceleration past for predetermined time rather than the derivation timing among the terminal accelerations memorize | stored in the terminal acceleration memory | storage part 32. FIG. The predetermined time is a time corresponding to a time required for deriving the image acceleration from the captured image (hereinafter sometimes referred to as a derived time lag).

図5は、撮像画像から画像加速度を導出するイメージを示す図である。図5に示されるように、画像加速度aを導出するためには、少なくとも異なる時刻t,t−1,t−2に撮像された複数の撮像画像I(t),I(t−1),I(t−2)が必要となる。このことから、導出タイムラグには、複数の撮像画像I(t),I(t−1),I(t−2)を撮像するための撮像間隔が含まれる。この場合の撮像間隔とは、撮像画像I(t−2)が撮像された時刻t−2から撮像画像I(t)が撮像された時刻である時刻tまでの時間である。また、図5に示されるように、複数の撮像画像I(t),I(t−1),I(t−2)から少なくとも速度V(t),V(t−1)が計算され、速度V(t),V(t−1)から画像加速度aが導出されるので、導出タイムラグには、計算時間が含まれる。以上より、導出タイムラグは、上述した撮像間隔及び計算時間を含んだ時間である。 FIG. 5 is a diagram illustrating an image for deriving the image acceleration from the captured image. As shown in FIG. 5, to derive an image acceleration a I is at least different times t, t-1, captured t-2 are a plurality of captured images I (t), I (t -1) , I (t−2) is required. Therefore, the derived time lag includes an imaging interval for imaging a plurality of captured images I (t), I (t−1), and I (t−2). The imaging interval in this case is the time from time t-2 when the captured image I (t-2) is captured to time t that is the time when the captured image I (t) is captured. Further, as shown in FIG. 5, at least speeds V (t) and V (t-1) are calculated from the plurality of captured images I (t), I (t-1), and I (t-2). speed V (t), since V (t-1) from the image acceleration a I is derived, the derived time lag includes the computation time. From the above, the derived time lag is a time including the above-described imaging interval and calculation time.

図4を用いてより詳細に説明する。例えば上述した所定の時間(すなわち撮像間隔及び計算時間を含んだ時間である導出タイムラグ)が20ミリ秒とされ、導出タイミングが11時41分12.040秒であったとする。この場合、決定部41は、加速度テーブルTを参照して、導出タイミングである11時41分12.040秒よりも20ミリ秒過去の11時41分12.020秒の端末加速度を画像加速度の値から減算することにより、補正加速度を導出する。なお、導出タイムラグが一定値である場合には、加速度テーブルTにおいてタイムスタンプの記録を省略し、一定数古い画像加速度の値を用いるようにしてもよい。   This will be described in more detail with reference to FIG. For example, it is assumed that the predetermined time (that is, the derived time lag including the imaging interval and the calculation time) is 20 milliseconds, and the derived timing is 11: 41: 12.040 seconds. In this case, the determination unit 41 refers to the acceleration table T and determines the terminal acceleration at 11: 41: 12.020 seconds, which is 20 milliseconds past the derivation timing of 11: 41: 12.040 seconds, as the image acceleration. The corrected acceleration is derived by subtracting from the value. If the derived time lag is a constant value, recording of a time stamp in the acceleration table T may be omitted, and a certain number of old image acceleration values may be used.

つづいて、表示態様決定処理について説明する。決定部41は、補正加速度導出処理により導出した補正加速度に基づいて、オブジェクト記憶部42に記憶された仮想オブジェクトのパラメータ値を更新することにより、仮想オブジェクトの表示態様を決定する。決定部41は、仮想オブジェクトのパラメータ値の更新が完了すると、画像合成部43に更新完了通知を出力する。ここで、オブジェクト記憶部42は、撮像画像中の仮想オブジェクト毎に、各種パラメータ値及び実世界同期フラグを記憶している。各種パラメータとは、例えば、仮想オブジェクトの位置、姿勢、形状、速度、質量、オブジェクト間の摩擦係数、衝突時の弾性係数、推進力、引力、及び電磁力等の、物理計算(詳細は後述)に用いられるパラメータである。   Next, display mode determination processing will be described. The determining unit 41 determines the display mode of the virtual object by updating the parameter value of the virtual object stored in the object storage unit 42 based on the corrected acceleration derived by the corrected acceleration deriving process. When the update of the parameter value of the virtual object is completed, the determination unit 41 outputs an update completion notification to the image composition unit 43. Here, the object storage unit 42 stores various parameter values and a real world synchronization flag for each virtual object in the captured image. The various parameters are, for example, physical calculations such as the position, posture, shape, speed, mass, friction coefficient between objects, elastic coefficient at the time of collision, propulsive force, attractive force, and electromagnetic force (details will be described later). Is the parameter used for.

また、実世界同期フラグとは、仮想オブジェクトを表示する際に、現実空間の物体(すなわち撮像画像中の物体)の一部又は全てを表すオブジェクトとして表示するか否かを示すフラグである。すなわち、例えば箱を撮像している場合に箱の一部である底面を表す仮想オブジェクトは、現実空間の物体の一部そのものを表すオブジェクトであるので、仮想オブジェクトの実世界同期フラグはY(Yes)に設定される。一方で、例えば箱を撮像している場合に箱の中に入っているように見せる仮想的なボールを表す仮想オブジェクトは、現実空間の物体を表すオブジェクトではないので、仮想オブジェクトの実世界同期フラグはN(No)に設定される。実世界同期フラグがYの仮想オブジェクトは、当該仮想オブジェクトが表す撮像画像中の物体の一部又は全てに位置合わせされて表示される。一方で、実世界同期フラグがNの仮想オブジェクトは、速度等のパラメータ値を考慮した物理計算(詳細は後述)と、仮想オブジェクト間の衝突判定とに基づき時々刻々の位置及び速度が変化し、当該変化に応じた態様で表示される。   The real world synchronization flag is a flag indicating whether or not to display a virtual object as an object representing a part or all of an object in real space (that is, an object in a captured image). That is, for example, when a box is imaged, a virtual object representing a bottom surface that is a part of the box is an object representing a part of the object in the real space, so the real world synchronization flag of the virtual object is Y (Yes ). On the other hand, for example, a virtual object that represents a virtual ball that appears to be in the box when the box is imaged is not an object that represents an object in the real space. Is set to N (No). The virtual object whose real world synchronization flag is Y is displayed in alignment with a part or all of the object in the captured image represented by the virtual object. On the other hand, the virtual object whose real world synchronization flag is N changes its position and speed from moment to moment based on physical calculation (details will be described later) in consideration of parameter values such as velocity and collision determination between virtual objects, It is displayed in a mode corresponding to the change.

図6(a)は図2のオブジェクト記憶部42が記憶するオブジェクトのイメージを示す図であり、図6(b)は図2のオブジェクト記憶部42のオブジェクトテーブルを示す表である。図6(a)に示される物体Bは、撮像画像中に含まれる箱の底面を表す仮想オブジェクトである。また、図6(a)に示される物体Oは、撮像画像中の箱の中に入っているように表示されるボールを表す仮想オブジェクトである。なお、図6(a)の例では、撮像画像中に含まれる箱の底面のみが仮想オブジェクトとされているが、箱全体が仮想オブジェクトとされていてもよい。   6A is a diagram showing an image of an object stored in the object storage unit 42 in FIG. 2, and FIG. 6B is a table showing an object table in the object storage unit 42 in FIG. The object B shown in FIG. 6A is a virtual object that represents the bottom surface of the box included in the captured image. An object O shown in FIG. 6A is a virtual object representing a ball displayed as if it is in a box in the captured image. In the example of FIG. 6A, only the bottom surface of the box included in the captured image is a virtual object, but the entire box may be a virtual object.

図6(b)に示される例では、図6(a)に示された仮想オブジェクトである物体O及び物体Bに関する情報が、オブジェクト記憶部42のオブジェクトテーブルOTに記憶されている。オブジェクトテーブルOTでは、仮想オブジェクトに関する情報として、仮想オブジェクトを特定する物体IDと、仮想オブジェクトのパラメータである位置・形状及び速度と、実世界同期フラグとが対応づけられて記憶されている。図6(b)に示される例では、パラメータとして位置・形状及び速度が記憶されているとして説明する。なお、各仮想オブジェクトは剛体であると仮定されており、速度のパラメータ値は一つの仮想オブジェクトにつき一つとされている。また、速度の初期値はゼロベクトルとされる。   In the example shown in FIG. 6B, information regarding the object O and the object B, which are the virtual objects shown in FIG. 6A, is stored in the object table OT of the object storage unit. In the object table OT, as information related to the virtual object, an object ID that identifies the virtual object, a position / shape and speed that are parameters of the virtual object, and a real world synchronization flag are stored in association with each other. In the example shown in FIG. 6B, description will be made assuming that the position / shape and speed are stored as parameters. Each virtual object is assumed to be a rigid body, and the speed parameter value is set to one for each virtual object. The initial value of the speed is a zero vector.

物体ID:Oで示される物体Oは球体物体であるボールの仮想オブジェクトであるところ、中心座標(物体Oの中心を示す撮像画像中の座標)p及び半径rが位置・形状のパラメータ値とされている。また、物体Oでは速度vが速度のパラメータ値とされている。また、物体Oは撮像画像中の物体(現実空間の物体)を表すオブジェクトではないので実世界同期フラグがNとされている。 The object O indicated by the object ID: O is a virtual object of a ball that is a spherical object, and the center coordinates (coordinates in a captured image indicating the center of the object O) p 0 and the radius r are the position / shape parameter values. Has been. In the object O, the velocity v 0 is a velocity parameter value. Further, since the object O is not an object representing an object (an object in the real space) in the captured image, the real world synchronization flag is set to N.

一方で、物体ID:Bで示される物体Bは平面物体である箱の底面の仮想オブジェクトであるところ、頂点座標(物体Bの頂点を示す撮像画像中の座標)p,p,p,pが位置・形状のパラメータ値とされている。また、物体Bでは速度vが速度のパラメータ値とされている。また、物体Bは撮像画像中の物体(現実空間の物体)である箱の一部(底面)そのものを表すオブジェクトであるので実世界同期フラグがYとされている。 On the other hand, the object B indicated by the object ID: B is a virtual object on the bottom surface of the box which is a planar object, and apex coordinates (coordinates in the captured image indicating the apex of the object B) p 1 , p 2 , p 3 , p 4 is the parameter value of the position and shape. In the object B, the speed v b is a speed parameter value. In addition, since the object B is an object that represents a part (bottom surface) of the box that is an object in the captured image (an object in the real space), the real world synchronization flag is set to Y.

ここで、実世界同期フラグがNの仮想オブジェクトである物体Oの時々刻々の位置及び速度は、仮想オブジェクト間の衝突判定を考慮した上で、パラメータ値及び補正加速度に基づく物理計算によって導出される。なお、仮想オブジェクト間の衝突判定については、周知の衝突判定技術を用いて行うことができるので、詳細な説明を省略する。   Here, the position and speed of the object O, which is a virtual object whose real world synchronization flag is N, is derived from physical calculation based on parameter values and corrected acceleration in consideration of collision determination between virtual objects. . Note that collision determination between virtual objects can be performed using a known collision determination technique, and thus detailed description thereof is omitted.

決定部41は、時刻tにおける物体Oの速度v(t)を、オブジェクト記憶部42のオブジェクトテーブルOTに記憶された時刻t−1の速度v(t−1)、重力加速度g、及び補正加速度aから導出しており、例えば以下の(1)式により求めることができる。なお、以下の(1)式における重力加速度g及び補正加速度aは、単位時間あたりの値である。重力加速度gの向きは、加速度センサ109により測定されてもよいし、端末装置1の下方向とみなされてもよい。決定部41は導出した速度v(t)を物体Oの速度の新たなパラメータ値とし、オブジェクトテーブルOTを更新する。

Figure 2016110546
The determination unit 41 uses the velocity v 0 (t) of the object O at time t as the velocity v 0 (t−1) at time t−1 stored in the object table OT of the object storage unit 42, the gravitational acceleration g, and and derived from the corrected acceleration a c, it can be determined, for example, by the following equation (1). Incidentally, the following (1) the gravitational acceleration g and the correction acceleration a c in the expression is a value per unit time. The direction of the gravitational acceleration g may be measured by the acceleration sensor 109 or may be regarded as the downward direction of the terminal device 1. The determination unit 41 uses the derived velocity v 0 (t) as a new parameter value for the velocity of the object O, and updates the object table OT.
Figure 2016110546

また、決定部41は、時刻tにおける物体Oの位置p(t)を、オブジェクト記憶部42のオブジェクトテーブルOTに記憶された時刻t−1の位置p(t−1)及び時刻t−1の速度v(t−1)から導出しており、例えば以下の(2)式により求めることができる。なお、以下の(2)式における速度vは、単位時間あたりの値である。決定部41は導出した位置p(t)を物体Oの位置の新たなパラメータ値とし、オブジェクトテーブルOTを更新する。

Figure 2016110546
In addition, the determination unit 41 uses the position p 0 (t) of the object O at time t as the position p 0 (t−1) at time t−1 and the time t− stored in the object table OT of the object storage unit 42. 1 and derived from the velocity v 0 (t−1) of 1. For example, it can be obtained by the following equation (2). Note that the speed v 0 in the following equation (2) is a value per unit time. The determination unit 41 uses the derived position p 0 (t) as a new parameter value for the position of the object O, and updates the object table OT.
Figure 2016110546

このように、物体Oの位置pが補正加速度及び速度vに基づいて求められるので、物体Oを現実の物理現象に沿ったリアリティのある態様で表示することができる。なお、物体Oの速度及び位置を求める方法は、上述した簡便な手法(オイラー法)に限られず、より精度の高いルンゲ=クッタ法であってもよい。 Thus, since the position p 0 of the object O is obtained based on the corrected acceleration and the velocity v 0 , the object O can be displayed in a realistic manner in accordance with an actual physical phenomenon. Note that the method for obtaining the speed and position of the object O is not limited to the simple method (Euler method) described above, and may be the Runge-Kutta method with higher accuracy.

ここで、決定部41は、端末加速度記憶部32に記憶された端末加速度の大きさが所定の値よりも大きい場合に、画像加速度及び端末加速度を共に0として、すなわち補正加速度を0として仮想オブジェクトの表示態様を決定してもよい。端末加速度の大きさとは、端末加速度取得部31によって取得された端末加速度の絶対値である。端末装置1が激しく動いている状態で導出された画像加速度は信頼性が低いと考えられる。そこで、上記所定の値は、例えば、撮像された撮像画像から導出される画像加速度の値の信頼性が低くなると考えられる端末加速度の下限値とされる。また、決定部41は、端末加速度記憶部32に記憶されている端末加速度の大きさが所定の値よりも大きいと判定した場合に、当該判定した時点から上述した所定の時間(すなわち撮像間隔及び計算時間を含んだ時間である導出タイムラグ)よりも長い一定時間の間、画像加速度及び端末加速度を共に0として、すなわち補正加速度を0として仮想オブジェクトの表示態様を決定してもよい。   Here, when the magnitude of the terminal acceleration stored in the terminal acceleration storage unit 32 is larger than a predetermined value, the determination unit 41 sets both the image acceleration and the terminal acceleration to 0, that is, sets the corrected acceleration to 0, and the virtual object The display mode may be determined. The terminal acceleration magnitude is the absolute value of the terminal acceleration acquired by the terminal acceleration acquisition unit 31. The image acceleration derived while the terminal device 1 is moving violently is considered to have low reliability. Therefore, the predetermined value is, for example, a lower limit value of the terminal acceleration that is considered to reduce the reliability of the image acceleration value derived from the captured image. Further, when the determination unit 41 determines that the terminal acceleration stored in the terminal acceleration storage unit 32 is larger than a predetermined value, the determination unit 41 determines the predetermined time (that is, the imaging interval and The display mode of the virtual object may be determined by setting both the image acceleration and the terminal acceleration to 0, that is, the corrected acceleration to 0, for a fixed time longer than a derived time lag (a time including the calculation time).

画像合成部43は、仮想オブジェクトを現実空間の撮像画像に合成する(同期させる)。画像合成部43は、決定部41からの更新完了通知を契機として、画像記憶部21から、更新完了通知に係る更新に用いられた画像加速度に関する撮像画像を取得する。そして、オブジェクト記憶部42のオブジェクトテーブルOTを参照し、実世界同期フラグがYの仮想オブジェクトを特定するとともに、当該仮想オブジェクトの最新の位置を撮像画像から特定する。画像合成部43は、実世界同期フラグがYの仮想オブジェクトの位置が、撮像画像から特定した最新の位置となるように、オブジェクト記憶部42のオブジェクトテーブルOTを更新する。その後、画像合成部43は、オブジェクト記憶部42のオブジェクトテーブルOTを参照し、記憶された全ての仮想オブジェクト(実世界同期フラグがYの仮想オブジェクト及びNの仮想オブジェクト)の位置・形状を特定する。そして、画像合成部43は、各仮想オブジェクトの位置・形状が、上記特定した位置・形状となるように、取得済みの撮像画像に対して各仮想オブジェクトを合成し、合成画像を生成する。画像合成部43は、合成画像を表示部44に出力する。   The image synthesis unit 43 synthesizes (synchronizes) the virtual object with the captured image in the real space. The image composition unit 43 acquires a captured image related to the image acceleration used for the update related to the update completion notification from the image storage unit 21, triggered by the update completion notification from the determination unit 41. Then, referring to the object table OT of the object storage unit 42, the virtual object whose real world synchronization flag is Y is specified, and the latest position of the virtual object is specified from the captured image. The image composition unit 43 updates the object table OT of the object storage unit 42 so that the position of the virtual object whose real world synchronization flag is Y becomes the latest position specified from the captured image. Thereafter, the image composition unit 43 refers to the object table OT of the object storage unit 42 and specifies the positions and shapes of all the stored virtual objects (virtual objects with the real world synchronization flag Y and N virtual objects). . Then, the image composition unit 43 synthesizes each virtual object with the acquired captured image so that the position / shape of each virtual object becomes the specified position / shape, thereby generating a composite image. The image composition unit 43 outputs the composite image to the display unit 44.

表示部44は、決定部41が決定した表示態様によって、仮想オブジェクトを現実空間の撮像画像に同期させて表示する表示手段として機能する。具体的には、表示部44は、画像合成部43が生成した合成画像を出力装置107に表示させる。   The display unit 44 functions as a display unit that displays the virtual object in synchronization with the captured image of the real space according to the display mode determined by the determination unit 41. Specifically, the display unit 44 causes the output device 107 to display the composite image generated by the image composition unit 43.

次に、図7を参照して端末装置1による一連の処理を説明する。図7は、図2の端末装置1が行う表示方法の一連の処理を示すフローチャートである。図7に示される処理は、例えば、端末装置1にインストールされた専用のソフトウェア(アプリケーション)が起動された後に、撮像装置108が撮像画像を生成することに応じて開始される。   Next, a series of processing by the terminal device 1 will be described with reference to FIG. FIG. 7 is a flowchart showing a series of processing of the display method performed by the terminal device 1 of FIG. The process illustrated in FIG. 7 is started in response to the imaging device 108 generating a captured image after, for example, dedicated software (application) installed in the terminal device 1 is activated.

まず、画像取得部11により、撮像装置108が現実空間を撮像して生成した撮像画像が取得される(ステップS1、撮像画像を取得するステップ)。画像取得部11は、取得した撮像画像及び該撮像画像のメタ情報を画像記憶部21に格納する。つづいて、速度計算部22により、画像記憶部21に記憶された複数の撮像画像から動きベクトルが導出される(ステップS3、画像加速度を導出するステップ)。具体的には、速度計算部22は、第1画像及び第2画像の双方に対して、物体特定処理を行った後に、第1画像及び第2画像の双方に表示されている物体について、第1画像における位置と第2画像における位置とを比較し、第2画像における位置から第1画像における位置までの移動量及び移動方向を動きベクトルとして導出する。   First, the image acquisition unit 11 acquires a captured image generated by imaging the real space by the imaging device 108 (step S1, step of acquiring a captured image). The image acquisition unit 11 stores the acquired captured image and meta information of the captured image in the image storage unit 21. Subsequently, a motion vector is derived from the plurality of captured images stored in the image storage unit 21 by the speed calculation unit 22 (step S3, step of deriving image acceleration). Specifically, the speed calculation unit 22 performs the object identification process on both the first image and the second image, and then performs an operation on the objects displayed in both the first image and the second image. The position in one image is compared with the position in the second image, and the amount and direction of movement from the position in the second image to the position in the first image are derived as motion vectors.

つづいて、速度計算部22により、動きベクトルと、第1画像のメタ情報及び第2画像のメタ情報とに基づいて、画像速度が導出される(ステップS5、画像加速度を導出するステップ)。速度計算部22は、導出した画像速度及び該画像速度の時刻情報を速度記憶部23に格納する。つづいて、加速度計算部24により、速度記憶部23に記憶された複数の画像速度の差に基づき、画像加速度が導出される(ステップS7、画像加速度を導出するステップ)。具体的には、加速度計算部24は、第3記憶領域に記憶された画像速度及び第4記憶領域に記憶された画像速度の差である速度差と、第3記憶領域に記憶された時刻情報及び第4記憶領域に記憶された時刻情報の差である時刻差とをそれぞれ求め、当該速度差及び時刻差から画像加速度を導出(計算)する。加速度計算部24は、導出した画像加速度及び該画像加速度の時刻情報を画像加速度記憶部25に格納する。   Subsequently, the speed calculation unit 22 derives the image speed based on the motion vector and the meta information of the first image and the meta information of the second image (step S5, step of deriving the image acceleration). The speed calculation unit 22 stores the derived image speed and the time information of the image speed in the speed storage unit 23. Subsequently, the acceleration calculation unit 24 derives the image acceleration based on the difference between the plurality of image speeds stored in the speed storage unit 23 (step S7, step of deriving the image acceleration). Specifically, the acceleration calculation unit 24 calculates the speed difference that is the difference between the image speed stored in the third storage area and the image speed stored in the fourth storage area, and the time information stored in the third storage area. And the time difference that is the difference between the time information stored in the fourth storage area is obtained, and the image acceleration is derived (calculated) from the speed difference and the time difference. The acceleration calculation unit 24 stores the derived image acceleration and time information of the image acceleration in the image acceleration storage unit 25.

つづいて、端末加速度取得部31により、加速度センサ109が測定した加速度に基づき端末加速度が取得される(ステップS9、装置加速度を取得するステップ)。端末加速度取得部31は、端末加速度、及び該端末加速度の測定時刻を示すタイムスタンプを端末加速度記憶部32に格納する。つづいて、決定部41により、画像加速度を端末加速度によって補正した補正加速度が導出される(ステップS11、表示態様を決定するステップ)。具体的には、決定部41は、画像加速度から端末加速度を減算することにより補正加速度を導出する。   Subsequently, the terminal acceleration is acquired by the terminal acceleration acquisition unit 31 based on the acceleration measured by the acceleration sensor 109 (step S9, step of acquiring apparatus acceleration). The terminal acceleration acquisition unit 31 stores a terminal acceleration and a time stamp indicating the measurement time of the terminal acceleration in the terminal acceleration storage unit 32. Subsequently, the determination unit 41 derives a corrected acceleration obtained by correcting the image acceleration with the terminal acceleration (step S11, step of determining the display mode). Specifically, the determination unit 41 derives the corrected acceleration by subtracting the terminal acceleration from the image acceleration.

つづいて、決定部41により、補正加速度に基づき仮想オブジェクトの表示態様が決定される(ステップS13、表示態様を決定するステップ)。具体的には、決定部41は、補正加速度導出処理により導出した補正加速度に基づいて、オブジェクト記憶部42に記憶された仮想オブジェクトのパラメータ値を更新することにより、仮想オブジェクトの表示態様を決定する。決定部41は、仮想オブジェクトのパラメータ値の更新が完了すると、画像合成部43に更新完了通知を出力する。そして、画像合成部43が仮想オブジェクトを現実空間の撮像画像に合成した後に、表示部44により、決定部41が決定した表示態様にて、仮想オブジェクトが現実空間の撮像画像に同期して表示される(ステップS15、表示するステップ)。   Subsequently, the display unit of the virtual object is determined by the determination unit 41 based on the corrected acceleration (step S13, step of determining the display mode). Specifically, the determination unit 41 determines the display mode of the virtual object by updating the parameter value of the virtual object stored in the object storage unit 42 based on the corrected acceleration derived by the corrected acceleration deriving process. . When the update of the parameter value of the virtual object is completed, the determination unit 41 outputs an update completion notification to the image composition unit 43. Then, after the image synthesis unit 43 synthesizes the virtual object with the captured image of the real space, the display unit 44 displays the virtual object in synchronization with the captured image of the real space in the display mode determined by the determination unit 41. (Step S15, displaying step).

次に、本実施形態に係る端末装置1の作用・効果について説明する。   Next, operations and effects of the terminal device 1 according to the present embodiment will be described.

AR技術を用いて撮像画像に仮想オブジェクトを同期して表示する際、現実空間の物体の位置が変化する(現実空間の物体が動く)場合がある。このような場合には、衝突判定を行うとともに現実空間の重力方向を考慮して、現実空間の物体に位置合わせするようにして仮想オブジェクトを表示することが考えられる。例えば、図8に示した比較例に係る端末装置151は、撮像された物体の加速度を考慮せず単に現実空間の重力方向のみを考慮した端末装置である。端末装置151では、撮像装置により撮像された現実空間の物体である箱Rと、箱Rの中に入っているかのように表示された仮想オブジェクトであるボールBVとが端末装置のディスプレイに表示されている。そして、図8(b)に示されるように箱Rが上方向に移動させられると、箱R及び仮想オブジェクトであるボールBVがともに上方向に移動して表示される。更に、図8(c)に示されるように上方向に移動していた箱Rの移動方向が下方向に変化させられると、箱Rは下方向に移動して表示され、仮想オブジェクトであるボールBVも箱Rに追従して下方向に移動して表示される。しかしながら、現実空間においてボールを入れた箱を上下方向に動かした場合には、箱の中からボールが飛び出すことがあると考えられる。つまり、図8の例のように、衝突判定が行われるとともに現実空間の重力方向が考慮されたのみでは、仮想オブジェクトであるボールBVが常に箱に追従するように表示されてしまい、現実の物理現象に沿った表示とならないおそれがある。   When a virtual object is displayed in synchronization with a captured image using AR technology, the position of the object in the real space may change (the object in the real space moves). In such a case, it is conceivable to display the virtual object so as to be aligned with the object in the real space in consideration of the collision determination and considering the gravity direction of the real space. For example, the terminal device 151 according to the comparative example illustrated in FIG. 8 is a terminal device that considers only the gravity direction of the real space without considering the acceleration of the imaged object. In the terminal device 151, a box R that is an object in the real space imaged by the imaging device and a ball BV that is a virtual object displayed as if inside the box R are displayed on the display of the terminal device. ing. Then, when the box R is moved upward as shown in FIG. 8B, both the box R and the ball BV, which is a virtual object, are moved upward and displayed. Further, as shown in FIG. 8C, when the moving direction of the box R that has been moved upward is changed downward, the box R is moved downward and displayed, and a ball that is a virtual object. BV follows the box R and is moved downward and displayed. However, when the box containing the ball in the real space is moved up and down, it is considered that the ball may jump out of the box. That is, as shown in the example of FIG. 8, when the collision determination is performed and the direction of gravity in the real space is taken into consideration, the ball BV, which is a virtual object, is displayed so as to always follow the box. There is a possibility that the display does not match the phenomenon.

この点、本実施形態の端末装置1によれば、加速度導出部20によって同一の物体の各撮像画像間での位置の差及び各撮像画像が撮像された時刻の差に基づいて画像加速度が導出されるとともに、端末加速度取得部31によって端末加速度が取得される。そして、決定部41によって画像加速度を端末加速度にて補正した補正加速度が導出され、表示部44によって当該補正加速度に基づいた表示態様にて仮想オブジェクトが撮像画像に同期表示される。   In this regard, according to the terminal device 1 of the present embodiment, image acceleration is derived based on the position difference between the captured images of the same object and the difference in time at which each captured image was captured by the acceleration deriving unit 20. At the same time, the terminal acceleration is acquired by the terminal acceleration acquisition unit 31. Then, the determination unit 41 derives a corrected acceleration obtained by correcting the image acceleration with the terminal acceleration, and the display unit 44 displays the virtual object in synchronization with the captured image in a display mode based on the corrected acceleration.

このように、撮像された物体の加速度である画像加速度が考慮されて仮想オブジェクトの表示態様が決定されることにより、現実空間の物体の加速度に応じて仮想オブジェクトが表示される。これにより、現実の物理現象に沿った、リアリティのある態様で仮想オブジェクトを表示することができる。例えば、図1(c)に示されるように、上方向に移動していた箱Rの移動方向が下方向に変化させられると、箱Rは下方向に移動して表示される。一方で、ボールBVは図1(b)に示した上方向への移動によって上方向の速度を有しているため図1(c)に示されるように箱Rが下方向に移動した場合には箱Rから離れて上方向に跳ね上げられるように表示される。このような表示は現実の物理現象に沿ったリアリティのある表示であり、撮像画像における物体の加速度を考慮することによって実現している。   Thus, the virtual object is displayed according to the acceleration of the object in the real space by determining the display mode of the virtual object in consideration of the image acceleration that is the acceleration of the imaged object. Thereby, the virtual object can be displayed in a realistic manner in accordance with an actual physical phenomenon. For example, as shown in FIG. 1C, when the moving direction of the box R that has been moved upward is changed downward, the box R is moved downward and displayed. On the other hand, since the ball BV has an upward speed due to the upward movement shown in FIG. 1B, when the box R moves downward as shown in FIG. 1C. Is displayed so as to be flipped up away from the box R. Such a display is a realistic display in accordance with an actual physical phenomenon, and is realized by considering the acceleration of the object in the captured image.

また、例えば端末装置自体が動きながら撮像した複数の撮像画像から画像加速度が導出される場合においては、端末装置自体の動きに起因して撮像画像に表示される物体の位置が相対的に変化し、導出される画像加速度の値が物体の現実の動きから乖離した値となるおそれがある。例えば、図9に示した比較例に係る端末装置152は、端末装置自体の動き(加速度)を考慮しない端末装置である。端末装置152では、撮像装置により撮像された現実空間の物体である箱Rと、箱Rの中に入っているかのように表示された仮想オブジェクトであるボールBVとが表示装置のディスプレイに表示されている。そして、図9(b)に示されるように箱Rが上方向に移動させられると、箱R及び仮想オブジェクトであるボールBVがともに上方向に移動して表示される。この場合において、箱Rの現実空間における位置を変化させずに、端末装置152自体の位置を上方向に移動させると、撮像画像に表示される箱の位置が相対的に下方向に変化するため、図9(c)に示されるように、ボールBVが上方向に跳ね上げられるように表示されてしまう。現実空間では箱Rの位置は変化していないため、ボールBVの表示(上方向に跳ね上げられるような表示)は現実の物理現象に沿ったリアリティのある表示とは言い難い。   For example, when image acceleration is derived from a plurality of captured images captured while the terminal device itself is moving, the position of the object displayed in the captured image is relatively changed due to the movement of the terminal device itself. There is a risk that the derived image acceleration value deviates from the actual movement of the object. For example, the terminal device 152 according to the comparative example illustrated in FIG. 9 is a terminal device that does not consider the movement (acceleration) of the terminal device itself. In the terminal device 152, a box R, which is an object in the real space imaged by the imaging device, and a ball BV, which is a virtual object displayed as if inside the box R, are displayed on the display of the display device. ing. When the box R is moved upward as shown in FIG. 9B, both the box R and the ball BV, which is a virtual object, are moved upward and displayed. In this case, if the position of the terminal device 152 itself is moved upward without changing the position of the box R in the real space, the position of the box displayed in the captured image changes relatively downward. As shown in FIG. 9C, the ball BV is displayed so as to be flipped up. Since the position of the box R does not change in the real space, the display of the ball BV (display that jumps up) is difficult to say as a realistic display in accordance with an actual physical phenomenon.

この点、本実施形態の端末装置1では、画像加速度を端末加速度によって補正した補正加速度が用いられているので、端末装置1自体の動きが考慮されて仮想オブジェクトの表示態様が決定される。このことにより、端末装置1が動きながら撮像した複数の撮像画像を用いる場合であっても、現実空間の物体の動きに合わせた仮想オブジェクトを表示することができる。   In this regard, in the terminal device 1 of the present embodiment, the corrected acceleration obtained by correcting the image acceleration by the terminal acceleration is used, and therefore the display mode of the virtual object is determined in consideration of the movement of the terminal device 1 itself. Thus, even when a plurality of captured images captured while the terminal device 1 is moving, a virtual object that matches the movement of the object in the real space can be displayed.

また、本実施形態の端末装置1では、決定部41が画像加速度から端末加速度を減算することにより補正加速度を導出するので、画像加速度から、端末装置1の動きに応じた端末加速度を適切にキャンセルすることができ、現実の物体の動きを適切に反映した補正加速度を導出できる。   Further, in the terminal device 1 of the present embodiment, the determination unit 41 derives the corrected acceleration by subtracting the terminal acceleration from the image acceleration. Therefore, the terminal acceleration corresponding to the movement of the terminal device 1 is appropriately canceled from the image acceleration. Therefore, it is possible to derive a corrected acceleration that appropriately reflects the movement of an actual object.

また、本実施形態の端末装置1では、決定部41が、端末加速度の大きさが所定の値よりも大きい場合に、画像加速度、及び端末加速度を0として、表示態様を決定する。端末加速度が大きい場合すなわち端末装置1が激しく動いている場合には、各撮像画像間における物体の位置の差から導出される画像加速度の値の信頼性が低いと考えられる。このため、端末加速度が所定の値よりも大きい場合に、画像加速度及び端末加速度を0として表示態様を決定することにより、信頼性が低い情報に基づいて仮想オブジェクトの表示態様が決定されることを回避することができる。   In the terminal device 1 of the present embodiment, the determination unit 41 determines the display mode with the image acceleration and the terminal acceleration set to 0 when the magnitude of the terminal acceleration is larger than a predetermined value. When the terminal acceleration is large, that is, when the terminal device 1 moves violently, it is considered that the reliability of the image acceleration value derived from the difference in the position of the object between the captured images is low. For this reason, when the terminal acceleration is larger than a predetermined value, the display mode is determined by setting the image acceleration and the terminal acceleration to 0, so that the display mode of the virtual object is determined based on information with low reliability. It can be avoided.

また、本実施形態の端末装置1は、端末加速度取得部31により取得された端末加速度を、端末加速度が測定された時刻と対応づけて記憶する端末加速度記憶部32を備えている。そして、決定部41は、加速度導出部20(より詳細には加速度計算部24)により画像加速度が導出された時刻を導出タイミングとして特定するとともに、端末加速度記憶部32に記憶された端末加速度のうち、導出タイミングよりも所定の時間分だけ過去の端末加速度を用いて、画像加速度を補正する。画像加速度は、異なる時刻に撮像された複数の撮像画像から導出されるので、その導出には撮像間隔が必要となる。また、画像加速度の導出には計算時間が必要となる。当該撮像間隔及び計算時間等を考慮すると、導出された画像加速度は導出タイミングよりも所定の時間分だけ過去の端末加速度に対応している。このため、導出タイミングよりも所定の時間分だけ過去の端末加速度を用いて画像加速度を補正することによって、より適切に現実の物体の動きを反映した補正加速度を導出することができる。   Moreover, the terminal device 1 of this embodiment is provided with the terminal acceleration memory | storage part 32 which matches and memorize | stores the terminal acceleration acquired by the terminal acceleration acquisition part 31 with the time when the terminal acceleration was measured. The determining unit 41 specifies the time at which the image acceleration is derived by the acceleration deriving unit 20 (more specifically, the acceleration calculating unit 24) as a deriving timing, and among the terminal accelerations stored in the terminal acceleration storage unit 32 The image acceleration is corrected by using the past terminal acceleration for a predetermined time from the derivation timing. Since the image acceleration is derived from a plurality of captured images captured at different times, an imaging interval is required for the derivation. Also, calculation time is required to derive the image acceleration. Considering the imaging interval and calculation time, the derived image acceleration corresponds to the past terminal acceleration by a predetermined time from the derivation timing. For this reason, by correcting the image acceleration by using the past terminal acceleration for a predetermined time from the derivation timing, it is possible to derive the corrected acceleration more appropriately reflecting the movement of the actual object.

また、本実施形態の端末装置1では、決定部41が、端末加速度の大きさが所定の値よりも大きい場合に、上記所定の時間よりも長い一定時間の間、画像加速度、及び端末加速度を0として、表示態様を決定する。端末加速度が大きくなったときに、所定の時間よりも長い一定時間、画像加速度及び端末加速度を0とすることによって、少なくとも、端末加速度が大きくなったタイミングに係る画像加速度及び端末加速度を0として表示態様を決定することができる。これにより、信頼性が低い情報に基づいて仮想オブジェクトの表示態様が決定されることをより確実に回避することができる。   Moreover, in the terminal device 1 of this embodiment, when the magnitude | size of a terminal acceleration is larger than a predetermined value, the determination part 41 calculates an image acceleration and a terminal acceleration for a fixed time longer than the said predetermined time. The display mode is determined as 0. When the terminal acceleration increases, the image acceleration and the terminal acceleration are displayed as 0 at least when the terminal acceleration increases by setting the image acceleration and the terminal acceleration to 0 for a certain time longer than a predetermined time. Aspects can be determined. Thereby, it can avoid more reliably that the display mode of a virtual object is determined based on information with low reliability.

以上、本発明の実施形態について説明したが本発明は上記実施形態に限定されるものではない。例えば、上記実施形態では画像取得部11は、端末装置1の撮像装置108により撮像された撮像画像を取得しているがこれに限定されず、端末装置の外部において撮像された撮像画像を取得してもよい。また、決定部41は、画像加速度から端末加速度を減算することにより補正加速度を導出しているが、例えば減算以外の演算により、画像加速度及び端末加速度に基づき補正加速度を導出してもよい。   As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment. For example, in the above embodiment, the image acquisition unit 11 acquires a captured image captured by the imaging device 108 of the terminal device 1, but is not limited thereto, and acquires a captured image captured outside the terminal device. May be. In addition, the determination unit 41 derives the corrected acceleration by subtracting the terminal acceleration from the image acceleration. However, for example, the corrected acceleration may be derived based on the image acceleration and the terminal acceleration by a calculation other than the subtraction.

また、図7を用いた処理フローの説明においては、画像加速度が導出された後に端末加速度が取得されるとして説明したがこれに限定されず、画像加速度の導出よりも前に端末加速度が取得されるものであってもよい。また、決定部41が補正加速度を用いて決定する仮想オブジェクトの表示態様の例として仮想オブジェクトの表示位置を説明したが、補正加速度に基づき決定される仮想オブジェクトの表示態様はこれに限定されない。例えば、決定部41は、補正加速度を用いて、仮想オブジェクトの形状を仮想オブジェクトの表示態様として決定してもよい。具体例として、撮像画像中の物体である板に位置合わせされて表示される、実世界同期フラグがY(Yes)である板の仮想オブジェクト(以下、板オブジェクトと記載する)と、板の仮想オブジェクトの動きに合わせて、板オブジェクトに弾かれるように表示される、実世界同期フラグがN(No)である柔らかいボールの仮想オブジェクト(以下、ボールオブジェクトと記載する)とが仮想オブジェクトとして表示される例を説明する。決定部41は、現実空間において勢いよく板が振り回されて撮像画像中の板の加速度である画像加速度が大きくなり補正加速度が大きくなるほど、板オブジェクトに弾かれる際のボールオブジェクトの形状が潰された形状(変形した形状)となるようにボールオブジェクトの形状を決定してもよい。なお、補正加速度に基づき決定される仮想オブジェクトの表示態様は、仮想オブジェクトの表示位置、及び仮想オブジェクトの形状に限られず、仮想オブジェクトをリアリティのある態様で表示することを可能にする他の表示態様であってもよい。   In the description of the processing flow using FIG. 7, it has been described that the terminal acceleration is acquired after the image acceleration is derived. However, the present invention is not limited to this, and the terminal acceleration is acquired before the image acceleration is derived. It may be a thing. Moreover, although the display position of the virtual object has been described as an example of the display mode of the virtual object determined by the determination unit 41 using the corrected acceleration, the display mode of the virtual object determined based on the corrected acceleration is not limited to this. For example, the determination unit 41 may determine the shape of the virtual object as the display mode of the virtual object using the corrected acceleration. As a specific example, a virtual object of a board (hereinafter referred to as a board object) whose real world synchronization flag is Y (Yes) and displayed on a board that is an object in a captured image, and a virtual board A soft ball virtual object whose real world synchronization flag is N (No) (hereinafter referred to as a ball object) displayed as being played by a board object in accordance with the movement of the object is displayed as a virtual object. An example will be described. The determining unit 41 smashes the shape of the ball object when it is flipped by the plate object as the image acceleration, which is the acceleration of the plate in the captured image, increases as the plate is vigorously swung in the real space and the corrected acceleration increases. The shape of the ball object may be determined so as to have a shape (a deformed shape). The display mode of the virtual object determined based on the corrected acceleration is not limited to the display position of the virtual object and the shape of the virtual object, and other display modes that enable the virtual object to be displayed in a realistic mode. It may be.

1…端末装置、11…画像取得部、20…加速度導出部、21…画像記憶部、22…速度計算部、23…速度記憶部、24…加速度計算部、25…画像加速度記憶部、31…端末加速度取得部、32…端末加速度記憶部、41…決定部、44…表示部。   DESCRIPTION OF SYMBOLS 1 ... Terminal device, 11 ... Image acquisition part, 20 ... Acceleration deriving part, 21 ... Image storage part, 22 ... Speed calculation part, 23 ... Speed storage part, 24 ... Acceleration calculation part, 25 ... Image acceleration storage part, 31 ... Terminal acceleration acquisition unit, 32 ... terminal acceleration storage unit, 41 ... determination unit, 44 ... display unit.

Claims (7)

仮想空間のオブジェクトである仮想オブジェクトを現実空間の画像に同期させて表示する表示装置であって、
現実空間を撮像することにより生成された撮像画像を取得する画像取得手段と、
前記画像取得手段により取得された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、前記撮像画像における前記物体の加速度である画像加速度を導出する加速度導出手段と、
測定された前記表示装置の加速度である装置加速度を取得する加速度取得手段と、
前記加速度導出手段により導出された前記画像加速度を、前記加速度取得手段により取得された前記装置加速度によって補正した補正加速度を導出し、前記補正加速度を用いて前記仮想オブジェクトの表示態様を決定する決定手段と、
前記決定手段が決定した前記表示態様によって、前記仮想オブジェクトを現実空間の前記撮像画像に同期させて表示する表示手段と、を備える表示装置。
A display device that displays a virtual object that is an object in a virtual space in synchronization with an image in a real space,
Image acquisition means for acquiring a captured image generated by imaging a real space;
Based on the difference in position between the captured images of the same object displayed in each of the plurality of captured images acquired by the image acquisition means and the difference in time at which each captured image was captured, the image in the captured image Acceleration deriving means for deriving image acceleration that is the acceleration of the object;
Acceleration acquisition means for acquiring a device acceleration which is a measured acceleration of the display device;
Determining means for deriving a corrected acceleration obtained by correcting the image acceleration derived by the acceleration deriving means with the device acceleration acquired by the acceleration acquiring means, and determining a display mode of the virtual object using the corrected acceleration. When,
A display device comprising: a display unit configured to display the virtual object in synchronization with the captured image in the real space according to the display mode determined by the determination unit.
前記決定手段は、前記画像加速度から前記装置加速度を減算することにより前記補正加速度を導出する、請求項1記載の表示装置。   The display device according to claim 1, wherein the determination unit derives the corrected acceleration by subtracting the device acceleration from the image acceleration. 前記決定手段は、前記装置加速度の大きさが所定の値よりも大きい場合に、前記画像加速度、及び前記装置加速度を0として、前記表示態様を決定する、請求項1又は2記載の表示装置。   The display device according to claim 1, wherein the determining unit determines the display mode by setting the image acceleration and the device acceleration to 0 when the magnitude of the device acceleration is larger than a predetermined value. 前記加速度取得手段により取得された前記装置加速度を、前記装置加速度が測定された時刻と対応づけて記憶する装置加速度記憶手段を更に備え、
前記決定手段は、前記加速度導出手段により前記画像加速度が導出された時刻を導出タイミングとして特定するとともに、前記装置加速度記憶手段に記憶された前記装置加速度のうち、前記導出タイミングよりも所定の時間分だけ過去の前記装置加速度を用いて、前記画像加速度を補正する、請求項1〜3のいずれか一項記載の表示装置。
Apparatus acceleration storage means for storing the apparatus acceleration acquired by the acceleration acquisition means in association with the time when the apparatus acceleration was measured;
The determining means specifies the time at which the image acceleration is derived by the acceleration deriving means as a derivation timing, and among the apparatus accelerations stored in the apparatus acceleration storage means, a predetermined amount of time from the derivation timing. The display device according to claim 1, wherein the image acceleration is corrected using the past device acceleration.
前記決定手段は、前記装置加速度の大きさが所定の値よりも大きい場合に、前記所定の時間よりも長い一定時間の間、前記画像加速度、及び前記装置加速度を0として、前記表示態様を決定する、請求項4記載の表示装置。   The determining means determines the display mode by setting the image acceleration and the apparatus acceleration to 0 for a predetermined time longer than the predetermined time when the magnitude of the apparatus acceleration is larger than a predetermined value. The display device according to claim 4. 前記加速度導出手段は、
前記画像取得手段により取得された撮像画像を記憶する画像記憶手段と、
前記画像記憶手段に記憶された複数の前記撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、前記物体の速度である画像速度を計算する速度計算手段と、
前記速度計算手段により計算された前記画像速度を記憶する速度記憶手段と、
前記速度記憶手段に記憶された複数の前記画像速度の差に基づき、前記画像加速度を計算する加速度計算手段と、
前記加速度計算手段により計算された前記画像加速度を記憶する画像加速度記憶手段と、を有する、請求項1〜5のいずれか一項記載の表示装置。
The acceleration deriving means includes
Image storage means for storing the captured image acquired by the image acquisition means;
The speed of the object based on the difference in position between the captured images of the same object displayed in each of the plurality of captured images stored in the image storage means and the difference in time at which each captured image was captured A speed calculating means for calculating the image speed,
Speed storage means for storing the image speed calculated by the speed calculation means;
Acceleration calculation means for calculating the image acceleration based on a difference between the plurality of image speeds stored in the speed storage means;
The display device according to claim 1, further comprising an image acceleration storage unit that stores the image acceleration calculated by the acceleration calculation unit.
仮想空間のオブジェクトである仮想オブジェクトを現実空間の画像に同期させて表示する表示装置が行う表示方法であって、
現実空間を撮像することにより生成された撮像画像を取得するステップと、
前記撮像画像を取得するステップにおいて取得された複数の撮像画像それぞれに表示された同一の物体の各撮像画像間での位置の差、及び各撮像画像が撮像された時刻の差に基づき、前記撮像画像における前記物体の加速度である画像加速度を導出するステップと、
測定された前記表示装置の加速度である装置加速度を取得するステップと、
前記画像加速度を導出するステップにおいて導出された前記画像加速度を、前記装置加速度を取得するステップにおいて取得された前記装置加速度によって補正した補正加速度を導出し、前記補正加速度を用いて前記仮想オブジェクトの表示態様を決定するステップと、
前記決定するステップにおいて決定された前記表示態様によって、前記仮想オブジェクトを現実空間の前記撮像画像に同期させて表示するステップと、を含む表示方法。
A display method performed by a display device that displays a virtual object that is an object in a virtual space in synchronization with an image in a real space,
Obtaining a captured image generated by imaging a real space;
Based on the difference in position between the captured images of the same object displayed in each of the plurality of captured images acquired in the step of acquiring the captured image and the difference in time at which each captured image was captured, the imaging Deriving an image acceleration that is an acceleration of the object in the image;
Obtaining a device acceleration which is a measured acceleration of the display device;
Deriving a corrected acceleration obtained by correcting the image acceleration derived in the step of deriving the image acceleration by the device acceleration acquired in the step of acquiring the device acceleration, and displaying the virtual object using the corrected acceleration Determining an aspect;
Displaying the virtual object in synchronization with the captured image in the real space according to the display mode determined in the determining step.
JP2014249724A 2014-12-10 2014-12-10 Display device and display method Active JP6437811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014249724A JP6437811B2 (en) 2014-12-10 2014-12-10 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014249724A JP6437811B2 (en) 2014-12-10 2014-12-10 Display device and display method

Publications (2)

Publication Number Publication Date
JP2016110546A true JP2016110546A (en) 2016-06-20
JP6437811B2 JP6437811B2 (en) 2018-12-12

Family

ID=56122165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014249724A Active JP6437811B2 (en) 2014-12-10 2014-12-10 Display device and display method

Country Status (1)

Country Link
JP (1) JP6437811B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109427104A (en) * 2017-08-24 2019-03-05 富士施乐株式会社 Information processing unit and the computer-readable medium for storing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100260385A1 (en) * 2007-12-07 2010-10-14 Tom Chau Method, system and computer program for detecting and characterizing motion
JP2011197777A (en) * 2010-03-17 2011-10-06 Sony Corp Information processing device, information processing method and program
JP2012212345A (en) * 2011-03-31 2012-11-01 Sony Corp Terminal device, object control method and program
US8878846B1 (en) * 2012-10-29 2014-11-04 Google Inc. Superimposing virtual views of 3D objects with live images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100260385A1 (en) * 2007-12-07 2010-10-14 Tom Chau Method, system and computer program for detecting and characterizing motion
JP2011197777A (en) * 2010-03-17 2011-10-06 Sony Corp Information processing device, information processing method and program
JP2012212345A (en) * 2011-03-31 2012-11-01 Sony Corp Terminal device, object control method and program
US8878846B1 (en) * 2012-10-29 2014-11-04 Google Inc. Superimposing virtual views of 3D objects with live images

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109427104A (en) * 2017-08-24 2019-03-05 富士施乐株式会社 Information processing unit and the computer-readable medium for storing program
CN109427104B (en) * 2017-08-24 2023-09-26 富士胶片商业创新有限公司 Information processing apparatus and computer readable medium storing program

Also Published As

Publication number Publication date
JP6437811B2 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
CN108062776B (en) Camera Attitude Tracking method and apparatus
US9576183B2 (en) Fast initialization for monocular visual SLAM
JP4473754B2 (en) Virtual fitting device
US10818078B2 (en) Reconstruction and detection of occluded portions of 3D human body model using depth data from single viewpoint
US20160210761A1 (en) 3d reconstruction
CN109147058A (en) Initial method and device and storage medium for the fusion of vision inertial navigation information
US20220215581A1 (en) Method for displaying three-dimensional augmented reality
CN114706489B (en) Virtual method, device, equipment and storage medium of input equipment
CN109040525A (en) Image processing method, device, computer-readable medium and electronic equipment
CN110310325A (en) A kind of virtual measurement method, electronic equipment and computer readable storage medium
US20200211275A1 (en) Information processing device, information processing method, and recording medium
CN109407824A (en) Manikin moves synchronously method and apparatus
CN109478769A (en) Cable movable area display device, cable movable area display methods and cable movable area show program
CN116348916A (en) Azimuth tracking for rolling shutter camera
JP6437811B2 (en) Display device and display method
CN113160270A (en) Visual map generation method, device, terminal and storage medium
CN110969706B (en) Augmented reality device, image processing method, system and storage medium thereof
JP6452808B2 (en) Low latency simulation apparatus and method using direction prediction, and computer program therefor
US10621788B1 (en) Reconstructing three-dimensional (3D) human body model based on depth points-to-3D human body model surface distance
CN111815783A (en) Virtual scene presenting method and device, electronic equipment and storage medium
CN114201028B (en) Augmented reality system and method for anchoring display virtual object thereof
US11694409B1 (en) Augmented reality using a split architecture
KR20150081975A (en) Apparatus for pose estimation of wearable display device using hybrid sensors
US11847750B2 (en) Smooth object correction for augmented reality devices
JP6514386B1 (en) PROGRAM, RECORDING MEDIUM, AND IMAGE GENERATION METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181115

R150 Certificate of patent or registration of utility model

Ref document number: 6437811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250