JP2019160332A - Computer program, terminal, and method - Google Patents

Computer program, terminal, and method Download PDF

Info

Publication number
JP2019160332A
JP2019160332A JP2019085220A JP2019085220A JP2019160332A JP 2019160332 A JP2019160332 A JP 2019160332A JP 2019085220 A JP2019085220 A JP 2019085220A JP 2019085220 A JP2019085220 A JP 2019085220A JP 2019160332 A JP2019160332 A JP 2019160332A
Authority
JP
Japan
Prior art keywords
terminal
display
dimensional model
function
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019085220A
Other languages
Japanese (ja)
Inventor
健治 横田
Kenji Yokota
健治 横田
修 水田
Osamu Mizuta
修 水田
義浩 伊藤
Yoshihiro Ito
義浩 伊藤
祥一 大川
Shoichi Okawa
祥一 大川
和彦 増崎
Kazuhiko Masuzaki
和彦 増崎
あかり 山崎
Akari Yamazaki
あかり 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019085220A priority Critical patent/JP2019160332A/en
Publication of JP2019160332A publication Critical patent/JP2019160332A/en
Pending legal-status Critical Current

Links

Images

Abstract

To arrange an object in a location specified in a real space, and display it on a display.SOLUTION: A computer program causes a terminal having imaging means and a display to implement the functions of: specifying a position of the terminal in a three-dimensional model in a real space; acquiring correspondence between the three-dimensional model and actual three-dimensional space information acquired by measurement means, on the basis of the specified terminal position; determining a position of an object in an image, on the basis of the acquired correspondence and a position of the object in the three-dimensional model; and displaying an image with the object superimposed in the determined position, on the display.SELECTED DRAWING: Figure 1

Description

本発明は、オブジェクトを表示するためのコンピュータプログラム、端末および方法に関する。   The present invention relates to a computer program, a terminal, and a method for displaying an object.

非特許文献1、2には、センサとカメラとを組み合わせたシステムが開示される。このシステムはカメラとセンサの情報により端末装置の現在位置と向きを特定することができる。   Non-Patent Documents 1 and 2 disclose systems in which a sensor and a camera are combined. This system can identify the current position and orientation of the terminal device based on the information of the camera and sensor.

Tango、[online]、[平成29年1月10日検索]、インターネット、<URL:https://get.google.com/tango/>Tango, [online], [Search January 10, 2017], Internet, <URL: https://get.google.com/tango/> Googleの空間認識技術「Tango」を搭載する初のスマホ「Lenovo PHAB2 Pro」によるAR体験はこんな感じになる、[online]、[平成29年1月10日検索]、インターネット、<URL:http://gigazine.net/news/20160630-snapdragon-tango-ar/>The first smartphone “Lenovo PHAB2 Pro” equipped with Google ’s spatial recognition technology “Tango” will have an AR experience like this: [online], [Search January 10, 2017], Internet, <URL: http: //gigazine.net/news/20160630-snapdragon-tango-ar/>

非特許文献1、2に記載される技術をARに応用すると、様々なことが実現可能になると考えられる。しかしながら、現状では、現実空間の指定した場所にオブジェクトを配置してディスプレイに表示する手法は確立されていない。   When the techniques described in Non-Patent Documents 1 and 2 are applied to AR, various things can be realized. However, at present, no method has been established for arranging an object at a designated location in the real space and displaying it on a display.

本発明はこうした課題に鑑みてなされたものであり、その目的は、現実空間の指定した場所にオブジェクトを配置してディスプレイに表示する技術の提供にある。   The present invention has been made in view of these problems, and an object of the present invention is to provide a technique for arranging an object at a designated place in a real space and displaying the object on a display.

本発明のある態様は、コンピュータプログラムに関する。このコンピュータプログラムは、撮像手段とディスプレイとを備える端末に、実空間の三次元モデルにおける端末の位置を特定する機能と、特定された端末の位置に基づいて、三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する機能と、取得された対応関係と三次元モデルにおけるオブジェクトの位置とに基づいて、画像におけるオブジェクトの位置を決定する機能と、決定された位置にオブジェクトが重畳された画像をディスプレイに表示させる機能と、を実現させる。   One embodiment of the present invention relates to a computer program. The computer program is acquired by the three-dimensional model and the measuring unit based on the function of specifying the position of the terminal in the three-dimensional model in real space and the specified position of the terminal in the terminal including the imaging unit and the display. A function for acquiring the corresponding relationship with the actual three-dimensional spatial information, a function for determining the position of the object in the image based on the acquired correspondence and the position of the object in the three-dimensional model, and the determined position And a function of displaying an image on which an object is superimposed on a display.

なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。   Note that any combination of the above-described constituent elements, or those obtained by replacing the constituent elements and expressions of the present invention with each other between apparatuses, methods, systems, recording media storing computer programs, and the like are also included as aspects of the present invention. It is valid.

本発明によれば、現実空間の指定した場所にオブジェクトを配置してディスプレイに表示することができる。   According to the present invention, an object can be arranged at a designated place in the real space and displayed on the display.

実施の形態に係る端末装置の概略的な構成図である。It is a schematic block diagram of the terminal device which concerns on embodiment. 図1の制御部の機能および構成を示すブロック図である。It is a block diagram which shows the function and structure of a control part of FIG. 図1の端末装置における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in the terminal device of FIG. ディスプレイの代表画面図である。It is a typical screen figure of a display. ディスプレイの代表画面図である。It is a typical screen figure of a display. ディスプレイの代表画面図である。It is a typical screen figure of a display. ディスプレイの代表画面図である。It is a typical screen figure of a display. ディスプレイの代表画面図である。It is a typical screen figure of a display. ディスプレイの代表画面図である。It is a typical screen figure of a display. ディスプレイの代表画面図である。It is a typical screen figure of a display.

以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。   Hereinafter, the same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated description is appropriately omitted. In addition, in the drawings, some of the members that are not important for explanation are omitted.

図1は、実施の形態に係る端末装置10の概略的な構成図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。スピーカ101は、制御部100から出力される音声信号を音声に変換して出力する。マイク102は、音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサを有し画像情報を取得して制御部100に出力する。ジャイロセンサ104は、端末装置10の角度や角速度を測定して姿勢情報として制御部100に出力する。ディスプレイ104は、本実施の形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LANを介した通信処理を行う。温度センサ108は温度を検出し、検出された温度を含む温度情報を制御部100に出力する。加速度センサ109は、端末装置10の加速度を測定して加速度情報として制御部100に出力する。   FIG. 1 is a schematic configuration diagram of a terminal device 10 according to an embodiment. The terminal device 10 is a portable communication terminal such as a smartphone, for example. The speaker 101 converts the sound signal output from the control unit 100 into sound and outputs the sound. The microphone 102 converts the sound into a sound signal and outputs the sound signal to the control unit 100. The imaging unit 103 has a lens and a CCD sensor, acquires image information, and outputs it to the control unit 100. The gyro sensor 104 measures the angle and angular velocity of the terminal device 10 and outputs the measured information to the control unit 100 as posture information. In this embodiment, the display 104 is a touch-sensitive display, and functions as an input unit for user operation in addition to presenting information to the user. When the display is not a touch-sensitive display, an input unit is provided separately. The depth sensor 106 measures the distance (depth) to the object and outputs the measurement result to the control unit 100 as depth information. The communication unit 107 performs communication processing via a mobile communication network or a wireless LAN. The temperature sensor 108 detects the temperature and outputs temperature information including the detected temperature to the control unit 100. The acceleration sensor 109 measures the acceleration of the terminal device 10 and outputs it to the control unit 100 as acceleration information.

制御部100は、端末装置10全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。   The control unit 100 is a control unit for the terminal device 10 as a whole, and includes one or more processors and a memory unit. The memory unit includes a RAM used by the processor for temporarily storing data, a flash memory in which an operating system and applications executed by the processor, and data to be retained even when the power is turned off are stored. .

本実施の形態において、三次元モデルは、撮像部103で撮像した画像の特徴点の点群と撮像位置とを対応付けて保持する対応テーブルであってもよい。点群は撮像場所や角度が多少変わっても同じ物体だと認識できるように構成される。端末装置10はその特徴点の情報を読み込み、撮像位置が分からない場合に撮像位置がどこかを判定する。すなわち、三次元モデルは風景の見え方を記憶して撮像位置がどこかを求めるためのものであり、深さセンサ106を使わなくても生成可能である。一方、オブジェクトを地面の上に立たせたり現実の物体の大きさを測定したりする場合には深さセンサ106を用いる。   In the present embodiment, the three-dimensional model may be a correspondence table that holds a group of feature points of an image captured by the imaging unit 103 and an imaging position in association with each other. The point cloud is configured so that it can be recognized as the same object even if the imaging location or angle changes slightly. The terminal device 10 reads the feature point information and determines where the imaging position is when the imaging position is unknown. That is, the three-dimensional model is for storing the appearance of the landscape and determining where the imaging position is, and can be generated without using the depth sensor 106. On the other hand, the depth sensor 106 is used when the object stands on the ground or when the size of an actual object is measured.

図2は、図1の制御部100の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 2 is a block diagram showing the function and configuration of the control unit 100 of FIG. Each block shown here can be realized by hardware and other elements such as a computer CPU and a mechanical device, and software can be realized by a computer program or the like. Draw functional blocks. Therefore, it is understood by those skilled in the art who have touched this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

制御部100は、端末位置特定部201と、対応関係取得部202と、オブジェクト位置決定部203と、表示制御部204と、通知部205と、三次元モデル保持部211と、三次元モデル生成部212と、を備える。端末装置10は、後述の三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられたオブジェクト情報をサーバからダウンロードしてもよい。ダウンロード方法は様々あり、ユーザが端末装置10を操作して、ダウンロードアイコンを選択するだけでなく、撮像画像又は特徴点の画像を定期的にアップロードし、サーバ側で、画像マッチングで三次元モデルの有無を判定し、該当する三次元モデルをダウンロードしてもよい。また、端末装置10が取得したGPS情報をサーバにアップロードすると、その場所に対応する三次元モデル(対応するアプリケーションが特定されている情報の表示とともに)を選択し、受信してもよい。あるいはまた、端末装置10は、端末装置10で予め記憶・生成した三次元モデルと三次元モデルから特定される端末の位置に基づく位置(座標)に対応付けられたオブジェクト情報を予め保持していてもよい。   The control unit 100 includes a terminal position specifying unit 201, a correspondence acquisition unit 202, an object position determination unit 203, a display control unit 204, a notification unit 205, a 3D model holding unit 211, and a 3D model generation unit. 212. The terminal device 10 may download object information associated with a position (coordinates) based on the position of the terminal device 10 specified from a later-described three-dimensional model from the server. There are various downloading methods. The user operates the terminal device 10 to select a download icon, and also periodically uploads a captured image or an image of a feature point. The presence or absence may be determined, and the corresponding three-dimensional model may be downloaded. When the GPS information acquired by the terminal device 10 is uploaded to the server, a three-dimensional model corresponding to the location (along with the display of information specifying the corresponding application) may be selected and received. Alternatively, the terminal device 10 holds in advance object information associated with a 3D model stored and generated in advance by the terminal device 10 and a position (coordinates) based on the position of the terminal specified from the 3D model. Also good.

三次元モデル生成部212は、実空間を撮像部103が撮像して得られた画像情報に基づき、当該画像情報に対応する画像内の特徴点を求める。三次元モデル生成部212は、特徴点と特徴点を撮像した際の端末の位置と向きを複数記憶し、特徴点から端末の位置が特定可能な三次元モデルを生成する。三次元モデル生成部212は、生成された三次元モデルを三次元モデル保持部211に格納する。特徴点の位置は、実空間を模した仮想的な三次元空間の座標(x、y、z)で表される。なお、三次元空間の位置の原点は、例えば、三次元モデル生成部212が三次元モデルの生成を開始したときの端末装置10の位置とする。あるいはまた、三次元モデル生成部212は外部から三次元モデルのデータを取得して、三次元モデル保持部211に格納してもよい。   The three-dimensional model generation unit 212 obtains feature points in the image corresponding to the image information based on the image information obtained by the imaging unit 103 imaging the real space. The three-dimensional model generation unit 212 stores a plurality of feature points and the positions and orientations of the terminals when the feature points are imaged, and generates a three-dimensional model that can identify the position of the terminal from the feature points. The 3D model generation unit 212 stores the generated 3D model in the 3D model holding unit 211. The position of the feature point is represented by coordinates (x, y, z) in a virtual three-dimensional space that imitates real space. Note that the origin of the position in the three-dimensional space is, for example, the position of the terminal device 10 when the three-dimensional model generation unit 212 starts generating the three-dimensional model. Alternatively, the 3D model generation unit 212 may acquire 3D model data from the outside and store the data in the 3D model holding unit 211.

三次元モデル保持部211に既に三次元モデルが存在する場合、三次元モデル生成部212は、新たに取得した三次元モデルと、既に保存している三次元モデルとを比較してもよい。例えば、三次元モデル生成部212は、比較の結果、所定割合以上の特徴点が一致すると、新たに取得した三次元モデルが、既に保存している三次元モデルと同じ場所で取得されていることを認識する。この場合、三次元モデル生成部212は既に保存している三次元モデルを新たに取得した三次元モデルで更新する。   When a 3D model already exists in the 3D model holding unit 211, the 3D model generation unit 212 may compare the newly acquired 3D model with the already stored 3D model. For example, if the comparison result indicates that the feature points equal to or greater than a predetermined ratio match, the newly acquired 3D model is acquired at the same location as the already stored 3D model. Recognize In this case, the 3D model generation unit 212 updates the already saved 3D model with the newly acquired 3D model.

端末位置特定部201は、実空間の三次元モデルにおける端末装置10の現在位置を特定する。現在位置は三次元空間の座標(x、y、z)で特定される。端末位置特定部201は、ジャイロセンサ104から出力される姿勢情報と加速度センサ109から出力される加速度情報とを用いたモーショントラッキングにより、端末装置10の現在位置および傾きを特定する。例えば、端末位置特定部201はまず特徴点によるマッチングを行い、端末装置10が三次元モデルのどの場所にいるかを特定する。特定できた後、端末位置特定部201は加速度センサ109、ジャイロセンサ104により端末装置10が移動しても三次元モデル上の座標を特定できる。端末位置特定部201は、撮像部103が撮像して得られた画像情報に基づくエリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。   The terminal position specifying unit 201 specifies the current position of the terminal device 10 in the real space three-dimensional model. The current position is specified by coordinates (x, y, z) in the three-dimensional space. The terminal position specifying unit 201 specifies the current position and inclination of the terminal device 10 by motion tracking using posture information output from the gyro sensor 104 and acceleration information output from the acceleration sensor 109. For example, the terminal position specifying unit 201 first performs matching based on feature points, and specifies where the terminal device 10 is in the three-dimensional model. After the identification, the terminal position identification unit 201 can identify the coordinates on the three-dimensional model even if the terminal device 10 is moved by the acceleration sensor 109 and the gyro sensor 104. The terminal position specifying unit 201 may correct the accumulation of shifts in motion tracking by area learning based on image information obtained by the imaging unit 103.

対応関係取得部202は、端末位置特定部201によって特定された端末装置10の現在位置に基づいて、三次元モデル保持部211に保持される三次元モデルと撮像部103によって取得される画像に含まれる位置(座標)に対応付けられたオブジェクト情報との対応関係と、深さセンサ106によって取得される現実空間情報との対応関係と、を取得する。現実空間情報としては地面の場所や壁の場所といった情報が含まれ、地面の位置と三次元モデルとの対応関係や、三次元モデルと壁の位置との対応関係を得ることができる。   The correspondence relationship acquisition unit 202 is included in the 3D model held in the 3D model holding unit 211 and the image acquired by the imaging unit 103 based on the current position of the terminal device 10 specified by the terminal position specifying unit 201. The correspondence relationship with the object information associated with the position (coordinates) to be obtained and the correspondence relationship with the real space information acquired by the depth sensor 106 are acquired. The real space information includes information such as the location of the ground and the location of the wall, and the correspondence between the position of the ground and the three-dimensional model and the correspondence between the three-dimensional model and the position of the wall can be obtained.

オブジェクト位置決定部203は、対応関係取得部202によって特定されたオブジェクト情報の座標と、深さセンサ106によって取得される現実空間情報との対応関係とに基づき、仮想オブジェクトを配置すべき座標を決定する。また、対応情報で取得されたオブジェクトの座標にそのままオブジェクトを表示するのではなく、対応情報として取得した現実空間(床や壁)との位置を考慮することで、床の上に立たせたり、壁と重ならないように表示することができるようになる。オブジェクトは、例えば、人間や動物といった動物体や、それらをモデル化した、所謂、キャラクタであってもよい。オブジェクトは、性別や年代などのオブジェクト属性を有する。なお、端末装置10にオブジェクトの大きさ(高さ、幅)を登録しておけば、現実空間のスペースに応じて、現実空間の物と重複しないようにオブジェクトの配置場所を補正することができ、また移動する動作であれば障害物を避けたりすることもできる。   The object position determination unit 203 determines the coordinates where the virtual object is to be arranged based on the coordinates of the object information specified by the correspondence acquisition unit 202 and the correspondence between the real space information acquired by the depth sensor 106. To do. In addition, instead of displaying the object as it is in the coordinates of the object acquired with the correspondence information, considering the position with the real space (floor or wall) acquired as the correspondence information, it can stand on the floor, It becomes possible to display so as not to overlap. The object may be, for example, an animal body such as a human being or an animal, or a so-called character that models them. The object has object attributes such as gender and age. If the size (height and width) of the object is registered in the terminal device 10, the object placement location can be corrected according to the real space so that it does not overlap with the real space. In addition, obstacles can be avoided if they are moving.

表示制御部204は、オブジェクト位置決定部203によって決定された位置にオブジェクトが重畳された重畳画像をディスプレイ105に表示させる。表示制御部204は撮像部103から画像を取得する。表示制御部204は、取得された画像のうちオブジェクト位置決定部203によって決定された位置にオブジェクトの表示を重畳することで重畳画像を生成する。表示制御部204は、合成画像をディスプレイ105に表示させる。   The display control unit 204 causes the display 105 to display a superimposed image in which the object is superimposed at the position determined by the object position determination unit 203. The display control unit 204 acquires an image from the imaging unit 103. The display control unit 204 generates a superimposed image by superimposing the display of the object on the position determined by the object position determination unit 203 in the acquired image. The display control unit 204 causes the display 105 to display the composite image.

通知部205は、ディスプレイ105に表示されたオブジェクトを介して、端末装置10のユーザに情報を通知する。通知部205は、アプリ連携部206と、ネットワーク連携部207と、テキスト生成部208と、音声生成部209と、オブジェクト変更部210と、を含む。   The notification unit 205 notifies the user of the terminal device 10 of information via the object displayed on the display 105. The notification unit 205 includes an application cooperation unit 206, a network cooperation unit 207, a text generation unit 208, a voice generation unit 209, and an object change unit 210.

アプリ連携部206は、端末装置10にインストールされているアプリケーションプログラムからユーザに通知すべき情報を取得する。ネットワーク連携部207は、通信部107がネットワークを介して所定のサーバから受信した情報を取得する。テキスト生成部208は、アプリ連携部206やネットワーク連携部207が取得した情報をテキスト化する。通知部205は、テキスト生成部208によって生成されたテキストメッセージを、オブジェクトに関連付けてディスプレイ105に表示させる。音声生成部209は、アプリ連携部206やネットワーク連携部207が取得した情報を音声化する。通知部205は、音声生成部209によって生成された音声メッセージを、オブジェクトの属性に合わせた声色の音声に変換し、スピーカ101に出力させる。アプリ連携部206は通知条件に基づいて通知の判断を行ってもよい。この通知条件は、例えば日時やカレンダー情報を含む。   The application cooperation unit 206 acquires information to be notified to the user from the application program installed in the terminal device 10. The network cooperation unit 207 acquires information received by the communication unit 107 from a predetermined server via the network. The text generation unit 208 converts the information acquired by the application cooperation unit 206 and the network cooperation unit 207 into text. The notification unit 205 causes the display 105 to display the text message generated by the text generation unit 208 in association with the object. The voice generation unit 209 converts the information acquired by the application cooperation unit 206 and the network cooperation unit 207 into voice. The notification unit 205 converts the voice message generated by the voice generation unit 209 into voiced voice that matches the attribute of the object, and causes the speaker 101 to output the voice message. The application cooperation unit 206 may determine notification based on the notification condition. This notification condition includes, for example, date and calendar information.

なお、テキスト生成部208は、オブジェクトの属性およびユーザの属性のうちの少なくともひとつに対応するようテキストメッセージを変更または編集してもよい。音声生成部209は、オブジェクトの属性およびユーザの属性のうちの少なくともひとつに対応するよう音声メッセージを変更または編集してもよい。
オブジェクト変更部210は、ユーザに通知される情報に応じてオブジェクトの表示態様または動作を変更する。
The text generation unit 208 may change or edit the text message so as to correspond to at least one of the object attribute and the user attribute. The voice generation unit 209 may change or edit the voice message so as to correspond to at least one of the attribute of the object and the attribute of the user.
The object changing unit 210 changes the display mode or operation of the object according to information notified to the user.

以上の構成による端末装置10の動作を説明する。
図3は、端末装置10における一連の処理の流れを示すフローチャートである。端末装置10は、三次元モデルにおける端末装置10の現在位置を特定する(S301)。端末装置10は、三次元モデルと撮像部103や深さセンサ106などの計測手段によって取得される現実の三次元空間情報との対応関係を取得する(S302)。端末装置10は、三次元モデルにおけるオブジェクトの位置を決定する(S303)。端末装置10は、オブジェクトの像を重畳することで重畳画像を生成する(S305)。端末装置10は、オブジェクトに関連付けて表示されるテキストメッセージやオブジェクトの口の動きに合わせて出力される音声メッセージなどの通知エフェクトを生成する(S306)。端末装置10は重畳画像をディスプレイ105に表示させる(S307)。端末装置10はオブジェクトを介した通知エフェクトを出力する(S308)。
なお、ステップS302について、端末装置10において、三次元モデルを取得した上で、ディスプレイ105に撮影画像を表示させて(例えば、テレビを表示させながら、テレビであることを示すアイコンを選択するによって)、三次元モデルの場所と物品種類を登録してもよい。これにより、アプリケーション次第で、物品の場所を認識した上で、オブジェクトの動作を変えることができる。
The operation of the terminal device 10 having the above configuration will be described.
FIG. 3 is a flowchart showing a flow of a series of processes in the terminal device 10. The terminal device 10 specifies the current position of the terminal device 10 in the three-dimensional model (S301). The terminal device 10 acquires a correspondence relationship between the three-dimensional model and actual three-dimensional spatial information acquired by measurement means such as the imaging unit 103 and the depth sensor 106 (S302). The terminal device 10 determines the position of the object in the three-dimensional model (S303). The terminal device 10 generates a superimposed image by superimposing the object image (S305). The terminal device 10 generates notification effects such as a text message displayed in association with the object and a voice message output in accordance with the movement of the mouth of the object (S306). The terminal device 10 displays the superimposed image on the display 105 (S307). The terminal device 10 outputs a notification effect via the object (S308).
In step S302, the terminal device 10 acquires a three-dimensional model and displays a captured image on the display 105 (for example, by selecting an icon indicating that the television is displayed while displaying the television). The location of the three-dimensional model and the item type may be registered. Thus, depending on the application, the movement of the object can be changed after recognizing the location of the article.

図4から図10はそれぞれ、ディスプレイ105の代表画面図である。図4には、撮像部103が撮像した部屋の中の画像を表示する画面が示されている。オブジェクトの重畳表示はない。画面のなかにはテレビ401やインターホン402や窓403などの現実のオブジェクトが写っている。この状態で、端末装置10は、仮想的な人型のオブジェクト501をディスプレイ105の画面の外から内へ移動させる。例えば、オブジェクト501が図4の画面外下方から上へとゆっくり移動して現れるアニメーションが表示され、図5の状態となる。これは以下の処理の流れにより実現される。
(1)三次元モデルにおけるオブジェクト501の移動前座標(xa,ya,za)、移動後座標(xb,yb,zb)を決定する。
(2)移動前座標(xa,ya,za)と移動後座標(xb,yb,zb)とを結ぶ移動経路を決定し、該移動経路をN等分(Nは2以上の自然数)することでN+1個の重畳対象座標(xn、yn、zn)を決定する。n=0、1、…、Nであり、(x0、y0、z0)=(xa,ya,za)、(xN、yN、zN)=(xb,yb,zb)である。
(3)オブジェクト501を移動前座標(xa,ya,za)に配置したときの重畳画像を生成し、ディスプレイ105に表示させる。
(4)オブジェクト501を移動前座標(xa,ya,za)の次の重畳対象座標(x1,y1,z1)に配置したときの重畳画像を生成し、ディスプレイ105に表示させる。
(5)nをインクリメントし、(4)と同じ処理を行う。インクリメントの結果、n=Nとなったら次に進む。
(6)オブジェクト501を移動後座標(xb,yb,zb)に配置したときの重畳画像を生成し、ディスプレイ105に表示させる。
これにより、三次元モデルにおけるオブジェクト501の位置を変化させ、ディスプレイ105に表示される画面においても対応するようにオブジェクト501を連続的に移動させることができる。例えば、オブジェクト501の位置が1m変わった場合、オブジェクト501を移動前の位置から移動後の位置へ瞬間的に移動させるのではなく、オブジェクト501の歩く速度で1m先まで移動させる。
なお、端末装置10の座標が特定の座標となるか、特定の距離に入った場合、更にはディスプレイ105の向き(高さ・方向)が特定の条件に合致した場合に、アニメーションを表示させてもよい。あるいはまた、特定の時間帯、特定の回数(1日単位で1回表示されると2回目は表示されない)に限りアニメーションを表示させてもよい。
4 to 10 are representative screen views of the display 105, respectively. FIG. 4 shows a screen that displays an image in the room captured by the image capturing unit 103. There is no superimposed display of objects. Real objects such as the TV 401, the intercom 402, and the window 403 are shown in the screen. In this state, the terminal device 10 moves the virtual humanoid object 501 from the outside of the screen of the display 105 to the inside. For example, an animation in which the object 501 appears by slowly moving from the lower lower side to the upper side in FIG. 4 is displayed, and the state shown in FIG. 5 is obtained. This is realized by the following processing flow.
(1) The coordinates (xa, ya, za) and the coordinates (xb, yb, zb) before movement of the object 501 in the three-dimensional model are determined.
(2) Determine a movement path connecting the coordinates before movement (xa, ya, za) and the coordinates after movement (xb, yb, zb), and divide the movement path into N equal parts (N is a natural number of 2 or more). N + 1 coordinates to be superimposed (xn, yn, zn) are determined. n = 0, 1,..., N, and (x0, y0, z0) = (xa, ya, za), (xN, yN, zN) = (xb, yb, zb).
(3) A superimposed image when the object 501 is arranged at the coordinates (xa, ya, za) before movement is generated and displayed on the display 105.
(4) A superimposed image is generated when the object 501 is arranged at the superimposition target coordinates (x1, y1, z1) next to the pre-movement coordinates (xa, ya, za) and displayed on the display 105.
(5) Increment n and perform the same processing as (4). If n = N as a result of the increment, the process proceeds to the next.
(6) A superimposed image when the object 501 is arranged at the coordinates (xb, yb, zb) after movement is generated and displayed on the display 105.
Thereby, the position of the object 501 in the three-dimensional model can be changed, and the object 501 can be continuously moved so as to correspond on the screen displayed on the display 105. For example, when the position of the object 501 is changed by 1 m, the object 501 is not instantaneously moved from the position before the movement to the position after the movement, but is moved to 1 m ahead at the walking speed of the object 501.
If the coordinates of the terminal device 10 become a specific coordinate or enter a specific distance, and if the orientation (height / direction) of the display 105 matches a specific condition, an animation is displayed. Also good. Alternatively, the animation may be displayed only during a specific time period and a specific number of times (if the time is displayed once per day, the second time is not displayed).

図5および図6は端末装置10にテレビ番組表アプリケーションがインストールされている一例の画面を示す。図5を参照すると、アプリ連携部206はテレビ番組表アプリケーションから、甲チームの試合を生放送する番組の情報を取得する。テキスト生成部208は、現在時刻が番組の開始時刻に近づくと、上記番組についてのテキストメッセージ502を生成する。通知部205は、生成されたテキストメッセージ502をオブジェクト501の吹き出しとして画面に表示させる。   5 and 6 show examples of screens in which the TV program guide application is installed in the terminal device 10. Referring to FIG. 5, the application cooperation unit 206 acquires information on a program that broadcasts the game of the team A live from the TV program guide application. When the current time approaches the start time of the program, the text generation unit 208 generates a text message 502 for the program. The notification unit 205 displays the generated text message 502 on the screen as a balloon of the object 501.

さらに通知部205は、テレビ401がオフであることを検知すると、テレビ401をオンするか否かを問い合わせるテキストメッセージ503を生成し、画面に吹き出しとして表示させる。通知部205は、マイク102から得られる音量レベルが所定の音量レベルより低いと判定すると、テレビ401がオフであると判定してもよい。ユーザは、端末装置10を操作するかまたはマイク102に向けて発話することにより、テレビ401をオンするための指示を入力する。図6を参照すると、オブジェクト変更部210は、オブジェクト501の位置をテレビ401に近づけるアニメーションを生成すると共に、あたかもオブジェクト501がテレビ401のスイッチを入れるかのような追加的表示601(この場合、オブジェクトの腕)を生成する。アプリ連携部206は、別途、端末装置10にインストールされているテレビ番組表アプリケーションまたはテレビ401を遠隔操作するためのアプリケーション(例えば、テレビ401のリモートコントローラアプリケーション)を介してテレビ401の電源を入れる。なお、多くのテレビは基本的に赤外線通信を採用する。したがって、端末装置10が赤外線通信を実装していれば容易にテレビ401の操作が可能となる。あるいはまた、セットトップボックスなどは他の通信方式にも対応しているので、スマートフォンでの操作が可能である。
なお、テレビ401に、通知する番組に関連する動画をサーバから取得し、オブジェクトとしてテレビ画面に重畳させて表示して通知する番組を案内してもよい。
Further, when the notification unit 205 detects that the television 401 is turned off, the notification unit 205 generates a text message 503 inquiring whether the television 401 is turned on, and displays the text message 503 on the screen as a balloon. If the notification unit 205 determines that the volume level obtained from the microphone 102 is lower than the predetermined volume level, the notification unit 205 may determine that the television 401 is off. The user inputs an instruction to turn on the television 401 by operating the terminal device 10 or speaking into the microphone 102. Referring to FIG. 6, the object changing unit 210 generates an animation that brings the position of the object 501 closer to the television 401, and performs an additional display 601 as if the object 501 switches on the television 401 (in this case, the object 501 Arm). The application cooperation unit 206 turns on the TV 401 via a TV program guide application installed in the terminal device 10 or an application for remotely operating the TV 401 (for example, a remote controller application of the TV 401). Many televisions basically employ infrared communication. Therefore, if the terminal device 10 implements infrared communication, the television 401 can be easily operated. Alternatively, the set-top box and the like also support other communication methods, and can be operated with a smartphone.
Note that the television 401 may acquire a moving image related to the program to be notified from the server, and superimpose it on the TV screen as an object to guide the program to be notified.

図7および図8は端末装置10にインターホン遠隔操作アプリケーションがインストールされている一例の画面を示す。ここでは、三次元画像にインターホン場所を設定する。図7を参照すると、アプリ連携部206はインターホン遠隔操作アプリケーションから、インターホン402が鳴っていることを示す通知を受ける。テキスト生成部208は、インターホン402が鳴っている旨を示すテキストメッセージ701を生成する。通知部205は、生成されたテキストメッセージ701をオブジェクト501の吹き出しとして画面に表示させる。   7 and 8 show examples of screens in which the interphone remote control application is installed in the terminal device 10. Here, the intercom location is set in the three-dimensional image. Referring to FIG. 7, the application cooperation unit 206 receives a notification indicating that the intercom 402 is ringing from the intercom remote operation application. The text generation unit 208 generates a text message 701 indicating that the intercom 402 is ringing. The notification unit 205 displays the generated text message 701 on the screen as a balloon of the object 501.

図8を参照すると、オブジェクト変更部210は、オブジェクト501の位置をインターホン402に近づけるアニメーションを生成すると共に、あたかもオブジェクト501がインターホン402のモニタを確認するかのような追加的表示702(この場合、オブジェクト501の顔をインターホン402に向ける)を生成する。アプリ連携部206は、インターホン遠隔操作アプリケーションから、モニタ画像を解析することで判別された来訪者の名前を取得する。テキスト生成部208は、取得された名前を含むテキストメッセージ704を生成する。通知部205は、生成されたテキストメッセージ704をオブジェクト501の吹き出しとして画面に表示させる。アプリ連携部206は、インターホン遠隔操作アプリケーションからインターホンのモニタの画像を取得し、取得された画像を画面の右下に小画面703として重畳表示する。   Referring to FIG. 8, the object changing unit 210 generates an animation that brings the position of the object 501 closer to the intercom 402 and also displays an additional display 702 as if the object 501 confirms the monitor of the intercom 402 (in this case, The face of the object 501 is directed to the intercom 402). The application cooperation unit 206 acquires the name of the visitor determined by analyzing the monitor image from the intercom remote operation application. The text generation unit 208 generates a text message 704 including the acquired name. The notification unit 205 displays the generated text message 704 on the screen as a balloon of the object 501. The application cooperation unit 206 acquires an interphone monitor image from the interphone remote operation application, and superimposes and displays the acquired image as a small screen 703 on the lower right of the screen.

図9および図10は端末装置10にスケジュール管理アプリケーションがインストールされている一例の画面を示す。図9を参照すると、アプリ連携部206はスケジュール管理アプリケーションから、ユーザに関連するイベントの情報を取得する。テキスト生成部208は、現在時刻がイベントの開始時刻に近づくと、上記イベントについてのテキストメッセージ901を生成する。通知部205は、生成されたテキストメッセージ901をオブジェクト501の吹き出しとして画面に表示させる。   9 and 10 show examples of screens in which a schedule management application is installed in the terminal device 10. Referring to FIG. 9, the application cooperation unit 206 acquires event information related to the user from the schedule management application. When the current time approaches the start time of the event, the text generation unit 208 generates a text message 901 for the event. The notification unit 205 displays the generated text message 901 on the screen as a balloon of the object 501.

図10を参照すると、オブジェクト変更部210は、オブジェクト501の位置を窓403に近づけるアニメーションを生成すると共に、あたかもオブジェクト501が窓403の外を確認するかのような追加的表示902(この場合、オブジェクト501の顔を窓403の方に向ける)を生成する。ネットワーク連携部207は、ネットワークを介して、天気情報サーバからイベントの開始時刻における天気予報を取得する。テキスト生成部208は、取得された天気予報に応じたテキストメッセージ903を生成する。通知部205は、生成されたテキストメッセージ903をオブジェクト501の吹き出しとして画面に表示させる。併せてオブジェクト変更部210は、取得された天気予報に応じた追加的表示904(この場合、傘のシルエット)を生成する。   Referring to FIG. 10, the object changing unit 210 generates an animation that brings the position of the object 501 closer to the window 403 and an additional display 902 as if the object 501 confirms the outside of the window 403 (in this case, The face of the object 501 is directed toward the window 403). The network cooperation unit 207 acquires a weather forecast at the start time of the event from the weather information server via the network. The text generation unit 208 generates a text message 903 corresponding to the acquired weather forecast. The notification unit 205 displays the generated text message 903 on the screen as a balloon of the object 501. In addition, the object changing unit 210 generates an additional display 904 (in this case, an umbrella silhouette) according to the acquired weather forecast.

あるいはまた、天気予報が外気温=0度を示す場合、テキストメッセージ903に代えて「0度だよ、寒いね。」というテキストメッセージを生成すると共に、オブジェクト501が震えるアニメーションを生成してもよい。   Alternatively, when the weather forecast indicates that the outside air temperature = 0 degrees, a text message “It is cold, 0 degrees” may be generated instead of the text message 903, and an animation in which the object 501 shakes may be generated. .

別の例では、エアコン管理アプリケーションと連携し、温度センサ108から得られる温度情報に応じて異なるテキストメッセージをオブジェクトの吹き出しとして表示しつつ、ユーザからエアコン操作の指示を受け付けてもよい。
なお、上記の例において、テキストメッセージの表示に加えてまたは代えて、対応する内容の音声をスピーカ101から出力してもよい。
In another example, an air conditioner operation instruction may be received from the user while displaying a text message that is different from the temperature information obtained from the temperature sensor 108 as an object balloon in cooperation with the air conditioner management application.
In the above example, in addition to or instead of displaying the text message, the corresponding content voice may be output from the speaker 101.

上述の実施の形態において、保持部の例は、ハードディスクや半導体メモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶する半導体メモリなどにより実現できることは本明細書に触れた当業者には理解される。   In the embodiment described above, examples of the holding unit are a hard disk and a semiconductor memory. Further, based on the description of the present specification, each unit is configured by a CPU (not shown), a module of an installed application program, a module of a system program, a semiconductor memory that temporarily stores the content of data read from the hard disk, or the like. It will be appreciated by those skilled in the art who have touched this specification that this can be achieved.

本実施の形態に係る端末装置10によると、ユーザは撮像した画像に重畳されたオブジェクトから情報が提示されたと感じることができる。その結果、端末装置10に対するユーザの親近感、愛着が増大し、ユーザ体験の質が向上する。   According to terminal device 10 according to the present embodiment, the user can feel that information has been presented from an object superimposed on the captured image. As a result, the user's familiarity and attachment to the terminal device 10 increase, and the quality of the user experience improves.

例えばオブジェクト501がキャラクタである場合、現実とシンクロした世界でキャラクタがユーザに寄り添う感じを創出することができる。オブジェクト501は端末装置10を介してでなければ「見えない」ため、端末装置10のユーザ以外には見えない。これにより、ユーザが感じる特別感が増大する。   For example, when the object 501 is a character, it is possible to create a feeling that the character is close to the user in a world synchronized with the reality. Since the object 501 is “invisible” only through the terminal device 10, it cannot be seen by anyone other than the user of the terminal device 10. Thereby, the special feeling which a user feels increases.

以上、実施の形態に係る端末装置10の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。   The configuration and operation of the terminal device 10 according to the embodiment have been described above. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to each component and combination of processes, and such modifications are within the scope of the present invention.

実施の形態では、オブジェクトの表示の具体例を図5から図10を参照して説明したが、これに限られない。例えば、オブジェクト情報が所定の距離による表示条件を有し、端末装置10の位置とオブジェクトの位置座標との距離に関する距離条件に基づきオブジェクトを表示するか否かを決定してもよい。この場合、近くにあるものから表示していく表示方法を実現できる。   In the embodiment, specific examples of object display have been described with reference to FIGS. 5 to 10, but the present invention is not limited to this. For example, the object information may have a display condition based on a predetermined distance, and it may be determined whether to display the object based on a distance condition regarding the distance between the position of the terminal device 10 and the position coordinates of the object. In this case, it is possible to realize a display method of displaying from a nearby object.

あるいはまた、オブジェクト情報が所定の滞在時間条件を有し、端末装置10の位置とオブジェクトの位置とが所定の範囲内に所定の滞在時間以上滞在している場合には、オブジェクトを表示してもよい。この場合、オブジェクトの近くを通り過ぎるだけなら表示しないで、対象のオブジェクトの近くにある程度いる場合に通知することができる。   Alternatively, if the object information has a predetermined stay time condition and the position of the terminal device 10 and the position of the object stay within a predetermined range for a predetermined stay time or longer, the object may be displayed. Good. In this case, if it passes only near the object, it is not displayed and notification can be given when the object is close to the target object to some extent.

あるいはまた、オブジェクト情報が所定の優先情報を有し、優先情報に基づき、優先度の最も高い優先順位のオブジェクトを表示してもよい。この場合、複数のオブジェクトがある場合に一度に表示せず、優先度の高いものから表示していくことができる。
なお、上記のオブジェクトの表示条件について、表示されたオブジェクトを選択することで、表示条件をユーザが編集可能とすることができる。
Alternatively, the object information may have predetermined priority information, and the object with the highest priority may be displayed based on the priority information. In this case, when there are a plurality of objects, they are not displayed at a time, but can be displayed from the one with the highest priority.
In addition, about the display conditions of said object, a display condition can be made editable by a user by selecting the displayed object.

実施の形態において、三次元モデルにGPS情報を対応付けて記憶してもよい。これにより、例えば、その場所近隣にいて、前述のいずれかの通知メッセージを受信・記憶していると、端末装置10のディスプレイ105または振動によりユーザに伝えてもよい。また、GPS情報により三次元モデルが記憶されている場所の近隣にいて、前述のいずれかの通知メッセージを受信・記憶していると、端末装置10のディスプレイ105または振動によりアプリケーションやカメラをオンにするように促してもよい。   In the embodiment, GPS information may be stored in association with the three-dimensional model. Accordingly, for example, when one of the above notification messages is received and stored near the place, the user may be notified to the user by the display 105 of the terminal device 10 or vibration. Further, if the user is in the vicinity of the place where the 3D model is stored by GPS information and receives / stores any of the above notification messages, the application or camera is turned on by the display 105 of the terminal device 10 or by vibration. You may be encouraged to do so.

実施の形態において、アニメーションは、撮像部103の撮影画像の輝度に応じて、周囲の環境に合うように色彩を変化させてもよい。季節や時間帯(朝・昼・夜)によって表情、外観(服装)を変化さてもよい。また、マナーモードのように音声出力を停止している場合は、テキストモードとし、音声出力モードとしている場合には、テキストを停止し、音声モードとしてもよい。   In the embodiment, the animation may change the color to suit the surrounding environment according to the luminance of the captured image of the imaging unit 103. The expression and appearance (clothing) may be changed according to the season and time zone (morning, daytime, night). In addition, when the voice output is stopped as in the manner mode, the text mode may be set. When the voice output mode is set, the text may be stopped and the voice mode may be set.

10 端末装置、 100 制御部、 103 撮像部、 105 ディスプレイ。   10 terminal device, 100 control unit, 103 imaging unit, 105 display.

Claims (11)

撮像手段とディスプレイとを備える端末に、
実空間の三次元モデルにおける前記端末の位置を特定する機能と、
特定された前記端末の位置に基づいて、前記三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する機能と、
取得された対応関係と前記三次元モデルにおけるオブジェクトの位置とに基づいて、前記画像における前記オブジェクトの位置を決定する機能と、
決定された位置に前記オブジェクトが重畳された前記画像を前記ディスプレイに表示させる機能と、を実現させるためのコンピュータプログラム。
In a terminal equipped with an imaging means and a display,
A function of specifying the position of the terminal in a three-dimensional model of real space;
Based on the identified position of the terminal, a function of acquiring a correspondence relationship between the three-dimensional model and actual three-dimensional spatial information acquired by the measurement unit;
A function of determining the position of the object in the image based on the acquired correspondence and the position of the object in the three-dimensional model;
A computer program for realizing a function of displaying the image in which the object is superimposed on the determined position on the display.
前記ディスプレイに表示された前記オブジェクトを介して、前記端末のユーザに情報を通知する機能をさらに前記端末に実現させる請求項1に記載のコンピュータプログラム。   The computer program according to claim 1, further causing the terminal to realize a function of notifying information to a user of the terminal via the object displayed on the display. 前記情報は、前記端末にインストールされているアプリケーションプログラムから前記ユーザに通知すべき情報を含む請求項2に記載のコンピュータプログラム。   The computer program according to claim 2, wherein the information includes information to be notified to the user from an application program installed in the terminal. 前記情報は、前記端末がネットワークを介してサーバから受信した情報を含む請求項2または3に記載のコンピュータプログラム。   The computer program according to claim 2 or 3, wherein the information includes information received from a server by the terminal via a network. 前記通知する機能は、前記情報として前記オブジェクトの属性および前記ユーザの属性のうちの少なくともひとつに応じたテキストメッセージを前記オブジェクトに関連付けて前記ディスプレイに表示させる機能または前記情報として前記オブジェクトの属性および前記ユーザの属性のうちの少なくともひとつに応じた音声を出力する機能もしくはその両方を含む請求項2から4のいずれか一項に記載のコンピュータプログラム。   The notifying function is a function of displaying a text message corresponding to at least one of the attribute of the object and the attribute of the user as the information in association with the object or displaying the attribute of the object and the information as the information. The computer program according to any one of claims 2 to 4, including a function of outputting a sound corresponding to at least one of user attributes or both. 前記通知する機能において前記ユーザに通知される前記情報に応じて前記オブジェクトの表示態様または動作を変更する機能をさらに前記端末に実現させる請求項2から5のいずれか一項に記載のコンピュータプログラム。   The computer program according to claim 2, further causing the terminal to realize a function of changing a display mode or an operation of the object according to the information notified to the user in the function of notifying. 前記三次元モデルにおける前記オブジェクトの前記位置の変化に応じて、前記ディスプレイに表示される前記画像において前記オブジェクトを移動させる機能をさらに前記端末に実現させる請求項1から6のいずれか一項に記載のコンピュータプログラム。   7. The terminal according to claim 1, further causing the terminal to realize a function of moving the object in the image displayed on the display in accordance with a change in the position of the object in the three-dimensional model. Computer program. 前記移動させる機能は、前記オブジェクトを前記ディスプレイの表示範囲の外から内へ移動させる機能を含む請求項7に記載のコンピュータプログラム。   The computer program according to claim 7, wherein the function of moving includes a function of moving the object from outside the display range of the display. 前記撮像手段によって取得される画像から前記三次元モデルを生成する機能をさらに前記端末に実現させる請求項1から8のいずれか一項に記載のコンピュータプログラム。   The computer program according to claim 1, further causing the terminal to realize a function of generating the three-dimensional model from an image acquired by the imaging unit. 撮像手段とディスプレイとを備える端末であって、
実空間の三次元モデルにおける前記端末の位置を特定する手段と、
特定された前記端末の位置に基づいて、前記三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する手段と、
取得された対応関係と前記三次元モデルにおけるオブジェクトの位置とに基づいて、前記画像における前記オブジェクトの位置を決定する手段と、
決定された位置に前記オブジェクトが重畳された前記画像を前記ディスプレイに表示させる手段と、を備える端末。
A terminal comprising an imaging means and a display,
Means for identifying the location of the terminal in a three-dimensional model of real space;
Means for acquiring a correspondence relationship between the three-dimensional model and actual three-dimensional spatial information acquired by the measuring means based on the identified position of the terminal;
Means for determining the position of the object in the image based on the acquired correspondence and the position of the object in the three-dimensional model;
Means for causing the display to display the image in which the object is superimposed at the determined position.
撮像手段とディスプレイとを備える端末で実行される方法であって、
実空間の三次元モデルにおける前記端末の位置を特定することと、
特定された前記端末の位置に基づいて、前記三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得することと、
取得された対応関係と前記三次元モデルにおけるオブジェクトの位置とに基づいて、前記画像における前記オブジェクトの位置を決定することと、
決定された位置に前記オブジェクトが重畳された前記画像を前記ディスプレイに表示させることと、を含む方法。
A method executed by a terminal including an imaging unit and a display,
Identifying the location of the terminal in a three-dimensional model of real space;
Obtaining a correspondence relationship between the three-dimensional model and the actual three-dimensional spatial information acquired by the measurement unit based on the identified position of the terminal;
Determining the position of the object in the image based on the acquired correspondence and the position of the object in the three-dimensional model;
Displaying the image with the object superimposed on the determined position on the display.
JP2019085220A 2019-04-26 2019-04-26 Computer program, terminal, and method Pending JP2019160332A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085220A JP2019160332A (en) 2019-04-26 2019-04-26 Computer program, terminal, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085220A JP2019160332A (en) 2019-04-26 2019-04-26 Computer program, terminal, and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017018885A Division JP6524124B2 (en) 2017-02-03 2017-02-03 Computer program, terminal and method

Publications (1)

Publication Number Publication Date
JP2019160332A true JP2019160332A (en) 2019-09-19

Family

ID=67994022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085220A Pending JP2019160332A (en) 2019-04-26 2019-04-26 Computer program, terminal, and method

Country Status (1)

Country Link
JP (1) JP2019160332A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120372A1 (en) * 2021-12-21 2023-06-29 株式会社セガ Program and information processing device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305531A (en) * 1995-04-27 1996-11-22 Nec Corp Agent interface system for household appliance personal computer
JP2004135051A (en) * 2002-10-10 2004-04-30 Sony Corp Information processing system, apparatus and method for providing service, apparatus and method for processing information, recording medium, and program
US20050022134A1 (en) * 2002-12-11 2005-01-27 Sony Corporation Information processing apparatus
JP2013069011A (en) * 2011-09-21 2013-04-18 Casio Comput Co Ltd Image communication system, terminal device, and program
JP2014517955A (en) * 2011-04-19 2014-07-24 サムスン エレクトロニクス カンパニー リミテッド Display method of power usage state and portable device to which the method is applied
JP2015228050A (en) * 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305531A (en) * 1995-04-27 1996-11-22 Nec Corp Agent interface system for household appliance personal computer
JP2004135051A (en) * 2002-10-10 2004-04-30 Sony Corp Information processing system, apparatus and method for providing service, apparatus and method for processing information, recording medium, and program
US20050022134A1 (en) * 2002-12-11 2005-01-27 Sony Corporation Information processing apparatus
JP2014517955A (en) * 2011-04-19 2014-07-24 サムスン エレクトロニクス カンパニー リミテッド Display method of power usage state and portable device to which the method is applied
JP2013069011A (en) * 2011-09-21 2013-04-18 Casio Comput Co Ltd Image communication system, terminal device, and program
JP2015228050A (en) * 2014-05-30 2015-12-17 ソニー株式会社 Information processing device and information processing method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
坂本陽ほか4名: ""拡張現実感技術を用いた家電機器連携システムの構築"", マルチメディア,分散,協調とモバイル(DICOMO2010)シンポジウム論文集, vol. 第2010巻 第1号, JPN6016011218, 30 June 2010 (2010-06-30), JP, pages 372 - 377, ISSN: 0004334406 *
神武直彦ほか5名: ""StateSnap:状態再現可能な情報機器操作のためのスナップショットインタフェース"", ヒューマンインタフェース学会誌, vol. 第6巻,第4号, JPN6016011227, 25 November 2004 (2004-11-25), JP, pages 379 - 388, ISSN: 0004334407 *
穴吹まほろ,ほか3名: ""複合現実空間に存在する擬人化エージェントの実現"", 情報処理学会論文誌, vol. 第42巻, 第7号, JPN6020006766, 15 July 2001 (2001-07-15), pages 1957 - 1966, ISSN: 0004334405 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023120372A1 (en) * 2021-12-21 2023-06-29 株式会社セガ Program and information processing device

Similar Documents

Publication Publication Date Title
JP6524124B2 (en) Computer program, terminal and method
JP6657289B2 (en) Systems and methods for augmented and virtual reality
JP6556776B2 (en) Systems and methods for augmented and virtual reality
JP6316387B2 (en) Wide-area simultaneous remote digital presentation world
KR20190124766A (en) Mixed Reality Viewer System and Methods
JP6348741B2 (en) Information processing system, information processing apparatus, information processing program, and information processing method
JP6517255B2 (en) Character image generation apparatus, character image generation method, program, recording medium, and character image generation system
JPWO2015122108A1 (en) Information processing apparatus, information processing method, and program
JP2015001760A (en) Image processing system, image processing apparatus, image processing program, and image processing method
JP2015502584A (en) Portable device, virtual reality system and method
US9733896B2 (en) System, apparatus, and method for displaying virtual objects based on data received from another apparatus
JP6541701B2 (en) Terminal device, control method therefor, and program
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP2020120336A (en) Program, method, and information processing device
JP2018163461A (en) Information processing apparatus, information processing method, and program
JP2016122277A (en) Content providing server, content display terminal, content providing system, content providing method, and content display program
JP2019160332A (en) Computer program, terminal, and method
JP6982203B2 (en) Character image generator, character image generation method and program
WO2022176450A1 (en) Information processing device, information processing method, and program
WO2022075152A1 (en) Information processing device, information processing method, and information distribution system
JP6792666B2 (en) Terminal device, terminal device control method, computer program
JP6843178B2 (en) Character image generator, character image generation method, program and recording medium
JP2016131342A (en) Device, method, and program for model railroad appreciation, dedicated display monitor, and scene image data for synthesis
JP7441289B1 (en) Computer program, information processing terminal, and its control method
JP2019169154A (en) Terminal device and control method thereof, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200828