JP2018124515A - コンピュータプログラム、端末および方法 - Google Patents

コンピュータプログラム、端末および方法 Download PDF

Info

Publication number
JP2018124515A
JP2018124515A JP2017018885A JP2017018885A JP2018124515A JP 2018124515 A JP2018124515 A JP 2018124515A JP 2017018885 A JP2017018885 A JP 2017018885A JP 2017018885 A JP2017018885 A JP 2017018885A JP 2018124515 A JP2018124515 A JP 2018124515A
Authority
JP
Japan
Prior art keywords
terminal
display
dimensional model
function
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017018885A
Other languages
English (en)
Other versions
JP6524124B2 (ja
Inventor
健治 横田
Kenji Yokota
健治 横田
修 水田
Osamu Mizuta
修 水田
義浩 伊藤
Yoshihiro Ito
義浩 伊藤
祥一 大川
Shoichi Okawa
祥一 大川
和彦 増崎
Kazuhiko Masuzaki
和彦 増崎
あかり 山崎
Akari Yamazaki
あかり 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017018885A priority Critical patent/JP6524124B2/ja
Publication of JP2018124515A publication Critical patent/JP2018124515A/ja
Application granted granted Critical
Publication of JP6524124B2 publication Critical patent/JP6524124B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract


【課題】現実空間の指定した場所にオブジェクトを配置してディスプレイに表示する。
【解決手段】コンピュータプログラムは、撮像手段とディスプレイとを備える端末に、実空間の三次元モデルにおける端末の位置を特定する機能と、特定された端末の位置に基づいて、三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する機能と、取得された対応関係と三次元モデルにおけるオブジェクトの位置とに基づいて、画像におけるオブジェクトの位置を決定する機能と、決定された位置にオブジェクトが重畳された画像をディスプレイに表示させる機能と、を実現させる。
【選択図】図1

Description

本発明は、オブジェクトを表示するためのコンピュータプログラム、端末および方法に関する。
非特許文献1、2には、センサとカメラとを組み合わせたシステムが開示される。このシステムはカメラとセンサの情報により端末装置の現在位置と向きを特定することができる。
Tango、[online]、[平成29年1月10日検索]、インターネット、<URL:https://get.google.com/tango/> Googleの空間認識技術「Tango」を搭載する初のスマホ「Lenovo PHAB2 Pro」によるAR体験はこんな感じになる、[online]、[平成29年1月10日検索]、インターネット、<URL:http://gigazine.net/news/20160630-snapdragon-tango-ar/>
非特許文献1、2に記載される技術をARに応用すると、様々なことが実現可能になると考えられる。しかしながら、現状では、現実空間の指定した場所にオブジェクトを配置してディスプレイに表示する手法は確立されていない。
本発明はこうした課題に鑑みてなされたものであり、その目的は、現実空間の指定した場所にオブジェクトを配置してディスプレイに表示する技術の提供にある。
本発明のある態様は、コンピュータプログラムに関する。このコンピュータプログラムは、撮像手段とディスプレイとを備える端末に、実空間の三次元モデルにおける端末の位置を特定する機能と、特定された端末の位置に基づいて、三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する機能と、取得された対応関係と三次元モデルにおけるオブジェクトの位置とに基づいて、画像におけるオブジェクトの位置を決定する機能と、決定された位置にオブジェクトが重畳された画像をディスプレイに表示させる機能と、を実現させる。
なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、現実空間の指定した場所にオブジェクトを配置してディスプレイに表示することができる。
実施の形態に係る端末装置の概略的な構成図である。 図1の制御部の機能および構成を示すブロック図である。 図1の端末装置における一連の処理の流れを示すフローチャートである。 ディスプレイの代表画面図である。 ディスプレイの代表画面図である。 ディスプレイの代表画面図である。 ディスプレイの代表画面図である。 ディスプレイの代表画面図である。 ディスプレイの代表画面図である。 ディスプレイの代表画面図である。
以下、各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面において説明上重要ではない部材の一部は省略して表示する。
図1は、実施の形態に係る端末装置10の概略的な構成図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。スピーカ101は、制御部100から出力される音声信号を音声に変換して出力する。マイク102は、音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサを有し画像情報を取得して制御部100に出力する。ジャイロセンサ104は、端末装置10の角度や角速度を測定して姿勢情報として制御部100に出力する。ディスプレイ104は、本実施の形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LANを介した通信処理を行う。温度センサ108は温度を検出し、検出された温度を含む温度情報を制御部100に出力する。加速度センサ109は、端末装置10の加速度を測定して加速度情報として制御部100に出力する。
制御部100は、端末装置10全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。
本実施の形態において、三次元モデルは、撮像部103で撮像した画像の特徴点の点群と撮像位置とを対応付けて保持する対応テーブルであってもよい。点群は撮像場所や角度が多少変わっても同じ物体だと認識できるように構成される。端末装置10はその特徴点の情報を読み込み、撮像位置が分からない場合に撮像位置がどこかを判定する。すなわち、三次元モデルは風景の見え方を記憶して撮像位置がどこかを求めるためのものであり、深さセンサ106を使わなくても生成可能である。一方、オブジェクトを地面の上に立たせたり現実の物体の大きさを測定したりする場合には深さセンサ106を用いる。
図2は、図1の制御部100の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
制御部100は、端末位置特定部201と、対応関係取得部202と、オブジェクト位置決定部203と、表示制御部204と、通知部205と、三次元モデル保持部211と、三次元モデル生成部212と、を備える。端末装置10は、後述の三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられたオブジェクト情報をサーバからダウンロードしてもよい。ダウンロード方法は様々あり、ユーザが端末装置10を操作して、ダウンロードアイコンを選択するだけでなく、撮像画像又は特徴点の画像を定期的にアップロードし、サーバ側で、画像マッチングで三次元モデルの有無を判定し、該当する三次元モデルをダウンロードしてもよい。また、端末装置10が取得したGPS情報をサーバにアップロードすると、その場所に対応する三次元モデル(対応するアプリケーションが特定されている情報の表示とともに)を選択し、受信してもよい。あるいはまた、端末装置10は、端末装置10で予め記憶・生成した三次元モデルと三次元モデルから特定される端末の位置に基づく位置(座標)に対応付けられたオブジェクト情報を予め保持していてもよい。
三次元モデル生成部212は、実空間を撮像部103が撮像して得られた画像情報に基づき、当該画像情報に対応する画像内の特徴点を求める。三次元モデル生成部212は、特徴点と特徴点を撮像した際の端末の位置と向きを複数記憶し、特徴点から端末の位置が特定可能な三次元モデルを生成する。三次元モデル生成部212は、生成された三次元モデルを三次元モデル保持部211に格納する。特徴点の位置は、実空間を模した仮想的な三次元空間の座標(x、y、z)で表される。なお、三次元空間の位置の原点は、例えば、三次元モデル生成部212が三次元モデルの生成を開始したときの端末装置10の位置とする。あるいはまた、三次元モデル生成部212は外部から三次元モデルのデータを取得して、三次元モデル保持部211に格納してもよい。
三次元モデル保持部211に既に三次元モデルが存在する場合、三次元モデル生成部212は、新たに取得した三次元モデルと、既に保存している三次元モデルとを比較してもよい。例えば、三次元モデル生成部212は、比較の結果、所定割合以上の特徴点が一致すると、新たに取得した三次元モデルが、既に保存している三次元モデルと同じ場所で取得されていることを認識する。この場合、三次元モデル生成部212は既に保存している三次元モデルを新たに取得した三次元モデルで更新する。
端末位置特定部201は、実空間の三次元モデルにおける端末装置10の現在位置を特定する。現在位置は三次元空間の座標(x、y、z)で特定される。端末位置特定部201は、ジャイロセンサ104から出力される姿勢情報と加速度センサ109から出力される加速度情報とを用いたモーショントラッキングにより、端末装置10の現在位置および傾きを特定する。例えば、端末位置特定部201はまず特徴点によるマッチングを行い、端末装置10が三次元モデルのどの場所にいるかを特定する。特定できた後、端末位置特定部201は加速度センサ109、ジャイロセンサ104により端末装置10が移動しても三次元モデル上の座標を特定できる。端末位置特定部201は、撮像部103が撮像して得られた画像情報に基づくエリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。
対応関係取得部202は、端末位置特定部201によって特定された端末装置10の現在位置に基づいて、三次元モデル保持部211に保持される三次元モデルと撮像部103によって取得される画像に含まれる位置(座標)に対応付けられたオブジェクト情報との対応関係と、深さセンサ106によって取得される現実空間情報との対応関係と、を取得する。現実空間情報としては地面の場所や壁の場所といった情報が含まれ、地面の位置と三次元モデルとの対応関係や、三次元モデルと壁の位置との対応関係を得ることができる。
オブジェクト位置決定部203は、対応関係取得部202によって特定されたオブジェクト情報の座標と、深さセンサ106によって取得される現実空間情報との対応関係とに基づき、仮想オブジェクトを配置すべき座標を決定する。また、対応情報で取得されたオブジェクトの座標にそのままオブジェクトを表示するのではなく、対応情報として取得した現実空間(床や壁)との位置を考慮することで、床の上に立たせたり、壁と重ならないように表示することができるようになる。オブジェクトは、例えば、人間や動物といった動物体や、それらをモデル化した、所謂、キャラクタであってもよい。オブジェクトは、性別や年代などのオブジェクト属性を有する。なお、端末装置10にオブジェクトの大きさ(高さ、幅)を登録しておけば、現実空間のスペースに応じて、現実空間の物と重複しないようにオブジェクトの配置場所を補正することができ、また移動する動作であれば障害物を避けたりすることもできる。
表示制御部204は、オブジェクト位置決定部203によって決定された位置にオブジェクトが重畳された重畳画像をディスプレイ105に表示させる。表示制御部204は撮像部103から画像を取得する。表示制御部204は、取得された画像のうちオブジェクト位置決定部203によって決定された位置にオブジェクトの表示を重畳することで重畳画像を生成する。表示制御部204は、合成画像をディスプレイ105に表示させる。
通知部205は、ディスプレイ105に表示されたオブジェクトを介して、端末装置10のユーザに情報を通知する。通知部205は、アプリ連携部206と、ネットワーク連携部207と、テキスト生成部208と、音声生成部209と、オブジェクト変更部210と、を含む。
アプリ連携部206は、端末装置10にインストールされているアプリケーションプログラムからユーザに通知すべき情報を取得する。ネットワーク連携部207は、通信部107がネットワークを介して所定のサーバから受信した情報を取得する。テキスト生成部208は、アプリ連携部206やネットワーク連携部207が取得した情報をテキスト化する。通知部205は、テキスト生成部208によって生成されたテキストメッセージを、オブジェクトに関連付けてディスプレイ105に表示させる。音声生成部209は、アプリ連携部206やネットワーク連携部207が取得した情報を音声化する。通知部205は、音声生成部209によって生成された音声メッセージを、オブジェクトの属性に合わせた声色の音声に変換し、スピーカ101に出力させる。アプリ連携部206は通知条件に基づいて通知の判断を行ってもよい。この通知条件は、例えば日時やカレンダー情報を含む。
なお、テキスト生成部208は、オブジェクトの属性およびユーザの属性のうちの少なくともひとつに対応するようテキストメッセージを変更または編集してもよい。音声生成部209は、オブジェクトの属性およびユーザの属性のうちの少なくともひとつに対応するよう音声メッセージを変更または編集してもよい。
オブジェクト変更部210は、ユーザに通知される情報に応じてオブジェクトの表示態様または動作を変更する。
以上の構成による端末装置10の動作を説明する。
図3は、端末装置10における一連の処理の流れを示すフローチャートである。端末装置10は、三次元モデルにおける端末装置10の現在位置を特定する(S301)。端末装置10は、三次元モデルと撮像部103や深さセンサ106などの計測手段によって取得される現実の三次元空間情報との対応関係を取得する(S302)。端末装置10は、三次元モデルにおけるオブジェクトの位置を決定する(S303)。端末装置10は、オブジェクトの像を重畳することで重畳画像を生成する(S305)。端末装置10は、オブジェクトに関連付けて表示されるテキストメッセージやオブジェクトの口の動きに合わせて出力される音声メッセージなどの通知エフェクトを生成する(S306)。端末装置10は重畳画像をディスプレイ105に表示させる(S307)。端末装置10はオブジェクトを介した通知エフェクトを出力する(S308)。
なお、ステップS302について、端末装置10において、三次元モデルを取得した上で、ディスプレイ105に撮影画像を表示させて(例えば、テレビを表示させながら、テレビであることを示すアイコンを選択するによって)、三次元モデルの場所と物品種類を登録してもよい。これにより、アプリケーション次第で、物品の場所を認識した上で、オブジェクトの動作を変えることができる。
図4から図10はそれぞれ、ディスプレイ105の代表画面図である。図4には、撮像部103が撮像した部屋の中の画像を表示する画面が示されている。オブジェクトの重畳表示はない。画面のなかにはテレビ401やインターホン402や窓403などの現実のオブジェクトが写っている。この状態で、端末装置10は、仮想的な人型のオブジェクト501をディスプレイ105の画面の外から内へ移動させる。例えば、オブジェクト501が図4の画面外下方から上へとゆっくり移動して現れるアニメーションが表示され、図5の状態となる。これは以下の処理の流れにより実現される。
(1)三次元モデルにおけるオブジェクト501の移動前座標(xa,ya,za)、移動後座標(xb,yb,zb)を決定する。
(2)移動前座標(xa,ya,za)と移動後座標(xb,yb,zb)とを結ぶ移動経路を決定し、該移動経路をN等分(Nは2以上の自然数)することでN+1個の重畳対象座標(xn、yn、zn)を決定する。n=0、1、…、Nであり、(x0、y0、z0)=(xa,ya,za)、(xN、yN、zN)=(xb,yb,zb)である。
(3)オブジェクト501を移動前座標(xa,ya,za)に配置したときの重畳画像を生成し、ディスプレイ105に表示させる。
(4)オブジェクト501を移動前座標(xa,ya,za)の次の重畳対象座標(x1,y1,z1)に配置したときの重畳画像を生成し、ディスプレイ105に表示させる。
(5)nをインクリメントし、(4)と同じ処理を行う。インクリメントの結果、n=Nとなったら次に進む。
(6)オブジェクト501を移動後座標(xb,yb,zb)に配置したときの重畳画像を生成し、ディスプレイ105に表示させる。
これにより、三次元モデルにおけるオブジェクト501の位置を変化させ、ディスプレイ105に表示される画面においても対応するようにオブジェクト501を連続的に移動させることができる。例えば、オブジェクト501の位置が1m変わった場合、オブジェクト501を移動前の位置から移動後の位置へ瞬間的に移動させるのではなく、オブジェクト501の歩く速度で1m先まで移動させる。
なお、端末装置10の座標が特定の座標となるか、特定の距離に入った場合、更にはディスプレイ105の向き(高さ・方向)が特定の条件に合致した場合に、アニメーションを表示させてもよい。あるいはまた、特定の時間帯、特定の回数(1日単位で1回表示されると2回目は表示されない)に限りアニメーションを表示させてもよい。
図5および図6は端末装置10にテレビ番組表アプリケーションがインストールされている一例の画面を示す。図5を参照すると、アプリ連携部206はテレビ番組表アプリケーションから、甲チームの試合を生放送する番組の情報を取得する。テキスト生成部208は、現在時刻が番組の開始時刻に近づくと、上記番組についてのテキストメッセージ502を生成する。通知部205は、生成されたテキストメッセージ502をオブジェクト501の吹き出しとして画面に表示させる。
さらに通知部205は、テレビ401がオフであることを検知すると、テレビ401をオンするか否かを問い合わせるテキストメッセージ503を生成し、画面に吹き出しとして表示させる。通知部205は、マイク102から得られる音量レベルが所定の音量レベルより低いと判定すると、テレビ401がオフであると判定してもよい。ユーザは、端末装置10を操作するかまたはマイク102に向けて発話することにより、テレビ401をオンするための指示を入力する。図6を参照すると、オブジェクト変更部210は、オブジェクト501の位置をテレビ401に近づけるアニメーションを生成すると共に、あたかもオブジェクト501がテレビ401のスイッチを入れるかのような追加的表示601(この場合、オブジェクトの腕)を生成する。アプリ連携部206は、別途、端末装置10にインストールされているテレビ番組表アプリケーションまたはテレビ401を遠隔操作するためのアプリケーション(例えば、テレビ401のリモートコントローラアプリケーション)を介してテレビ401の電源を入れる。なお、多くのテレビは基本的に赤外線通信を採用する。したがって、端末装置10が赤外線通信を実装していれば容易にテレビ401の操作が可能となる。あるいはまた、セットトップボックスなどは他の通信方式にも対応しているので、スマートフォンでの操作が可能である。
なお、テレビ401に、通知する番組に関連する動画をサーバから取得し、オブジェクトとしてテレビ画面に重畳させて表示して通知する番組を案内してもよい。
図7および図8は端末装置10にインターホン遠隔操作アプリケーションがインストールされている一例の画面を示す。ここでは、三次元画像にインターホン場所を設定する。図7を参照すると、アプリ連携部206はインターホン遠隔操作アプリケーションから、インターホン402が鳴っていることを示す通知を受ける。テキスト生成部208は、インターホン402が鳴っている旨を示すテキストメッセージ701を生成する。通知部205は、生成されたテキストメッセージ701をオブジェクト501の吹き出しとして画面に表示させる。
図8を参照すると、オブジェクト変更部210は、オブジェクト501の位置をインターホン402に近づけるアニメーションを生成すると共に、あたかもオブジェクト501がインターホン402のモニタを確認するかのような追加的表示702(この場合、オブジェクト501の顔をインターホン402に向ける)を生成する。アプリ連携部206は、インターホン遠隔操作アプリケーションから、モニタ画像を解析することで判別された来訪者の名前を取得する。テキスト生成部208は、取得された名前を含むテキストメッセージ704を生成する。通知部205は、生成されたテキストメッセージ704をオブジェクト501の吹き出しとして画面に表示させる。アプリ連携部206は、インターホン遠隔操作アプリケーションからインターホンのモニタの画像を取得し、取得された画像を画面の右下に小画面703として重畳表示する。
図9および図10は端末装置10にスケジュール管理アプリケーションがインストールされている一例の画面を示す。図9を参照すると、アプリ連携部206はスケジュール管理アプリケーションから、ユーザに関連するイベントの情報を取得する。テキスト生成部208は、現在時刻がイベントの開始時刻に近づくと、上記イベントについてのテキストメッセージ901を生成する。通知部205は、生成されたテキストメッセージ901をオブジェクト501の吹き出しとして画面に表示させる。
図10を参照すると、オブジェクト変更部210は、オブジェクト501の位置を窓403に近づけるアニメーションを生成すると共に、あたかもオブジェクト501が窓403の外を確認するかのような追加的表示902(この場合、オブジェクト501の顔を窓403の方に向ける)を生成する。ネットワーク連携部207は、ネットワークを介して、天気情報サーバからイベントの開始時刻における天気予報を取得する。テキスト生成部208は、取得された天気予報に応じたテキストメッセージ903を生成する。通知部205は、生成されたテキストメッセージ903をオブジェクト501の吹き出しとして画面に表示させる。併せてオブジェクト変更部210は、取得された天気予報に応じた追加的表示904(この場合、傘のシルエット)を生成する。
あるいはまた、天気予報が外気温=0度を示す場合、テキストメッセージ903に代えて「0度だよ、寒いね。」というテキストメッセージを生成すると共に、オブジェクト501が震えるアニメーションを生成してもよい。
別の例では、エアコン管理アプリケーションと連携し、温度センサ108から得られる温度情報に応じて異なるテキストメッセージをオブジェクトの吹き出しとして表示しつつ、ユーザからエアコン操作の指示を受け付けてもよい。
なお、上記の例において、テキストメッセージの表示に加えてまたは代えて、対応する内容の音声をスピーカ101から出力してもよい。
上述の実施の形態において、保持部の例は、ハードディスクや半導体メモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶する半導体メモリなどにより実現できることは本明細書に触れた当業者には理解される。
本実施の形態に係る端末装置10によると、ユーザは撮像した画像に重畳されたオブジェクトから情報が提示されたと感じることができる。その結果、端末装置10に対するユーザの親近感、愛着が増大し、ユーザ体験の質が向上する。
例えばオブジェクト501がキャラクタである場合、現実とシンクロした世界でキャラクタがユーザに寄り添う感じを創出することができる。オブジェクト501は端末装置10を介してでなければ「見えない」ため、端末装置10のユーザ以外には見えない。これにより、ユーザが感じる特別感が増大する。
以上、実施の形態に係る端末装置10の構成と動作について説明した。この実施の形態は例示であり、各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解される。
実施の形態では、オブジェクトの表示の具体例を図5から図10を参照して説明したが、これに限られない。例えば、オブジェクト情報が所定の距離による表示条件を有し、端末装置10の位置とオブジェクトの位置座標との距離に関する距離条件に基づきオブジェクトを表示するか否かを決定してもよい。この場合、近くにあるものから表示していく表示方法を実現できる。
あるいはまた、オブジェクト情報が所定の滞在時間条件を有し、端末装置10の位置とオブジェクトの位置とが所定の範囲内に所定の滞在時間以上滞在している場合には、オブジェクトを表示してもよい。この場合、オブジェクトの近くを通り過ぎるだけなら表示しないで、対象のオブジェクトの近くにある程度いる場合に通知することができる。
あるいはまた、オブジェクト情報が所定の優先情報を有し、優先情報に基づき、優先度の最も高い優先順位のオブジェクトを表示してもよい。この場合、複数のオブジェクトがある場合に一度に表示せず、優先度の高いものから表示していくことができる。
なお、上記のオブジェクトの表示条件について、表示されたオブジェクトを選択することで、表示条件をユーザが編集可能とすることができる。
実施の形態において、三次元モデルにGPS情報を対応付けて記憶してもよい。これにより、例えば、その場所近隣にいて、前述のいずれかの通知メッセージを受信・記憶していると、端末装置10のディスプレイ105または振動によりユーザに伝えてもよい。また、GPS情報により三次元モデルが記憶されている場所の近隣にいて、前述のいずれかの通知メッセージを受信・記憶していると、端末装置10のディスプレイ105または振動によりアプリケーションやカメラをオンにするように促してもよい。
実施の形態において、アニメーションは、撮像部103の撮影画像の輝度に応じて、周囲の環境に合うように色彩を変化させてもよい。季節や時間帯(朝・昼・夜)によって表情、外観(服装)を変化さてもよい。また、マナーモードのように音声出力を停止している場合は、テキストモードとし、音声出力モードとしている場合には、テキストを停止し、音声モードとしてもよい。
10 端末装置、 100 制御部、 103 撮像部、 105 ディスプレイ。

Claims (11)

  1. 撮像手段とディスプレイとを備える端末に、
    実空間の三次元モデルにおける前記端末の位置を特定する機能と、
    特定された前記端末の位置に基づいて、前記三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する機能と、
    取得された対応関係と前記三次元モデルにおけるオブジェクトの位置とに基づいて、前記画像における前記オブジェクトの位置を決定する機能と、
    決定された位置に前記オブジェクトが重畳された前記画像を前記ディスプレイに表示させる機能と、を実現させるためのコンピュータプログラム。
  2. 前記ディスプレイに表示された前記オブジェクトを介して、前記端末のユーザに情報を通知する機能をさらに前記端末に実現させる請求項1に記載のコンピュータプログラム。
  3. 前記情報は、前記端末にインストールされているアプリケーションプログラムから前記ユーザに通知すべき情報を含む請求項2に記載のコンピュータプログラム。
  4. 前記情報は、前記端末がネットワークを介してサーバから受信した情報を含む請求項2または3に記載のコンピュータプログラム。
  5. 前記通知する機能は、前記情報として前記オブジェクトの属性および前記ユーザの属性のうちの少なくともひとつに応じたテキストメッセージを前記オブジェクトに関連付けて前記ディスプレイに表示させる機能または前記情報として前記オブジェクトの属性および前記ユーザの属性のうちの少なくともひとつに応じた音声を出力する機能もしくはその両方を含む請求項2から4のいずれか一項に記載のコンピュータプログラム。
  6. 前記通知する機能において前記ユーザに通知される前記情報に応じて前記オブジェクトの表示態様または動作を変更する機能をさらに前記端末に実現させる請求項2から5のいずれか一項に記載のコンピュータプログラム。
  7. 前記三次元モデルにおける前記オブジェクトの前記位置の変化に応じて、前記ディスプレイに表示される前記画像において前記オブジェクトを移動させる機能をさらに前記端末に実現させる請求項1から6のいずれか一項に記載のコンピュータプログラム。
  8. 前記移動させる機能は、前記オブジェクトを前記ディスプレイの表示範囲の外から内へ移動させる機能を含む請求項7に記載のコンピュータプログラム。
  9. 前記撮像手段によって取得される画像から前記三次元モデルを生成する機能をさらに前記端末に実現させる請求項1から8のいずれか一項に記載のコンピュータプログラム。
  10. 撮像手段とディスプレイとを備える端末であって、
    実空間の三次元モデルにおける前記端末の位置を特定する手段と、
    特定された前記端末の位置に基づいて、前記三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得する手段と、
    取得された対応関係と前記三次元モデルにおけるオブジェクトの位置とに基づいて、前記画像における前記オブジェクトの位置を決定する手段と、
    決定された位置に前記オブジェクトが重畳された前記画像を前記ディスプレイに表示させる手段と、を備える端末。
  11. 撮像手段とディスプレイとを備える端末で実行される方法であって、
    実空間の三次元モデルにおける前記端末の位置を特定することと、
    特定された前記端末の位置に基づいて、前記三次元モデルと計測手段によって取得される現実の三次元空間情報との対応関係を取得することと、
    取得された対応関係と前記三次元モデルにおけるオブジェクトの位置とに基づいて、前記画像における前記オブジェクトの位置を決定することと、
    決定された位置に前記オブジェクトが重畳された前記画像を前記ディスプレイに表示させることと、を含む方法。
JP2017018885A 2017-02-03 2017-02-03 コンピュータプログラム、端末および方法 Active JP6524124B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017018885A JP6524124B2 (ja) 2017-02-03 2017-02-03 コンピュータプログラム、端末および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017018885A JP6524124B2 (ja) 2017-02-03 2017-02-03 コンピュータプログラム、端末および方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019085220A Division JP2019160332A (ja) 2019-04-26 2019-04-26 コンピュータプログラム、端末および方法

Publications (2)

Publication Number Publication Date
JP2018124515A true JP2018124515A (ja) 2018-08-09
JP6524124B2 JP6524124B2 (ja) 2019-06-05

Family

ID=63109089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017018885A Active JP6524124B2 (ja) 2017-02-03 2017-02-03 コンピュータプログラム、端末および方法

Country Status (1)

Country Link
JP (1) JP6524124B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110335351A (zh) * 2019-07-02 2019-10-15 北京百度网讯科技有限公司 多模态ar处理方法、装置、系统、设备及可读存储介质
WO2020003900A1 (ja) 2018-06-29 2020-01-02 株式会社神戸製鋼所 接合構造体及びその製造方法
JP2020160796A (ja) * 2019-03-26 2020-10-01 株式会社ミクシィ 情報処理装置及びプログラム
WO2020218041A1 (ja) * 2019-04-23 2020-10-29 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2021084882A1 (ja) * 2019-10-28 2021-05-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP2013069011A (ja) * 2011-09-21 2013-04-18 Casio Comput Co Ltd 画像通信システム及び端末装置並びにプログラム
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
US20150193986A1 (en) * 2014-01-03 2015-07-09 Intel Corporation Dynamic augmentation of a physical scene
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
JP2016021096A (ja) * 2014-07-11 2016-02-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP2013069011A (ja) * 2011-09-21 2013-04-18 Casio Comput Co Ltd 画像通信システム及び端末装置並びにプログラム
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
US20150193986A1 (en) * 2014-01-03 2015-07-09 Intel Corporation Dynamic augmentation of a physical scene
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
JP2016021096A (ja) * 2014-07-11 2016-02-04 Kddi株式会社 画像処理装置、画像処理方法、およびプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003900A1 (ja) 2018-06-29 2020-01-02 株式会社神戸製鋼所 接合構造体及びその製造方法
JP2020160796A (ja) * 2019-03-26 2020-10-01 株式会社ミクシィ 情報処理装置及びプログラム
JP7260763B2 (ja) 2019-03-26 2023-04-19 株式会社Mixi 情報処理装置及びプログラム
JP7469723B2 (ja) 2019-03-26 2024-04-17 株式会社Mixi 情報処理装置及びプログラム
WO2020218041A1 (ja) * 2019-04-23 2020-10-29 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN110335351A (zh) * 2019-07-02 2019-10-15 北京百度网讯科技有限公司 多模态ar处理方法、装置、系统、设备及可读存储介质
WO2021084882A1 (ja) * 2019-10-28 2021-05-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP6524124B2 (ja) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6524124B2 (ja) コンピュータプログラム、端末および方法
JP6657289B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
JP6316387B2 (ja) 広範囲同時遠隔ディジタル提示世界
JP6499154B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
KR20190124766A (ko) 혼합 현실 뷰어 시스템 및 방법
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JP6517255B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム
JP6348732B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
JPWO2015122108A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6541701B2 (ja) 端末装置およびその制御方法、並びにプログラム
JP2015502584A (ja) 可搬装置、仮想現実システムおよび方法
JP2015001760A (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP2020120336A (ja) プログラム、方法、および情報処理装置
JP2018163461A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP2016122277A (ja) コンテンツ提供サーバ、コンテンツ表示端末、コンテンツ提供システム、コンテンツ提供方法、および、コンテンツ表示プログラム
JP2019160332A (ja) コンピュータプログラム、端末および方法
WO2020044949A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6982203B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6792666B2 (ja) 端末装置、端末装置の制御方法、コンピュータプログラム
JP6843178B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム及び記録媒体
JP7441289B1 (ja) コンピュータプログラム、情報処理端末、及びその制御方法
JP2019169154A (ja) 端末装置およびその制御方法、並びにプログラム
JP2016131342A (ja) 鉄道模型観賞用装置、方法、プログラム、専用表示モニタ、合成用情景画像データ

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R150 Certificate of patent or registration of utility model

Ref document number: 6524124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150