JP6541701B2 - 端末装置およびその制御方法、並びにプログラム - Google Patents

端末装置およびその制御方法、並びにプログラム Download PDF

Info

Publication number
JP6541701B2
JP6541701B2 JP2017040276A JP2017040276A JP6541701B2 JP 6541701 B2 JP6541701 B2 JP 6541701B2 JP 2017040276 A JP2017040276 A JP 2017040276A JP 2017040276 A JP2017040276 A JP 2017040276A JP 6541701 B2 JP6541701 B2 JP 6541701B2
Authority
JP
Japan
Prior art keywords
terminal device
display
information
image
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017040276A
Other languages
English (en)
Other versions
JP2018147151A (ja
Inventor
健治 横田
健治 横田
修 水田
修 水田
義浩 伊藤
義浩 伊藤
祥一 大川
祥一 大川
和彦 増崎
和彦 増崎
あかり 山崎
あかり 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017040276A priority Critical patent/JP6541701B2/ja
Publication of JP2018147151A publication Critical patent/JP2018147151A/ja
Application granted granted Critical
Publication of JP6541701B2 publication Critical patent/JP6541701B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、端末装置およびその制御方法、並びにプログラムに関する。特に、実空間のオブジェクトと端末装置との距離に基づいて、ディスプレイ上で実空間の画像に所定のオブジェクトを重畳して表示する技術に関する。
近年、カメラ等の撮像手段にて撮影された実空間上の空間画像をディスプレイ上に表示する際に、その空間画像に所定のオブジェクト画像を重畳して表示する、所謂AR(Augmented Reality)技術が普及してきている。また、近年の携帯端末の高機能化に伴って、携帯端末上でAR技術を用いる場面が増えてきている。
非特許文献1、2には、センサとカメラを組み合わせたシステムが開示される。このシステムは、カメラとセンサから取得した情報に基づき、端末装置の現在位置と向きを特定することができる。
Tango、[online]、[平成29年1月10日検索]、インターネット、<URL:https://get.google.com/tango/> Googleの空間認識技術「Tango」を搭載する初のスマホ「Lenovo PHAB2 Pro」によるAR体験はこんな感じになる、[online]、[平成29年1月10日検索]、インターネット、<URL:http://gigazine.net/news/20160630-snapdragon-tango-ar/>
携帯端末を有するユーザが、携帯端末のディスプレイ上に実空間の画像と所定のオブジェクト画像とを重畳して表示する際に、実際にユーザ自身が体験している環境やその環境変化に伴って、表示している所定のオブジェクト画像を変化させたいという要望がある。
例えば、所定のオブジェクト画像として、ユーザの好みのキャラクターを携帯端末のディスプレイ上に表示させる際に、その携帯端末(つまり、ユーザ)の周囲の環境変化に伴って、そのキャラクターに何らかのリアクションをさせたい場合や、所定の情報をそのキャラクターを介して提供させたい場合などがある。 本願発明では、ユーザが存在する実環境の情報およびその変化に伴って、そのユーザが有する携帯端末のディスプレイ上の実空間の画像に重畳表示するオブジェクト画像を動的に変化させる手法を提供することを目的とする。
上記課題を解決するために本願発明は以下の構成を有する。すなわち、撮像装置を備える端末装置であって、実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定手段と、前記撮像装置を介して三次元空間画像を取得する第1の取得手段と、前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段と、前記端末装置の環境情報を取得する第2の取得手段と、ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示手段と、前記環境情報の変化に応じて、前記所定の画像の表示を変化させる制御手段とを備え、前記第2の特定手段により前記三次元空間画像に含まれる実オブジェクトの特徴情報は記憶され、当該記憶された特徴情報と、新たに取得された三次元空間画像に含まれる実オブジェクトの特徴情報とから、前記端末装置の変化後の位置が求められ、前記制御手段は、前記端末装置の変化後の位置に応じて、前記所定の画像を変化させる。
また、本願発明の別の構成として、以下の構成を有する。すなわち、撮像装置を備える端末装置の制御方法であって、実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定工程と、前記撮像装置を介して三次元空間画像を取得する第1の取得工程と、前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定工程と、前記端末装置の環境情報を取得する第2の取得工程と、ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示工程と、前記環境情報の変化に応じて、前記所定の画像の表示を変化させる制御工程とを有し、前記第2の特定工程にて前記三次元空間画像に含まれる実オブジェクトの特徴情報は記憶され、当該記憶された特徴情報と、新たに取得された三次元空間画像に含まれる実オブジェクトの特徴情報とから、前記端末装置の変化前後の位置が求められ、前記制御工程では、前記端末装置の変化後の位置に応じて、前記所定の画像を変化させる。
また、本願発明の別の構成として、以下の構成を有する。すなわち、プログラムであって、撮像装置を備えるコンピュータを、実空間の三次元モデルにおける前記コンピュータの位置を特定する第1の特定手段、前記撮像装置を介して三次元空間画像を取得する第1の取得手段、前記三次元モデルにおける前記コンピュータの位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段、前記コンピュータの環境情報を取得する第2の取得手段、ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記コンピュータの位置関係に基づき、所定の画像を重畳して表示する表示手段、前記環境情報の変化に応じて、前記所定の画像の表示を変化させる制御手段として機能させ、前記第2の特定手段により前記三次元空間画像に含まれる実オブジェクトの特徴情報は記憶され、当該記憶された特徴情報と、新たに取得された三次元空間画像に含まれる実オブジェクトの特徴情報とから、前記端末装置の変化後の位置が求められ、前記制御手段は、前記端末装置の変化後の位置に応じて、前記所定の画像を変化させる。
本願発明により、ユーザが存在する実環境の情報およびその変化に伴って、そのユーザが有する携帯端末のディスプレイ上の実空間の画像に重畳表示するオブジェクト画像を動的に変化させることが可能となる。
本願発明に係る携帯端末のハードウェア構成の例を示す図。 本願発明に係る携帯端末のソフトウェア構成の例を示す図。 本願発明に係る処理フローを示すフローチャート。 本願発明に係るディスプレイ上における重畳表示の例を示す図。
以下、図面を用いて、本願発明に係る一実地形態について説明を行う。なお、以下に示す実施形態は一例であり、これに限定するものではない。また、以下の説明では、本実施形態に係る端末装置として、スマートフォンなどの携帯端末を例に挙げて説明するが、これに限定するものではない。
[用語の説明]
まず、本願発明の説明にて用いる用語の説明を行う。
「環境情報」は、携帯端末の周辺環境に関する各種情報である。例えば、温度、湿度、音(音量、音源の位置)、光(光量、光源の位置)、時間(時刻)、日付、経度/緯度、高度などが該当する。
「動作情報」は、携帯端末が備える各リソースの状態、負荷、動作モード、撮影部による撮影条件、もしくは内部処理の状態などが該当する。
「撮影画像」は、撮影部により撮影された画像(三次元空間画像)であり、ここでは、ディスプレイにリアルタイムに表示される画像も含むものとする。
「三次元モデル」は、携帯端末の周辺の三次元空間の特徴を示す情報を示す。各種センサにて取得された情報にて例えば、撮影部に撮影された画像から抽出される、画像内の各種物体の特徴を示す点群(特徴点)などにより構成される。
「深度情報」は、原点から検知対象までの深さ(距離)を示す情報である。ここでの原点とは、端末装置の位置を基準として設けられるものとする。
「表示オブジェクト」は、ディスプレイに表示するオブジェクトであり、表示オブジェクトの種類は、人物、動物、オブジェクト、およびアニメーションなどが挙げられる。表示オブジェクトは、二次元形状にて構成されたものでもよいし、三次元形状にて構成されたものでもよい。なお、以下の説明において、表示オブジェクトに対し、撮像部を介して撮影された実空間上の物質を単に「オブジェクト」と称する。
[ハードウェア構成]
図1は、本実施形態に係る端末装置の概略的なハードウェア構成の例を示す図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。端末装置10は、制御部100、スピーカ101、マイク102、撮像部103、GPS処理部104、ジャイロセンサ105、ディスプレイ106、深さセンサ107、通信部108、加速度センサ109、地磁気センサ110、および温度/湿度センサ111を備える。
スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、入力された音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサ(不図示)を有し画像情報を取得して制御部100に出力する。GPS処理部104は、GPS衛星からの信号を受信して受信した信号に基づき、緯度、経度、高度を含む位置情報を制御部100に出力する。ジャイロセンサ105は、端末装置10の角度や角速度を測定して姿勢情報として制御部100に出力する。ディスプレイ106は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。
深さセンサ107は、オブジェクトまでの距離(深さ)を測定して測定結果を深度情報として制御部100に出力する。深さセンサ107としては、例えば、赤外線カメラを用いることができる。通信部108は、移動通信網や無線LAN(Local Area Network)を介した通信処理を行う。加速度センサ109は、端末装置10の加速度を測定して加速度情報として制御部100に出力する。地磁気センサ110は、地磁気を検出して端末の基準方向の現在の向きを示す方位情報を制御部100に出力する。温度/湿度センサ111は、端末装置10の周辺環境における温度および湿度を検知し、制御部100に出力する。
制御部100は、端末装置10全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAM(Random Access Memory)や、プロセッサが実行するオペレーティングシステム(OS)及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。
なお、上記の装置のハードウェア構成の例は一例であり、上記以外の部位を備えていてもよい。例えば、端末装置10の周囲における環境情報や三次元モデルを取得するために、各情報に対応してセンサを設けていてもよい。
本実施形態において、三次元モデルは、撮像部103で撮像した画像の特徴点の点群と撮像位置とを対応付けて保持する対応テーブルであってもよい。点群は撮像場所や角度が多少変わっても同じ物体だと認識できるように構成される。端末装置10はその特徴点の情報を読み込み、撮像位置が分からない場合に撮像位置がどこかを判定する。すなわち、三次元モデルは風景の見え方を記憶して撮像位置がどこかを求めるためのものであり、深さセンサ107を使わなくても生成可能である。一方、オブジェクトを地面の上に立たせたり現実の物体の大きさを測定したりする場合には深さセンサ107を用いる。
[ソフトウェア構成]
図2は、本実施形態に係る概略的なソフトウェア構成の例を示す図である。本実施形態に係る各種処理部の機能は、制御部100が備えるメモリ部に格納されたプログラムをプロセッサが適時読み出して実行することにより実現される。
端末装置10は、三次元モデル取得部201、撮影画像取得部202、環境情報取得部203、位置情報取得部204、表示制御部205、オブジェクト制御部206、位置関係特定部207、および音声解析部208を備える。
三次元モデル取得部201は、端末装置10の周囲の空間に関する三次元モデルを取得する。なお、三次元モデルを取得する方法については、特に限定するものでは無いが、一例として、非特許文献1、2にて示されているTangoを用いることが可能である。
ここで、三次元モデルについて説明する。三次元モデル取得部201は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置10の三次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献2に記載された場所記述情報の生成について説明する。なお、三次元空間位置の原点は、場所記述情報を開始したときの端末装置10(撮像部103)の位置であるものとする。
端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。三次元モデル取得部201は、場所記述情報の取得の間、その開始時の位置を原点とし、各種センサにより取得された加速度情報及び角速度情報に基づき端末装置10の位置や撮像方向の向きを判定し続ける。また、三次元モデル取得部201は、撮像部103が撮像している画像内の特徴点を求める。このとき、三次元モデル取得部201は、三次元空間における端末装置10の位置や撮像方向と、画像内の同じ特徴点のカメラ座標における位置を判定する。これにより、三次元モデル取得部201は、三次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、端末装置10は、生成した場所記述情報と、撮像部103が撮像している画像の特徴点とを比較することで、そのときの端末装置10の三次元空間位置と撮像部103の撮像方向を判定することができる。
また、三次元モデル取得部201は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点との比較により端末装置の三次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき当該既に保存している場所記述情報の更新も行う。
上述した様に、場所記述情報は、端末装置10の位置及び撮像方向と、撮像部103が撮像する画像内にある各オブジェクトの各特徴点のカメラ座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の三次元空間位置の座標を示す三次元空間情報を生成することができる。なお、特徴点の位置は、実空間を模した仮想的な三次元空間の座標(x,y,z)で表される。
ここで生成された場所記述情報は適時、端末装置10の記憶部に保持されていく。このとき、既に生成済みの三次元モデルが存在する場合、新たに取得した三次元モデルと、既に保存している三次元モデルとを比較してもよい。例えば、比較の結果、所定割合以上の特徴点が一致すると、新たに取得した三次元モデルが、既に保存している三次元モデルと同じ場所で取得されていることを認識する。この場合、既に保存している三次元モデルを新たに取得した三次元モデルで更新する。
撮影画像取得部202は、撮像部103を介して撮影した画像を取得する。この取得した画像は、リアルタイムでディスプレイ106に表示したり、上記の三次元モデル取得部201へ渡したりする。
環境情報取得部203は、温度/湿度センサ111を介して、端末装置10の周辺環境における温度情報や湿度情報を取得する。更に、環境情報取得部203は、撮像部103を介して撮影した画像を解析し、画像中の明るさの変化や、光源などを特定する。例えば、光源の特定に関し、端末装置10が備える光センサ(不図示)により検知した方向に基づいて、判定することができる。更に、環境情報取得部203は、音声解析部208により解析された各種音声情報を取得する。なお、環境情報取得部208は、音声情報として、人などの声に限定するものではなく、音楽や所定の音などを取得するようにしてもよい。また、音声解析部208に解析される前の生の音声情報をそのまま環境情報として用いてもよい。また、環境情報取得部203は、通信部108を介して外部の装置(不図示)から環境情報を取得してもよい。外部から取得する情報としては、例えば、音声情報に基づいて、関連する情報(天気情報など)を取得してもよい。
位置情報取得部204は、三次元モデル取得部201にて取得された情報に基づいて、実空間の三次元モデルにおける端末装置10の現在位置を特定する。現在位置は三次元空間の座標(x,y,z)にて特定される。位置情報取得部204は、ジャイロセンサ105から出力される姿勢情報と加速度センサ109から出力される加速度情報とを用いたモーショントラッキングにより、端末装置10の現在位置および傾きを特定する。例えば、位置情報取得部204は、まず三次元モデルとして得られた特徴点によるマッチングを行い、端末装置10が三次元モデルのどの場所にいるかを特定する。特定できた後、位置情報取得部204は、加速度センサ109、ジャイロセンサ105により端末装置10が移動しても三次元モデル上の座標を特定できる。位置情報取得部204は、撮像部103が撮像して得られた画像情報に基づくエリアラーニングにより、モーショントラッキングでのずれの累積を補正してもよい。
表示制御部205は、撮像部103を介して撮影されている画像と、オブジェクト制御部206により作成された表示オブジェクトを重畳して表示させる。表示制御部205は、ディスプレイ106上での表示オブジェクトの位置などを、位置情報、三次元モデル、もしくは環境情報などに基づいて決定する。例えば、表示制御部205は、三次元モデルにて示されるオブジェクトの座標と、端末装置10の位置情報と、深さセンサ107によって得られる情報との対応関係に基づいて、表示オブジェクトのディスプレイ106上での位置を特定する。このとき、深さセンサ107から得られた情報を用いることにより、現実空間の壁や床などとの対応関係を考慮して画像の位置や表示を制御することが可能となる。
オブジェクト制御部206は、ディスプレイ106に表示する表示オブジェクトおよびその動作を決定し、表示制御部205に渡す。例えば、ここでの動作とは、例えば、表示オブジェクトの動作の他、音声により情報を提供したり、文字としてディスプレイ106上に表示したりすることも含む。また、端末装置10にインストールされている他のアプリケーションや、端末装置10が備える各種ハードウェアから情報を取得し、その情報に基づいて動作を決定してもよい。
位置関係特定部207は、三次元モデル取得部201で取得した三次元モデルと、位置情報取得部204にて取得した位置情報とに基づいて、端末装置10のディスプレイ106で表示されている画像に含まれる各種オブジェクトと、端末装置10との位置関係を特定する。ここで特定された位置関係に基づいて、表示制御部205は、ディスプレイ106に表示されている画像において、所定の表示オブジェクトを表示する位置を特定することとなる。
音声解析部208は、マイク102を介して入力された音声を解析し、音の大きさや発された位置(音源)や方向などを特定する。音源の特定方法としては、例えば、端末装置が備える複数のマイクからの入力に基づき、その入力された音の時間差により、音源の位置を推定する方法がある。また、複数のマイクを用いて、音源までの距離などを推定する方法もあるが、その方法を特に限定するものではない。なお、ここでの解析には、例えば、特定のユーザの声の識別なども含まれる。例えば、特定の音(声)のみを抽出するように解析してもよい。音声解析部208により解析された各種音声情報は、環境情報として、環境情報取得部203に渡される。
なお、図2に示す構成では、端末装置10が各種処理を行う構成とした。しかし、端末装置10は、各情報を取得した後、外部装置へデータを送信し、その外部装置側で処理を行わせ、その結果を取得するような構成であってもよい。
例えば、オブジェクト制御部206が、三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられた表示オブジェクトの情報を外部装置であるサーバからダウンロードしてもよい。ダウンロード方法は様々あり、ユーザが端末装置10を操作して、ダウンロードアイコンを選択するだけでなく、撮像画像又は特徴点の画像を定期的にアップロードし、サーバ側で、画像マッチングで三次元モデルの有無を判定し、該当する三次元モデルをダウンロードしてもよい。また、端末装置10のGPS処理部104にて取得したGPS情報をサーバにアップロードすると、その場所に対応する三次元モデル(対応するアプリケーションが特定されている情報の表示とともに)を選択し、受信してもよい。あるいは、端末装置10は、予め記憶・生成した三次元モデルと三次元モデルから特定される端末装置10の位置に基づく位置(座標)に対応付けられたオブジェクト情報を予め保持していてもよい。
また、図2に示したような各処理モジュールを統合して構成してもよいし、更に詳細に分け、プロセッサ(コンピュータ)に処理可能なプログラムとして構成してもよい。
[処理フロー]
以下、本実施形態に係る処理フローについて、図3を用いて説明する。なお、本実施形態では、制御部100において、プロセッサがメモリ部に格納された各種プログラムを読み出して実行する事により、以下の処理が実現される。
S301にて、制御部100は、三次元モデル取得部201により、端末装置10の周囲における三次元モデルを取得する。このとき、予め作成されている三次元モデルを取得するように構成してもよいし、端末装置10が備える撮像部103を起動させた上で、三次元モデルを最初から構成するようにしてもよい。なお、本処理フローの開始と共に、撮像部103を起動するように構成してよい。
S302にて、制御部100は、位置情報取得部204により、三次元モデルにおける端末装置10の現在位置を特定する。
S303にて、制御部100は、位置関係特定部207により、端末装置10の位置情報と、現実の三次元空間の情報(撮影画像内のオブジェクト)との位置関係(対応関係)を特定する。
S304にて、制御部100は、表示制御部205により、特定した位置関係に基づいて、ユーザ所望の表示オブジェクトの表示位置を決定する。ここで決定する表示位置は、端末装置10の位置と、画面に表示されているオブジェクト(例えば、壁や床)との距離に基づいてもよいし、端末装置10の位置からの相対的な場所であってもよい。また、上述したように、画面に表示されているオブジェクトとの距離(深さ)は、深さセンサ107により得られる深度情報を用いることができる。
S305にて、制御部100は、オブジェクト制御部206により、表示オブジェクトを決定する。ここでは、ユーザが予め表示オブジェクトの種類をしていてもよいし、位置情報や環境情報に基づいて表示オブジェクトを決定してもよい。また、表示オブジェクトは1つに限定するものではなく、複数の表示オブジェクトが同時に表示されるようにしてもよい。また、複数の表示オブジェクトそれぞれに対して、環境情報などに基づく表示条件および優先度を設けておき、状況に応じて表示オブジェクトの候補を特定してもよい。ここで、制御部100は、その時点での端末装置10の環境情報および動作情報を取得し、保持しておくものとする。更に、表示オブジェクトの決定において、ここで取得した環境情報および動作情報を用いて表示オブジェクトを決定してもよい。
また、表示オブジェクトは、前回表示されたオブジェクトの表示設定(明るさ、影の向きなどのパラメータ設定)を保持しておき、次回の表示の際にそのままの状態で表示するようにしてもよい。更に、表示オブジェクトの表示中に、バックグランドで、表示オブジェクトのパラメータ情報と新たに取得した環境情報に基づいてパラメータを変更するか否かを判定し、変更すべきと判定すれば、表示オブジェクトの表示態様や動作を変更してもよい。このとき、表示オブジェクトの表示態様や動作パターンを複数記憶しておくことにより、環境情報に応じた適切な表示や動作パターンのオブジェクトを取得できる。なお、上記の処理は端末装置10におけるバックグラウンドの処理として述べたが、この処理をサーバ側に要求し、その結果を用いてもよい。また、判定の結果、新たな情報をサーバから取得するようにしてもよい。
また、プログラム起動時に、GPS情報などに基づいて端末装置10が位置する場所が屋内/屋外を特定したり、時刻情報や日付情報に基づいて朝・昼・夜(更には、季節など)を特定したりした上で、これらの情報のいずれかに基づいて、予め決められた表示パターンを選択してもよい。表示パターンとしては、例えば、夏の夜であれば、夏服で夜の明るさに制御したり、屋内向けの設定に制御したりしてよい。更に、その表示中にバックグランドで環境情報に基づいて表示設定等を修正してもよい。つまり、表示タイミングに基づいた情報をまずは優先するように制御することができる。この構成により、ユーザのストレスを解消できる。
S306にて、制御部100は、表示制御部205により、ディスプレイ106上において、S305にて決定した表示オブジェクトを、S304にて決定した画像内の表示位置に表示させる。なお、表示オブジェクトをディスプレイ106上に表示をするかの決定は、端末装置10のアプリの起動時に事前の設定(起動時に表示・非表示)に基づいて判定してもよい。また、アプリ起動時に非表示に制御されている場合でも、端末装置10に対する所定の操作や端末装置10に対して入力された音声情報(例えば、表示オブジェクトに対応する名前の呼びかけ)を検知したことに応じて、表示オブジェクトをディスプレイ106上に表示させるように制御してもよい。
また、ディスプレイ106に表示されている画像と、表示オブジェクトの特性に応じて、表示オブジェクトの表示範囲を変更してもよい。例えば、図4に示すように、ディスプレイ106上に表示された画面内において、地面などに対応する、表示オブジェクトを立たせる領域が含まれていたとする。この場合、表示オブジェクトがヒト型キャラクターの場合、その領域に表示オブジェクトを立たせるような表示を行わせ、一方、画面内にそのような領域がなければ(例えば、壁のみ表示)、画面内に上半身あるいは首から頭までの部分のみを表示させるようにしてもよい。
S307にて、制御部100は、環境情報取得部203により、端末装置10の周囲の各種環境情報および端末装置10の動作情報を取得する。更に制御部100、撮像部103の向きの情報を取得する。つまり、撮像部103の向きが変わることにより、ディスプレイ106上に表示される画像も変更されるため、これに伴って、各種情報が変更されることを意味する。
S308にて、制御部100は、オブジェクト制御部206により、保持している各種情報と、S307にて新たに取得した各種情報とが異なるか否かを判定する。異なる場合は(S308にてYES)S309へ進み、同じである場合は(S308にてNO)S307へ戻る。
S309にて、制御部100は、オブジェクト制御部206により、変化後の各種情報に基づき、新たに表示する表示オブジェクトおよび表示位置を決定する。例えば、新たに表示する表示オブジェクトとしては、これまでに表示していた表示オブジェクトのサイズや向きなどを変更してもよいし、全く異なる表示オブジェクトを表示するようにしてもよい。例えば、環境情報のうち、光源の位置や光量が変化された場合、表示オブジェクトを表示する明るさや影の向きや大きさを変更するようにしてもよい。また、音声情報が新たに入力された場合には、その音声の音源となる位置を特定し、その位置の方向に応じて表示オブジェクトの表示を変更するようにしてもよい。
また、変更する際に、連続して変化していくようにしてもよいし、表示が切り替るようにしてもよい。また、撮像部103の向きが変更になったことに伴い、向きの変更量に応じて、表示オブジェクトの移動距離(移動量)を決定して、移動(例えば、キャラクターであれば、歩いているように動作させる)させるようにしてもよい。
S310にて、制御部100、表示制御部205により、ディスプレイ106上において、S309にて決定した表示オブジェクトを、決定した表示位置に表示させる。
S311にて、制御部100、所定の表示オブジェクトの表示を終了するか否かを判定する。表示を終了すると判定した場合は(S311にてYES)本処理フローを終了し、表示を継続すると判定した場合は(S311にてNO)S307へ戻り、処理を継続する。なお、終了する場合とは、ユーザからの指示を受け付けた場合や、端末装置10の電源を切った場合などが該当するが、これらに限定するものではない。
なお、過去の表示履歴(終了時の表示設定情報)を記憶しておき、次回の表示時には、表示履歴の中で最も多い表示態様で表示オブジェクトを表示してもよい。また、表示履歴を時間帯ごとに記憶しておき、次回の表示時間帯で最も多い表示形態を選択してもよい。また、表示履歴には、その表示を行っていた際の環境情報を含めてもよい。そして、次回表示時には、表示履歴と、その時点での環境情報との比較により、表示オブジェクトの表示態様を決定するようにしてもよい。
[表示例]
本実施形態に係る、ディスプレイ106におけるユーザ所望の表示オブジェクトの表示例について説明する。以下の説明では、ユーザ所望の表示オブジェクトとして、ヒト型の画像を例に挙げて説明するが、これに限定するものではない。
図4(a)は、本実施形態に係るディスプレイ106上において、表示オブジェクトを実空間の画像に重畳して表示している例を示している。図4(a)の上部に示すようにユーザの位置は変わらず、撮像部103の向きを左右に変更したとする。この場合において、ディスプレイ上に表示されている三次元空間の画像内に表示オブジェクトが表示されるように、表示オブジェクトを移動させている。この時の表示オブジェクトは、画面の中央に位置するように表示してもよいし、三次元空間の画像内に含まれるオブジェクトとの距離(深さ)に基づいて、表示位置を前後左右に調整するようにしてもよい。
図4(b)は、光源もしくは音源に基づいて表示オブジェクトを表示する例を示している。例えば、光源の位置を特定し、その光源の位置と表示オブジェクトの位置から、表示オブジェクトの影を表示している例を示している。また、入力された音情報に基づき、その音源の位置(方向)を特定し、その音源に対して表示オブジェクトが何らかの動作を行う。例えば、音源の位置と表示オブジェクトの位置関係に基づき、表示オブジェクトが音源の方へ移動するような動作を行うように表示する。
また、音声情報の内容に応じて、表示オブジェクトの動作を変更するように表示させてもよい。例えば、音声情報が、特定の音楽である場合や予め定義されたリズムであった場合などに、表示オブジェクトであるキャラクターが音楽(リズム)に合わせてダンスや動作を行うようにしてもよい。また、音声情報にて示される音量が所定の値を超えた場合には、表示オブジェクトであるキャラクターが驚いたり、その音に対するコメントを発したりするような動作を行うように制御してもよい。また、解析した音声情報が特定の情報である場合には、その情報に対応付けられた表示動作を行うようにしてもよい。例えば、表示オブジェクトであるキャラクターの名前が音声情報として入力された(呼ばれた)場合、その入力に応じて、表示オブジェクトが反応するように表示させてもよい。ここでの反応とは、例えば、返事を行うような動作をしたり、その表示オブジェクトがディスプレイ上に表示されていない場合には、画面内に出てくるように表示してもよい。また、所定の文言や声量に応じて、表示オブジェクトであるキャラクターが怒ったり、悲しんだりする動作を行うように表示させてもよい。更には、音源(呼ばれた方向)に反応して、移動や振り返るといった動作の表示を行うようにしてもよい。
また、特定された光源の色(白色、暖色)や撮影部により撮像した画像の色(輝度等)に基づき、表示オブジェクトの色合いを変えるように表示してもよい。また、光源の色等の情報に応じて、表示オブジェクトがディスプレイ106に対する表示設定を変更するような情報を提示するようにしてもよい。
また、環境情報には、端末装置自身の動作情報を含めてもよい。例えば、動作情報として端末装置の撮影部に対する撮影操作が挙げられる。この場合に、表示オブジェクトがディスプレイ上で表示されている際に、端末装置が備える撮像部(カメラ)に対し撮影操作を行った場合、表示オブジェクトが撮影ポーズをとるように表示を制御してもよい。また、撮影操作を連続して行う場合には、その撮影操作ごとに異なる動作(撮影ポーズ)を行うようにしてもよい。
また、環境情報には、現時点での時刻やディスプレイ上に表示している画面が変化せずに経過した時間を含め、この情報に基づいて、表示オブジェクトの表示内容を制御してもよい。例えば、現時点での時刻が夜中である場合には、表示オブジェクトのキャラクターが寝ている動作を行ったり、夜用の服装となったりするように制御してもよい。また、朝の時刻である場合には、歯磨きを行うような時刻特有の動作を行うような表示を行ってもよい。また、ディスプレイ上に表示している画面が変化せずに経過した時間が所定の閾値を超えた場合には、表示オブジェクトを表示しないように制御したり、ユーザに対して何らかの働きかけを行うように表示オブジェクトの表示を制御したりしてもよい。
また、環境情報に含まれる温度や湿度の情報に応じて、表示オブジェクトの動作や表示を切り替えてもよい。例えば、温度が一定の閾値を超えた場合には、薄手の服装となるような表示を行ってもよいし、ユーザに対しメッセージ(例えば、水分を取っているか)を提示するような表示を行ってもよい。また、位置情報に応じて、ユーザ(携帯端末)がいる位置を特定し、その位置に応じた表示を行ってもよい。例えば、その地域の民族衣装やその地域の気候や時期に合せた服装となるように表示を行ってもよい。
以上、本願発明では、ユーザが有する端末装置において表示している画像上にユーザ所望の表示オブジェクトを重畳表示させ、その端末装置がある環境に応じてユーザ所望の表示オブジェクトの表示を切り替える。これにより、ユーザは、自身が体験している実環境に応じたオブジェクトの表示変更(オブジェクトによるリアクション)を、端末装置を介して得ることができる。その結果、ユーザ自身とオブジェクト(例えば、アニメのキャラクター)とが同一の環境において、同じ体験をしているといった、ユーザの満足度を向上させ、新たなエンターテイメントの提供が可能となる。
10…端末装置、100…制御部、103…撮像部、104…GPS処理部、105…ジャイロセンサ、106…ディスプレイ、107…深さセンサ、108…通信部、109…加速度センサ、110…地磁気センサ、111…温度/湿度センサ

Claims (13)

  1. 撮像装置を備える端末装置であって、
    実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定手段と、
    前記撮像装置を介して三次元空間画像を取得する第1の取得手段と、
    前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段と、
    前記端末装置の環境情報を取得する第2の取得手段と、
    ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示手段と、
    前記環境情報の変化に応じて、前記所定の画像の表示を変化させる制御手段と
    を備え、
    前記第2の特定手段により前記三次元空間画像に含まれる実オブジェクトの特徴情報は記憶され、当該記憶された特徴情報と、新たに取得された三次元空間画像に含まれる実オブジェクトの特徴情報とから、前記端末装置の変化後の位置が求められ、
    前記制御手段は、前記端末装置の変化後の位置に応じて、前記所定の画像を変化させることを特徴とする端末装置。
  2. 前記端末装置の動作情報を取得する第3の取得手段を更に備え、
    前記制御手段は、前記動作情報に基づいて、前記所定の画像を変化させることを特徴とする請求項1に記載の端末装置。
  3. 前記制御手段は、前記ディスプレイにて表示している画像の変化に応じて、当該変化に対応して前記所定の画像を前記ディスプレイにて表示している画像上にて移動させることを特徴とする請求項1または2に記載の端末装置。
  4. 前記ディスプレイにて表示している画像上における前記所定の画像の移動距離は、前記第2の特定手段にて特定する変化後の三次元空間画像に含まれる実オブジェクトと前記端末装置の前記三次元モデルにおける位置関係に基づいて決定されることを特徴とする請求項3に記載の端末装置。
  5. 前記制御手段は、現実の三次元空間と前記端末装置との間の深度情報に基づいて、前記所定の画像の前記ディスプレイにて表示している画像における位置、及び、サイズを決定することを特徴とする請求項1乃至4のいずれか一項に記載の端末装置。
  6. 前記環境情報は、前記端末装置の周辺環境における、温度、湿度、音、光、時間、経度/緯度の情報のうちの少なくとも1つを含むことを特徴とする請求項1乃至5のいずれか一項に記載の端末装置。
  7. 前記音の環境情報は、前記ディスプレイにて表示している画像に対する音源の位置、および、音量を含むことを特徴とする請求項6に記載の端末装置。
  8. 前記音の環境情報は、前記端末装置のユーザの声であることを特徴とする請求項6または7に記載の端末装置。
  9. 前記光の環境情報は、前記表示手段にて表示している前記所定の画像に対する光源の位置、光量、色のうちの少なくとも1つを含むことを特徴とする請求項6に記載の端末装置。
  10. 前記動作情報は、前記端末装置の位置、向き、内部処理、前記撮像装置の撮影条件に対する変化のうちの少なくとも1つを含むことを特徴とする請求項2に記載の端末装置。
  11. 前記所定の画像は、人物、動物、オブジェクト、およびアニメーションの少なくともいずれかを含むことを特徴とする請求項1乃至10のいずれか一項に記載の端末装置。
  12. 撮像装置を備える端末装置の制御方法であって、
    実空間の三次元モデルにおける前記端末装置の位置を特定する第1の特定工程と、
    前記撮像装置を介して三次元空間画像を取得する第1の取得工程と、
    前記三次元モデルにおける前記端末装置の位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定工程と、
    前記端末装置の環境情報を取得する第2の取得工程と、
    ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記端末装置の位置関係に基づき、所定の画像を重畳して表示する表示工程と、
    前記環境情報の変化に応じて、前記所定の画像の表示を変化させる制御工程と
    を有し、
    前記第2の特定工程にて前記三次元空間画像に含まれる実オブジェクトの特徴情報は記憶され、当該記憶された特徴情報と、新たに取得された三次元空間画像に含まれる実オブジェクトの特徴情報とから、前記端末装置の変化後の位置が求められ、
    前記制御工程では、前記携帯端末の変化後の位置に応じて、前記所定の画像を変化させることを特徴とする制御方法。
  13. 撮像装置を備えるコンピュータを、
    実空間の三次元モデルにおける前記コンピュータの位置を特定する第1の特定手段、
    前記撮像装置を介して三次元空間画像を取得する第1の取得手段、
    前記三次元モデルにおける前記コンピュータの位置と前記三次元空間画像に含まれる実オブジェクトとの位置関係を特定する第2の特定手段、
    前記コンピュータの環境情報を取得する第2の取得手段、
    ディスプレイにて表示している画像上において、前記三次元空間画像に含まれる実オブジェクトと前記コンピュータの位置関係に基づき、所定の画像を重畳して表示する表示手段、
    前記環境情報の変化に応じて、前記所定の画像の表示を変化させる制御手段
    として機能させ、
    前記第2の特定手段により前記三次元空間画像に含まれる実オブジェクトの特徴情報は記憶され、当該記憶された特徴情報と、新たに取得された三次元空間画像に含まれる実オブジェクトの特徴情報とから、前記端末装置の変化後の位置が求められ、
    前記制御手段は、前記端末装置の変化後の位置に応じて、前記所定の画像を変化させるためのプログラム。
JP2017040276A 2017-03-03 2017-03-03 端末装置およびその制御方法、並びにプログラム Active JP6541701B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017040276A JP6541701B2 (ja) 2017-03-03 2017-03-03 端末装置およびその制御方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017040276A JP6541701B2 (ja) 2017-03-03 2017-03-03 端末装置およびその制御方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019071287A Division JP2019169154A (ja) 2019-04-03 2019-04-03 端末装置およびその制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2018147151A JP2018147151A (ja) 2018-09-20
JP6541701B2 true JP6541701B2 (ja) 2019-07-10

Family

ID=63591290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017040276A Active JP6541701B2 (ja) 2017-03-03 2017-03-03 端末装置およびその制御方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP6541701B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113168732A (zh) * 2018-12-03 2021-07-23 麦克赛尔株式会社 增强现实显示装置和增强现实显示方法
CN110139028B (zh) * 2019-03-25 2020-07-07 华为技术有限公司 一种图像处理的方法及头戴式显示设备
JP7167207B2 (ja) * 2021-02-12 2022-11-08 株式会社ポケモン プログラム、方法、情報処理装置、システム
WO2022239206A1 (ja) * 2021-05-13 2022-11-17 マクセル株式会社 画像表示装置および画像表示システム
US20240135713A1 (en) * 2021-08-26 2024-04-25 Nec Corporation Monitoring device, monitoring system, monitoring method, and non-transitory computer-readable medium storing program
WO2024090065A1 (ja) * 2022-10-26 2024-05-02 富士フイルム株式会社 情報処理装置、方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227255B1 (ko) * 2010-03-17 2013-01-28 에스케이플래닛 주식회사 마커 크기 기반 인터렉션 방법 및 이를 구현하기 위한 증강 현실 시스템
JP2013149029A (ja) * 2012-01-18 2013-08-01 Sharp Corp 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
JP2018147151A (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6541701B2 (ja) 端末装置およびその制御方法、並びにプログラム
CN109361865B (zh) 一种拍摄方法及终端
US9754416B2 (en) Systems and methods for contextually augmented video creation and sharing
CN108682031B (zh) 基于增强现实技术的测量方法、智能终端及存储介质
US11748968B2 (en) Target tracking method and system, readable storage medium, and mobile platform
JP6517255B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム
CN111163906B (zh) 能够移动的电子设备及其操作方法
US10636214B2 (en) Vertical plane object simulation
CN108848313B (zh) 一种多人拍照方法、终端和存储介质
JP6524124B2 (ja) コンピュータプログラム、端末および方法
US11375559B2 (en) Communication connection method, terminal device and wireless communication system
CN109407959B (zh) 虚拟场景中的虚拟对象控制方法、设备以及存储介质
KR20200076169A (ko) 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
US20200187334A1 (en) Systems and methods for generating a lighting design
WO2015159775A1 (ja) 画像処理装置、通信システム及び通信方法並びに撮像装置
CN109523461A (zh) 显示目标图像的方法、装置、终端及存储介质
JP2018124926A (ja) 端末装置、端末装置の制御方法、コンピュータプログラム
JP2019169154A (ja) 端末装置およびその制御方法、並びにプログラム
WO2018105544A1 (ja) コレクションシステム,端末用プログラム,及びコレクション方法
CN107952240B (zh) 利用自拍杆实现的游戏控制方法、装置及计算设备
JP6982203B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法及びプログラム
JP5801690B2 (ja) 画像処理装置、画像処理方法
CN115086094B (zh) 设备选择方法及相关装置
JP2019160332A (ja) コンピュータプログラム、端末および方法
JP7266911B2 (ja) コレクションシステム用の端末装置及び方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181221

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190611

R150 Certificate of patent or registration of utility model

Ref document number: 6541701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150