JP6792666B2 - Terminal device, terminal device control method, computer program - Google Patents
Terminal device, terminal device control method, computer program Download PDFInfo
- Publication number
- JP6792666B2 JP6792666B2 JP2019089361A JP2019089361A JP6792666B2 JP 6792666 B2 JP6792666 B2 JP 6792666B2 JP 2019089361 A JP2019089361 A JP 2019089361A JP 2019089361 A JP2019089361 A JP 2019089361A JP 6792666 B2 JP6792666 B2 JP 6792666B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- terminal device
- virtual space
- character
- imaging means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、キャラクタの動作制御技術に関するものである。 The present invention relates to a character motion control technique.
3次元仮想空間内を移動するキャラクタの2次元画像を生成して表示する技術が従来から存在する(特許文献1)。 Conventionally, there is a technique for generating and displaying a two-dimensional image of a character moving in a three-dimensional virtual space (Patent Document 1).
特許文献1に開示されている技術では、キャラクタの動作を、現実空間中の規定の位置に対応する仮想空間内の該キャラクタの位置に基づいて制御することはできなかった。本発明では、キャラクタの動作を、現実空間中の規定の位置に対応する仮想空間内の該キャラクタの位置に基づいて制御するための技術を提供する。 In the technique disclosed in Patent Document 1, the movement of a character cannot be controlled based on the position of the character in the virtual space corresponding to the predetermined position in the real space. The present invention provides a technique for controlling the movement of a character based on the position of the character in a virtual space corresponding to a predetermined position in the real space.
本発明は、撮像手段及びディスプレイを有する端末装置であって、
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御手段と、
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御手段と、
前記規定距離と関連づけられている音声を出力する音声出力手段と
を備えることを特徴とする。
The present invention is a terminal device including an imaging means and a display.
When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control means to perform the display operation of
A display control means for synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display .
It is characterized by including an audio output means for outputting an audio associated with the specified distance .
本発明の構成によれば、キャラクタの動作を、現実空間中の規定の位置に対応する仮想空間内の該キャラクタの位置に基づいて制御することができる。 According to the configuration of the present invention, the movement of a character can be controlled based on the position of the character in the virtual space corresponding to the specified position in the real space.
以下、添付図面を参照して本発明の実施形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
図1は、本実施形態による端末装置10の概略的な構成図である。端末装置10は、例えば、スマートフォンといった携帯型の通信装置である。スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサを有し、画像情報を取得して制御部100に出力する。GPS処理部104は、GPS衛星からの信号を受信し、該受信した信号に基づき、緯度、経度、高度を含む位置情報を制御部100に出力する。なお、GPS衛星ではなく、準天頂衛星の様な、他の測位システムの衛星からの信号に基づき位置情報を出力する構成であっても良い。ディスプレイ105は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LAN等を介した通信処理を行う。地磁気センサ108は、地磁気を検出して端末装置10の基準方向の現在の方位を示す方位情報を制御部100に出力する。加速度センサ109は、加速度を検出して加速度情報を制御部100に出力する。ジャイロセンサ110は、角速度情報を検出して角速度情報を制御部100に出力する。
FIG. 1 is a schematic configuration diagram of a
制御部100は、端末装置10全体の制御部であり、1つ以上のプロセッサと、メモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。
The
制御部100は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置10の3次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献1に記載された場所記述情報の生成について説明する。端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。制御部100は、場所記述情報の取得の間、その開始時の位置を原点とし、加速度情報及び角速度情報に基づき端末装置10の位置や撮像方向の向きを判定し続ける。また、制御部100は、撮像部103が撮像している画像内の特徴点を求める。このとき、制御部100は、3次元空間における端末装置10の位置や撮像方向と、画像内の同じ特徴点の位置、つまり、スクリーン座標を判定する。これにより、制御部100は、3次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、端末装置10は、既に生成した場所記述情報と、撮像部103が撮像している画像の特徴点と、を比較することで、そのときの端末装置10の3次元空間位置と撮像部103の撮像方向とを判定することができる。なお、3次元空間位置の原点は、場所記述情報を開始したときの位置であるものとする。また、制御部100は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点と、の比較により端末装置10の3次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき、当該既に保存している場所記述情報の更新も行う。
The
上述した様に、場所記述情報は、端末装置10の位置及び撮像方向と、撮像部103が撮像した画像内にある各オブジェクトの各特徴点のスクリーン座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の3次元空間位置の座標を示す3次元空間情報を生成することができる。即ち、場所記述情報のうちの異なる位置及び撮像方向の組み合わせに対応する情報につき、同一の特徴点のスクリーン座標での移動を考慮することで奥行き方向の情報を得、該特徴点の3次元空間位置を導出することができる。
As described above, since the location description information is information indicating the relationship between the position and imaging direction of the
このような場所記述情報は、制御部100のメモリ部に格納される。また、制御部100のメモリ部には、キャラクタのモデルデータ(キャラクタの3次元幾何形状を規定するデータ、テクスチャデータ、複数種類のモーションデータなど)、テキストデータ、音声データが格納されている。
Such location description information is stored in the memory unit of the
次に、端末装置10のディスプレイ105に、撮像部103による現実空間の撮像画像と、端末装置10が描画したキャラクタの2次元画像と、を合成した合成画像を表示させるための処理について、図3のフローチャートを用いて説明する。なお、図3のフローチャートに従った処理は、1フレーム分の合成画像を表示するための処理である。然るに、図3のフローチャートに従った処理を繰り返して行うことで、複数フレームの合成画像をディスプレイ105に表示させることができる。また、図3のフローチャートに従った処理を制御部100に実行させるためのコンピュータプログラムやデータは、上記のアプリケーションに含まれているものとする。
Next, FIG. 3 describes a process for displaying a composite image obtained by combining the image captured in the real space by the
ステップS301では、制御部100は、撮像部103により撮像された撮像画像を、メモリ部に格納する。
In step S301, the
ステップS302では、制御部100は、現実空間に対応する仮想空間内におけるキャラクタの現在位置が、「現実空間中の規定の位置に対応する仮想空間内の位置から規定距離D以内の領域R」内であるか否かを判断する。
In step S302, the
制御部100は、仮想空間内におけるキャラクタの位置を定期的若しくは不定期的に更新することで、該キャラクタを仮想空間内で移動させている。キャラクタを移動させる際には、対応するモーションデータに従って、キャラクタに歩く/走るモーションを行わせる。なお、仮想空間内には、図2(a)に示す如く、キャラクタ200が移動可能な範囲210や、図2(b)に示す如く、キャラクタ200が移動可能な経路220が予め指定されているものとする。範囲210の座標位置(例えば範囲210の四隅の座標位置)や経路220の座標位置(例えば経路220上に等間隔に存在する点の座標位置)は、上記の場所記述情報を用いて求める「端末装置10の3次元空間位置と撮像部103の撮像方向」が属する座標系におけるものである。
The
移動可能な範囲の生成方法については様々な方法が考えられる。例えば、仮想空間内における移動可能な範囲(経路)の座標位置は、ユーザがマニュアルで指定しても良いし、2次元地図情報において移動可能な範囲に対応する座標位置を上記の座標系に変換して求めても良い。また、上記の3次元空間情報を生成すると共に深さセンサ106で床や壁を計測して現実空間の3次元幾何構造を表す3次元構造モデルを生成し、3次元構造モデルにおいて床の領域で壁の手前の部分を移動可能な範囲としても良い。
Various methods can be considered for generating the movable range. For example, the coordinate position of the movable range (path) in the virtual space may be manually specified by the user, or the coordinate position corresponding to the movable range in the two-dimensional map information is converted into the above coordinate system. You may ask for it. In addition, the above three-dimensional space information is generated, and the floor and walls are measured by the
また、現実空間中の規定の位置に対応する仮想空間内の位置とは、例えば、ユーザがディスプレイ105上をタップすることで位置を指定した場合は、該指定した位置に対応する現実空間中の位置に対応する仮想空間内の位置となる。ディスプレイ105上のタップ位置に対応する現実空間中の位置に対応する仮想空間内の位置は、例えば、タップ位置を「キャラクタの2次元画像を描画するために該キャラクタを投影面に投影する投影変換」の逆変換で変換した床面上の3次元位置である。また、タップ位置に対応する深さ情報を深さセンサ106を用いて取得し、タップ位置から該深さ情報が示す距離だけ奥側(撮像部103の撮像方向側)の位置を、現実空間中の規定の位置に対応する仮想空間内の位置としても良い。また、上記の距離Dは、「現実空間中の規定の位置に対応する仮想空間内の位置」ごとに異なる値であっても良いし、「現実空間中の規定の位置に対応する仮想空間内の位置」に関係なく固定値であっても良い。前者の場合、距離Dは、「現実空間中の規定の位置に対応する仮想空間内の位置」と関連づけてメモリ部に格納されている。なお、「現実空間中の規定の位置に対応する仮想空間内の位置」は、予めメモリ部に登録されていても良いし、サーバなどの外部装置からダウンロードするようにしても良い。
Further, the position in the virtual space corresponding to the specified position in the real space is, for example, when the user specifies the position by tapping on the
現実空間に対応する仮想空間内におけるキャラクタの現在位置が領域R内であれば、処理はステップS303に進み、現実空間に対応する仮想空間内におけるキャラクタの現在位置が領域R外であれば、処理はステップS304に進む。 If the current position of the character in the virtual space corresponding to the real space is in the area R, the process proceeds to step S303, and if the current position of the character in the virtual space corresponding to the real space is outside the area R, the process proceeds. Proceeds to step S304.
ステップS303では、制御部100は、キャラクタに規定の動作を行わせる。例えば、「現実空間中の規定の位置に対応する仮想空間内の位置」と関連づけられているモーションデータに基づいてキャラクタのモーション(手や足などの部位を動かして行うモーション)を制御しても良いし、「現実空間中の規定の位置に対応する仮想空間内の位置」と関連づけられている動作則に従ってジャンプしたり走り回ったり寝転がったりするなど、キャラクタの位置や姿勢を変更しても良い。
In step S303, the
例えば、規定の動作は、端末装置10のユーザの属性情報毎に切り替えても良い。例えば、ユーザの属性情報が「男性」を示す場合、女性のキャラクタを(女性のモーションで)表示したり、キャラクタの発声内容を女性の音声でスピーカ101から出力したり、女性の口調のテキストを吹き出しで表示したりしても良い。また、SNSでやり取りされる他のユーザからのコメントを吹き出しで表示しても良いし、該コメントを音声でキャラクタの発声内容としてスピーカ101から出力しても良い。
For example, the specified operation may be switched for each attribute information of the user of the
また更に、時間帯、キャラクタの表示回数、季節や時期のうち少なくとも1つによってキャラクタやテキストの表示内容や音声の内容を変化させても良い。例えば、制御部100が計時している(若しくは外部から受信した)現在時刻が朝の時間帯(例えば6時から12時)であれば、朝に関連する処理(例えば、「おはよう」と発言するモーションを再生すると共に、スピーカ101から「おはよう」という音声を出力させる)を行うようにしても良い。また例えば、はじめてキャラクタの画像を表示する場合には、例えば、「初めまして」と発言するモーションを再生すると共に、スピーカ101から「初めまして」という音声を出力させるようにしても良い。また例えば、現在日時がクリスマスの日であれば、サンタの服を着たキャラクタを表示しても良い。また、ユーザが端末装置10に入力したメッセージを認識し、該認識したメッセージからキーワードを抽出し、該抽出したキーワードと関連づけられているモーションを再生したり、テキストを表示したり、音声を出力したりしても良い。ユーザがマイク102に向かって音声を発した場合には、音声認識技術により該音声をメッセージとして認識することができる。また、ユーザがディスプレイ105上でテキストを入力した場合には、文字認識技術により該テキストをメッセージとして認識することができる。
Furthermore, the display content of the character or text and the content of the voice may be changed depending on at least one of the time zone, the number of times the character is displayed, the season and the time. For example, if the current time measured (or received from the outside) by the
また、マナーモードのように音声出力を停止している場合は、音声出力は行わずにテキストの表示を許可し、音声出力モードのように音声出力を許可している場合には、テキストの表示は禁止し、音声出力を許可するようにしても良い。 Also, when the audio output is stopped as in the manner mode, the text display is permitted without performing the audio output, and when the audio output is permitted as in the audio output mode, the text is displayed. May be prohibited and audio output may be permitted.
このように、様々な条件に応じたキャラクタの動作則やテキスト、音声の出力条件はデータベースファイルとしてサーバなどの外部装置において管理しても良く、その場合、このデータベースファイルは外部装置から定期的若しくは不定期的にダウンロードすることで、端末装置10が保持するデータベースファイルを一部更新したり追加したり他のデータベースファイルに置換したりすることができる。また、端末装置10から外部装置にアクセスしてデータベースファイル(キャラクタのモーション、テキスト内容、音声内容、モーションの再生条件、テキストや音声の出力条件など)を編集することもできる。また、「現実空間中の規定の位置に対応する仮想空間内の位置」と関連づけられているキャラクタの音声データに基づく音声をスピーカ101から出力するようにしても良い。
In this way, the character operation rules, text, and audio output conditions according to various conditions may be managed as a database file in an external device such as a server. In that case, this database file may be periodically or from the external device. By downloading irregularly, the database file held by the
ステップS304では、上記の非特許文献1に記載の技術を用い、上記の場所記述情報と、ステップS301でメモリ部に格納した撮像画像上の特徴点と、を比較することで、そのときの端末装置10の3次元空間位置と撮像部103の撮像方向(つまり、端末装置10の位置及び姿勢)を認識する。そして制御部100は、該認識した3次元位置及び撮像方向のそれぞれを仮想視点の位置、姿勢として設定する。そして制御部100は、モデルデータに基づくキャラクタを仮想空間中の移動可能な領域内若しくは移動可能な経路上に配置し、該配置したキャラクタを仮想視点から見た2次元画像を描画する。
In step S304, the technique described in Non-Patent Document 1 is used, and the location description information is compared with the feature points on the captured image stored in the memory unit in step S301. It recognizes the three-dimensional spatial position of the
ステップS305では、制御部100は、ステップS301でメモリ部に格納した撮像画像上に、ステップS304で描画したキャラクタの2次元画像を合成した合成画像をディスプレイ105に表示する。
In step S305, the
なお、美術館や博物館等の施設について予め作成した場所記述情報をサーバなどの外部装置に予めアップロードしておいても良い。この場合、端末装置10はGPS処理部104による位置情報を外部装置に送信することで、外部装置から、該位置情報に対応する場所記述情報をダウンロードすることができる。ダウンロードは、例えば、端末装置10のディスプレイ105に表示されているダウンロードアイコンをユーザがタッチすることで開始することができる。また、該位置情報に対応する場所記述情報が複数存在する場合には、端末装置10は、複数の場所記述情報を候補としてダウンロードしてディスプレイ105に表示し、ユーザから1つを選択する指示を受け付けても良い。
The location description information created in advance for facilities such as museums may be uploaded to an external device such as a server in advance. In this case, the
また、端末装置10は撮像画像又は該撮像画像中の特徴点をサーバなどの外部装置に定期的にアップロードし、外部装置は、端末装置10からアップロードされた撮像画像又は特徴点に基づいて、端末装置10の位置が含まれる場所記述情報を端末装置10に送信する、としても良い。
Further, the
また、端末装置10は、GPS処理部104による位置情報が場所記述情報のエリアから離れた場合、場所記述情報の利用時間が規定時間以上となった場合、キャラクタの画像表示を規定時間以上行わなかった場合等の条件が満たされた場合には、メモリ部に保持している場所記述情報を消去しても良い。
Further, the
なお、場所記述情報以外のデータ(上記のモデルデータなど)もまた、外部の機器から通信部107を介して取得しても良い。また、キャラクタの2次元画像は、仮想視点の位置及び姿勢の両方に基づいて描画しても良いし、位置又は姿勢に基づいて描画しても良い。
Data other than the location description information (such as the model data described above) may also be acquired from an external device via the
また、本実施形態では、端末装置10は、撮像画像に含まれる特徴点に基づき場所記述情報を使用して、3次元空間における端末装置10の位置及び方向を判定していた。しかしながら、例えば、所定エリア内の複数の位置に、それぞれの位置を示す信号を送信する送信機を設置する構成とすることができる。送信機は、例えば、人の可聴範囲外の音を出力するスピーカとすることができる。この場合、端末装置10のマイク102は、スピーカの音を音声信号に変換し、端末装置10は、この音声信号により、3次元空間におけるどの付近にいるかを判定する。これにより、端末装置10が撮像画像の特徴点に基づき端末装置10の位置及び方向を判定する際に、参酌すべき場所記述情報の範囲を絞り込むことができ、端末装置10の位置及び方向の判定に要する時間を短縮することができる。また、端末装置10は、一旦、端末装置10の位置及び方向を判定すると、加速度情報及び角速度情報により端末装置10の位置及び方向が変化しても、変化後の端末装置10の位置及び方向を判定し続けることができる。これにより、例えば、端末装置10の位置及び方向を判定した後、ユーザが端末装置10をポケットやカバン等に入れたりして撮像画像が得られない状態が続いても、ユーザが撮像部103による撮像画像の取得を開始し場所記述情報に基づき端末装置10の位置及び方向を判定する際に、加速度情報及び角速度情報により判定していた端末装置10の位置及び方向に基づき、参酌すべき場所記述情報の範囲を絞り込むことができる。また、場所記述情報は、該場所記述情報に対応するエリアの経度緯度などの位置情報を含んでも良い。その場合、GPS処理部104による位置情報等により、端末装置10が、場所記述情報に対応するエリア内、またはそのエリアの近くにいると判定した場合には、端末装置10がそのエリア内、あるいは近傍にいることを、ユーザに通知(画面上に通知・振動)するようにしてもよい。
Further, in the present embodiment, the
また、上記の説明では、キャラクタの2次元画像は端末装置10が描画していたが、サーバなどの外部装置がキャラクタの2次元画像を描画する処理を行って、端末装置10に該描画した2次元画像を送信するようにしても構わない。その場合、端末装置10は、キャラクタの2次元画像を描画するために必要な情報(仮想視点の位置や姿勢、キャラクタの位置やモーション情報等)を外部装置に対して送信する。
Further, in the above description, the two-dimensional image of the character is drawn by the
また、上記の距離Dは複数の距離値(D1,D2,…:D1>D2>…)をとるようにしても良い。そして、仮想空間内におけるキャラクタの現在位置が、現実空間中の規定の位置に対応する仮想空間内の位置から規定距離Di(i=1,2,…)以内となった時点で、距離Diと関連づけられている動作をキャラクタに行わせるようにしても良い。例えば、キャラクタの現在位置が現実空間中の規定の位置に対応する仮想空間内の位置から規定距離D1以内となった時点で、距離D1と関連づけられているキャラクタの音声をスピーカ101から出力すると共にキャラクタの発声モーションを再生し、現実空間中の規定の位置に対応する仮想空間内の位置から規定距離D2以内となった時点で、距離D2と関連づけられているテキストをディスプレイ105に表示すると共にキャラクタの発声モーションを再生するようにしても良い。このように、距離Dの距離値毎に、キャラクタのモーションやテキスト、音声のデータをメモリ部や外部装置に格納するようにしても良い。
Further, the above-mentioned distance D may take a plurality of distance values (D1, D2, ...: D1> D2> ...). Then, when the current position of the character in the virtual space is within the specified distance Di (i = 1, 2, ...) From the position in the virtual space corresponding to the specified position in the real space, the distance Di You may want the character to perform the associated action. For example, when the current position of the character is within the specified distance D1 from the position in the virtual space corresponding to the specified position in the real space, the voice of the character associated with the distance D1 is output from the
また、仮想空間におけるキャラクタの現在位置が、複数の領域Rに属しているような場合、それぞれの領域Rに対して予め設定された優先度のうち最も高い優先度の領域Rと関連づけられている処理(キャラクタのモーションの制御、テキストの表示、音声の出力)を行うようにしても良い。また、仮想空間におけるキャラクタの現在位置が、複数の領域Rに属しているような場合、仮想空間におけるキャラクタの現在位置に最も近い領域Rと関連づけられている処理(キャラクタのモーションの制御、テキストの表示、音声の出力)を行うようにしても良い。 Further, when the current position of the character in the virtual space belongs to a plurality of regions R, it is associated with the region R having the highest priority among the preset priorities for each region R. Processing (control of character motion, display of text, output of voice) may be performed. In addition, when the current position of the character in the virtual space belongs to a plurality of areas R, the process associated with the area R closest to the current position of the character in the virtual space (control of character motion, text). Display and audio output) may be performed.
また、上記の距離Dは、時間、日、曜日、月、季節のうち少なくとも1つに応じて変化させても良い。 Further, the above-mentioned distance D may be changed according to at least one of time, day, day of the week, month, and season.
また、「キャラクタの現在位置」は「キャラクタの周囲領域の位置」としても良い。その場合、キャラクタの周囲領域の一部若しくは全部が領域Rと重複する場合には、処理はステップS303に進み、キャラクタの周囲領域が領域Rと重複しない場合には、処理はステップS304に進む。 Further, the "current position of the character" may be the "position of the area around the character". In that case, if a part or all of the character's peripheral area overlaps with the area R, the process proceeds to step S303, and if the character's peripheral area does not overlap with the area R, the process proceeds to step S304.
Claims (11)
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御手段と、
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御手段と、
前記規定距離と関連づけられている音声を出力する音声出力手段と
を備えることを特徴とする端末装置。 A terminal device having an imaging means and a display.
When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control means to perform the display operation of
A display control means for synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display .
A terminal device including an audio output means for outputting audio associated with the specified distance .
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御手段と、
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御手段と、
前記仮想空間におけるキャラクタの位置が属する複数の領域のうち最も高い優先度の領域と関連づけられている音声を出力する音声出力手段と
を備えることを特徴とする端末装置。 A terminal device having an imaging means and a display.
When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control means to perform the display operation of
A display control means for synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display.
An audio output means for outputting audio associated with the region having the highest priority among the plurality of regions to which the character's position in the virtual space belongs.
Terminal device comprising: a.
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御手段と、
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御手段と、
前記仮想空間におけるキャラクタの位置が属する複数の領域のうち該位置に最も近い領域と関連づけられている音声を出力する音声出力手段と
を備えることを特徴とする端末装置。 A terminal device having an imaging means and a display.
When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control means to perform the display operation of
A display control means for synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display.
A voice output means for outputting voice associated with the region closest to the position among the plurality of regions to which the character's position in the virtual space belongs.
Terminal device comprising: a.
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御手段と、
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御手段と
を備え、
前記規定距離は、前記規定の位置に対応する前記仮想空間内の位置ごとに異なることを特徴とする端末装置。 A terminal device having an imaging means and a display.
When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control means to perform the display operation of
A display control means for synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display.
With
The terminal device, characterized in that the specified distance differs for each position in the virtual space corresponding to the specified position.
マナーモードの場合、前記音声出力手段は音声の出力は行わず、前記制御手段はテキストの表示を行う
ことを特徴とする請求項1乃至3の何れか1項に記載の端末装置。 In the voice output mode, the voice output means outputs voice, and the control means prohibits the display of text.
The terminal device according to any one of claims 1 to 3 , wherein in the manner mode, the voice output means does not output voice and the control means displays text .
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御工程と、
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御工程と、
前記規定距離と関連づけられている音声を出力する音声出力工程と
を備えることを特徴とする端末装置の制御方法。 A control method for a terminal device having an imaging means and a display.
When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control process to perform the display operation of
A display control step of synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display .
A method for controlling a terminal device, which comprises a voice output process for outputting voice associated with the specified distance .
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御工程と、When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control process to perform the display operation of
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御工程と、A display control step of synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display.
前記仮想空間におけるキャラクタの位置が属する複数の領域のうち最も高い優先度の領域と関連づけられている音声を出力する音声出力工程とA voice output process that outputs voice associated with a region having the highest priority among a plurality of regions to which the character's position in the virtual space belongs.
を備えることを特徴とする端末装置の制御方法。A method for controlling a terminal device, which comprises.
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御工程と、When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control process to perform the display operation of
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御工程と、A display control step of synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display.
前記仮想空間におけるキャラクタの位置が属する複数の領域のうち該位置に最も近い領域と関連づけられている音声を出力する音声出力工程とA voice output process that outputs voice associated with the region closest to the position among the plurality of regions to which the character's position in the virtual space belongs.
を備えることを特徴とする端末装置の制御方法。A method for controlling a terminal device, which comprises.
現実空間に対応する仮想空間内におけるキャラクタの位置が、該現実空間中の前記撮像手段の位置とは異なる規定の位置に対応する仮想空間内の位置から規定距離以内となった場合には、所定の表示動作を行わせる制御工程と、When the position of the character in the virtual space corresponding to the real space is within a specified distance from the position in the virtual space corresponding to the specified position different from the position of the imaging means in the real space, it is predetermined. Control process to perform the display operation of
前記表示動作の画像を前記撮像手段による撮像画像上に合成して前記ディスプレイに表示させる表示制御工程とA display control step of synthesizing an image of the display operation on an image captured by the imaging means and displaying it on the display.
を備え、With
前記規定距離は、前記規定の位置に対応する前記仮想空間内の位置ごとに異なることを特徴とする端末装置の制御方法。A method for controlling a terminal device, wherein the specified distance differs for each position in the virtual space corresponding to the specified position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019089361A JP6792666B2 (en) | 2019-05-09 | 2019-05-09 | Terminal device, terminal device control method, computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019089361A JP6792666B2 (en) | 2019-05-09 | 2019-05-09 | Terminal device, terminal device control method, computer program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017018887A Division JP6527182B2 (en) | 2017-02-03 | 2017-02-03 | Terminal device, control method of terminal device, computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019185791A JP2019185791A (en) | 2019-10-24 |
JP6792666B2 true JP6792666B2 (en) | 2020-11-25 |
Family
ID=68341033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019089361A Active JP6792666B2 (en) | 2019-05-09 | 2019-05-09 | Terminal device, terminal device control method, computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6792666B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7280223B2 (en) * | 2020-06-17 | 2023-05-23 | Kddi株式会社 | Information terminal device, remote communication support method and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004145657A (en) * | 2002-10-24 | 2004-05-20 | Space Tag Inc | Virtual museum system |
JP2012212225A (en) * | 2011-03-30 | 2012-11-01 | Nifty Corp | Information processing device, method, and program |
JP5474899B2 (en) * | 2011-09-14 | 2014-04-16 | 株式会社バンダイナムコゲームス | PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE |
JP2017018887A (en) * | 2015-07-10 | 2017-01-26 | 三光株式会社 | Cleaning device of insect screen |
-
2019
- 2019-05-09 JP JP2019089361A patent/JP6792666B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019185791A (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6527182B2 (en) | Terminal device, control method of terminal device, computer program | |
US10880670B2 (en) | Systems and methods for determining estimated head orientation and position with ear pieces | |
US9805515B2 (en) | System and method for augmented reality | |
EP4105889A1 (en) | Augmented reality processing method and apparatus, storage medium, and electronic device | |
JP6594646B2 (en) | Robot, robot control method, and robot system | |
JP2019533372A (en) | Panorama image display control method, apparatus, and storage medium | |
KR101923929B1 (en) | Mobile communication terminal device for providing augmented reality service and method for changing to display for augmented reality service | |
US9733896B2 (en) | System, apparatus, and method for displaying virtual objects based on data received from another apparatus | |
WO2020048441A1 (en) | Communication connection method, terminal device and wireless communication system | |
KR20220019683A (en) | Information processing system, information processing method and recording medium | |
JP6792666B2 (en) | Terminal device, terminal device control method, computer program | |
CN110070617B (en) | Data synchronization method, device and hardware device | |
JP6635573B2 (en) | Image processing system, image processing method, and program | |
WO2022115743A1 (en) | Real world beacons indicating virtual locations | |
US20120281102A1 (en) | Portable terminal, activity history depiction method, and activity history depiction system | |
JP2019075126A (en) | Information processing device and program | |
JP2019160332A (en) | Computer program, terminal, and method | |
JP2021168461A (en) | Photographer terminal, information processing unit, information processing method, and computer program | |
JP6523353B2 (en) | Terminal device and program | |
KR20200004135A (en) | Method for providing model house virtual image based on augmented reality | |
JP7144588B2 (en) | Terminal device, method in the terminal device, server device and program | |
JP6975489B1 (en) | Information processing system, information processing method and information processing program | |
EP4236380A1 (en) | Mobile terminal and display device for searching for location of remote control device by using bluetooth pairing | |
US20240323240A1 (en) | Communication control server, communication system, and communication control method | |
KR20230164491A (en) | A system for providing virtual reality services based on sound and a method for providing virtual reality services using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190509 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200909 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6792666 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |