JP2019139793A - Character image generation device, character image generation method, program and recording medium - Google Patents

Character image generation device, character image generation method, program and recording medium Download PDF

Info

Publication number
JP2019139793A
JP2019139793A JP2019078844A JP2019078844A JP2019139793A JP 2019139793 A JP2019139793 A JP 2019139793A JP 2019078844 A JP2019078844 A JP 2019078844A JP 2019078844 A JP2019078844 A JP 2019078844A JP 2019139793 A JP2019139793 A JP 2019139793A
Authority
JP
Japan
Prior art keywords
real object
information
character image
character
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019078844A
Other languages
Japanese (ja)
Other versions
JP6843178B2 (en
Inventor
健治 横田
Kenji Yokota
健治 横田
修 水田
Osamu Mizuta
修 水田
義浩 伊藤
Yoshihiro Ito
義浩 伊藤
祥一 大川
Shoichi Okawa
祥一 大川
和彦 増崎
Kazuhiko Masuzaki
和彦 増崎
あかり 山崎
Akari Yamazaki
あかり 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019078844A priority Critical patent/JP6843178B2/en
Publication of JP2019139793A publication Critical patent/JP2019139793A/en
Priority to JP2021026614A priority patent/JP6982203B2/en
Application granted granted Critical
Publication of JP6843178B2 publication Critical patent/JP6843178B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To perform suitable compound reality presentation considering a characteristic of a real object existing in a real space.SOLUTION: A character image generation device acquires space information including arrangement of a real object existing in a real space and a characteristic of the real object. And, the device generates a character image by drawing a virtual character in a three-dimensional space structured corresponding to the real space for a predetermined view point in a display mode according to arrangement and a characteristic of the real object. When predetermined information is acquired from a predetermined information source, the device draws the virtual character in the display mode indicating a behavior corresponding to the real object having a characteristic associated with the predetermined information.SELECTED DRAWING: Figure 6

Description

本発明は、キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム及び記録媒体に関し、特に実空間を認識して複合現実感提示を行う技術に関する。   The present invention relates to a character image generation device, a character image generation method, a program, and a recording medium, and particularly to a technique for recognizing a real space and presenting mixed reality.

実空間に配置された特定のマーカを撮像することにより装置の位置及び姿勢を推定し、撮像画像中に3DCGのキャラクタ等を重畳表示することで、あたかも該マーカを基準に定まる平面上にキャラクタが存在するかの如く複合現実感提示を行うものがあった(特許文献1)。   By capturing a specific marker placed in the real space, the position and orientation of the apparatus are estimated, and a 3DCG character or the like is superimposed on the captured image, so that the character appears on a plane that is determined based on the marker. There exist some that present mixed reality as if they existed (Patent Document 1).

一方、特許文献1に記載の技術では実空間に異質なマーカを配置することになるため、好適な現実感が提示できない可能性があった。故に、近年では、マーカを配置することなく撮像画像中の平面を認識し、該平面について複合現実感提示を行う手法が採用されつつある。   On the other hand, since the technique described in Patent Document 1 places a different marker in the real space, there is a possibility that a suitable reality cannot be presented. Therefore, in recent years, a method of recognizing a plane in a captured image without arranging a marker and presenting mixed reality on the plane is being adopted.

特許第5469409号公報Japanese Patent No. 5469409

Tango、[online]、[平成29年1月10日検索]、インターネット、<URL:https://get.google.com/tango/>Tango, [online], [January 10, 2017 search], Internet, <URL: https: // get. Google. com / tango />

しかしながら、撮像画像によっては必ずしも所望の面がキャラクタの配置される平面として認識されず、例えば床面ではなくテーブル上にキャラクタが立っている等、現実感の欠如した提示がなされる場合がある。   However, depending on the captured image, a desired plane is not necessarily recognized as a plane on which the character is arranged, and there may be a presentation lacking in reality, for example, a character standing on a table instead of the floor.

本発明は、上述の問題点に鑑みてなされたものであり、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うキャラクタ画像生成装置、キャラクタ画像生成方法、プログラム及び記録媒体を提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a character image generation device, a character image generation method, a program, and a program that perform suitable mixed reality presentation in consideration of the characteristics of real objects existing in real space. An object is to provide a recording medium.

前述の目的を達成するために、本発明のキャラクタ画像生成装置は、実空間に存在する実オブジェクトの配置を含む空間情報と、実オブジェクトの特性とを取得する第1の取得手段と、予め定められた情報源から出力された所定の情報を取得する第2の取得手段と、実空間に対応して構築される3次元空間を、所定の視点について描画する描画手段であって、実オブジェクトの配置及び特性に応じた表示態様で、3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、描画手段は、第2の取得手段により所定の情報が取得されたことに応じて、該所定の情報と関連する特性を有する実オブジェクトを特定し、該実オブジェクトと対応する挙動を示す表示態様で、仮想キャラクタを描画したキャラクタ画像を生成することを特徴とする。   In order to achieve the above-described object, the character image generating apparatus of the present invention includes a first acquisition unit that acquires spatial information including the arrangement of real objects existing in the real space, and characteristics of the real objects, and a predetermined amount. A second acquisition means for acquiring predetermined information output from a given information source, and a drawing means for drawing a three-dimensional space constructed corresponding to the real space for a predetermined viewpoint, A character image generation apparatus that generates a character image in which a virtual character in a three-dimensional space is rendered in a display mode according to the arrangement and characteristics, the drawing means being predetermined by the second acquisition means In response to the acquisition of this information, a real object having characteristics related to the predetermined information is identified, and a virtual cache is displayed in a display mode that shows the behavior corresponding to the real object. And generating a character image drawing the connectors.

このような構成により本発明によれば、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うことが可能となる。   With such a configuration, according to the present invention, it is possible to perform a suitable mixed reality presentation in consideration of the characteristics of a real object existing in the real space.

本発明の実施形態及び変形例に係るキャラクタ画像生成システムの構成を示したシステム図The system figure which showed the structure of the character image generation system which concerns on embodiment and the modification of this invention 本発明の実施形態及び変形例に係る端末装置10のハードウェア構成図The hardware block diagram of the terminal device 10 which concerns on embodiment and the modification of this invention 本発明の実施形態及び変形例に係る端末装置10のソフトウェア構成図The software block diagram of the terminal device 10 which concerns on embodiment and modification of this invention 本発明の実施形態及び変形例に係るサーバ20のソフトウェア構成図Software configuration diagram of the server 20 according to the embodiment and the modification of the present invention 本発明の実施形態及び変形例に係り生成される各種画像を説明するための図The figure for demonstrating the various images produced | generated in connection with embodiment and the modification of this invention 本発明の実施形態及び変形例1に係る端末装置10で実行される、表示処理を例示したフローチャートThe flowchart which illustrated the display process performed with the terminal device 10 which concerns on embodiment and the modification 1 of this invention. 本発明の実施形態及び変形例に係り生成される各種画像を説明するための別の図Another figure for demonstrating the various images produced | generated according to embodiment and the modification of this invention

[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、キャラクタ画像生成装置の一例としての、撮像画像に基づく実空間計測が可能な端末装置に、本発明を適用した例を説明する。しかし、本発明は、実空間に存在する実オブジェクトの特性に応じた表示態様のキャラクタ画像を生成することが可能な任意の機器に適用可能である。また、本明細書において、「場所記述情報」とは、任意の位置で撮像された画像における特徴点の分布をスクリーン座標として記録した情報を指し、また「3次元空間情報(あるいは単に空間情報)」とは、端末装置の移動や姿勢変化と、これに伴い撮像された撮像画像とに基づいて構築された、実空間中の特徴点とその位置(空間座標)を示す情報の集合を指すものとする。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In addition, one Embodiment described below demonstrates the example which applied this invention to the terminal device which can perform the real space measurement based on a captured image as an example of a character image generation apparatus. However, the present invention can be applied to any device capable of generating a character image having a display mode according to the characteristics of a real object existing in the real space. In this specification, “location description information” refers to information recorded as screen coordinates of the distribution of feature points in an image captured at an arbitrary position, and “three-dimensional spatial information (or simply spatial information)”. "" Refers to a set of information indicating the feature points in the real space and their positions (spatial coordinates) constructed based on the movement and orientation change of the terminal device and the captured images taken along with this. And

《システム構成》
図1は、本発明の実施形態に係るキャラクタ画像生成システムの構成を示したシステム図である。図1に示されるように、本実施形態のキャラクタ画像生成システムは、ユーザへのキャラクタ画像の提示を行う端末装置10、後述の実オブジェクトの特性把握に係る解析を行うサーバ20、及びこれら装置間での通信接続と情報通信とを実現する、移動通信網や無線LAN等であってよいネットワーク30で構成される。図1の例では、1つのサーバ20に対し、1つの端末装置10が接続される構成を示しているが、本発明の実施はこれに限られるものではなく、複数の端末装置10が1つのサーバ20に接続可能に構成されるものであってよいことは言うまでもない。
"System configuration"
FIG. 1 is a system diagram showing a configuration of a character image generation system according to an embodiment of the present invention. As shown in FIG. 1, the character image generation system according to the present embodiment includes a terminal device 10 that presents a character image to a user, a server 20 that performs analysis related to grasping the characteristics of a real object, which will be described later, and a space between these devices. The network 30 may be a mobile communication network, a wireless LAN, or the like that realizes communication connection and information communication. In the example of FIG. 1, a configuration in which one terminal device 10 is connected to one server 20 is shown. However, the embodiment of the present invention is not limited to this, and a plurality of terminal devices 10 includes one terminal device 10. Needless to say, the server 20 may be configured to be connectable.

〈端末装置10のハードウェア構成〉
図2は、本実施形態による端末装置10の概略的なハードウェア構成図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサを有し、画像情報を取得して制御部100に出力する。ディスプレイ105は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LANであってよいネットワーク30を介した通信処理を行う。地磁気センサ108は、地磁気を検出して端末の基準方向の現在の向きを示す方位情報を制御部100に出力する。加速度センサ109は、加速度を検出して加速度情報を制御部100に出力する。ジャイロセンサ110は、角速度を検出して角速度情報を制御部100に出力する。
<Hardware Configuration of Terminal Device 10>
FIG. 2 is a schematic hardware configuration diagram of the terminal device 10 according to the present embodiment. The terminal device 10 is a portable communication terminal such as a smartphone, for example. The speaker 101 converts an audio signal output from the control unit 100 into audio. The microphone 102 converts the sound into a sound signal and outputs the sound signal to the control unit 100. The imaging unit 103 includes a lens and a CCD sensor, acquires image information, and outputs the image information to the control unit 100. In this embodiment, the display 105 is a touch-sensitive display, and functions as an input unit for user operation in addition to presenting information to the user. When the display is not a touch-sensitive display, an input unit is provided separately. The depth sensor 106 measures the distance (depth) to the object and outputs the measurement result to the control unit 100 as depth information. The communication unit 107 performs communication processing via the network 30 which may be a mobile communication network or a wireless LAN. The geomagnetic sensor 108 detects geomagnetism and outputs azimuth information indicating the current orientation of the reference direction of the terminal to the control unit 100. The acceleration sensor 109 detects acceleration and outputs acceleration information to the control unit 100. The gyro sensor 110 detects angular velocity and outputs angular velocity information to the control unit 100.

制御部100は、端末装置全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。   The control unit 100 is a control unit for the entire terminal device, and includes one or more processors and a memory unit. The memory unit includes a RAM used by the processor for temporarily storing data, a flash memory in which an operating system and applications executed by the processor, and data to be retained even when the power is turned off are stored. .

〈端末装置10のソフトウェア構成〉
図3は、本発明の実施形態に係る端末装置10において実現される機能構成モジュールを示したソフトウェア構成図である。これら機能構成モジュールは、制御部100により対応するプログラムがメモリ展開されて実行されることにより実現される。
場所記述情報生成モジュール111は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置の3次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献1に記載された場所記述情報の生成について説明する。端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。場所記述情報生成モジュール111は、場所記述情報の取得の間、その開始時の位置を原点とし、加速度情報及び角速度情報に基づき、(暫定的な)端末装置の位置や撮像方向の向き(姿勢)を判定し続ける。また、場所記述情報生成モジュール111は、撮像部103が撮像している画像内の特徴点を求める。このとき、場所記述情報生成モジュール111は、3次元空間における端末装置の位置や撮像方向と、画像内の同じ特徴点の位置、つまり、特徴点のスクリーン座標を判定する。これにより、場所記述情報生成モジュール111は、3次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、場所記述情報生成モジュール111は、既に生成した場所記述情報と、撮像部103が撮像している画像の特徴点とを比較することで、そのときの(最終的な)端末装置の3次元空間位置と撮像部103の撮像方向を判定することができる。なお、3次元空間位置の原点は、場所記述情報を開始したときの位置であるものとする。また、場所記述情報生成モジュール111は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点との比較により端末装置の3次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき当該既に保存している場所記述情報の更新も行う。
<Software Configuration of Terminal Device 10>
FIG. 3 is a software configuration diagram showing functional configuration modules realized in the terminal device 10 according to the embodiment of the present invention. These functional configuration modules are realized by the corresponding program being expanded in the memory by the control unit 100 and executed.
The location description information generation module 111 generates location description information based on the technique described in Non-Patent Document 1, for example. The location description information is information for determining the three-dimensional space position of the terminal device and the imaging direction of the imaging unit 103 from the image captured by the imaging unit 103. First, generation of location description information described in Non-Patent Document 1 will be described. When the user of the terminal device 10 starts to acquire the location description information, the user changes the position and the imaging direction while capturing an image with the imaging unit 103. The location description information generation module 111 uses the starting position as the origin during acquisition of the location description information, and based on the acceleration information and the angular velocity information, the position of the terminal device and the orientation (posture) of the imaging direction Continue to judge. In addition, the location description information generation module 111 obtains feature points in the image captured by the imaging unit 103. At this time, the location description information generation module 111 determines the position and imaging direction of the terminal device in the three-dimensional space and the position of the same feature point in the image, that is, the screen coordinates of the feature point. As a result, the location description information generation module 111 displays location description information indicating where each feature point can be seen in the image captured by the imaging unit 103 at each location and each imaging direction in the three-dimensional space. Generate. Therefore, the location description information generation module 111 compares the already generated location description information with the feature points of the image captured by the imaging unit 103, and thereby the three-dimensional (final) terminal device at that time. The spatial position and the imaging direction of the imaging unit 103 can be determined. Note that the origin of the three-dimensional space position is the position when the location description information is started. The location description information generation module 111 also compares the location description information already stored with the feature points of the image captured by the imaging unit 103 and the 3D spatial position of the terminal device and the imaging direction of the imaging unit 103. At the same time, the already-stored location description information is updated based on the feature points of the image captured by the imaging unit 103.

上述した様に、場所記述情報は、端末装置の位置及び撮像方向と、撮像部103が撮像した画像内にある各オブジェクトの各特徴点のスクリーン座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の3次元空間位置の座標を示す3次元空間情報を生成することができる。即ち、場所記述情報のうちの異なる位置及び撮像方向の組み合わせに対応する情報につき、同一の特徴点のスクリーン座標での移動を考慮することで奥行き方向の情報を得、該特徴点の3次元空間位置を導出することができる。本実施形態では構成モジュール112が、場所記述情報に基づき、実空間に存在する特徴点の3次元位置を示す3次元空間情報を構成する。3次元空間情報は、特徴点の空間座標の分布を示す点群データであってよく、各点について3次元座標、あるいはこれに加えて色情報等を管理するものであってよい。   As described above, the location description information is information indicating the relationship between the position and imaging direction of the terminal device and the position of each feature point of each object in the image captured by the imaging unit 103 in the screen coordinates. Based on the location description information, three-dimensional space information indicating the coordinates of the three-dimensional space position of each feature point can be generated. That is, with respect to information corresponding to combinations of different positions and imaging directions in the location description information, information in the depth direction is obtained by considering the movement of the same feature points on the screen coordinates, and the three-dimensional space of the feature points is obtained. The position can be derived. In the present embodiment, the configuration module 112 configures three-dimensional space information indicating the three-dimensional positions of feature points existing in the real space based on the location description information. The three-dimensional spatial information may be point group data indicating the distribution of the spatial coordinates of the feature points, and may manage the three-dimensional coordinates or color information and the like for each point.

なお、3次元空間情報に係る空間位置の原点は、例えば、場所記述情報生成モジュール111が場所記述情報の生成を開始したときの端末装置10の位置と同一であってよい。構成する3次元空間情報の座標系は、その縦方向(y軸)が、地磁気センサ108により判明する鉛直方向と平行になるように定められることが好ましい。また、構成モジュール112は、場所空間情報の更新と同期して、既に保存している3次元空間情報の対応する特徴点の3次元位置の情報を更新する。   Note that the origin of the spatial position related to the three-dimensional spatial information may be, for example, the same as the position of the terminal device 10 when the location description information generation module 111 starts generating the location description information. The coordinate system of the three-dimensional spatial information to be configured is preferably determined so that the vertical direction (y-axis) is parallel to the vertical direction determined by the geomagnetic sensor 108. Further, the configuration module 112 updates the information of the three-dimensional position of the corresponding feature point of the already stored three-dimensional space information in synchronization with the update of the place space information.

ここで、3次元空間情報は、実測値である加速度情報及び角速度情報に基づき、実空間と略同一のスケールを示す態様にて構成され、実空間内に存在する実オブジェクトの寸法等を取得可能に構成されるものとして説明するが、所定の縮尺で構成されるものであってもよいことは容易に理解されよう。また、本実施形態の端末装置10は加速度センサ109及びジャイロセンサ110を有しているため、3次元空間情報から実オブジェクトの寸法を取得可能であるが、本発明の実施はこれらのセンサを有することを要件とするものではない。即ち、撮像画像103が撮像した画像情報に対応する画像内の特徴点のそれぞれにつき、深さセンサ106から取得された深さ情報に基づいても、該特徴点までの奥行き方向の距離を取得できるため、異なる姿勢位置にて撮像された複数の画像情報に対応する画像間の相関関係と、深さ情報とを考慮することでも、実空間と同一とみなすスケールの3次元空間情報を構成することは可能である。   Here, the three-dimensional space information is configured in an aspect showing a scale substantially the same as the real space based on the acceleration information and the angular velocity information which are actually measured values, and the size of the real object existing in the real space can be acquired. However, it will be easily understood that it may be configured at a predetermined scale. Further, since the terminal device 10 of the present embodiment includes the acceleration sensor 109 and the gyro sensor 110, the dimensions of the real object can be acquired from the three-dimensional space information. However, the embodiment of the present invention includes these sensors. Is not a requirement. That is, for each feature point in the image corresponding to the image information captured by the captured image 103, the distance in the depth direction to the feature point can be acquired based on the depth information acquired from the depth sensor 106. Therefore, the three-dimensional space information of the scale that is considered to be the same as the real space can be configured by considering the correlation between the images corresponding to the plurality of image information captured at different posture positions and the depth information. Is possible.

キャラクタ制御モジュール113は、複合現実感の提示の一例としてディスプレイ105に表示される仮想キャラクタについて、その動作制御を行う。仮想キャラクタは、その外観を示す3次元モデルが予め保存されており、該3次元モデル用に、あるいは汎用的に設けられたモーションデータに基づき、その動作を制御することができる。また仮想キャラクタの制御は、視覚的に提示される動作に限られるものではなく、例えば音声提示、意思決定等に係る制御を含むものであってよい。なお、本実施形態では仮想キャラクタは、実空間に対応して設けられた所定の3次元空間(以下、ワールドとして識別する)に配置し、描画することでキャラクタ画像として視覚化することができる。該ワールドは、3次元空間情報により把握される実空間とも対応するが、点群データで構成される3次元空間情報とは別に構築され、描画用に設けられるものである。無論、3次元空間情報から把握される障害物の形状や配置の情報は、ワールドにも反映され、仮想キャラクタの行動や表示制限に考慮される。ワールドの座標系原点は、3次元空間情報と対応する位置に設けられるものであってもよいし、3次元空間情報の座標系とワールド座標系の相対関係(あるいは座標変換マトリクス)が規定される場合には異なっていてもよい。   The character control module 113 controls the movement of a virtual character displayed on the display 105 as an example of presentation of mixed reality. The virtual character has a three-dimensional model showing its appearance stored in advance, and can control the motion of the virtual character based on the three-dimensional model or based on motion data provided for general use. Further, the control of the virtual character is not limited to the visually presented motion, and may include, for example, control related to voice presentation, decision making, and the like. In the present embodiment, the virtual character can be visualized as a character image by being placed in a predetermined three-dimensional space (hereinafter referred to as a world) provided corresponding to the real space and drawn. The world corresponds to the real space grasped by the three-dimensional space information, but is constructed separately from the three-dimensional space information composed of point cloud data and provided for drawing. Of course, the information on the shape and arrangement of the obstacle grasped from the three-dimensional space information is also reflected in the world, and is considered in the action and display restriction of the virtual character. The origin of the world coordinate system may be provided at a position corresponding to the three-dimensional spatial information, and the relative relationship (or coordinate transformation matrix) between the coordinate system of the three-dimensional spatial information and the world coordinate system is defined. It may be different in some cases.

視点決定モジュール114は、場所記述情報生成モジュール111により判定された端末装置10の位置及び姿勢の情報に基づき、ワールドを描画する視点を決定する。ワールドを描画する視点は、実空間における端末装置10の位置と対応するワールド中の位置に、端末装置10の姿勢と対応する視線方向を有するよう決定される。ここで、視点に係る視野角の情報は、撮像部103の画角に対応するよう定められるものであってよい。   The viewpoint determination module 114 determines a viewpoint for drawing the world based on the position and orientation information of the terminal device 10 determined by the place description information generation module 111. The viewpoint for drawing the world is determined to have a line-of-sight direction corresponding to the attitude of the terminal device 10 at a position in the world corresponding to the position of the terminal device 10 in the real space. Here, the information on the viewing angle related to the viewpoint may be determined so as to correspond to the angle of view of the imaging unit 103.

描画モジュール115は、ワールドに配置され、場所記述情報生成モジュール111による動作制御がなされた仮想キャラクタを、視点決定モジュール114により決定された視点について描画し、キャラクタ画像を生成する。具体的には描画モジュール115は、図5(a)に示すような、最終的にディスプレイ105に表示される画像のうちの仮想キャラクタに係る領域の画像を描画する。   The drawing module 115 draws the virtual character placed in the world and controlled by the place description information generation module 111 for the viewpoint determined by the viewpoint determination module 114, and generates a character image. Specifically, the drawing module 115 draws an image of an area related to the virtual character in the image finally displayed on the display 105 as shown in FIG.

合成モジュール116は、撮像部103により取得された画像情報に対応する撮像画像に対し、該撮像画像に対応して描画モジュール115により生成されたキャラクタ画像を合成し、複合現実感提示に係る提示用画像を生成する。該合成により、図5(b)のように実空間を示す撮像画像が、仮想キャラクタが実空間内に存在する状態の提示用画像(図5(c))となり、ディスプレイ105を介してユーザに提示される。   The synthesizing module 116 synthesizes the character image generated by the drawing module 115 corresponding to the captured image with the captured image corresponding to the image information acquired by the imaging unit 103, and presents it for presentation related to mixed reality presentation. Generate an image. As a result of the synthesis, the captured image showing the real space as shown in FIG. 5B becomes a presentation image (FIG. 5C) in a state where the virtual character exists in the real space, and is displayed to the user via the display 105. Presented.

このように本実施形態では、撮像部103により取得された画像情報に対応する撮像画像と描画モジュール115に生成されたキャラクタ画像とを合成することで、提示用画像を生成する。故に、キャラクタ画像の描画において、実空間に存在する実オブジェクトによって仮想キャラクタが遮蔽される領域については、キャラクタ画像上に現わされなくてよい。具体的には、深さ情報もしくは3次元空間情報により、仮想オブジェクトの手前に実オブジェクトが存在すると判断可能である場合には、該実オブジェクトに相当する仮想オブジェクトをワールドに配置し、描画モジュール115は該仮想オブジェクトの描画は行わず、かつ仮想キャラクタのうちの該仮想オブジェクトにより遮蔽される部分については仮想キャラクタの描画を行わない制御を行う(例えば図7(a))。このようにすることで、撮像画像と合成した際に、実オブジェクトと仮想キャラクタとの前後関係が整合した、現実感のある画像提示(図7(b))が可能となる。   As described above, in the present embodiment, the image for presentation is generated by synthesizing the captured image corresponding to the image information acquired by the imaging unit 103 and the character image generated in the drawing module 115. Therefore, in the drawing of the character image, the area where the virtual character is shielded by the real object existing in the real space does not have to appear on the character image. Specifically, when it can be determined from the depth information or the three-dimensional space information that a real object exists in front of the virtual object, the virtual object corresponding to the real object is placed in the world, and the drawing module 115 The virtual object is not drawn, and the virtual character is not drawn for the portion of the virtual character shielded by the virtual object (for example, FIG. 7A). By doing so, it is possible to present a realistic image (FIG. 7B) in which the context of the real object and the virtual character is matched when combined with the captured image.

〈サーバ20のソフトウェア構成〉
本実施形態のサーバ20のハードウェア構成は、端末装置10との通信及び所定の処理を実行可能に構成されるものであればよいため、省略する。以下、本実施形態のサーバ20において実現される機能構成モジュールを示したソフトウェア構成について、図4を用いて説明する。これら機能構成モジュールは、端末装置10と同様に、不図示のサーバ20が有する制御部、フラッシュメモリ、RAM等により実現されるものとする。
<Software Configuration of Server 20>
The hardware configuration of the server 20 of this embodiment is omitted as long as it is configured to be able to execute communication with the terminal device 10 and predetermined processing. Hereinafter, the software configuration showing the functional configuration module realized in the server 20 of the present embodiment will be described with reference to FIG. Similar to the terminal device 10, these functional configuration modules are realized by a control unit, a flash memory, a RAM, and the like included in the server 20 (not illustrated).

解析モジュール201は、端末装置10において撮像された1以上の撮像画像に基づき、撮像範囲に存在する実オブジェクトに係る解析を行う。本実施形態では解析モジュール201は、実オブジェクトがいずれであるかの特定を行う特定モジュール202と、実オブジェクトの特性を把握し、特性情報を出力する特性把握モジュール203とを有する。ここで、実オブジェクトの特性には、例えば椅子やテーブルのように、種別や形状から把握される通常の用途を示す情報(所謂アフォーダンス)が含まれる。またこの他、例えば照明器具や送風機等、その機能が実施されることで他の実オブジェクトに影響を与え得る実オブジェクトである場合には、特性には該影響を仮想キャラクタに生じさせるために必要となる各種のパラメータが含まれるものであってよい。   The analysis module 201 performs an analysis related to a real object existing in the imaging range based on one or more captured images captured by the terminal device 10. In this embodiment, the analysis module 201 includes a specifying module 202 that specifies which real object is, and a characteristic grasping module 203 that grasps the characteristics of the real object and outputs characteristic information. Here, the characteristic of the real object includes information (so-called affordance) indicating a normal use grasped from the type and shape such as a chair or a table. In addition, in the case of a real object that can affect other real objects by performing its function, such as a lighting fixture or a blower, the characteristics are necessary to cause the virtual character to have the influence. Various parameters may be included.

また特定モジュール202により行われる実オブジェクトがいずれであるかの特定は、寸法・形状・色情報等に基づく、予め3次元形状やテクスチャパターン等が登録されたデータベースとの対比、あるいは種々の学習を経て構築されるニューラルネットワークに基づく解析を含むものであってよい。   In addition, the identification of which real object is performed by the identification module 202 is performed by comparing with a database in which a three-dimensional shape, a texture pattern, or the like is registered in advance based on size / shape / color information or various learning. It may include analysis based on a neural network that is constructed via the above.

また、解析モジュール201により参照される、実オブジェクトの情報及び実オブジェクトの特性情報は、その全てが予めサーバ20に保持されているものである必要はなく、例えばユーザが端末装置10において、撮像された画像中の所望の実オブジェクトの領域を指定し、いずれの実オブジェクトであるか、あるいは実オブジェクトの特性がいずれであるかを入力し、これがサーバ20に伝送され、解析において使用可能に保持されるものとしてもよい。   In addition, the real object information and the real object characteristic information referred to by the analysis module 201 do not have to be stored in the server 20 in advance. For example, the user captures an image on the terminal device 10. The region of the desired real object in the selected image is specified, and which real object or the characteristic of the real object is input, which is transmitted to the server 20 and held available for analysis. It is good also as a thing.

例えば実オブジェクトが椅子である場合、特定モジュール202は撮像画像中の実オブジェクトと推定される領域の特定と、該領域の画像情報に基づき、実オブジェクトの種別が椅子であること、あるいはいずれの椅子(商品)であるかを特定する。そして特性把握モジュール203は、特定結果も考慮し、特性情報として、「該オブジェクトに対して仮想キャラクタの着座が可能であること(加えて、いずれの面が座面であるか)」や「該オブジェクト上に仮想キャラクタは登らないこと」を示す情報を出力する。   For example, when the real object is a chair, the specifying module 202 specifies the area estimated as the real object in the captured image and the type of the real object is a chair based on the image information of the area, or any chair (Product) is specified. Then, the characteristic grasping module 203 also considers the specific result, and as characteristic information, “the virtual character can be seated on the object (in addition, which surface is the seat)” or “the surface Information indicating that the virtual character does not climb on the object is output.

また例えば実オブジェクトが照明器具である場合、特定モジュール202は撮像画像中の実オブジェクトと推定される領域の特定と、実オブジェクトの種別が照明であること、あるいはいずれの照明器具(商品)であるかを特定する。そして特性把握モジュール203は、特定結果も考慮し、特性情報として、「該オブジェクトがワールドにおける光源を定義すること」、「該オブジェクトにより仮想キャラクタの輝度表現または陰影表現が変更されること」、さらに、輝度変化等の影響導出に必要となる光源の輝度、照射方向、光源種類(直接照明、間接照明)の少なくともいずれかの情報を出力する。ここで、影響導出に必要となる各種情報は、例えば撮像画像中の輝度分布や周囲の色情報等に基づき解析されるものであってよい。   Also, for example, when the real object is a lighting fixture, the specifying module 202 specifies a region estimated as a real object in the captured image, and the type of the real object is lighting, or any lighting fixture (product). To identify. Then, the characteristic grasping module 203 considers the specific result, and as characteristic information, “the object defines a light source in the world”, “the luminance expression or shadow expression of the virtual character is changed by the object”, and In addition, information on at least one of the luminance of the light source, the irradiation direction, and the type of light source (direct illumination and indirect illumination) necessary for deriving the influence of luminance change or the like is output. Here, various types of information necessary for derivation of the influence may be analyzed based on, for example, a luminance distribution in the captured image, surrounding color information, and the like.

なお、このように解析モジュール201により取得される、入力された撮像画像中の実オブジェクトの領域の情報、及び該実オブジェクトの特性情報は、サーバ20が有する不図示の通信部により、ネットワーク30を介して端末装置10に解析結果として返送される。解析結果は、例えば3次元空間情報と関連付けて管理されるものであってよく、これにより、特徴点が所定の実オブジェクトの一部を構成するか、特徴点に係る実オブジェクトの特性がいずれであるかが把握可能となる。   The real object region information in the input captured image and the real object characteristic information acquired by the analysis module 201 in this way are transmitted to the network 30 by a communication unit (not shown) of the server 20. And returned as an analysis result to the terminal device 10. The analysis result may be managed in association with, for example, three-dimensional space information, so that the feature point forms a part of a predetermined real object or the characteristic of the real object related to the feature point is determined. It becomes possible to grasp whether there is.

《表示処理》
このような構成をもつ本実施形態の端末装置10の表示処理について、図6のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部100が、例えばフラッシュメモリに記憶されている対応する処理プログラムを読み出し、RAMに展開して実行することにより各モジュールを動作させ、実現することができる。本表示処理は、例えば複合現実感提示に係る所定のアプリケーションが起動された際に開始され、ディスプレイ105に表示されるフレームごとに繰り返し実行されるものとして説明する。
《Display processing》
A specific process of the display process of the terminal device 10 according to the present embodiment having such a configuration will be described with reference to the flowchart of FIG. The processing corresponding to the flowchart can be realized by causing the control unit 100 to operate each module by reading a corresponding processing program stored in, for example, a flash memory, developing the program in a RAM, and executing the program. The present display process will be described as being started when a predetermined application related to mixed reality presentation is started and executed repeatedly for each frame displayed on the display 105, for example.

S601で、撮像部103及び深さセンサ106は制御部100の制御の下、表示するフレームに係る撮像及びセンシングを行い、画像情報、加速度情報、角速度情報及び深さ情報を取得する。   In step S <b> 601, the imaging unit 103 and the depth sensor 106 perform imaging and sensing related to a frame to be displayed under the control of the control unit 100, and acquire image information, acceleration information, angular velocity information, and depth information.

以下、端末装置10において行われる端末装置10の場所記述情報生成、位置姿勢判定及び3次元空間情報の構成に係る処理(S602〜S604)と、サーバ20に行わせる撮像範囲の実オブジェクトの解析に係る処理(S605〜S606)とは、並行して実行されるものとする。   Hereinafter, in the terminal device 10 processing for location description information generation, position and orientation determination, and 3D spatial information configuration (S602 to S604) of the terminal device 10 and analysis of an actual object in the imaging range to be performed by the server 20 Such processing (S605 to S606) is executed in parallel.

S602で、場所記述情報生成モジュール111は、既に保存されている場所記述情報が存在するか否かを判断する。場所記述情報生成モジュール111は、既に保存されている場所記述情報が存在すると判断する場合には、処理をS603に移す。また場所記述情報生成モジュール111は、保存されている場所記述情報が存在していないと判断する場合には、端末装置10の位置及び姿勢を初期値(原点位置かつ回転なし)として定め、処理をS604に移す。   In step S602, the location description information generation module 111 determines whether there is already stored location description information. If the location description information generation module 111 determines that there is already stored location description information, the processing proceeds to S603. When the location description information generation module 111 determines that the saved location description information does not exist, the location description information generation module 111 determines the position and orientation of the terminal device 10 as initial values (the origin position and no rotation), and performs processing. Move on to S604.

S603で、場所記述情報生成モジュール111は、表示フレームに係り取得された画像情報、加速度情報、角速度情報、及び既に保存されている場所記述情報に基づき、端末装置10の位置及び姿勢を判定する。なお、本実施形態では簡単のため、既に保存されている場所記述情報に、現在の撮像範囲の少なくとも一部の特徴点の情報が含まれているものとして説明する。少なくとも一部の特徴点が既に保存されている場所記述情報に含まれていない場合には、保存されている3場所記述情報が存在していない場合と同様に、位置及び姿勢を初期値として定めればよい。   In step S <b> 603, the location description information generation module 111 determines the position and orientation of the terminal device 10 based on the image information, acceleration information, angular velocity information, and already stored location description information acquired in relation to the display frame. In the present embodiment, for the sake of simplicity, description will be made assuming that the location description information that has already been stored includes information on at least some feature points of the current imaging range. If at least some of the feature points are not included in the stored location description information, the position and orientation are determined as initial values as in the case where the stored three location description information does not exist. Just do it.

S604で、構成モジュール112は、表示フレームに係り取得された画像情報に基づき更新された場所空間情報に対応して、3次元空間情報を構成または更新する。3次元空間情報の構成は、3次元空間情報がまだ構成されていない段階ではその生成から、構成されている段階では場所空間情報の更新に対応して行われる。   In step S <b> 604, the configuration module 112 configures or updates the three-dimensional space information corresponding to the location space information updated based on the image information acquired for the display frame. The configuration of the three-dimensional spatial information is performed from the generation when the three-dimensional spatial information is not yet configured, and in response to the update of the location space information at the configured phase.

一方、サーバ20に行わせる実オブジェクトの解析に係る処理については、制御部100はS605で、表示フレームに係り取得された画像情報を通信部107を介してサーバ20に解析要求と共に送信する。その後、制御部100はS606で、該要求に係る解析結果が返送されるまで待機し、解析結果が受信されると処理をS607に移す。なお、解析要求と共に送信する画像情報は撮像範囲の全体を示している必要はなく、例えばユーザの要求に応じて、特定の実オブジェクトに係る行動を優先的に仮想キャラクタに生じさせるよう、該実オブジェクトに係る所望の小領域の指示入力を受け付け、該小領域の画像情報を送信するようにしてもよい。このようにすることで、解析要求に係る情報量を削減し、また解析の処理量も低減することができるため、処理の高速化が実現できる。   On the other hand, for the processing related to the analysis of the real object to be performed by the server 20, the control unit 100 transmits the image information acquired in relation to the display frame to the server 20 together with the analysis request via the communication unit 107 in S605. Thereafter, in step S606, the control unit 100 waits until the analysis result related to the request is returned. When the analysis result is received, the process proceeds to step S607. Note that the image information transmitted together with the analysis request does not need to indicate the entire imaging range. For example, in response to a user request, the actual information is preferentially generated in the virtual character so that an action related to a specific real object is generated. An instruction input of a desired small area related to the object may be received and image information of the small area may be transmitted. By doing so, the amount of information related to the analysis request can be reduced, and the amount of analysis processing can be reduced, so that the processing speed can be increased.

S607で、構成モジュール111は、受信した解析結果(実オブジェクトの領域の情報、及び該実オブジェクトの特性情報)を3次元空間情報の対応する特徴点に関連付ける。なお、本実施形態では3次元空間情報と解析結果とを統合するものとして説明するが、本発明の実施はこれに限られるものではなく、互いの情報が関連付けられた状態となっていればよい。   In step S <b> 607, the configuration module 111 associates the received analysis result (real object region information and real object characteristic information) with the corresponding feature point of the three-dimensional space information. In the present embodiment, the description will be made assuming that the three-dimensional spatial information and the analysis result are integrated. However, the implementation of the present invention is not limited to this, and it is only necessary that the information is associated with each other. .

S608で、キャラクタ制御モジュール113は、表示フレームに対応する仮想キャラクタの状態を決定し、仮想キャラクタを該状態に制御してワールドに配置するための種々の処理を行う。このとき、キャラクタ制御モジュール113は、仮想キャラクタを配置する位置と対応する、実空間中の位置周辺に存在する実オブジェクトの特性に応じて、仮想キャラクタの挙動を制御するものであってよい。なお、仮想キャラクタの挙動制御は、例えば表示フレームの撮像範囲に含まれた全ての実オブジェクトについて、その特性に基づく挙動を同時に開始させる必要はなく、仮想キャラクタとの相対関係(仮想キャラクタの配置位置と対応する実空間の位置の距離)に応じた順序(例えば距離の近い順)や所定の優先度に応じて、順次行われるものであってよい。また、1つの実オブジェクトについて特定の動作を行う場合には、該動作が頻繁に生じぬよう、撮像範囲に含まれていたとしても所定期間は動作を生じないよう制御してもよい。   In S608, the character control module 113 determines the state of the virtual character corresponding to the display frame, and performs various processes for controlling the virtual character to the state and arranging it in the world. At this time, the character control module 113 may control the behavior of the virtual character according to the characteristics of the real object existing around the position in the real space corresponding to the position where the virtual character is arranged. Note that the behavior control of the virtual character does not need to start the behavior based on the characteristics of all the real objects included in the imaging range of the display frame at the same time. May be performed sequentially in accordance with an order (for example, the order of distances close to each other) or a predetermined priority. Further, when a specific motion is performed on one real object, control may be performed so that the motion does not occur for a predetermined period even if it is included in the imaging range so that the motion does not frequently occur.

S609で、描画モジュール115は、表示フレームに係る端末装置10の位置及び姿勢の情報に基づき視点決定モジュール114により決定された視点についてワールドを描画し、キャラクタ画像を生成する。光源として特性把握がなされた実オブジェクトが撮像環境に存在する場合、ワールドには該実オブジェクトに係る特性情報に基づく光源が定義され、描画モジュール115は該光源に起因する輝度演算を行う。   In step S609, the drawing module 115 draws the world for the viewpoint determined by the viewpoint determination module 114 based on the position and orientation information of the terminal device 10 related to the display frame, and generates a character image. When a real object whose characteristics are grasped as a light source exists in the imaging environment, a light source based on the characteristic information related to the real object is defined in the world, and the drawing module 115 performs a luminance calculation due to the light source.

S610で、合成モジュール116は、表示フレームに係り取得された画像情報に対応する撮像画像に、生成されたキャラクタ画像を合成して提示用画像を生成する。   In S610, the synthesis module 116 generates a presentation image by synthesizing the generated character image with the captured image corresponding to the image information acquired in relation to the display frame.

S611で、制御部100は、提示用画像をディスプレイ105に表示させ、表示フレームに係る表示処理を完了する。   In step S611, the control unit 100 displays the presentation image on the display 105, and completes the display process related to the display frame.

このように、本実施形態の表示処理ではS608及びS609の処理により、実空間に存在する実オブジェクトの特性に応じて仮想キャラクタの表示態様を制御することができる。実オブジェクトの特性に応じた仮想キャラクタの制御は、例えば次のように行われるものであってよい。   As described above, in the display process of the present embodiment, the display mode of the virtual character can be controlled according to the characteristics of the real object existing in the real space by the processes of S608 and S609. The control of the virtual character according to the characteristics of the real object may be performed as follows, for example.

(1)実オブジェクトのアフォーダンスに起因する制御
上述たように実オブジェクトの用途に係る特性情報が取得される場合、撮像環境に存在する実オブジェクトを単に障害物としてではなく把握することができるため、該特性情報に応じた行動をとらせるよう、仮想キャラクタを制御できる。例えば、実オブジェクトが椅子や座布団等であり、着座用途であることが把握できる場合には、仮想キャラクタを該実オブジェクト上に着座させるよう、挙動制御するものであってよい。あるいは、実オブジェクトがテーブル等であり、着座用途ではなく、物体載置用途であることが把握できる場合には、仮想キャラクタを該実オブジェクト上に配置しないがキャラクタの装着品等は配置可能とする、仮想キャラクタが該実オブジェクトを避けて歩行する等、挙動制御するものであってよい。また例えば実オブジェクトが絵画や造形物等であり、観賞用途であることが把握できる場合には、仮想キャラクタは該実オブジェクトに注視するよう挙動制御するものであってもよい。
(1) Control due to affordance of a real object As described above, when the characteristic information related to the use of the real object is acquired, the real object existing in the imaging environment can be grasped instead of simply being an obstacle. The virtual character can be controlled to take an action according to the characteristic information. For example, when the real object is a chair, a cushion, or the like and it can be grasped that it is used for sitting, the behavior control may be performed so that the virtual character is seated on the real object. Alternatively, if the real object is a table or the like and it can be grasped that the object is not for sitting but for object placement, the virtual character is not placed on the real object, but the character's wearing items can be placed. The behavior may be controlled such that the virtual character walks avoiding the real object. Further, for example, when the real object is a painting, a modeled object, or the like, and it can be grasped that it is an ornamental use, the virtual character may perform behavior control so as to watch the real object.

(2)他の実オブジェクトに影響を及ぼす特性に起因する制御
実オブジェクトが機能を果たすことによって他の実オブジェクトに影響を及ぼす特性情報が取得される場合、撮像環境に存在する実オブジェクトに起因する変化が生じるよう、仮想キャラクタの描写を制御することができる。例えば、実オブジェクトが照明器具であり、機能することにより周囲の実オブジェクトの輝度変化や陰影変化を生じさせるとの特性が把握できる場合には、該実オブジェクトの影響を受ける所定の範囲に仮想キャラクタが配置される場合において、仮想キャラクタの位置と該実オブジェクトの位置及び光源特性の情報に基づき、仮想キャラクタの輝度やキャラクタに係り発生させる陰影の状態を制御するものであってよい。また例えば、実オブジェクトが空調機器であり、機能することによりカーテン等の周囲の実オブジェクトの動き(揺れ)を生じさせるとの特性が把握できる場合には、該実オブジェクトの影響を受ける所定の範囲に仮想キャラクタが配置される場合において、毛髪や被服等の挙動を制御するものであってよい。もちろん、このように他の実オブジェクトに影響を及ぼすか否かは、照明器具や空調機器の運転状況にもよるものであるため、解析モジュール201は、その運転状況によって特性情報を変更する、あるいは特性情報に応じた制御を行うか否かの情報を付加することにより解析結果を送出し、端末装置10における挙動制御は適応的に行われるものであってよい。
(2) Control caused by characteristics that affect other real objects When characteristic information that affects other real objects is acquired as a result of the functions of the real objects, it is caused by real objects that exist in the imaging environment. The depiction of the virtual character can be controlled so that a change occurs. For example, if the real object is a lighting fixture and if it can grasp the characteristics of causing a change in brightness or shading of the surrounding real object by functioning, the virtual character is within a predetermined range affected by the real object. May be arranged to control the brightness of the virtual character and the state of the shadow to be generated in relation to the character based on the position of the virtual character, the position of the real object, and information on the light source characteristics. In addition, for example, when the real object is an air conditioner and it is possible to grasp the characteristic that the function (sway) of the surrounding real object such as a curtain is caused by functioning, the predetermined range affected by the real object In the case where a virtual character is arranged on the screen, the behavior of hair, clothes, etc. may be controlled. Of course, whether or not it affects other real objects in this way depends on the operating conditions of the lighting fixtures and air conditioners, so the analysis module 201 changes the characteristic information depending on the operating conditions, or The analysis result may be transmitted by adding information on whether to perform control according to the characteristic information, and behavior control in the terminal device 10 may be performed adaptively.

なお、これら制御はあくまで例示に過ぎず、仮想キャラクタの配置位置と対応する実空間の位置あるいはその周辺に存在する実オブジェクトの特性に応じて、その他の挙動制御が行われるものであってよい。また実オブジェクトと対応する位置に仮想キャラクタを配置している状態に限らず、例えば特性が把握された実オブジェクトの特徴点が3次元空間情報に含まれる場合、これに起因して仮想キャラクタの行動を発生させるよう、挙動制御は行われるものであってよい。即ち、アプリケーションが実行された際に、端末装置10の周囲に椅子が存在していることが既に把握されているのであれば、仮想キャラクタを該椅子方向に移動させ、着座させるよう挙動制御を行うものであってよい。   Note that these controls are merely examples, and other behavior control may be performed according to the characteristics of the real object existing in or around the position of the real space corresponding to the placement position of the virtual character. In addition to the state in which the virtual character is arranged at a position corresponding to the real object, for example, when the feature points of the real object whose characteristics are grasped are included in the three-dimensional space information, the action of the virtual character is caused by this. The behavior control may be performed so as to generate. That is, when it is already known that a chair is present around the terminal device 10 when the application is executed, behavior control is performed so that the virtual character is moved in the chair direction and seated. It may be a thing.

また、例えば窓のように、種別が特定されたとしてもその物自体の特性は他の実オブジェクトに影響を与えるものではないが、外光が入射する等によって照明器具と同等の影響を他の実オブジェクトに与えている状態にある場合は、特性把握モジュール203は画像情報の輝度分布に基づきこれを把握し、他の実オブジェクトに照明効果を与える実オブジェクトとして、特性情報を出力するよう構成されてもよい。   In addition, even if the type is specified, such as a window, the characteristics of the object itself do not affect other real objects. When it is in the state given to the real object, the characteristic grasping module 203 is configured to grasp this based on the luminance distribution of the image information and output the characteristic information as a real object that gives a lighting effect to other real objects. May be.

また照明器具や空調機器のように、その運転状況により他の実オブジェクトに変化を生じさせる特性を有する実オブジェクトに限らず、解析により運転状態等が判別可能な実オブジェクトについては、その状態に応じて特性情報を異ならせ、仮想キャラクタの挙動に変化が生じるよう構成してもよい。例えば、テレビ受像機であれば画面に対応する領域の画像情報に基づき、その運転状態や視聴されている番組等を解析可能であるため、仮想キャラクタに番組案内や観賞動作等の挙動を開始させるように構成してもよい。   In addition, not only real objects that have characteristics that cause other real objects to change depending on their driving conditions, such as lighting equipment and air conditioners, but for real objects whose operating state can be determined by analysis, depending on the state. The characteristic information may be varied to change the behavior of the virtual character. For example, in the case of a television receiver, it is possible to analyze the driving state and the program being viewed based on the image information of the area corresponding to the screen, so that the virtual character starts behavior such as program guidance and watching operation You may comprise as follows.

また本実施形態では、解析モジュール201が画像情報に基づいて解析を行い、実オブジェクトを特定し、その特性情報を端末装置10に返送する態様について説明したが、本発明の実施はこれに限られるものではない。実オブジェクトの特定は、商品リストからの選択、商品名の入力等、端末装置10においてなされたユーザ操作に基づいて行われ、該商品に係る特性情報がサーバ20から取得可能に構成されるものであってもよい。   Moreover, although the analysis module 201 analyzed based on image information, specified the real object, and the aspect which returns the characteristic information to the terminal device 10 were demonstrated in this embodiment, implementation of this invention is limited to this. It is not a thing. The real object is specified based on a user operation performed on the terminal device 10 such as selection from a product list, input of a product name, and the like, and characteristic information related to the product is configured to be acquired from the server 20. There may be.

また、任意の実オブジェクトについての特性情報は必ずしも一定である必要はなく、例えば時間帯、日時、あるいは所定のタイミングにおいて更新され、仮想キャラクタに異なる挙動を生じさせるよう構成されるものであってもよい。   Further, the characteristic information about an arbitrary real object does not necessarily have to be constant. For example, the characteristic information may be updated at a time zone, a date and time, or at a predetermined timing, and may be configured to cause a different behavior in a virtual character. Good.

また、本実施形態のキャラクタ画像生成システムでは、ユーザへの複合現実感提示のために端末装置10とサーバ20とで機能を分離し、実オブジェクトの特性解析のみをサーバ20に実行させるものとして説明したが、機能の分離態様はこれに限られるものではない。即ち、本発明は、3次元空間情報の構成、実オブジェクトの特性解析、キャラクタ画像の生成が1以上の機器により実行されるものであれば実現可能である。   Further, in the character image generation system of the present embodiment, the function is separated between the terminal device 10 and the server 20 in order to present mixed reality to the user, and the server 20 executes only the characteristic analysis of the real object. However, the function separation mode is not limited to this. That is, the present invention can be realized as long as the configuration of the three-dimensional spatial information, the characteristic analysis of the real object, and the generation of the character image are executed by one or more devices.

以上説明したように、本実施形態のキャラクタ画像生成装置によれば、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うことができる。   As described above, according to the character image generation apparatus of the present embodiment, it is possible to perform a suitable mixed reality presentation in consideration of the characteristics of a real object existing in real space.

[変形例1]
上述した実施形態では、仮想キャラクタを配置する位置と対応する、実空間中の位置周辺の実オブジェクトの特性に応じて、キャラクタ制御モジュール113が仮想キャラクタの挙動制御を行うものとして説明したが、本発明の実施はこれに限られるものではない。
[Modification 1]
In the above-described embodiment, the character control module 113 controls the behavior of the virtual character according to the characteristics of the real object around the position in the real space corresponding to the position where the virtual character is arranged. Implementation of the invention is not limited to this.

仮想キャラクタの挙動制御は、例えば通信部107を介して所定の情報取得がなされたこと、あるいはスケジューラ等のアプリケーション実行により所定の情報出力がなされたことに応じて、該情報と関連する特性を有する実オブジェクトに係る動作を行うように行われるものであってもよい。ここで、所定の情報は、仮想キャラクタを介して提示を行うものとして予め定められた種別の情報(付加情報)であり、例えば天気予報、放送番組情報、あるいは展示物の解説情報等の所定の外部機器から供給されるものや、スケジュール情報や検索結果情報等の端末装置10で起動された他のアプリケーションから取得可能なものであってよい。また、付加情報と関連する特性は、該付加情報に付された実オブジェクトにつき把握される特性を示す情報に基づき把握されるものであってもよいし、データ構造、配信元、文字列等を解析することにより把握されるものであってもよい。この他、付加情報は、ユーザの発した音声情報を含むものであってよい。   The behavior control of the virtual character has characteristics related to the information in accordance with, for example, the acquisition of predetermined information via the communication unit 107 or the output of predetermined information by executing an application such as a scheduler. It may be performed so as to perform an action related to a real object. Here, the predetermined information is information (additional information) of a predetermined type that is presented through a virtual character, and is, for example, predetermined information such as weather forecast, broadcast program information, or commentary information on exhibits. The information may be supplied from an external device, or may be acquired from another application started by the terminal device 10 such as schedule information or search result information. Further, the characteristics related to the additional information may be grasped based on information indicating the characteristics grasped for the real object attached to the additional information, and the data structure, the distribution source, the character string, etc. It may be grasped by analyzing. In addition, the additional information may include voice information issued by the user.

本変形例ではキャラクタ制御モジュール113は、既に3次元空間情報と関連付けられて管理されている実オブジェクトの特性と関連する付加情報が取得された場合に、仮想キャラクタを該実オブジェクトと対応する位置に移動させ、付加情報について予め定められた行動を行わせるように挙動制御を行う。例えば、実オブジェクトとしてテレビ受像機を示す特性情報が管理されている場合、付加情報として放送番組情報を受信すると、キャラクタ制御モジュール113は仮想キャラクタをテレビ受像機と対応するワールド中の位置に移動させ、テレビ受像機を指さしながら、「現在放送中の番組及びその情報」、「ユーザ趣向に合致する番組の開始時間の案内」等を音声を伴い提示するよう、挙動制御を行えばよい。また例えば、実オブジェクトとして所定の展示物を示す特性情報が管理されている場合、付加情報として解説情報を取得すると、キャラクタ制御モジュール113は、展示物と対応するワールド中の位置に仮想キャラクタを立ち止まらせ、展示物の解説を開始するよう、挙動制御を行えばよい。また例えば、実オブジェクトとして時計や玄関ドアを示す特性情報が管理されている場合、付加情報として外出予定に係るスケジュール情報を取得すると、キャラクタ制御モジュール113は仮想キャラクタを対応するワールド中の位置に移動させ、予定の通知や移動を促す通知を行うよう、挙動制御を行えばよい。   In this modification, the character control module 113 moves the virtual character to a position corresponding to the real object when additional information related to the characteristics of the real object already managed in association with the three-dimensional space information is acquired. The behavior control is performed so as to cause the additional information to perform a predetermined action. For example, when characteristic information indicating a television receiver is managed as a real object, when broadcast program information is received as additional information, the character control module 113 moves the virtual character to a position in the world corresponding to the television receiver. Then, while pointing to the television receiver, the behavior control may be performed so as to present “a program currently being broadcast and its information”, “guidance of the start time of a program that matches the user preference”, etc. with sound. Also, for example, when characteristic information indicating a predetermined exhibit is managed as a real object, when the comment information is acquired as additional information, the character control module 113 stops the virtual character at a position in the world corresponding to the exhibit. The behavior control may be performed so that the explanation of the exhibit starts. Also, for example, when characteristic information indicating a clock or a front door is managed as a real object, the character control module 113 moves the virtual character to the corresponding position in the world when acquiring schedule information related to the going-out schedule as additional information. Then, the behavior control may be performed so that the notification of the schedule or the notification that prompts the movement is performed.

このようにすることで、ただ観賞目的ではなく、ユーザの利用環境や配置されている実オブジェクトの特性に応じた、より付加価値の高い複合現実感提示を行うことができる。   By doing so, it is possible to present a mixed reality presentation with higher added value according to the usage environment of the user and the characteristics of the arranged real object, not just for the purpose of viewing.

[変形例2]
上述した実施形態及び変形例では、描画モジュール115により生成されたキャラクタ画像と撮像画像とが合成されることにより、複合現実感を提示する提示用画像が生成されてディスプレイ105に表示されるものとして説明したが、キャラクタ画像の提示はこれに限られるものではない。即ち、上述した態様は、ディスプレイ105に表示された提示用画像を介して、仮想キャラクタが実空間に存在するとの認識を与えるものであったが、例えばHMP(Head-Mounted Projector)やグラス型デバイス等、光学透過方式を採用する機器をディスプレイ105に代わり使用する態様であってもよい。この場合、キャラクタ画像のキャラクタに係る画素のみを、光学透過方式でユーザに視認可能に構成すればよく、ユーザは実世界を直接観察しながら、仮想キャラクタが実空間に存在するかの如く認識することができる。換言すれば、本発明の実施においてキャラクタ画像と撮像画像との合成は必須ではなく、提示方式に従って採用される要素であることは容易に理解されよう。なお、グラス型デバイス等を用いる場合は、位置及び姿勢の判定につき、該デバイス自体、あるいは該デバイスと対応する位置に撮像部103が設けられていることが好ましい。
[Modification 2]
In the embodiment and the modification described above, the character image generated by the drawing module 115 and the captured image are combined to generate a presentation image that presents mixed reality and is displayed on the display 105. Although explained, presentation of a character image is not restricted to this. In other words, the above-described embodiment gives recognition that the virtual character exists in the real space through the presentation image displayed on the display 105. For example, an HMP (Head-Mounted Projector) or a glass-type device is used. For example, an apparatus using an optical transmission method may be used instead of the display 105. In this case, only the pixels related to the character of the character image need only be configured to be visible to the user using the optical transmission method, and the user recognizes the virtual character as if it exists in real space while directly observing the real world. be able to. In other words, it is easy to understand that the combination of the character image and the captured image is not essential in the embodiment of the present invention, and is an element adopted according to the presentation method. When a glass-type device or the like is used, it is preferable that the imaging unit 103 is provided in the device itself or a position corresponding to the device for determining the position and orientation.

[変形例3]
上述した実施形態及び変形例では、表示フレームに係り取得された撮像画像に基づいて実オブジェクトの特性把握がなされるものとして説明したが、ユーザの観察する空間内の存在する実オブジェクトの特性把握は、ユーザの視点や端末装置10とは異なる位置に設けられた撮像装置により得られた撮像画像に基づいて行われるものであってよい。
[Modification 3]
In the embodiment and the modification described above, it has been described that the characteristics of the real object are grasped based on the captured image acquired in relation to the display frame. However, the characteristics grasp of the real object that exists in the space observed by the user is described. This may be performed based on a captured image obtained by an imaging device provided at a position different from the user's viewpoint or the terminal device 10.

同様に、表示フレームに係り取得された画像情報、加速度情報及び角速度情報に基づいて判定された位置及び姿勢とは異なる視点について、ワールドの描画を行い、キャラクタ画像を生成するものとしてもよい。即ち、変形例2に示したように撮像画像とキャラクタ画像との合成を要件としない態様においては、観賞するユーザの眼球位置と撮像部103の設置位置とは必ずしも一致しないため、これらの相対的な位置関係と、推定された位置及び姿勢の情報に基づき定まる視点につき、ワールドの描画は行われるものであってよい。   Similarly, a character image may be generated by drawing the world for a viewpoint that is different from the position and orientation determined based on the image information, acceleration information, and angular velocity information acquired in relation to the display frame. That is, in the aspect that does not require the synthesis of the captured image and the character image as shown in the modified example 2, the eyeball position of the user to be viewed and the installation position of the imaging unit 103 do not necessarily match, and therefore, the relative position of these The world may be drawn with respect to a viewpoint determined based on the positional relationship and the estimated position and orientation information.

[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。また本発明に係るキャラクタ画像生成装置は、1以上のコンピュータを該装置として機能させるプログラムによっても実現可能である。該プログラムは、コンピュータが読み取り可能な記録媒体に記録されることにより、あるいは電気通信回線を通じて、提供/配布することができる。
[Other Embodiments]
The present invention is not limited to the above-described embodiment, and various changes and modifications can be made without departing from the spirit and scope of the present invention. The character image generation apparatus according to the present invention can also be realized by a program that causes one or more computers to function as the apparatus. The program can be provided / distributed by being recorded on a computer-readable recording medium or through a telecommunication line.

10:端末装置、20:サーバ、30:ネットワーク、100:制御部、101:スピーカ、102:マイク、103:撮像部、105:ディスプレイ、106:深さセンサ、107:通信部、108:地磁気センサ、109:加速度センサ、110:ジャイロセンサ、111:場所記述情報生成モジュール、112:構成モジュール、113:キャラクタ制御モジュール、114:視点決定モジュール、115:描画モジュール、116:合成モジュール、201:解析モジュール、202:特定モジュール、203:特性把握モジュール   10: terminal device, 20: server, 30: network, 100: control unit, 101: speaker, 102: microphone, 103: imaging unit, 105: display, 106: depth sensor, 107: communication unit, 108: geomagnetic sensor , 109: acceleration sensor, 110: gyro sensor, 111: place description information generation module, 112: configuration module, 113: character control module, 114: viewpoint determination module, 115: drawing module, 116: composition module, 201: analysis module 202: specific module 203: characteristic grasping module

Claims (8)

実空間に存在する実オブジェクトの配置を含む空間情報と、前記実オブジェクトの特性とを取得する第1の取得手段と、
予め定められた情報源から出力された所定の情報を取得する第2の取得手段と、
前記実空間に対応して構築される3次元空間を、所定の視点について描画する描画手段であって、前記実オブジェクトの配置及び特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、
前記描画手段は、前記第2の取得手段により前記所定の情報が取得されたことに応じて、該所定の情報と関連する特性を有する前記実オブジェクトを特定し、該実オブジェクトと対応する挙動を示す表示態様で、前記仮想キャラクタを描画したキャラクタ画像を生成する
ことを特徴とするキャラクタ画像生成装置。
First acquisition means for acquiring space information including an arrangement of a real object existing in the real space and characteristics of the real object;
Second acquisition means for acquiring predetermined information output from a predetermined information source;
A drawing means for drawing a three-dimensional space constructed corresponding to the real space for a predetermined viewpoint, wherein a virtual character in the three-dimensional space is displayed in a display mode according to the arrangement and characteristics of the real object. A character image generating device having a drawing means for generating a drawn character image,
The drawing means identifies the real object having characteristics related to the predetermined information in response to the acquisition of the predetermined information by the second acquisition means, and displays a behavior corresponding to the real object. A character image generating apparatus, wherein a character image in which the virtual character is drawn is generated in the display mode shown.
前記所定の情報は、前記仮想キャラクタを介して提示を行うものとして予め定められた種別の情報であることを特徴とする請求項1に記載のキャラクタ画像生成装置。   The character image generating apparatus according to claim 1, wherein the predetermined information is information of a predetermined type that is presented through the virtual character. 前記所定の情報と関連する特性は、該所定の情報のデータ構造、配信元、及び文字列の少なくともいずれかを解析することにより特定されることを特徴とする請求項1または2に記載のキャラクタ画像生成装置。   The character according to claim 1 or 2, wherein the characteristic related to the predetermined information is specified by analyzing at least one of a data structure, a distribution source, and a character string of the predetermined information. Image generation device. 特定された前記所定の情報と関連する特性を有する前記実オブジェクトと対応する挙動は、前記3次元空間中の該実オブジェクトと対応する位置に移動させ、該所定の情報について予め定められた行動をとるものであることを特徴とする請求項1乃至3のいずれか1項に記載のキャラクタ画像生成装置。   The behavior corresponding to the real object having the characteristic related to the specified predetermined information is moved to a position corresponding to the real object in the three-dimensional space, and a predetermined action is performed on the predetermined information. The character image generation device according to claim 1, wherein the character image generation device is a character image generation device. 前記実オブジェクトは、稼動状態が変化する機器であり、
前記キャラクタ画像生成装置は、前記実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて前記実オブジェクトの特性を変更する変更手段をさらに有し、
前記描画手段は、前記変更手段により前記実オブジェクトの特性が変更された場合に、変更後の該特性に応じて、前記仮想キャラクタの表示態様を異ならせる
ことを特徴とする請求項1乃至4のいずれか1項に記載のキャラクタ画像生成装置。
The real object is a device whose operating state changes,
The character image generation device further includes a changing unit that acquires an operating state of the real object and changes characteristics of the real object according to the acquired operating state.
5. The drawing unit according to claim 1, wherein when the characteristic of the real object is changed by the changing unit, the display mode of the virtual character is changed according to the changed characteristic. The character image generation device according to any one of the preceding claims.
実空間に存在する実オブジェクトの配置を含む空間情報と、前記実オブジェクトの特性とを取得する第1の取得工程と、
予め定められた情報源から出力された所定の情報を取得する第2の取得工程と、
前記実空間に対応して構築される3次元空間を、所定の視点について描画する描画工程であって、前記実オブジェクトの配置及び特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画工程と、を有するキャラクタ画像生成方法であって、
前記描画工程において、前記第2の取得工程において前記所定の情報が取得されたことに応じて、該所定の情報と関連する特性を有する前記実オブジェクトを特定し、該実オブジェクトと対応する挙動を示す表示態様で、前記仮想キャラクタを描画したキャラクタ画像が生成される
ことを特徴とするキャラクタ画像生成方法。
A first acquisition step of acquiring spatial information including an arrangement of a real object existing in the real space and characteristics of the real object;
A second acquisition step of acquiring predetermined information output from a predetermined information source;
A drawing step of drawing a three-dimensional space constructed corresponding to the real space with respect to a predetermined viewpoint, wherein a virtual character in the three-dimensional space is displayed in a display mode according to the arrangement and characteristics of the real object. A character image generation method comprising: a drawing step of generating a drawn character image,
In the drawing step, in response to the acquisition of the predetermined information in the second acquisition step, the real object having characteristics related to the predetermined information is specified, and a behavior corresponding to the real object is determined. A character image generation method, wherein a character image in which the virtual character is drawn is generated in the display mode shown.
コンピュータを、請求項1乃至5のいずれか1項に記載のキャラクタ画像生成装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the character image generation apparatus of any one of Claims 1 thru | or 5. 請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2019078844A 2019-04-17 2019-04-17 Character image generator, character image generation method, program and recording medium Active JP6843178B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019078844A JP6843178B2 (en) 2019-04-17 2019-04-17 Character image generator, character image generation method, program and recording medium
JP2021026614A JP6982203B2 (en) 2019-04-17 2021-02-22 Character image generator, character image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078844A JP6843178B2 (en) 2019-04-17 2019-04-17 Character image generator, character image generation method, program and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017034845A Division JP6517255B2 (en) 2017-02-27 2017-02-27 Character image generation apparatus, character image generation method, program, recording medium, and character image generation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021026614A Division JP6982203B2 (en) 2019-04-17 2021-02-22 Character image generator, character image generation method and program

Publications (2)

Publication Number Publication Date
JP2019139793A true JP2019139793A (en) 2019-08-22
JP6843178B2 JP6843178B2 (en) 2021-03-17

Family

ID=67695409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078844A Active JP6843178B2 (en) 2019-04-17 2019-04-17 Character image generator, character image generation method, program and recording medium

Country Status (1)

Country Link
JP (1) JP6843178B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072667A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2008219285A (en) * 2007-03-01 2008-09-18 Nintendo Co Ltd Video content display program and video content display device
JP2014134990A (en) * 2013-01-11 2014-07-24 Casio Comput Co Ltd Communication device, ar display system, and program
JP2015011360A (en) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード Information processing device and program
JP2015118574A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Construction of augmented reality environment by pre-calculated illumination

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072667A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2008219285A (en) * 2007-03-01 2008-09-18 Nintendo Co Ltd Video content display program and video content display device
JP2014134990A (en) * 2013-01-11 2014-07-24 Casio Comput Co Ltd Communication device, ar display system, and program
JP2015011360A (en) * 2013-06-26 2015-01-19 株式会社デジタル・スタンダード Information processing device and program
JP2015118574A (en) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション Construction of augmented reality environment by pre-calculated illumination

Also Published As

Publication number Publication date
JP6843178B2 (en) 2021-03-17

Similar Documents

Publication Publication Date Title
JP6517255B2 (en) Character image generation apparatus, character image generation method, program, recording medium, and character image generation system
CN111052043B (en) Controlling external devices using a real-world interface
US10320437B2 (en) System and method for immersive and interactive multimedia generation
CN112926428B (en) Method and system for training object detection algorithm using composite image and storage medium
KR101818024B1 (en) System for the rendering of shared digital interfaces relative to each user&#39;s point of view
CN105190482B (en) Scale the detection of gesture
US20180189549A1 (en) Method for communication via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
JP6348741B2 (en) Information processing system, information processing apparatus, information processing program, and information processing method
CN105190483A (en) Detection of a gesture performed with at least two control objects
US11375559B2 (en) Communication connection method, terminal device and wireless communication system
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JPWO2019171557A1 (en) Image display system
JP2018147151A (en) Terminal apparatus, control method therefor and program
JP2018124515A (en) Computer program, terminal, and method
JP6982203B2 (en) Character image generator, character image generation method and program
JP2019032844A (en) Information processing method, device, and program for causing computer to execute the method
JP6843178B2 (en) Character image generator, character image generation method, program and recording medium
JP2019160332A (en) Computer program, terminal, and method
JP2017199085A (en) Information processing apparatus, information processing method, and program
JP2016192096A (en) Object recognition and selection device, object recognition and selection method, and program
JP7441289B1 (en) Computer program, information processing terminal, and its control method
US11907434B2 (en) Information processing apparatus, information processing system, and information processing method
JP7293057B2 (en) Radiation dose distribution display system and radiation dose distribution display method
US20240079031A1 (en) Authoring tools for creating interactive ar experiences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210222

R150 Certificate of patent or registration of utility model

Ref document number: 6843178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150