JP6517255B2 - Character image generation apparatus, character image generation method, program, recording medium, and character image generation system - Google Patents
Character image generation apparatus, character image generation method, program, recording medium, and character image generation system Download PDFInfo
- Publication number
- JP6517255B2 JP6517255B2 JP2017034845A JP2017034845A JP6517255B2 JP 6517255 B2 JP6517255 B2 JP 6517255B2 JP 2017034845 A JP2017034845 A JP 2017034845A JP 2017034845 A JP2017034845 A JP 2017034845A JP 6517255 B2 JP6517255 B2 JP 6517255B2
- Authority
- JP
- Japan
- Prior art keywords
- real object
- real
- character image
- character
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システムに関し、特に実空間を認識して複合現実感提示を行う技術に関する。 The present invention relates to a character image generation apparatus, a character image generation method, a program, a recording medium, and a character image generation system, and more particularly to a technology for recognizing real space and performing mixed reality presentation.
実空間に配置された特定のマーカを撮像することにより装置の位置及び姿勢を推定し、撮像画像中に3DCGのキャラクタ等を重畳表示することで、あたかも該マーカを基準に定まる平面上にキャラクタが存在するかの如く複合現実感提示を行うものがあった(特許文献1)。 The position and orientation of the device are estimated by imaging a specific marker placed in real space, and a 3DCG character or the like is superimposed on the captured image to display the character as if it were determined on the basis of the marker. There has been a method of presenting mixed reality as if it exists (Patent Document 1).
一方、特許文献1に記載の技術では実空間に異質なマーカを配置することになるため、好適な現実感が提示できない可能性があった。故に、近年では、マーカを配置することなく撮像画像中の平面を認識し、該平面について複合現実感提示を行う手法が採用されつつある。 On the other hand, in the technique described in Patent Document 1, there is a possibility that a suitable sense of reality can not be presented because a heterogeneous marker is placed in the real space. Therefore, in recent years, a method of recognizing a plane in a captured image without arranging a marker and presenting mixed reality on the plane is being adopted.
しかしながら、撮像画像によっては必ずしも所望の面がキャラクタの配置される平面として認識されず、例えば床面ではなくテーブル上にキャラクタが立っている等、現実感の欠如した提示がなされる場合がある。 However, depending on the captured image, a desired surface may not necessarily be recognized as a plane on which the character is arranged, and for example, a presentation without a sense of reality may be made, such as the character standing on a table instead of a floor surface.
本発明は、上述の問題点に鑑みてなされたものであり、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うキャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システムを提供することを目的とする。 The present invention has been made in view of the above problems, and is a character image generation apparatus, character image generation method, program for performing preferable mixed reality presentation considering characteristics of a real object existing in a real space. An object of the present invention is to provide a recording medium and a character image generation system.
前述の目的を達成するために、本発明のキャラクタ画像生成装置は、実空間を撮像した撮像画像を取得する第1の取得手段と、第1の取得手段により取得された撮像画像に基づいて、実空間に存在する実オブジェクトの配置を含む空間情報を構成する構成手段と、実オブジェクトの特性を取得する第2の取得手段と、実空間に対応して構築される3次元空間を、撮像画像を撮像した撮像装置と対応する視点について描画する描画手段であって、実オブジェクトの配置及び特性に応じた表示態様で、3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、実オブジェクトは、稼動状態が変化する機器であり、キャラクタ画像生成装置は、実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて実オブジェクトの特性を変更する変更手段をさらに有し、描画手段は、実オブジェクトの変更手段により変更された特性と、該実オブジェクトの配置とに応じた表示態様で、仮想キャラクタを描画したキャラクタ画像を生成することを特徴とする。 In order to achieve the above-mentioned object, according to the character image generation device of the present invention, based on a first acquisition unit for acquiring a captured image obtained by imaging a real space, and a captured image acquired by the first acquisition unit, A configuration means for constructing spatial information including arrangement of real objects existing in real space, a second acquisition means for acquiring characteristics of real objects, and a three-dimensional space constructed corresponding to real space Drawing means for drawing an image pickup device that has picked up an image and a viewpoint corresponding to the image, and generating a character image in which a virtual character in a three-dimensional space is drawn in a display mode corresponding to the arrangement and characteristics of a real object; a character image generating apparatus having the real object is a device which operation state is changed, the character image generating apparatus acquires an operation state of the real object The image processing apparatus further includes changing means for changing the property of the real object according to the acquired operation state, and the drawing means displays the property changed by the changing means for the real object and the display mode according to the arrangement of the real object. , Generating a character image in which a virtual character is drawn .
このような構成により本発明によれば、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うことが可能となる。 With such a configuration, according to the present invention, it is possible to perform preferable mixed reality presentation in consideration of the characteristics of the real object existing in the real space.
[実施形態]
以下、本発明の例示的な実施形態について、図面を参照して詳細に説明する。なお、以下に説明する一実施形態は、キャラクタ画像生成装置の一例としての、撮像画像に基づく実空間計測が可能な端末装置に、本発明を適用した例を説明する。しかし、本発明は、実空間に存在する実オブジェクトの特性に応じた表示態様のキャラクタ画像を生成することが可能な任意の機器に適用可能である。また、本明細書において、「場所記述情報」とは、任意の位置で撮像された画像における特徴点の分布をスクリーン座標として記録した情報を指し、また「3次元空間情報(あるいは単に空間情報)」とは、端末装置の移動や姿勢変化と、これに伴い撮像された撮像画像とに基づいて構築された、実空間中の特徴点とその位置(空間座標)を示す情報の集合を指すものとする。
[Embodiment]
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the drawings. In the embodiment described below, an example in which the present invention is applied to a terminal device capable of real space measurement based on a captured image as an example of a character image generation device will be described. However, the present invention is applicable to any device capable of generating a character image of a display manner according to the characteristics of a real object present in real space. Further, in the present specification, “location description information” refers to information in which the distribution of feature points in an image captured at an arbitrary position is recorded as screen coordinates, and “three-dimensional space information (or simply space information) "" Refers to a set of information indicating feature points in real space and their positions (space coordinates), which are constructed based on movement or posture change of the terminal device and a captured image captured accordingly I assume.
《システム構成》
図1は、本発明の実施形態に係るキャラクタ画像生成システムの構成を示したシステム図である。図1に示されるように、本実施形態のキャラクタ画像生成システムは、ユーザへのキャラクタ画像の提示を行う端末装置10、後述の実オブジェクトの特性把握に係る解析を行うサーバ20、及びこれら装置間での通信接続と情報通信とを実現する、移動通信網や無線LAN等であってよいネットワーク30で構成される。図1の例では、1つのサーバ20に対し、1つの端末装置10が接続される構成を示しているが、本発明の実施はこれに限られるものではなく、複数の端末装置10が1つのサーバ20に接続可能に構成されるものであってよいことは言うまでもない。
"System configuration"
FIG. 1 is a system diagram showing the configuration of a character image generation system according to an embodiment of the present invention. As shown in FIG. 1, the character image generation system of the present embodiment includes a terminal device 10 that presents a character image to a user, a server 20 that performs analysis related to grasping the characteristics of real objects described later, and the devices And a network 30, which may be a mobile communication network or a wireless LAN, for realizing communication connection and information communication. Although the example of FIG. 1 shows a configuration in which one terminal device 10 is connected to one server 20, the embodiment of the present invention is not limited to this, and a plurality of terminal devices 10 is one. It goes without saying that the server 20 may be configured to be connectable.
〈端末装置10のハードウェア構成〉
図2は、本実施形態による端末装置10の概略的なハードウェア構成図である。端末装置10は、例えば、スマートフォンといった携帯型の通信端末である。スピーカ101は、制御部100から出力する音声信号を音声に変換する。マイク102は、音声を音声信号に変換して制御部100に出力する。撮像部103は、レンズ及びCCDセンサを有し、画像情報を取得して制御部100に出力する。ディスプレイ105は、本実施形態では、タッチセンシティブディスプレイであり、ユーザへの情報の提示に加え、ユーザ操作の入力部としても機能する。なお、ディスプレイがタッチセンシティブディスプレイではない場合、別に、入力部を設ける。深さセンサ106は、オブジェクトまでの距離(深さ)を測定して測定結果を深さ情報として制御部100に出力する。通信部107は、移動通信網や無線LANであってよいネットワーク30を介した通信処理を行う。地磁気センサ108は、地磁気を検出して端末の基準方向の現在の向きを示す方位情報を制御部100に出力する。加速度センサ109は、加速度を検出して加速度情報を制御部100に出力する。ジャイロセンサ110は、角速度を検出して角速度情報を制御部100に出力する。
<Hardware Configuration of Terminal Device 10>
FIG. 2 is a schematic hardware configuration diagram of the terminal device 10 according to the present embodiment. The terminal device 10 is, for example, a portable communication terminal such as a smartphone. The speaker 101 converts an audio signal output from the control unit 100 into an audio. The microphone 102 converts voice into a voice signal and outputs the voice signal to the control unit 100. The imaging unit 103 includes a lens and a CCD sensor, acquires image information, and outputs the image information to the control unit 100. In the present embodiment, the display 105 is a touch-sensitive display, and in addition to presenting information to the user, it also functions as an input unit for user operation. If the display is not a touch sensitive display, an input unit is provided separately. The depth sensor 106 measures the distance (depth) to the object and outputs the measurement result to the control unit 100 as depth information. The communication unit 107 performs communication processing via the network 30, which may be a mobile communication network or a wireless LAN. The geomagnetic sensor 108 detects geomagnetism and outputs, to the control unit 100, direction information indicating the current direction of the reference direction of the terminal. The acceleration sensor 109 detects an acceleration and outputs acceleration information to the control unit 100. The gyro sensor 110 detects angular velocity and outputs angular velocity information to the control unit 100.
制御部100は、端末装置全体の制御部であり、1つ以上のプロセッサとメモリ部と、を備えている。なお、メモリ部は、プロセッサが一時的なデータの保存用として使用するRAMや、プロセッサが実行するオペレーティングシステム及びアプリケーションと、電源断となっても保持すべきデータとが格納されるフラッシュメモリを有する。 The control unit 100 is a control unit of the entire terminal device, and includes one or more processors and a memory unit. The memory unit includes a RAM that the processor uses for temporary data storage, and a flash memory that stores an operating system and applications that the processor executes and data that should be held even if the power is turned off. .
〈端末装置10のソフトウェア構成〉
図3は、本発明の実施形態に係る端末装置10において実現される機能構成モジュールを示したソフトウェア構成図である。これら機能構成モジュールは、制御部100により対応するプログラムがメモリ展開されて実行されることにより実現される。
場所記述情報生成モジュール111は、例えば、非特許文献1に記載された技術に基づき場所記述情報を生成する。場所記述情報とは、撮像部103が撮像している画像から端末装置の3次元空間位置と撮像部103の撮像方向を判定するための情報である。まず、非特許文献1に記載された場所記述情報の生成について説明する。端末装置10のユーザは、場所記述情報の取得を開始すると、撮像部103により画像を撮像しながら、その位置や、撮像方向を変化させる。場所記述情報生成モジュール111は、場所記述情報の取得の間、その開始時の位置を原点とし、加速度情報及び角速度情報に基づき、(暫定的な)端末装置の位置や撮像方向の向き(姿勢)を判定し続ける。また、場所記述情報生成モジュール111は、撮像部103が撮像している画像内の特徴点を求める。このとき、場所記述情報生成モジュール111は、3次元空間における端末装置の位置や撮像方向と、画像内の同じ特徴点の位置、つまり、特徴点のスクリーン座標を判定する。これにより、場所記述情報生成モジュール111は、3次元空間内の各位置及び各撮像方向において、撮像部103が撮像している画像内のどの位置に各特徴点が見えるかを示す場所記述情報を生成する。よって、場所記述情報生成モジュール111は、既に生成した場所記述情報と、撮像部103が撮像している画像の特徴点とを比較することで、そのときの(最終的な)端末装置の3次元空間位置と撮像部103の撮像方向を判定することができる。なお、3次元空間位置の原点は、場所記述情報を開始したときの位置であるものとする。また、場所記述情報生成モジュール111は、既に保存している場所記述情報と、撮像部103が撮像している画像の特徴点との比較により端末装置の3次元空間位置と撮像部103の撮像方向を判定すると同時に、撮像部103が撮像している画像の特徴点に基づき当該既に保存している場所記述情報の更新も行う。
<Software Configuration of Terminal Device 10>
FIG. 3 is a software configuration diagram showing functional configuration modules implemented in the terminal device 10 according to the embodiment of the present invention. These functional configuration modules are realized by the control unit 100 developing a corresponding program and executing it.
The place description information generation module 111 generates place description information based on, for example, the technology described in Non-Patent Document 1. The place description information is information for determining the three-dimensional spatial position of the terminal device and the imaging direction of the imaging unit 103 from the image captured by the imaging unit 103. First, generation of place description information described in Non-Patent Document 1 will be described. When the user of the terminal device 10 starts acquisition of place description information, while capturing an image by the imaging unit 103, the user changes the position and the imaging direction. The place description information generation module 111 uses the position at the start time as the origin during acquisition of the place description information, and based on the acceleration information and the angular velocity information, the (temporary) position of the terminal device or the orientation (posture) of the imaging direction Continue to judge. In addition, the place description information generation module 111 obtains feature points in the image captured by the imaging unit 103. At this time, the place description information generation module 111 determines the position of the terminal device in the three-dimensional space and the imaging direction, and the position of the same feature point in the image, that is, the screen coordinates of the feature point. As a result, the place description information generation module 111 generates place description information indicating which position in the image captured by the imaging unit 103 each feature point can be viewed at each position in the three-dimensional space and each imaging direction. Generate Therefore, the place description information generation module 111 compares the already generated place description information with the feature points of the image captured by the imaging unit 103 to obtain the (final) three-dimensional terminal device at that time. The spatial position and the imaging direction of the imaging unit 103 can be determined. The origin of the three-dimensional space position is assumed to be the position when the place description information is started. In addition, the place description information generation module 111 compares the place description information already stored with the feature points of the image captured by the imaging unit 103, and the three-dimensional spatial position of the terminal device and the imaging direction of the imaging unit 103. At the same time, the location description information already stored is also updated based on the feature points of the image captured by the imaging unit 103.
上述した様に、場所記述情報は、端末装置の位置及び撮像方向と、撮像部103が撮像した画像内にある各オブジェクトの各特徴点のスクリーン座標における位置との関係を示す情報であるため、場所記述情報に基づき、各特徴点の3次元空間位置の座標を示す3次元空間情報を生成することができる。即ち、場所記述情報のうちの異なる位置及び撮像方向の組み合わせに対応する情報につき、同一の特徴点のスクリーン座標での移動を考慮することで奥行き方向の情報を得、該特徴点の3次元空間位置を導出することができる。本実施形態では構成モジュール112が、場所記述情報に基づき、実空間に存在する特徴点の3次元位置を示す3次元空間情報を構成する。3次元空間情報は、特徴点の空間座標の分布を示す点群データであってよく、各点について3次元座標、あるいはこれに加えて色情報等を管理するものであってよい。 As described above, the location description information is information indicating the relationship between the position and imaging direction of the terminal device and the position of each feature point of each object in the image captured by the imaging unit 103 in the screen coordinates, Based on the place description information, three-dimensional space information indicating the coordinates of the three-dimensional space position of each feature point can be generated. That is, for information corresponding to a combination of different positions and imaging directions in the place description information, information in the depth direction is obtained by considering the movement of the same feature point on screen coordinates, and the three-dimensional space of the feature point The position can be derived. In the present embodiment, the configuration module 112 configures three-dimensional space information indicating the three-dimensional position of feature points present in the real space based on the place description information. The three-dimensional space information may be point cloud data indicating a distribution of space coordinates of the feature points, and may manage color information or the like for each point in addition to the three-dimensional coordinates or this.
なお、3次元空間情報に係る空間位置の原点は、例えば、場所記述情報生成モジュール111が場所記述情報の生成を開始したときの端末装置10の位置と同一であってよい。構成する3次元空間情報の座標系は、その縦方向(y軸)が、地磁気センサ108により判明する鉛直方向と平行になるように定められることが好ましい。また、構成モジュール112は、場所空間情報の更新と同期して、既に保存している3次元空間情報の対応する特徴点の3次元位置の情報を更新する。 In addition, the origin of the space position which concerns on three-dimensional space information may be the same as the position of the terminal device 10, for example, when the place description information generation module 111 starts the generation of the place description information. It is preferable that the coordinate system of the three-dimensional space information to be configured is determined so that the vertical direction (y axis) is parallel to the vertical direction determined by the geomagnetic sensor 108. Further, the configuration module 112 updates the information of the three-dimensional position of the corresponding feature point of the three-dimensional space information already stored, in synchronization with the update of the place space information.
ここで、3次元空間情報は、実測値である加速度情報及び角速度情報に基づき、実空間と略同一のスケールを示す態様にて構成され、実空間内に存在する実オブジェクトの寸法等を取得可能に構成されるものとして説明するが、所定の縮尺で構成されるものであってもよいことは容易に理解されよう。また、本実施形態の端末装置10は加速度センサ109及びジャイロセンサ110を有しているため、3次元空間情報から実オブジェクトの寸法を取得可能であるが、本発明の実施はこれらのセンサを有することを要件とするものではない。即ち、撮像画像103が撮像した画像情報に対応する画像内の特徴点のそれぞれにつき、深さセンサ106から取得された深さ情報に基づいても、該特徴点までの奥行き方向の距離を取得できるため、異なる姿勢位置にて撮像された複数の画像情報に対応する画像間の相関関係と、深さ情報とを考慮することでも、実空間と同一とみなすスケールの3次元空間情報を構成することは可能である。 Here, the three-dimensional space information is configured in a manner showing a scale substantially the same as the real space based on the acceleration information and the angular velocity information which are measured values, and the dimensions etc. of the real object existing in the real space can be obtained It will be readily understood that it may be configured at a predetermined scale, although it will In addition, since the terminal device 10 according to the present embodiment includes the acceleration sensor 109 and the gyro sensor 110, the dimensions of the real object can be obtained from three-dimensional space information, but the embodiment of the present invention includes these sensors. Does not have to be a requirement. That is, the distance in the depth direction to the feature point can be obtained based on the depth information obtained from the depth sensor 106 for each of the feature points in the image corresponding to the image information captured by the captured image 103 Therefore, by considering the correlation between images corresponding to a plurality of pieces of image information captured at different posture positions and depth information, it is necessary to configure three-dimensional spatial information of a scale that is considered identical to the real space. Is possible.
キャラクタ制御モジュール113は、複合現実感の提示の一例としてディスプレイ105に表示される仮想キャラクタについて、その動作制御を行う。仮想キャラクタは、その外観を示す3次元モデルが予め保存されており、該3次元モデル用に、あるいは汎用的に設けられたモーションデータに基づき、その動作を制御することができる。また仮想キャラクタの制御は、視覚的に提示される動作に限られるものではなく、例えば音声提示、意思決定等に係る制御を含むものであってよい。なお、本実施形態では仮想キャラクタは、実空間に対応して設けられた所定の3次元空間(以下、ワールドとして識別する)に配置し、描画することでキャラクタ画像として視覚化することができる。該ワールドは、3次元空間情報により把握される実空間とも対応するが、点群データで構成される3次元空間情報とは別に構築され、描画用に設けられるものである。無論、3次元空間情報から把握される障害物の形状や配置の情報は、ワールドにも反映され、仮想キャラクタの行動や表示制限に考慮される。ワールドの座標系原点は、3次元空間情報と対応する位置に設けられるものであってもよいし、3次元空間情報の座標系とワールド座標系の相対関係(あるいは座標変換マトリクス)が規定される場合には異なっていてもよい。 The character control module 113 performs operation control on a virtual character displayed on the display 105 as an example of mixed reality presentation. A virtual character has a three-dimensional model indicating its appearance stored in advance, and its motion can be controlled based on motion data provided for the three-dimensional model or generally. The control of the virtual character is not limited to the operation presented visually, but may include, for example, control relating to voice presentation, decision making, and the like. In the present embodiment, the virtual character can be visualized as a character image by arranging in a predetermined three-dimensional space (hereinafter, identified as a world) provided corresponding to the real space and drawing. The world also corresponds to a real space grasped by three-dimensional space information, but is constructed separately from three-dimensional space information composed of point cloud data and provided for drawing. Of course, information on the shape and arrangement of obstacles grasped from three-dimensional space information is also reflected in the world, and is considered in the action and display restriction of the virtual character. The coordinate system origin of the world may be provided at a position corresponding to the three-dimensional space information, or the relative relationship (or coordinate conversion matrix) between the coordinate system of the three-dimensional space information and the world coordinate system is defined. The case may be different.
視点決定モジュール114は、場所記述情報生成モジュール111により判定された端末装置10の位置及び姿勢の情報に基づき、ワールドを描画する視点を決定する。ワールドを描画する視点は、実空間における端末装置10の位置と対応するワールド中の位置に、端末装置10の姿勢と対応する視線方向を有するよう決定される。ここで、視点に係る視野角の情報は、撮像部103の画角に対応するよう定められるものであってよい。 The viewpoint determination module 114 determines a viewpoint to draw a world based on the information of the position and orientation of the terminal device 10 determined by the location description information generation module 111. The viewpoint from which the world is drawn is determined to have a gaze direction corresponding to the attitude of the terminal device 10 at a position in the world corresponding to the position of the terminal device 10 in the real space. Here, the information of the viewing angle related to the viewpoint may be determined to correspond to the angle of view of the imaging unit 103.
描画モジュール115は、ワールドに配置され、場所記述情報生成モジュール111による動作制御がなされた仮想キャラクタを、視点決定モジュール114により決定された視点について描画し、キャラクタ画像を生成する。具体的には描画モジュール115は、図5(a)に示すような、最終的にディスプレイ105に表示される画像のうちの仮想キャラクタに係る領域の画像を描画する。 The drawing module 115 draws a virtual character arranged in the world and subjected to operation control by the place description information generation module 111 with respect to the viewpoint determined by the viewpoint determination module 114 to generate a character image. Specifically, the drawing module 115 draws an image of a region related to a virtual character among images to be finally displayed on the display 105 as shown in FIG. 5A.
合成モジュール116は、撮像部103により取得された画像情報に対応する撮像画像に対し、該撮像画像に対応して描画モジュール115により生成されたキャラクタ画像を合成し、複合現実感提示に係る提示用画像を生成する。該合成により、図5(b)のように実空間を示す撮像画像が、仮想キャラクタが実空間内に存在する状態の提示用画像(図5(c))となり、ディスプレイ105を介してユーザに提示される。 The synthesizing module 116 synthesizes the character image generated by the drawing module 115 corresponding to the captured image with respect to the captured image corresponding to the image information acquired by the imaging unit 103, for presentation related to mixed reality presentation. Generate an image. As a result, the captured image showing the real space as shown in FIG. 5B becomes a presentation image (FIG. 5C) in a state in which the virtual character exists in the real space. Will be presented.
このように本実施形態では、撮像部103により取得された画像情報に対応する撮像画像と描画モジュール115に生成されたキャラクタ画像とを合成することで、提示用画像を生成する。故に、キャラクタ画像の描画において、実空間に存在する実オブジェクトによって仮想キャラクタが遮蔽される領域については、キャラクタ画像上に現わされなくてよい。具体的には、深さ情報もしくは3次元空間情報により、仮想オブジェクトの手前に実オブジェクトが存在すると判断可能である場合には、該実オブジェクトに相当する仮想オブジェクトをワールドに配置し、描画モジュール115は該仮想オブジェクトの描画は行わず、かつ仮想キャラクタのうちの該仮想オブジェクトにより遮蔽される部分については仮想キャラクタの描画を行わない制御を行う(例えば図7(a))。このようにすることで、撮像画像と合成した際に、実オブジェクトと仮想キャラクタとの前後関係が整合した、現実感のある画像提示(図7(b))が可能となる。 As described above, in the present embodiment, the presentation image is generated by combining the captured image corresponding to the image information acquired by the imaging unit 103 and the character image generated by the drawing module 115. Therefore, in the drawing of the character image, the area where the virtual character is occluded by the real object existing in the real space may not appear on the character image. Specifically, when it is possible to determine that a real object exists in front of a virtual object based on depth information or three-dimensional space information, the virtual object corresponding to the real object is placed in the world, and the drawing module 115 Does not draw the virtual object, and performs control so as not to draw the virtual character for the portion of the virtual character that is covered by the virtual object (for example, FIG. 7A). By doing this, it is possible to present a realistic image presentation (FIG. 7B) in which the anteroposterior relationship between the real object and the virtual character is consistent when combined with the captured image.
〈サーバ20のソフトウェア構成〉
本実施形態のサーバ20のハードウェア構成は、端末装置10との通信及び所定の処理を実行可能に構成されるものであればよいため、省略する。以下、本実施形態のサーバ20において実現される機能構成モジュールを示したソフトウェア構成について、図4を用いて説明する。これら機能構成モジュールは、端末装置10と同様に、不図示のサーバ20が有する制御部、フラッシュメモリ、RAM等により実現されるものとする。
<Software Configuration of Server 20>
The hardware configuration of the server 20 according to the present embodiment is omitted as long as communication with the terminal device 10 and predetermined processing can be performed. Hereinafter, the software configuration showing the functional configuration module realized in the server 20 of the present embodiment will be described using FIG. 4. Similar to the terminal device 10, these functional configuration modules are realized by a control unit, a flash memory, a RAM, and the like that the server 20 (not shown) has.
解析モジュール201は、端末装置10において撮像された1以上の撮像画像に基づき、撮像範囲に存在する実オブジェクトに係る解析を行う。本実施形態では解析モジュール201は、実オブジェクトがいずれであるかの特定を行う特定モジュール202と、実オブジェクトの特性を把握し、特性情報を出力する特性把握モジュール203とを有する。ここで、実オブジェクトの特性には、例えば椅子やテーブルのように、種別や形状から把握される通常の用途を示す情報(所謂アフォーダンス)が含まれる。またこの他、例えば照明器具や送風機等、その機能が実施されることで他の実オブジェクトに影響を与え得る実オブジェクトである場合には、特性には該影響を仮想キャラクタに生じさせるために必要となる各種のパラメータが含まれるものであってよい。 The analysis module 201 analyzes the real object present in the imaging range based on the one or more captured images captured by the terminal device 10. In the present embodiment, the analysis module 201 includes a specific module 202 that specifies which real object is, and a property recognition module 203 that recognizes the property of the real object and outputs property information. Here, the characteristics of the real object include, for example, information (so-called affordance) indicating a typical application grasped from the type and shape, such as a chair or a table. In addition to this, for example, in the case of a real object such as a lighting fixture or a fan, which is capable of affecting other real objects by its function being implemented, it is necessary to cause the virtual character to have an influence on the characteristic. May be included.
また特定モジュール202により行われる実オブジェクトがいずれであるかの特定は、寸法・形状・色情報等に基づく、予め3次元形状やテクスチャパターン等が登録されたデータベースとの対比、あるいは種々の学習を経て構築されるニューラルネットワークに基づく解析を含むものであってよい。 In addition, identification of which real object is performed by the identification module 202 is, based on size, shape, color information, etc., comparison with a database in which three-dimensional shapes, texture patterns, etc. are registered in advance, or various learnings. It may include analysis based on a neural network constructed through.
また、解析モジュール201により参照される、実オブジェクトの情報及び実オブジェクトの特性情報は、その全てが予めサーバ20に保持されているものである必要はなく、例えばユーザが端末装置10において、撮像された画像中の所望の実オブジェクトの領域を指定し、いずれの実オブジェクトであるか、あるいは実オブジェクトの特性がいずれであるかを入力し、これがサーバ20に伝送され、解析において使用可能に保持されるものとしてもよい。 Further, the real object information and the real object characteristic information to be referred to by the analysis module 201 do not have to be all held in advance in the server 20, and for example, the user is imaged in the terminal device 10 The area of the desired real object in the selected image is specified, and which real object or which property of the real object is input is transmitted to the server 20 and held available for analysis. It is good also as a thing.
例えば実オブジェクトが椅子である場合、特定モジュール202は撮像画像中の実オブジェクトと推定される領域の特定と、該領域の画像情報に基づき、実オブジェクトの種別が椅子であること、あるいはいずれの椅子(商品)であるかを特定する。そして特性把握モジュール203は、特定結果も考慮し、特性情報として、「該オブジェクトに対して仮想キャラクタの着座が可能であること(加えて、いずれの面が座面であるか)」や「該オブジェクト上に仮想キャラクタは登らないこと」を示す情報を出力する。 For example, when the real object is a chair, the identification module 202 identifies the area presumed to be a real object in the captured image and the image information of the area, and the type of the real object is a chair or which chair Identify if it is a product. Then, the characteristic grasping module 203 takes into consideration the specific result, and as characteristic information, “can sit on the virtual character with respect to the object (in addition, which surface is the seating surface)” or “this Output information indicating that the virtual character does not climb on the object.
また例えば実オブジェクトが照明器具である場合、特定モジュール202は撮像画像中の実オブジェクトと推定される領域の特定と、実オブジェクトの種別が照明であること、あるいはいずれの照明器具(商品)であるかを特定する。そして特性把握モジュール203は、特定結果も考慮し、特性情報として、「該オブジェクトがワールドにおける光源を定義すること」、「該オブジェクトにより仮想キャラクタの輝度表現または陰影表現が変更されること」、さらに、輝度変化等の影響導出に必要となる光源の輝度、照射方向、光源種類(直接照明、間接照明)の少なくともいずれかの情報を出力する。ここで、影響導出に必要となる各種情報は、例えば撮像画像中の輝度分布や周囲の色情報等に基づき解析されるものであってよい。 Also, for example, when the real object is a lighting fixture, the specification module 202 specifies a region estimated to be a real object in the captured image, and that the type of the real object is lighting, or any lighting fixture (product) Identify the Then, the characteristic grasping module 203 takes into consideration the specific result, and as characteristic information, “the object defines a light source in the world”, “the luminance expression or the shading expression of the virtual character is changed by the object”, And outputting at least one of information on the brightness of the light source, the direction of illumination, and the type of light source (direct illumination or indirect illumination), which are necessary for deriving the influence of a change in luminance, etc. Here, various pieces of information necessary for deriving the influence may be analyzed based on, for example, the luminance distribution in the captured image, the color information of the surroundings, and the like.
なお、このように解析モジュール201により取得される、入力された撮像画像中の実オブジェクトの領域の情報、及び該実オブジェクトの特性情報は、サーバ20が有する不図示の通信部により、ネットワーク30を介して端末装置10に解析結果として返送される。解析結果は、例えば3次元空間情報と関連付けて管理されるものであってよく、これにより、特徴点が所定の実オブジェクトの一部を構成するか、特徴点に係る実オブジェクトの特性がいずれであるかが把握可能となる。 Note that the information on the area of the real object in the input captured image thus acquired by the analysis module 201 and the characteristic information on the real object are transmitted to the network 30 by the communication unit (not shown) of the server 20. It is returned to the terminal device 10 as an analysis result through the communication. The analysis result may be managed, for example, in association with three-dimensional space information, so that the feature points form a part of a predetermined real object, or the characteristics of the real object concerning the feature points are It becomes possible to know if there is any.
《表示処理》
このような構成をもつ本実施形態の端末装置10の表示処理について、図6のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、制御部100が、例えばフラッシュメモリに記憶されている対応する処理プログラムを読み出し、RAMに展開して実行することにより各モジュールを動作させ、実現することができる。本表示処理は、例えば複合現実感提示に係る所定のアプリケーションが起動された際に開始され、ディスプレイ105に表示されるフレームごとに繰り返し実行されるものとして説明する。
Display processing
About the display processing of the terminal device 10 of this embodiment which has such a structure, a specific process is demonstrated using the flowchart of FIG. The processing corresponding to the flowchart can be realized by operating each module by the control unit 100 reading out a corresponding processing program stored in, for example, a flash memory, and expanding and executing the program in the RAM. The present display processing is described as being started when, for example, a predetermined application related to mixed reality presentation is started, and repeatedly executed for each frame displayed on the display 105.
S601で、撮像部103及び深さセンサ106は制御部100の制御の下、表示するフレームに係る撮像及びセンシングを行い、画像情報、加速度情報、角速度情報及び深さ情報を取得する。 In step S601, under the control of the control unit 100, the imaging unit 103 and the depth sensor 106 perform imaging and sensing related to a frame to be displayed, and acquire image information, acceleration information, angular velocity information, and depth information.
以下、端末装置10において行われる端末装置10の場所記述情報生成、位置姿勢判定及び3次元空間情報の構成に係る処理(S602〜S604)と、サーバ20に行わせる撮像範囲の実オブジェクトの解析に係る処理(S605〜S606)とは、並行して実行されるものとする。 Hereinafter, for processing (S602 to S604) related to location description information generation of the terminal device 10, position and orientation determination, and configuration of three-dimensional space information performed in the terminal device 10, and analysis of a real object in an imaging range to be performed Such processing (S605 to S606) is assumed to be executed in parallel.
S602で、場所記述情報生成モジュール111は、既に保存されている場所記述情報が存在するか否かを判断する。場所記述情報生成モジュール111は、既に保存されている場所記述情報が存在すると判断する場合には、処理をS603に移す。また場所記述情報生成モジュール111は、保存されている場所記述情報が存在していないと判断する場合には、端末装置10の位置及び姿勢を初期値(原点位置かつ回転なし)として定め、処理をS604に移す。 In step S602, the place description information generation module 111 determines whether the place description information already stored is present. If the place description information generation module 111 determines that there is already stored place description information, the process proceeds to step S603. When the place description information generation module 111 determines that the stored place description information does not exist, it determines the position and orientation of the terminal device 10 as an initial value (origin position and no rotation), and performs processing. Move to S604.
S603で、場所記述情報生成モジュール111は、表示フレームに係り取得された画像情報、加速度情報、角速度情報、及び既に保存されている場所記述情報に基づき、端末装置10の位置及び姿勢を判定する。なお、本実施形態では簡単のため、既に保存されている場所記述情報に、現在の撮像範囲の少なくとも一部の特徴点の情報が含まれているものとして説明する。少なくとも一部の特徴点が既に保存されている場所記述情報に含まれていない場合には、保存されている3場所記述情報が存在していない場合と同様に、位置及び姿勢を初期値として定めればよい。 In step S603, the place description information generation module 111 determines the position and orientation of the terminal device 10 based on the image information acquired regarding the display frame, the acceleration information, the angular velocity information, and the place description information already stored. In the present embodiment, for the sake of simplicity, it is assumed that the place description information already stored includes information of at least a part of feature points of the current imaging range. If at least some of the feature points are not included in the stored place description information, the position and orientation are set as initial values as in the case where the stored three place description information does not exist. Just do it.
S604で、構成モジュール112は、表示フレームに係り取得された画像情報に基づき更新された場所空間情報に対応して、3次元空間情報を構成または更新する。3次元空間情報の構成は、3次元空間情報がまだ構成されていない段階ではその生成から、構成されている段階では場所空間情報の更新に対応して行われる。 In step S604, the configuration module 112 configures or updates three-dimensional space information in accordance with the location space information updated based on the acquired image information pertaining to the display frame. The configuration of the three-dimensional space information is performed from the generation of the three-dimensional space information at the stage where the three-dimensional space information is not yet configured, and the update of the location space information at the configured stage.
一方、サーバ20に行わせる実オブジェクトの解析に係る処理については、制御部100はS605で、表示フレームに係り取得された画像情報を通信部107を介してサーバ20に解析要求と共に送信する。その後、制御部100はS606で、該要求に係る解析結果が返送されるまで待機し、解析結果が受信されると処理をS607に移す。なお、解析要求と共に送信する画像情報は撮像範囲の全体を示している必要はなく、例えばユーザの要求に応じて、特定の実オブジェクトに係る行動を優先的に仮想キャラクタに生じさせるよう、該実オブジェクトに係る所望の小領域の指示入力を受け付け、該小領域の画像情報を送信するようにしてもよい。このようにすることで、解析要求に係る情報量を削減し、また解析の処理量も低減することができるため、処理の高速化が実現できる。 On the other hand, with regard to the process related to the analysis of the real object to be performed by the server 20, the control unit 100 in S605 transmits the acquired image information to the display frame together with the analysis request to the server 20 via the communication unit 107. Thereafter, in S606, the control unit 100 waits until the analysis result related to the request is returned, and shifts the processing to S607 when the analysis result is received. Note that the image information transmitted along with the analysis request does not have to indicate the entire imaging range, and for example, the action related to a specific real object is preferentially caused to the virtual character according to the user's request. An instruction input of a desired small area related to an object may be received, and image information of the small area may be transmitted. In this way, the amount of information related to the analysis request can be reduced, and the amount of analysis processing can also be reduced, so that the processing speed can be increased.
S607で、構成モジュール111は、受信した解析結果(実オブジェクトの領域の情報、及び該実オブジェクトの特性情報)を3次元空間情報の対応する特徴点に関連付ける。なお、本実施形態では3次元空間情報と解析結果とを統合するものとして説明するが、本発明の実施はこれに限られるものではなく、互いの情報が関連付けられた状態となっていればよい。 In S607, the configuration module 111 associates the received analysis results (information of the real object area and characteristic information of the real object) with the corresponding feature points of the three-dimensional space information. Although the present embodiment will be described as integrating three-dimensional space information and an analysis result, the implementation of the present invention is not limited to this, as long as mutual information is associated with each other. .
S608で、キャラクタ制御モジュール113は、表示フレームに対応する仮想キャラクタの状態を決定し、仮想キャラクタを該状態に制御してワールドに配置するための種々の処理を行う。このとき、キャラクタ制御モジュール113は、仮想キャラクタを配置する位置と対応する、実空間中の位置周辺に存在する実オブジェクトの特性に応じて、仮想キャラクタの挙動を制御するものであってよい。なお、仮想キャラクタの挙動制御は、例えば表示フレームの撮像範囲に含まれた全ての実オブジェクトについて、その特性に基づく挙動を同時に開始させる必要はなく、仮想キャラクタとの相対関係(仮想キャラクタの配置位置と対応する実空間の位置の距離)に応じた順序(例えば距離の近い順)や所定の優先度に応じて、順次行われるものであってよい。また、1つの実オブジェクトについて特定の動作を行う場合には、該動作が頻繁に生じぬよう、撮像範囲に含まれていたとしても所定期間は動作を生じないよう制御してもよい。 In step S608, the character control module 113 determines the state of the virtual character corresponding to the display frame, and performs various processes for controlling the virtual character to the state and arranging the virtual character in the world. At this time, the character control module 113 may control the behavior of the virtual character in accordance with the characteristic of the real object existing around the position in the real space, which corresponds to the position where the virtual character is arranged. The behavior control of the virtual character does not need to simultaneously start the behavior based on the characteristics of all the real objects included in the imaging range of the display frame, for example, and the relative relationship with the virtual character (arrangement position of virtual character And may be sequentially performed according to an order (for example, an order of close distance) according to the distance of the position of the corresponding real space and a predetermined priority. When a specific operation is performed on one real object, control may be performed so that the operation does not occur for a predetermined period, even if it is included in the imaging range, so that the operation does not occur frequently.
S609で、描画モジュール115は、表示フレームに係る端末装置10の位置及び姿勢の情報に基づき視点決定モジュール114により決定された視点についてワールドを描画し、キャラクタ画像を生成する。光源として特性把握がなされた実オブジェクトが撮像環境に存在する場合、ワールドには該実オブジェクトに係る特性情報に基づく光源が定義され、描画モジュール115は該光源に起因する輝度演算を行う。 In step S609, the drawing module 115 draws the world for the viewpoint determined by the viewpoint determination module 114 based on the information on the position and orientation of the terminal device 10 related to the display frame, and generates a character image. When a real object whose characteristic is grasped as a light source exists in the imaging environment, a light source based on the characteristic information on the real object is defined in the world, and the drawing module 115 performs luminance calculation due to the light source.
S610で、合成モジュール116は、表示フレームに係り取得された画像情報に対応する撮像画像に、生成されたキャラクタ画像を合成して提示用画像を生成する。 In S610, the combining module 116 combines the generated character image with the captured image corresponding to the acquired image information pertaining to the display frame to generate a presentation image.
S611で、制御部100は、提示用画像をディスプレイ105に表示させ、表示フレームに係る表示処理を完了する。 In step S611, the control unit 100 causes the display 105 to display the presentation image, and completes the display process related to the display frame.
このように、本実施形態の表示処理ではS608及びS609の処理により、実空間に存在する実オブジェクトの特性に応じて仮想キャラクタの表示態様を制御することができる。実オブジェクトの特性に応じた仮想キャラクタの制御は、例えば次のように行われるものであってよい。 As described above, in the display process of the present embodiment, the display mode of the virtual character can be controlled according to the characteristics of the real object existing in the real space by the processes of S608 and S609. The control of the virtual character according to the characteristics of the real object may be performed, for example, as follows.
(1)実オブジェクトのアフォーダンスに起因する制御
上述たように実オブジェクトの用途に係る特性情報が取得される場合、撮像環境に存在する実オブジェクトを単に障害物としてではなく把握することができるため、該特性情報に応じた行動をとらせるよう、仮想キャラクタを制御できる。例えば、実オブジェクトが椅子や座布団等であり、着座用途であることが把握できる場合には、仮想キャラクタを該実オブジェクト上に着座させるよう、挙動制御するものであってよい。あるいは、実オブジェクトがテーブル等であり、着座用途ではなく、物体載置用途であることが把握できる場合には、仮想キャラクタを該実オブジェクト上に配置しないがキャラクタの装着品等は配置可能とする、仮想キャラクタが該実オブジェクトを避けて歩行する等、挙動制御するものであってよい。また例えば実オブジェクトが絵画や造形物等であり、観賞用途であることが把握できる場合には、仮想キャラクタは該実オブジェクトに注視するよう挙動制御するものであってもよい。
(1) Control due to affordance of real object As described above, when the characteristic information related to the application of the real object is acquired, the real object existing in the imaging environment can be grasped not simply as an obstacle. The virtual character can be controlled to take an action according to the characteristic information. For example, when the real object is a chair, a cushion, or the like, and it can be understood that it is a seating application, behavior control may be performed such that the virtual character is seated on the real object. Alternatively, when the real object is a table or the like, and it can be understood that it is not a seating application but an object mounting application, the virtual character is not arranged on the real object, but the wearing article of the character can be arranged. The virtual character may perform behavior control such as walking while avoiding the real object. Also, for example, when the real object is a picture, a shaped object, or the like, and it can be understood that it is for ornamental use, the virtual character may perform behavior control so as to focus on the real object.
(2)他の実オブジェクトに影響を及ぼす特性に起因する制御
実オブジェクトが機能を果たすことによって他の実オブジェクトに影響を及ぼす特性情報が取得される場合、撮像環境に存在する実オブジェクトに起因する変化が生じるよう、仮想キャラクタの描写を制御することができる。例えば、実オブジェクトが照明器具であり、機能することにより周囲の実オブジェクトの輝度変化や陰影変化を生じさせるとの特性が把握できる場合には、該実オブジェクトの影響を受ける所定の範囲に仮想キャラクタが配置される場合において、仮想キャラクタの位置と該実オブジェクトの位置及び光源特性の情報に基づき、仮想キャラクタの輝度やキャラクタに係り発生させる陰影の状態を制御するものであってよい。また例えば、実オブジェクトが空調機器であり、機能することによりカーテン等の周囲の実オブジェクトの動き(揺れ)を生じさせるとの特性が把握できる場合には、該実オブジェクトの影響を受ける所定の範囲に仮想キャラクタが配置される場合において、毛髪や被服等の挙動を制御するものであってよい。もちろん、このように他の実オブジェクトに影響を及ぼすか否かは、照明器具や空調機器の運転状況にもよるものであるため、解析モジュール201は、その運転状況によって特性情報を変更する、あるいは特性情報に応じた制御を行うか否かの情報を付加することにより解析結果を送出し、端末装置10における挙動制御は適応的に行われるものであってよい。
(2) Control due to characteristics affecting other real objects When property information affecting other real objects is acquired by the real objects performing their functions, it is due to the real objects existing in the imaging environment The depiction of the virtual character can be controlled so that a change occurs. For example, in the case where the real object is a luminaire and it is possible to grasp the characteristics of causing a change in brightness or a change in shade of the surrounding real object by functioning, a virtual character within a predetermined range affected by the real object. When is arranged, the luminance of the virtual character or the state of the shadow to be generated may be controlled based on the position of the virtual character and the information on the position of the real object and the light source characteristic. Also, for example, when the real object is an air conditioner and it is possible to grasp the characteristics that it causes movement (swing) of the real object such as a curtain by functioning, a predetermined range affected by the real object In the case where a virtual character is placed on the object, the behavior of hair, clothes, etc. may be controlled. Of course, whether to affect other real objects in this way depends on the operating conditions of the lighting fixtures and air conditioners, so the analysis module 201 changes the characteristic information according to the operating conditions, or The analysis result may be sent out by adding information as to whether or not to perform control according to the characteristic information, and behavior control in the terminal device 10 may be performed adaptively.
なお、これら制御はあくまで例示に過ぎず、仮想キャラクタの配置位置と対応する実空間の位置あるいはその周辺に存在する実オブジェクトの特性に応じて、その他の挙動制御が行われるものであってよい。また実オブジェクトと対応する位置に仮想キャラクタを配置している状態に限らず、例えば特性が把握された実オブジェクトの特徴点が3次元空間情報に含まれる場合、これに起因して仮想キャラクタの行動を発生させるよう、挙動制御は行われるものであってよい。即ち、アプリケーションが実行された際に、端末装置10の周囲に椅子が存在していることが既に把握されているのであれば、仮想キャラクタを該椅子方向に移動させ、着座させるよう挙動制御を行うものであってよい。 Note that these controls are merely examples, and other behavior control may be performed depending on the position of the virtual character and the position of the corresponding real space or the characteristics of the real object existing around the position. Further, the behavior of the virtual character is not limited to the state in which the virtual character is arranged at the position corresponding to the real object, for example, when the feature points of the real object whose characteristics are grasped are included in the three-dimensional space information. Behavioral control may be performed to generate That is, if it is already known that a chair is present around the terminal device 10 when the application is executed, behavior control is performed such that the virtual character is moved in the chair direction to be seated. It may be
また、例えば窓のように、種別が特定されたとしてもその物自体の特性は他の実オブジェクトに影響を与えるものではないが、外光が入射する等によって照明器具と同等の影響を他の実オブジェクトに与えている状態にある場合は、特性把握モジュール203は画像情報の輝度分布に基づきこれを把握し、他の実オブジェクトに照明効果を与える実オブジェクトとして、特性情報を出力するよう構成されてもよい。 Also, for example, even if the type is specified, such as a window, the property of the object itself does not affect other real objects, but the same effect as the lighting fixture can be obtained by the incidence of external light, etc. When in the state given to the real object, the characteristic grasping module 203 grasps this based on the luminance distribution of the image information, and is configured to output the characteristic information as a real object giving the illumination effect to the other real objects. May be
また照明器具や空調機器のように、その運転状況により他の実オブジェクトに変化を生じさせる特性を有する実オブジェクトに限らず、解析により運転状態等が判別可能な実オブジェクトについては、その状態に応じて特性情報を異ならせ、仮想キャラクタの挙動に変化が生じるよう構成してもよい。例えば、テレビ受像機であれば画面に対応する領域の画像情報に基づき、その運転状態や視聴されている番組等を解析可能であるため、仮想キャラクタに番組案内や観賞動作等の挙動を開始させるように構成してもよい。 In addition, not only real objects that have characteristics that cause other real objects to change depending on their operating conditions, such as lighting fixtures and air conditioners, and for real objects whose operating state etc. can be determined by analysis, depending on their state The characteristic information may be different, and the behavior of the virtual character may be changed. For example, in the case of a television receiver, based on image information of a region corresponding to a screen, it is possible to analyze the driving state, the program being watched, etc. It may be configured as follows.
また本実施形態では、解析モジュール201が画像情報に基づいて解析を行い、実オブジェクトを特定し、その特性情報を端末装置10に返送する態様について説明したが、本発明の実施はこれに限られるものではない。実オブジェクトの特定は、商品リストからの選択、商品名の入力等、端末装置10においてなされたユーザ操作に基づいて行われ、該商品に係る特性情報がサーバ20から取得可能に構成されるものであってもよい。 In the present embodiment, the analysis module 201 analyzes based on the image information, identifies the real object, and returns the characteristic information to the terminal device 10. However, the embodiment of the present invention is limited to this. It is not a thing. Identification of a real object is performed based on user operation performed in the terminal device 10, such as selection from a product list, input of a product name, and characteristic information related to the product can be acquired from the server 20. It may be.
また、任意の実オブジェクトについての特性情報は必ずしも一定である必要はなく、例えば時間帯、日時、あるいは所定のタイミングにおいて更新され、仮想キャラクタに異なる挙動を生じさせるよう構成されるものであってもよい。 Also, the characteristic information of any real object need not necessarily be constant, and may be updated, for example, at a time zone, a date or time, or at a predetermined timing, so as to cause the virtual character to behave differently. Good.
また、本実施形態のキャラクタ画像生成システムでは、ユーザへの複合現実感提示のために端末装置10とサーバ20とで機能を分離し、実オブジェクトの特性解析のみをサーバ20に実行させるものとして説明したが、機能の分離態様はこれに限られるものではない。即ち、本発明は、3次元空間情報の構成、実オブジェクトの特性解析、キャラクタ画像の生成が1以上の機器により実行されるものであれば実現可能である。 Further, in the character image generation system of the present embodiment, it is assumed that the functions are separated between the terminal device 10 and the server 20 for mixed reality presentation to the user, and only the characteristic analysis of real objects is executed by the server 20. However, the separation of functions is not limited to this. That is, the present invention can be realized as long as the configuration of three-dimensional space information, the characteristic analysis of a real object, and the generation of a character image are executed by one or more devices.
以上説明したように、本実施形態のキャラクタ画像生成装置によれば、実空間に存在する実オブジェクトの特性を考慮した、好適な複合現実感提示を行うことができる。 As described above, according to the character image generation device of the present embodiment, it is possible to perform preferable mixed reality presentation in consideration of the characteristics of the real object existing in the real space.
[変形例1]
上述した実施形態では、仮想キャラクタを配置する位置と対応する、実空間中の位置周辺の実オブジェクトの特性に応じて、キャラクタ制御モジュール113が仮想キャラクタの挙動制御を行うものとして説明したが、本発明の実施はこれに限られるものではない。
[Modification 1]
In the embodiment described above, the character control module 113 performs behavior control of the virtual character in accordance with the characteristics of the real object around the position in the real space corresponding to the position where the virtual character is arranged. The implementation of the invention is not limited to this.
仮想キャラクタの挙動制御は、例えば通信部107を介して所定の情報取得がなされたこと、あるいはスケジューラ等のアプリケーション実行により所定の情報出力がなされたことに応じて、該情報と関連する特性を有する実オブジェクトに係る動作を行うように行われるものであってもよい。ここで、所定の情報は、仮想キャラクタを介して提示を行うものとして予め定められた種別の情報(付加情報)であり、例えば天気予報、放送番組情報、あるいは展示物の解説情報等の所定の外部機器から供給されるものや、スケジュール情報や検索結果情報等の端末装置10で起動された他のアプリケーションから取得可能なものであってよい。また、付加情報と関連する特性は、該付加情報に付された実オブジェクトにつき把握される特性を示す情報に基づき把握されるものであってもよいし、データ構造、配信元、文字列等を解析することにより把握されるものであってもよい。この他、付加情報は、ユーザの発した音声情報を含むものであってよい。 Behavior control of a virtual character has characteristics associated with the information in response to, for example, predetermined information acquisition being performed via the communication unit 107 or predetermined information output being performed by application execution such as a scheduler or the like. It may be performed to perform an operation related to a real object. Here, the predetermined information is information (additional information) of a type previously determined to be presented via a virtual character, and for example, predetermined information such as weather forecast, broadcast program information, or commentary information on an exhibit What is supplied from an external device, and what can be acquired from the other applications started with the terminal device 10, such as schedule information and search result information, may be used. Further, the characteristic associated with the additional information may be grasped based on the information indicating the characteristic to be grasped about the real object attached to the additional information, the data structure, the distribution source, the character string, etc. It may be grasped by analysis. Besides, the additional information may include voice information generated by the user.
本変形例ではキャラクタ制御モジュール113は、既に3次元空間情報と関連付けられて管理されている実オブジェクトの特性と関連する付加情報が取得された場合に、仮想キャラクタを該実オブジェクトと対応する位置に移動させ、付加情報について予め定められた行動を行わせるように挙動制御を行う。例えば、実オブジェクトとしてテレビ受像機を示す特性情報が管理されている場合、付加情報として放送番組情報を受信すると、キャラクタ制御モジュール113は仮想キャラクタをテレビ受像機と対応するワールド中の位置に移動させ、テレビ受像機を指さしながら、「現在放送中の番組及びその情報」、「ユーザ趣向に合致する番組の開始時間の案内」等を音声を伴い提示するよう、挙動制御を行えばよい。また例えば、実オブジェクトとして所定の展示物を示す特性情報が管理されている場合、付加情報として解説情報を取得すると、キャラクタ制御モジュール113は、展示物と対応するワールド中の位置に仮想キャラクタを立ち止まらせ、展示物の解説を開始するよう、挙動制御を行えばよい。また例えば、実オブジェクトとして時計や玄関ドアを示す特性情報が管理されている場合、付加情報として外出予定に係るスケジュール情報を取得すると、キャラクタ制御モジュール113は仮想キャラクタを対応するワールド中の位置に移動させ、予定の通知や移動を促す通知を行うよう、挙動制御を行えばよい。 In this modification, the character control module 113 sets the virtual character to the position corresponding to the real object when the additional information related to the characteristic of the real object which is already managed in association with the three-dimensional space information is acquired. Behavior control is performed so as to move and perform a predetermined action on additional information. For example, when characteristic information indicating a television receiver is managed as a real object, when broadcast program information is received as additional information, the character control module 113 moves the virtual character to a position in the world corresponding to the television receiver. The behavior control may be performed so as to present, with voice, "a program currently being broadcast and its information", "a guide for a start time of a program matching a user preference", etc. while pointing to a television receiver. Also, for example, when characteristic information indicating a predetermined exhibit is managed as a real object, when the comment information is acquired as the additional information, the character control module 113 stops the virtual character at the position in the world corresponding to the exhibit. Behavior control should be performed to start explaining the exhibits. Also, for example, when characteristic information indicating a clock or an entrance door is managed as a real object, the character control module 113 moves the virtual character to the corresponding position in the world when schedule information related to the leaving schedule is acquired as additional information. The behavior control may be performed so as to give a notice of schedule and a notice of prompting movement.
このようにすることで、ただ観賞目的ではなく、ユーザの利用環境や配置されている実オブジェクトの特性に応じた、より付加価値の高い複合現実感提示を行うことができる。 By doing this, mixed reality presentation with higher added value can be performed according to the user's usage environment and the characteristics of the real objects placed, not just for the purpose of viewing.
[変形例2]
上述した実施形態及び変形例では、描画モジュール115により生成されたキャラクタ画像と撮像画像とが合成されることにより、複合現実感を提示する提示用画像が生成されてディスプレイ105に表示されるものとして説明したが、キャラクタ画像の提示はこれに限られるものではない。即ち、上述した態様は、ディスプレイ105に表示された提示用画像を介して、仮想キャラクタが実空間に存在するとの認識を与えるものであったが、例えばHMP(Head-Mounted Projector)やグラス型デバイス等、光学透過方式を採用する機器をディスプレイ105に代わり使用する態様であってもよい。この場合、キャラクタ画像のキャラクタに係る画素のみを、光学透過方式でユーザに視認可能に構成すればよく、ユーザは実世界を直接観察しながら、仮想キャラクタが実空間に存在するかの如く認識することができる。換言すれば、本発明の実施においてキャラクタ画像と撮像画像との合成は必須ではなく、提示方式に従って採用される要素であることは容易に理解されよう。なお、グラス型デバイス等を用いる場合は、位置及び姿勢の判定につき、該デバイス自体、あるいは該デバイスと対応する位置に撮像部103が設けられていることが好ましい。
[Modification 2]
In the embodiment and the modification described above, the character image generated by the drawing module 115 and the captured image are combined to generate a presentation image that presents mixed reality and is displayed on the display 105. Although described, the presentation of the character image is not limited to this. That is, although the aspect mentioned above gives recognition that a virtual character exists in real space via an image for presentation displayed on display 105, for example, HMP (Head-Mounted Projector) or a glass type device Alternatively, a device adopting an optical transmission method may be used instead of the display 105. In this case, only the pixels relating to the character of the character image may be made visible to the user by the optical transmission method, and the user recognizes as if the virtual character exists in the real space while directly observing the real world. be able to. In other words, it is easy to understand that the combination of the character image and the captured image is not essential in the practice of the present invention, but an element adopted according to the presentation method. In the case of using a glass-type device or the like, it is preferable that the imaging unit 103 be provided at a position corresponding to the device itself or the device for the determination of the position and the posture.
[変形例3]
上述した実施形態及び変形例では、表示フレームに係り取得された撮像画像に基づいて実オブジェクトの特性把握がなされるものとして説明したが、ユーザの観察する空間内の存在する実オブジェクトの特性把握は、ユーザの視点や端末装置10とは異なる位置に設けられた撮像装置により得られた撮像画像に基づいて行われるものであってよい。
[Modification 3]
In the embodiment and the modification described above, it has been described that the characteristics of the real object are grasped based on the captured image acquired by the display frame, but the characteristics grasp of the real object existing in the space observed by the user is The processing may be performed based on a captured image obtained by an imaging device provided at a position different from the viewpoint of the user or the terminal device 10.
同様に、表示フレームに係り取得された画像情報、加速度情報及び角速度情報に基づいて判定された位置及び姿勢とは異なる視点について、ワールドの描画を行い、キャラクタ画像を生成するものとしてもよい。即ち、変形例2に示したように撮像画像とキャラクタ画像との合成を要件としない態様においては、観賞するユーザの眼球位置と撮像部103の設置位置とは必ずしも一致しないため、これらの相対的な位置関係と、推定された位置及び姿勢の情報に基づき定まる視点につき、ワールドの描画は行われるものであってよい。 Similarly, the world may be drawn for a viewpoint different from the position and orientation determined based on the acquired image information, acceleration information and angular velocity information related to the display frame, and a character image may be generated. That is, as shown in the second modification, in the aspect that does not require the combination of the captured image and the character image, the eye position of the user who is watching and the installation position of the imaging unit 103 do not necessarily match. The drawing of the world may be performed with respect to the viewpoint determined based on the information on the positional relationship and the estimated position and orientation.
[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。また本発明に係るキャラクタ画像生成装置は、1以上のコンピュータを該装置として機能させるプログラムによっても実現可能である。該プログラムは、コンピュータが読み取り可能な記録媒体に記録されることにより、あるいは電気通信回線を通じて、提供/配布することができる。
Other Embodiments
The present invention is not limited to the above embodiment, and various changes and modifications can be made without departing from the spirit and scope of the present invention. The character image generation device according to the present invention can also be realized by a program that causes one or more computers to function as the device. The program can be provided / distributed by being recorded on a computer readable recording medium or through a telecommunication line.
10:端末装置、20:サーバ、30:ネットワーク、100:制御部、101:スピーカ、102:マイク、103:撮像部、105:ディスプレイ、106:深さセンサ、107:通信部、108:地磁気センサ、109:加速度センサ、110:ジャイロセンサ、111:場所記述情報生成モジュール、112:構成モジュール、113:キャラクタ制御モジュール、114:視点決定モジュール、115:描画モジュール、116:合成モジュール、201:解析モジュール、202:特定モジュール、203:特性把握モジュール 10: terminal device 20: server 30: network 100: control unit 101: speaker 102: microphone 103: imaging unit 105: display 106: depth sensor 107: communication unit 108: geomagnetic sensor , 109: acceleration sensor, 110: gyro sensor, 111: location description information generation module, 112: configuration module, 113: character control module, 114: viewpoint determination module, 115: drawing module, 116: synthesis module, 201: analysis module , 202: specific module, 203: characteristic grasping module
Claims (14)
前記第1の取得手段により取得された前記撮像画像に基づいて、前記実空間に存在する実オブジェクトの配置を含む空間情報を構成する構成手段と、
前記実オブジェクトの特性を取得する第2の取得手段と、
前記実空間に対応して構築される3次元空間を、前記撮像画像を撮像した撮像装置と対応する視点について描画する描画手段であって、前記実オブジェクトの配置及び特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、
前記実オブジェクトは、稼動状態が変化する機器であり、
前記キャラクタ画像生成装置は、前記実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて前記実オブジェクトの特性を変更する変更手段をさらに有し、
前記描画手段は、前記実オブジェクトの前記変更手段により変更された特性と、該実オブジェクトの配置とに応じた表示態様で、前記仮想キャラクタを描画したキャラクタ画像を生成する
ことを特徴とするキャラクタ画像生成装置。 A first acquisition unit for acquiring a captured image obtained by capturing an image of a real space;
Configuration means for configuring spatial information including an arrangement of real objects existing in the real space based on the captured image acquired by the first acquisition means;
A second acquisition unit that acquires the characteristic of the real object;
A drawing unit that draws a three-dimensional space constructed corresponding to the real space with respect to a viewpoint corresponding to an imaging device that has captured the captured image, and in a display mode according to the arrangement and characteristics of the real object, A character image generating apparatus having: drawing means for generating a character image in which the virtual character in the three-dimensional space is drawn ;
The real object is a device whose operating state changes,
The character image generation device further includes change means for acquiring the operating state of the real object, and changing the characteristic of the real object according to the acquired operating state,
The drawing means generates a character image in which the virtual character is drawn in a display mode according to the characteristic changed by the changing means of the real object and the arrangement of the real object. Character image generation device to be.
前記第2の取得手段は、前記特定手段による特定結果として、前記実オブジェクトの特性を取得することを特徴とする請求項1に記載のキャラクタ画像生成装置。 The image capturing apparatus further includes an identifying unit that analyzes the captured image and identifies characteristics of a real object in the captured image.
The character image generating device according to claim 1, wherein the second acquisition unit acquires a characteristic of the real object as a specification result by the specification unit.
前記第2の取得手段は、前記通信手段により受信された情報に基づき、前記実オブジェクトの特性を取得することを特徴とする請求項1に記載のキャラクタ画像生成装置。 The apparatus further comprises communication means for transmitting the captured image to an external device and receiving, from the external device, information indicating characteristics of a real object in the captured image based on analysis of the transmitted captured image.
The character image generating device according to claim 1, wherein the second acquisition unit acquires the characteristic of the real object based on the information received by the communication unit.
前記制御手段は、前記変更手段により変更された特性に応じて、前記仮想キャラクタの動作を異ならせるよう制御することを特徴とする請求項1乃至3のいずれか1項に記載のキャラクタ画像生成装置。 Based on the arrangement and characteristics of the real object, further have a control means for controlling the virtual character of the operation of the three-dimensional space,
The character image generating apparatus according to any one of claims 1 to 3, wherein the control means controls the operation of the virtual character to be different according to the characteristic changed by the changing means. .
前記制御手段は、前記実空間に存在する前記実オブジェクトの特性に関連する前記付加情報が受信された場合に、前記3次元空間中の該実オブジェクトと対応する位置において、前記仮想キャラクタに前記付加情報について予め定められた行動を行わせるよう制御することを特徴とする請求項4に記載のキャラクタ画像生成装置。 And receiving means for receiving additional information to be presented via the virtual character,
The control means adds the virtual character to the virtual character at a position corresponding to the real object in the three-dimensional space, when the additional information related to the property of the real object existing in the real space is received. 5. The character image generation device according to claim 4, wherein control is performed to cause a predetermined action to be performed on information.
前記第2の取得手段は、該光源の輝度、照射方向、光源種類の少なくともいずれかを特性として取得し、
前記描画手段は、該光源に基づく輝度変化または陰影変化を前記仮想キャラクタに反映させた状態で前記キャラクタ画像を生成する
ことを特徴とする請求項6に記載のキャラクタ画像生成装置。 When the real object existing in the real space is a light source,
The second acquisition unit acquires, as a characteristic, at least one of the brightness of the light source, the irradiation direction, and the type of the light source.
The character image generating apparatus according to claim 6, wherein the drawing unit generates the character image in a state in which a change in luminance or a change in shade based on the light source is reflected on the virtual character.
前記合成手段により生成された前記提示用画像を提示するディスプレイをさらに有することを特徴とする請求項1乃至7のいずれか1項に記載のキャラクタ画像生成装置。 Combining means for generating a presentation image obtained by combining the character image generated by the drawing means and the captured image;
The character image generation apparatus according to any one of claims 1 to 7, further comprising a display for presenting the presentation image generated by the combining unit.
前記第1の取得手段により取得された前記撮像画像に基づいて、前記実空間に存在する実オブジェクトの配置を含む空間情報を構成する構成手段と、
前記実オブジェクトの特性を取得する第2の取得手段と、
前記実空間に対応して構築される3次元空間を、提示を行う視点について描画する描画手段であって、前記実オブジェクトの配置及び特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成装置であって、
前記実オブジェクトは、稼動状態が変化する機器であり、
前記キャラクタ画像生成装置は、前記実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて前記実オブジェクトの特性を変更する変更手段をさらに有し、
前記描画手段は、前記実オブジェクトの前記変更手段により変更された特性と、該実オブジェクトの配置とに応じた表示態様で、前記仮想キャラクタを描画したキャラクタ画像を生成する
ことを特徴とするキャラクタ画像生成装置。 A first acquisition unit for acquiring a captured image obtained by capturing an image of a real space;
Configuration means for configuring spatial information including an arrangement of real objects existing in the real space based on the captured image acquired by the first acquisition means;
A second acquisition unit that acquires the characteristic of the real object;
It is a drawing means for drawing a three-dimensional space constructed corresponding to the real space with respect to a view point to be presented, and a virtual character in the three-dimensional space in a display manner according to the arrangement and characteristics of the real object. A character image generating apparatus having a drawing means for generating a character image drawing the
The real object is a device whose operating state changes,
The character image generation device further includes change means for acquiring the operating state of the real object, and changing the characteristic of the real object according to the acquired operating state,
The drawing means generates a character image in which the virtual character is drawn in a display mode according to the characteristic changed by the changing means of the real object and the arrangement of the real object. Character image generation device to be.
前記第1の取得工程において取得された前記撮像画像に基づいて、前記実空間に存在する実オブジェクトの配置を含む空間情報を構成する構成工程と、
前記実オブジェクトの特性を取得する第2の取得工程と、
前記実空間に対応して構築される3次元空間を、前記撮像画像を撮像した撮像装置と対応する視点について描画する描画工程であって、前記実オブジェクトの配置及び特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画工程と、を有するキャラクタ画像生成方法であって、
前記実オブジェクトは、稼動状態が変化する機器であり、
前記キャラクタ画像生成方法は、前記実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて前記実オブジェクトの特性を変更する変更工程をさらに有し、
前記描画工程において、前記実オブジェクトの前記変更工程において変更された特性と、該実オブジェクトの配置とに応じた表示態様で、前記仮想キャラクタを描画したキャラクタ画像が生成される
ことを特徴とするキャラクタ画像生成方法。 A first acquisition step of acquiring a captured image obtained by capturing an image of a real space;
A configuration step of configuring spatial information including an arrangement of real objects existing in the real space based on the captured image acquired in the first acquisition step;
A second acquisition step of acquiring characteristics of the real object;
It is a drawing step of drawing a three-dimensional space constructed corresponding to the real space with respect to a viewpoint corresponding to an imaging device that has picked up the captured image, in a display mode according to the arrangement and characteristics of the real object, And a drawing step of generating a character image in which the virtual character in the three-dimensional space is drawn .
The real object is a device whose operating state changes,
The character image generation method further includes a changing step of acquiring an operation state of the real object, and changing a characteristic of the real object according to the acquired operation state,
In the drawing step, a character image in which the virtual character is drawn is generated in a display mode according to the characteristics changed in the changing step of the real object and the arrangement of the real object. Character image generation method to be characterized.
前記第1の取得手段により取得された前記撮像画像に基づいて、前記実空間に存在する実オブジェクトの配置を含む空間情報を構成する構成手段と、
前記撮像画像を解析し、該撮像画像中の実オブジェクトの特性を特定する特定手段と、
前記実空間に対応して構築される3次元空間を、前記撮像画像を撮像した撮像装置と対応する視点について描画する描画手段であって、前記実オブジェクトの配置及び特性に応じた表示態様で、前記3次元空間中の仮想キャラクタを描画したキャラクタ画像を生成する描画手段と、を有するキャラクタ画像生成システムであって、
前記実オブジェクトは、稼動状態が変化する機器であり、
前記キャラクタ画像生成システムは、前記実オブジェクトの稼動状態を取得し、取得した該稼動状態に応じて前記実オブジェクトの特性を変更する変更手段をさらに有し、
前記描画手段は、前記実オブジェクトの前記変更手段により変更された特性と、該実オブジェクトの配置とに応じた表示態様で、前記仮想キャラクタを描画したキャラクタ画像を生成する
ことを特徴とするキャラクタ画像生成システム。 A first acquisition unit for acquiring a captured image obtained by capturing an image of a real space;
Configuration means for configuring spatial information including an arrangement of real objects existing in the real space based on the captured image acquired by the first acquisition means;
An identifying unit that analyzes the captured image and identifies characteristics of a real object in the captured image;
A drawing unit that draws a three-dimensional space constructed corresponding to the real space with respect to a viewpoint corresponding to an imaging device that has captured the captured image, and in a display mode according to the arrangement and characteristics of the real object, A character image generation system including: drawing means for generating a character image in which the virtual character in the three-dimensional space is drawn ;
The real object is a device whose operating state changes,
The character image generation system further includes changing means for acquiring the operating state of the real object and changing the characteristic of the real object according to the acquired operating state,
The drawing means generates a character image in which the virtual character is drawn in a display mode according to the characteristic changed by the changing means of the real object and the arrangement of the real object. Character image generation system to be.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017034845A JP6517255B2 (en) | 2017-02-27 | 2017-02-27 | Character image generation apparatus, character image generation method, program, recording medium, and character image generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017034845A JP6517255B2 (en) | 2017-02-27 | 2017-02-27 | Character image generation apparatus, character image generation method, program, recording medium, and character image generation system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019078844A Division JP6843178B2 (en) | 2019-04-17 | 2019-04-17 | Character image generator, character image generation method, program and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018142090A JP2018142090A (en) | 2018-09-13 |
JP6517255B2 true JP6517255B2 (en) | 2019-05-22 |
Family
ID=63526657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017034845A Active JP6517255B2 (en) | 2017-02-27 | 2017-02-27 | Character image generation apparatus, character image generation method, program, recording medium, and character image generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6517255B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6609078B1 (en) * | 2019-03-28 | 2019-11-20 | 株式会社ドワンゴ | Content distribution system, content distribution method, and content distribution program |
JP7344084B2 (en) * | 2019-03-28 | 2023-09-13 | 株式会社ドワンゴ | Content distribution system, content distribution method, and content distribution program |
JP7225016B2 (en) * | 2019-04-19 | 2023-02-20 | 株式会社スクウェア・エニックス | AR Spatial Image Projection System, AR Spatial Image Projection Method, and User Terminal |
US20220237769A1 (en) * | 2019-04-23 | 2022-07-28 | Sony Group Corporation | Information processing device, information processing method, and program |
JP7150354B2 (en) * | 2020-01-14 | 2022-10-11 | デジタルデザインスタジオ株式会社 | Vehicle design support system |
JP7319215B2 (en) * | 2020-03-06 | 2023-08-01 | Kddi株式会社 | Information systems, terminals and programs |
CN111935491B (en) * | 2020-06-28 | 2023-04-07 | 百度在线网络技术(北京)有限公司 | Live broadcast special effect processing method and device and server |
WO2024095356A1 (en) * | 2022-11-01 | 2024-05-10 | 株式会社バーチャルウインドウ | Graphics generation device, graphics generation method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007018173A (en) * | 2005-07-06 | 2007-01-25 | Canon Inc | Image processing method and image processor |
JP5145444B2 (en) * | 2011-06-27 | 2013-02-20 | 株式会社コナミデジタルエンタテインメント | Image processing apparatus, image processing apparatus control method, and program |
JP6369005B2 (en) * | 2013-10-25 | 2018-08-08 | セイコーエプソン株式会社 | Head-mounted display device and method for controlling head-mounted display device |
US9761059B2 (en) * | 2014-01-03 | 2017-09-12 | Intel Corporation | Dynamic augmentation of a physical scene |
-
2017
- 2017-02-27 JP JP2017034845A patent/JP6517255B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018142090A (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6517255B2 (en) | Character image generation apparatus, character image generation method, program, recording medium, and character image generation system | |
US20220375174A1 (en) | Beacons for localization and content delivery to wearable devices | |
US10256859B2 (en) | System and method for immersive and interactive multimedia generation | |
US10552665B2 (en) | Methods and systems for training an object detection algorithm using synthetic images | |
KR101591493B1 (en) | System for the rendering of shared digital interfaces relative to each user's point of view | |
JP6348741B2 (en) | Information processing system, information processing apparatus, information processing program, and information processing method | |
JP7095602B2 (en) | Information processing equipment, information processing method and recording medium | |
CN106104650A (en) | Remote Device Control is carried out via gaze detection | |
CN111163906B (en) | Mobile electronic device and method of operating the same | |
US20210306791A1 (en) | Immersive augmented reality experiences using spatial audio | |
US10878285B2 (en) | Methods and systems for shape based training for an object detection algorithm | |
JP2018124515A (en) | Computer program, terminal, and method | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
EP4172681A1 (en) | Augmented reality eyewear with 3d costumes | |
US11803234B2 (en) | Augmented reality with eyewear triggered IoT | |
US11729573B2 (en) | Audio enhanced augmented reality | |
JP6982203B2 (en) | Character image generator, character image generation method and program | |
JP6843178B2 (en) | Character image generator, character image generation method, program and recording medium | |
KR102044003B1 (en) | Electronic apparatus for a video conference and operation method therefor | |
JP2019160332A (en) | Computer program, terminal, and method | |
JP2016192096A (en) | Object recognition and selection device, object recognition and selection method, and program | |
US12073011B2 (en) | Virtual interfaces for controlling IoT devices | |
US12045383B2 (en) | Virtual AR interfaces for controlling IoT devices using mobile device orientation sensors | |
US20240079031A1 (en) | Authoring tools for creating interactive ar experiences | |
US20240077983A1 (en) | Interaction recording tools for creating interactive ar stories |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190118 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190318 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6517255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |