JP2021086511A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2021086511A JP2021086511A JP2019216826A JP2019216826A JP2021086511A JP 2021086511 A JP2021086511 A JP 2021086511A JP 2019216826 A JP2019216826 A JP 2019216826A JP 2019216826 A JP2019216826 A JP 2019216826A JP 2021086511 A JP2021086511 A JP 2021086511A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- information processing
- processing device
- information
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本技術は、AR(Augmented Reality)等の表示制御に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。 The present technology relates to an information processing device, an information processing method, and a program applicable to display control such as AR (Augmented Reality).
特許文献1に記載のモバイル機器は、表示装置に表示された所定の画像の少なくとも一部を表示することができる。モバイル機器を表示装置に対して前後に動かすことでモバイル機器に表示された画像が拡大縮小処理される。また左右に動かすことでモバイル機器に表示された画像を移動させることが可能である。これにより、ユーザに対して情報を効率よく提供することが図られている(特許文献1の段落[0022][0030]図6等)。
The mobile device described in
このように、画像等の表示制御に関して、高品質な視聴体験を提供することを可能な技術が求められている。 As described above, regarding the display control of images and the like, there is a demand for a technology capable of providing a high-quality viewing experience.
以上のような事情に鑑み、本技術の目的は、高品質な視聴体験を提供することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。 In view of the above circumstances, an object of the present technology is to provide an information processing device, an information processing method, and a program capable of providing a high-quality viewing experience.
上記目的を達成するため、本技術の一形態に係る情報処理装置は、表示制御部を具備する。
前記表示制御部は、対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、前記操作物体による前記対象物体への操作に応じた前記対象物体の形状に応じた仮想オブジェクトの重畳表示を制御する。
In order to achieve the above object, the information processing device according to one embodiment of the present technology includes a display control unit.
The display control unit receives the operation of the target object according to the operation of the target object by the operation object based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object. Controls the superimposed display of virtual objects according to the shape.
この情報処理装置では、対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、操作物体による対象物体への操作に応じた対象物体の形状に応じた仮想オブジェクトの重畳表示が制御される。これにより、高品質な視聴体験を提供することができる。 In this information processing device, based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, according to the shape of the target object according to the operation of the operation object on the target object. The superimposed display of virtual objects is controlled. This makes it possible to provide a high-quality viewing experience.
前記表示制御部は、前記対象物体の表面に沿うように前記仮想オブジェクトを重畳表示してもよい。 The display control unit may superimpose and display the virtual object along the surface of the target object.
前記表示制御部は、前記対象物体の表面に前記仮想オブジェクトが仮想的に描画されるように、前記重畳表示を制御してもよい。 The display control unit may control the superimposed display so that the virtual object is virtually drawn on the surface of the target object.
前記表示制御部は、前記対象物体の表面に沿って前記仮想オブジェクトが仮想的に配置されるように、前記重畳表示を制御してもよい。 The display control unit may control the superimposed display so that the virtual object is virtually arranged along the surface of the target object.
前記対象物体の位置及び前記操作物体の位置の各々は、デプスセンサにより検出されるデプス情報を含んでもよい。 Each of the position of the target object and the position of the operating object may include depth information detected by the depth sensor.
前記デプスセンサは、少なくともTOF(Time of Flight)カメラを含んでもよい。 The depth sensor may include at least a TOF (Time of Flight) camera.
前記対象物体情報は、前記対象物体の陰影状況を含んでもよい。この場合、前記表示制御部は、前記陰影状況に基づいて、前記仮想オブジェクトの輝度を制御してもよい。 The target object information may include a shadow state of the target object. In this case, the display control unit may control the brightness of the virtual object based on the shadow condition.
前記表示制御部は、前記対象物体の前記陰影状況が前記仮想オブジェクトに反映されるように、前記仮想オブジェクトの輝度を制御してもよい。 The display control unit may control the brightness of the virtual object so that the shadow state of the target object is reflected in the virtual object.
前記情報処理装置であって、さらに、前記対象物体情報及び前記操作物体情報を取得する取得部を具備してもよい。この場合、前記取得部は、前記対象物体に対する照明状況と前記対象物体の形状とに基づいて、前記対象物体の陰影状況を推定することが可能であってもよい。 The information processing device may further include an acquisition unit that acquires the target object information and the operation object information. In this case, the acquisition unit may be able to estimate the shadow state of the target object based on the lighting state of the target object and the shape of the target object.
前記照明状況は、前記対象物体に光を投射する光源の位置、及び前記光源の明るさを含んでもよい。 The lighting condition may include the position of a light source that projects light onto the target object and the brightness of the light source.
前記表示制御部は、前記対象物体を含む対象物体画像に対して、前記仮想オブジェクトを重畳表示してもよい。 The display control unit may superimpose and display the virtual object on the target object image including the target object.
前記対象物体は、顔又は頭の少なくとも一方であってもよい。この場合、前記操作物体は、指であってもよい。 The target object may be at least one of the face and the head. In this case, the operating object may be a finger.
前記対象物体及び前記操作物体は、同じユーザの互いに異なる部位であってもよい。 The target object and the operation object may be different parts of the same user.
前記対象物体情報は、輝度を含んでもよい。 The target object information may include brightness.
前記表示制御部は、前記操作物体が前記対象物体に接触した場合に、前記対象物体に対して前記仮想オブジェクトを表示してもよい。 The display control unit may display the virtual object on the target object when the operating object comes into contact with the target object.
前記表示制御部は、前記操作物体による前記対象物体への操作を行う位置に基づいて、前記対象物体の形状に応じた前記仮想オブジェクトの重畳表示を制御してもよい。 The display control unit may control the superimposed display of the virtual object according to the shape of the target object based on the position where the operation object operates on the target object.
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、前記操作物体による前記対象物体への操作に応じた前記対象物体の形状に応じた仮想オブジェクトの重畳表示を制御することを含む。 The information processing method according to one form of the present technology is an information processing method executed by a computer system, and is based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object. The present invention includes controlling the superimposition display of the virtual object according to the shape of the target object according to the operation on the target object by the operation object.
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、前記操作物体による前記対象物体への操作に応じた前記対象物体の形状に応じた仮想オブジェクトの重畳表示を制御するステップ。
A program according to a form of the present technology causes a computer system to perform the following steps.
Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. Steps to control the superimposed display of.
以下、本技術に係る実施形態を、図面を参照しながら説明する。 Hereinafter, embodiments relating to the present technology will be described with reference to the drawings.
[表示制御システム]
図1は、本技術に係る表示制御システムの概要を説明するための模式図である。
本技術に係る表示制御システム100は、対象物体1の位置及び形状を含む対象物体情報6と、操作物体2の位置を含む操作物体情報7とに基づいて、操作物体2による対象物体1への操作に応じた対象物体1の形状に応じた仮想オブジェクト4の重畳表示を制御することが可能である。
表示制御システム100を用いることで、高品質な視聴体験を提供することが可能となる。例えば図1に示すように、ユーザ3は、ユーザ端末5を用いてユーザ3自身を撮影(自撮り)している。ユーザ3は、表示制御システム100を用いることで、撮影されている自分の顔等に対して、高品質な仮想オブジェクト4の重畳表示を実行することが可能となる。
[Display control system]
FIG. 1 is a schematic diagram for explaining an outline of a display control system according to the present technology.
The
By using the
対象物体1は、仮想オブジェクト4が重畳表示される対象となる物体である。図1に示す例では、ユーザ3の顔が対象物体1として設定される。例えば、対象物体1及び操作物体2は、同じユーザ3の互いに異なる部位によりそれぞれ実現される。
これに限定されず、例えば、ユーザ3の胴体等の部位や身体全体(ユーザ3自身)が対象物体1として設定されてもよいし、両手や両足等の複数の部位が対象物体1として設定されてもよい。また例えば、ユーザ3以外の人物が対象物体1として設定されてもよい。
また対象物体1は人以外でもよい。例えば、猫や犬等の生物、人形やマグカップ、扇子等の物体でもよい。
The
Not limited to this, for example, a part such as the body of the
Further, the
操作物体2は、対象物体1への操作を実行する物体である。図1に示す例では、ユーザ3の指が操作物体2として設定される。これに限定されず、例えば、ペンや筆等の任意の物体が操作物体2として設定されてもよい。
また操作物体2は複数設定されてもよい。例えば、人差し指、中指、及び薬指が操作物体2として設定されてもよい。
対象物体1への操作は、例えば、対象物体1への接触(タッチ)、対象物体1の表面をなぞる(スライド)等が挙げられる。これ以外にも様々な操作物体2を用いた対象物体1への操作が実行されてもよい。
また本実施形態では、仮想オブジェクト4の制御するための任意の操作も対象物体1への操作に含まれる。例えば、仮想オブジェクト4の重畳される位置を制御(移動)させる場合に、操作物体2が仮想オブジェクト4をタッチした状態で、操作物体2がスライドすることで、仮想オブジェクト4が操作物体2に追従してもよい。
対象物体1への操作はこれに限定されない。例えば、対象物体1への操作は人差し指で実行され、仮想オブジェクト4への操作は中指で実行される等の操作物体2に応じた仮想オブジェクト4の重畳表示が制御されてもよい。
The
Further, a plurality of
Examples of the operation on the
Further, in the present embodiment, an arbitrary operation for controlling the
The operation on the
仮想オブジェクト4は、例えばキャラクター等のCG(Computer Graphics)、写真、文字、模様、図形等が仮想オブジェクトとして表示可能である。もちろんこれに限定されず、任意の仮想オブジェクトが表示されてよい。例えば、ユーザ3が書いた絵がユーザ端末5に入力されることでユーザ3が書いた絵が仮想オブジェクト4として出力されてもよい。また例えば、静止画又は動画でもよい。
なお、「仮想オブジェクトを対象物体に対して重畳表示」するとは、対象物体が含まれる特定の空間内に対して特定の仮想オブジェクトを表示することを含む。また特定の位置に仮想オブジェクトを表示することが含まれる。その他、対象物体1を含む対象物体画像(撮影画像)に対して、仮想オブジェクトを重畳表示させる任意の表示が含まれる。
In the
Note that "displaying a virtual object superimposed on a target object" includes displaying a specific virtual object in a specific space including the target object. It also includes displaying virtual objects at specific locations. In addition, an arbitrary display in which a virtual object is superimposed and displayed on a target object image (photographed image) including the
対象物体情報6は、対象物体1の位置及び形状等の種々の情報を含む。
対象物体1の位置の情報として、例えば、絶対座標系(ワールド座標系)により規定される座標値(例えばXYZ座標値)が用いられてもよい。あるいは、所定の点を基準(原点)とした相対座標系により規定される座標値(例えばxyz座標値又はuvd座標値)が用いられてもよい。相対座標系が用いられる場合、基準となる原点は、任意に設定されてよい。本実施形態では、ユーザ端末5の内向きカメラ13を基準にユーザ3の顔のデプス情報が設定される。またユーザ3の顔の向きや姿勢等も対象物体情報6に含まれる。
デプス情報とは、原点から測定物体までの距離である。本実施形態では、内向きカメラ13の位置を基準(原点)とした対象物体1及び操作物体2の各々の奥行きがデプス情報となる。具体的には、対象物体1及び操作物体2の各画素におけるデプス情報が内向きカメラ13により取得される。
対象物体1の形状の情報として、例えば、ユーザ3の顔表面の3D形状が設定される。3D形状とは、大きさや曲率等の物体の形状を示す情報である。例えば、対象物体1が顔の場合、鼻、あご、頬、眼、眼窩等の大きさや曲率等が3D形状として用いられる。
また対象物体情報6は、対象物体1の姿勢及び陰影状況を含む。対象物体1の姿勢は、例えば、対象物体1が顔の場合、内向きカメラ13に対して正対した顔の姿勢を基準として、顔がどの方向を向いているか、傾いているか等の情報が対象物体1の姿勢として設定される。
陰影状況は、対象物体1における影に関する情報である。本実施形態では、対象物体1の各位置(画素)における輝度や輝度情報分布が陰影状況に含まれる。例えば、対象物体1が顔の場合、鼻や髪等により生じる影の領域の輝度が低く検出される。
The
As the position information of the
Depth information is the distance from the origin to the measurement object. In the present embodiment, the depths of the
As information on the shape of the
Further, the
The shadow situation is information about a shadow in the
操作物体情報7は、操作物体2の位置を含む情報が操作物体情報7として設定される。例えば、絶対座標系(ワールド座標系)により規定される座標値(例えばXYZ座標値)が用いられてもよい。あるいは、所定の点を基準(原点)とした相対座標系により規定される座標値(例えばxyz座標値又はuvd座標値)が用いられてもよい。相対座標系が用いられる場合、基準となる原点は、任意に設定されてよい。
典型的には、対象物体情報6に含まれる対象物体1の位置を規定する座標系と、同じ座標系により、操作物体2の位置が規定される。
本実施形態では、ユーザ端末5の内向きカメラ13を基準にユーザ3の指のデプス情報が操作物体情報7として設定される。
また操作物体情報7は、操作物体2の姿勢及び輝度を含む。操作物体2の姿勢は、例えば、操作物体2が指の場合、指の先端がどの方向を向いているか、傾いているか等の情報が操作物体2の姿勢として設定される。
In the
Typically, the position of the
In the present embodiment, the depth information of the finger of the
Further, the operating
図1に示すように表示制御システム100は、ユーザ端末5と情報処理装置10とを含む。本実施形態では、情報処理装置10は、ユーザ端末5自身により実現されるものとする。もちろんそのような構成に限定される訳ではない。
As shown in FIG. 1, the
ユーザ端末5は、ユーザ3に使用される端末である。例えばスマートフォンやタブレット端末等の携帯端末が、ユーザ端末5として用いられる。本実施形態では、ユーザ端末5は内向きカメラ13と外向きカメラ14とタッチパネル15とを有する。
内向きカメラ13及び外向きカメラ14は、周辺の画像を撮影可能な撮像装置である。ここで内向きカメラ13はタッチパネル15が搭載される面と同じ面に搭載されるカメラである。また外向きカメラ14は、タッチパネル15が搭載される面とは反対側の面に搭載されるカメラである。
本実施形態では、内向きカメラ13及び外向きカメラ14は、対象物体1及び操作物体2までの距離(デプス情報)を測定可能なTOF(Time of Flight)カメラを含む。これ以外にもステレオカメラ、デジタルカメラ、単眼カメラ、赤外線カメラ、偏光カメラ、及び、その他のカメラ等の撮像装置が用いられる。またレーザ測距センサ、接触センサ、超音波センサ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等のセンサデバイスが用いられてもよい。
また本実施形態では、内向きカメラ13及び外向きカメラ14は、対象物体1の輝度を取得するためのRGBカメラを含む。これに限定されず、対象物体1の輝度を取得可能であれば任意の撮像装置が用いられてもよい。
タッチパネル15は表示部として機能し、種々の画像やGUIを表示することが可能である。本実施形態では、内向きカメラ13又は外向きカメラ14により撮影される画角内がリアルタイムで表示される。
またタッチパネル15は、ユーザ3のタッチ操作を受付けることが可能である。ユーザ3は、タッチパネル15を介して、所定の指示等を入力可能である。
The
The inward-facing
In the present embodiment, the inward-facing
Further, in the present embodiment, the inward-facing
The
Further, the
図1では、内向きカメラ13により撮影されたユーザ3がタッチパネル15に表示されている様子が模式的に図示されている。ユーザ3は、指(操作物体2)による顔(対象物体1)への操作に応じた、顔の形状に応じた仮想オブジェクト4の重畳表示を実行することが可能である。例えば、ユーザ3の指がユーザ3の顔に接触した場合に、指が接触した箇所にワニの仮想オブジェクト4が重畳表示される。本実施形態では、ワニの仮想オブジェクト4がユーザ3の顔の表面に応じた形状に制御されている。
In FIG. 1, a state in which a
情報処理装置10は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図9参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
例えばPC(Personal Computer)等の任意のコンピュータにより、情報処理装置10を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての表示制御部が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置10にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
The
For example, the
In the present embodiment, the display control unit as a functional block is configured by the CPU executing a predetermined program. Of course, dedicated hardware such as an IC (integrated circuit) may be used to realize the functional block.
The program is installed in the
The type of recording medium on which the program is recorded is not limited, and any computer-readable recording medium may be used. For example, any non-transient storage medium readable by a computer may be used.
情報処理装置10は、対象物体情報6及び操作物体情報7を取得する。なお、本開示において、対象物体情報6及び操作物体情報7の取得は、外部から送信された対象物体情報6及び操作物体情報7を受信する事、及び情報処理装置10自身により対象物体情報6及び操作物体情報7を生成することの両方を含む。
図1に例示する情報処理装置10は、対象物体情報6と操作物体情報7とに基づいて、仮想オブジェクト4の重畳表示を制御する。
The
The
図2は、ユーザ端末5の機能的な構成例を示すブロック図である。ユーザ端末5は、スピーカ11、マイク12、内向きカメラ13、外向きカメラ14、タッチパネル15、操作ボタン16、照明部17、センサ部18、通信部19、記憶部20、及びコントローラ21を有する。
FIG. 2 is a block diagram showing a functional configuration example of the
スピーカ11は、音声を出力可能である。スピーカ11により、例えば音声ガイダンスやアラーム音等が出力される。
The
マイク12は、通話、声による指示の入力、周辺の音の収集等に用いられる。
The
操作ボタン16は、例えば電源のON/OFFの操作のように、タッチパネル15を介した操作とは異なる操作を行うために設けられる。
The
照明部17は、LED(Light Emitting Diode)やLD(Laser Diode)等の光源を有し、光を出力することが可能である。例えば照明部17をONすることで、ライトの様に対象物体1に光を照らすことが可能である。また、照明部17によりメールの受信等を通知することも可能である。
The
センサ部18は、周辺の状況、ユーザ端末5の状態、ユーザ3の状態等を検出可能である。例えばセンサ部18として、9軸センサ、GPS、生体センサ等が搭載される。9軸センサは、3軸加速度センサ、3軸ジャイロセンサ、及び3軸コンパスセンサを含む。9軸センサにより、ユーザ端末5の3軸における加速度、角速度、及び方位を検出することが可能である。GPSは、ユーザ端末5の現在位置の情報を取得する。生体センサは、ユーザの生体情報を取得する。例えば生体センサとして、体温を測定可能な温度センサ、心拍数を測定可能な心拍センサ、発汗量を測定可能な発汗センサ等が設けられる。
センサ部18として設けられるセンサの種類は限定されず、任意のセンサが設けられてもよい。例えばユーザ端末5を使用する環境の温度や湿度等を測定可能な温度センサや湿度センサ等が設けられてもよい。なお、マイク12や内向きカメラ13、外向きカメラ14を、センサ部18の一部として見做すことも可能である。
The
The type of sensor provided as the
通信部19は、他のデバイスとの間で、ネットワーク通信、近距離無線通信、赤外線通信等を実行するためのモジュールである。例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の通信モジュールが設けられる。また任意の赤外線通信モジュールが用いられてよい。
The
記憶部20は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)等が用いられる。記憶部20には、ユーザ端末5の全体の動作を制御するための制御プログラムが記憶される。また記憶部20には、各種の処理を行う上で使用するデータ、及び各種の処理によって生成されたデータ等が記憶される。制御プログラム等を、ユーザ端末5にインストールする方法は限定されない。
The
コントローラ21は、ユーザ端末5が有する各ブロックの動作を制御する。コントローラ21は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部20に記憶されている制御プログラム等をRAMにロードして実行することにより、種々の処理が実行される。本実施形態では、コントローラ21は、情報処理装置として機能する。
The
コントローラ21として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
As the
本実施形態では、コントローラ21のCPUが実施形態に係るプログラムを実行することで、機能ブロックとして、情報取得部31、形状推定部32、行動検出部33、照明推定部34、及び表示制御部35が実現され、本実施形態に係る情報処理方法が実行される。なお情報取得部31、形状推定部32、行動検出部33、照明推定部34、及び表示制御部35を実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
また本実施形態では、コントローラ21は、本技術に係る情報処理装置として機能する。
In the present embodiment, when the CPU of the
Further, in the present embodiment, the
情報取得部31は、外部から出力されるセンシング結果を取得する。本実施形態では、内向きカメラ13から取得された対象物体1のデプス情報と操作物体2のデプス情報が取得される。これに限定されず、スピーカ11、マイク12、外向きカメラ14、タッチパネル15、操作ボタン16、及びセンサ部18から種々の情報が取得されてもよい。例えば、ユーザ3による仮想オブジェクト4の変更の旨の指示がマイク12から取得されてもよい。
The
形状推定部32は、対象物体1及び操作物体2の形状を推定する。
本実施形態では、情報取得部31から取得された対象物体1のデプス情報に基づいて、対象物体1の位置、3D形状、及び姿勢が推定される。また本実施形態では、情報取得部31から取得された操作物体2のデプス情報に基づいて、操作物体2の位置、及び姿勢が推定される。
また形状推定部32は、RGBカメラから得られる輝度の低い領域に対して、デプス情報を推定する。例えば、ユーザ3の黒髪等の黒色の領域では、IR(Infra-Red)の反射が弱いためデプス情報が正確に求まらない可能性がある。この場合に、形状推定部32は、顔のデプス情報に基づいて、黒色の領域のデプス情報を推定する。
また形状推定部32は、対象物体1に対する照明状況と対象物体1の形状とに基づいて、対象物体の陰影状況を推定することが可能である。本実施形態では、対象物体1に光を投射する光源の位置及び明るさと対象物体1の形状から、対象物体1に生じる影の位置(領域)が推定される。
照明状況とは、対象物体1に光を投射する光源に関する状況である。本実施形態では、対象物体1に光を投射する光源の位置、及び光源の明るさを含む。典型的には、光源は、対象物体1に対して光を投射することで、光が投射される領域(輝度が高い領域)と光が投射されることで生じる影の領域(輝度が低い領域)とを発生させる物体である。
これに限定されず、例えば、ユーザ端末5とユーザ3との直線上に光を投射する物体があった場合に、ユーザ3の顔(対象物体1)全体が、輝度が高い領域又は輝度が低い領域となる場合でも光を投射する物体を光源としてもよい。
The
In the present embodiment, the position, 3D shape, and posture of the
Further, the
Further, the
The illumination situation is a situation relating to a light source that projects light onto the
Not limited to this, for example, when there is an object that projects light on a straight line between the
なお、対象物体情報6、操作物体情報7、及び黒色の領域のデプス情報を推定するための任意の技術(アルゴリズム等)が採用されてよい。
例えばDNN(Deep Neural Network:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムが用いられてもよい。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、対象物体情報6、操作物体情報7、及び黒色の領域のデプス情報の推定精度を向上させることが可能となる。
例えば対象物体情報6、操作物体情報7、及び黒色の領域のデプス情報を推定するために学習部及び識別部が構築される。学習部は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
学習部における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。
ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。
ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。例えば、画像や動画の認識に用いられる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等が用いられる。
また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
Any technique (algorithm or the like) for estimating the
For example, an arbitrary machine learning algorithm using DNN (Deep Neural Network) or the like may be used. For example, by using AI (artificial intelligence) or the like that performs deep learning, it is possible to improve the estimation accuracy of the
For example, a learning unit and an identification unit are constructed to estimate the
For example, a neural network or deep learning is used as a learning method in the learning unit. A neural network is a model that imitates a human brain neural circuit, and is composed of three types of layers: an input layer, an intermediate layer (hidden layer), and an output layer.
Deep learning is a model that uses a multi-layered neural network, and it is possible to learn complex patterns hidden in a large amount of data by repeating characteristic learning in each layer.
Deep learning is used, for example, to identify objects in images and words in sounds. For example, a convolutional neural network (CNN) used for recognizing images and moving images is used.
Further, as a hardware structure for realizing such machine learning, a neurochip / neuromorphic chip incorporating the concept of a neural network can be used.
機械学習の問題設定には、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、転移学習等がある。
例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
機械学習によって、仮想的なセンシングデータを生成することも可能である。例えば、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。
また、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
また、機械学習とは異なる任意の学習アルゴリズム等が用いられてよい。所定の学習アルゴリズムに従って対象物体情報6、操作物体情報7、及び黒色の領域のデプス情報を推定することで、対象物体情報6、操作物体情報7、及び黒色の領域のデプス情報の推定精度を向上させることが可能となる。もちろん学習アルゴリズムが用いられる場合に限定される訳ではない。
なお学習アルゴリズムの適用は、本開示内の任意の処理に対して実行されてよい。
Machine learning problem settings include supervised learning, unsupervised learning, semi-supervised learning, reinforcement learning, reverse reinforcement learning, active learning, and transfer learning.
For example, in supervised learning, features are learned based on given labeled learning data (teacher data). This makes it possible to derive labels for unknown data.
In unsupervised learning, a large amount of unlabeled learning data is analyzed to extract features, and clustering is performed based on the extracted features. This makes it possible to analyze trends and predict the future based on a huge amount of unknown data.
In addition, semi-supervised learning is a mixture of supervised learning and unsupervised learning. After learning features in supervised learning, a huge amount of training data is given in unsupervised learning, and the features are automatically characterized. This is a method of repeatedly learning while calculating the amount.
Reinforcement learning also deals with the problem of observing the current state of an agent in an environment and deciding what action to take. Agents learn rewards from the environment by choosing actions and learn how to get the most rewards through a series of actions. In this way, by learning the optimum solution in a certain environment, it is possible to reproduce human judgment and to make a computer acquire judgment that exceeds human judgment.
It is also possible to generate virtual sensing data by machine learning. For example, it is possible to predict another sensing data from one sensing data and use it as input information, such as generating position information from the input image information.
It is also possible to generate different sensing data from a plurality of sensing data. It is also possible to predict the required information and generate predetermined information from the sensing data.
Further, an arbitrary learning algorithm or the like different from machine learning may be used. By estimating the
The application of the learning algorithm may be executed for any process in the present disclosure.
行動検出部33は、操作物体2による対象物体1への操作を検出する。本実施形態では、対象物体1である顔のデプス情報と、操作物体2である指のデプス情報とに基づいて、指が顔に接触したかが検出される。また例えば、操作物体2が仮想オブジェクト4に対して所定の操作を実行したかが検出される。
また行動検出部33は、操作物体2による対象物体1への操作を行う位置を検出する。例えば、顔の3D形状及び姿勢に基づいて、指が頬に接触したかが検出される。
行動検出部33により検出された情報が表示制御部35に供給されることで、仮想オブジェクト4の重畳表示が制御される。
なお、操作物体2による対象物体1への操作の検出方法は限定されず、任意の技術(アルゴリズム等)が採用されてよい。
The
Further, the
By supplying the information detected by the
The method of detecting the operation of the
照明推定部34は、対象物体1の周辺にある照明状況を推定する。本実施形態では、対象物体1の3D形状と対象物体1の輝度とに基づいて、対象物体1の撮影時の照明に関する照明状況を推定する。
なお、照明状況を推定する方法は限定されない。例えば、内向きカメラ13の画角内に光源がある場合、光源が物体認識等で推定されてもよい。また例えば、光を投射する物体を中心に所定の方向(放射状又は同心円状)に輝度が減衰している物体を光源としてもよい。
The
The method of estimating the lighting condition is not limited. For example, when the light source is within the angle of view of the
表示制御部35は、仮想オブジェクト4の重畳表示を制御する。本実施形態では、対象物体1の表面に沿うように仮想オブジェクト4が重畳表示される。例えば、指による顔への操作を行う位置に基づいて、顔の形状に応じた仮想オブジェクト4の重畳表示が制御される。
本開示において、「表面に沿うように」とは、ユーザ3の顔に仮想オブジェクト4が重畳表示された場合に、ユーザ3の顔の表面(3D形状)に対して仮想オブジェクト4が射影変換された状態である。すなわち、対象物体1の表面に仮想オブジェクト4が仮想的に描画されるように、重畳表示が制御される。
また表示制御部35は、陰影状況に基づいて、仮想オブジェクト4の輝度を制御する。本実施形態では、実際に対象物体1に存在する影の領域(輝度の低い領域)に基づいて、仮想オブジェクト4の輝度を制御する。すなわち、対象物体1の陰影状況が仮想オブジェクト4に反映されるように、仮想オブジェクト4の輝度が制御される。
また本実施形態では、照明推定部34により推定された照明状況と、対象物体1の形状とに基づいて、仮想オブジェクト4の輝度を制御する。すなわち、仮想オブジェクト4に陰影が付与された状態で対象物体に重畳表示される。
また表示制御部35は、対象物体1の表面に沿って仮想オブジェクト4が仮想的に配置されるように、重畳表示を制御する。
The
In the present disclosure, "along the surface" means that when the
Further, the
Further, in the present embodiment, the brightness of the
Further, the
なお、本実施形態において、表示制御部35は、対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、操作物体による対象物体への操作に応じた対象物体の形状に応じた仮想オブジェクトの重畳表示を制御する表示制御部に相当する。
なお、本実施形態において、照明推定部34は、対象物体情報に基づいて、対象物体の撮影時の照明に関する照明状況を推定する照明推定部に相当する。
なお、本実施形態において、情報取得部31及び形状推定部32は、対象物体情報及び操作物体情報を取得する取得部として機能する。
In the present embodiment, the
In the present embodiment, the
In the present embodiment, the
図3は、重畳表示の制御の基本的な実行例を示すフローチャートである。
情報取得部31及び形状推定部32により対象物体情報6が取得される(ステップ101)。
情報取得部31及び形状推定部32により操作物体情報7が取得される(ステップ102)。
行動検出部33により操作物体2による対象物体1への操作が検出される(ステップ103)。
表示制御部35により仮想オブジェクト4が重畳表示される(ステップ104)。
FIG. 3 is a flowchart showing a basic execution example of the control of the superimposed display.
The
The
The
The
図4は、重畳表示の制御の具体的な実行例を示すフローチャートである。
図4では、ユーザ3の顔1が対象物体として設定される。またユーザ3の指2が操作物体として設定される。
図5は、仮想オブジェクト4の重畳表示を示す模式図である。図5に示すように、ユーザ端末5のタッチパネル15にユーザ3が表示されている。図5では、図1に示すように、ユーザ3が自撮りしている状態を簡略した図である。
FIG. 4 is a flowchart showing a specific execution example of the control of the superimposed display.
In FIG. 4, the
FIG. 5 is a schematic diagram showing a superimposed display of the
ユーザ3はユーザ端末5の内向きカメラ13を用いて自身の撮影を行う。図5に示すように、ユーザ端末5のタッチパネル15にカメラスルーが表示される(ステップ201)。
The
情報取得部31により内向きカメラ13により取得されたセンシング結果に基づいて、顔1のデプス情報が取得される(ステップ202)。
形状推定部32により、顔1のデプス情報に基づいて、顔1の位置、3D形状、及び姿勢が推定される(ステップ203)。
ステップ202及びステップ203は、図3に示すステップ101の対象物体情報の取得に相当する。
The depth information of the
The
Step 202 and step 203 correspond to the acquisition of the target object information in step 101 shown in FIG.
また情報取得部31により内向きカメラ13により取得されたセンシング結果に基づいて、指2のデプス情報が取得される(ステップ204)。ステップ204は、図3に示すステップ102の操作物体情報の取得に相当する。
Further, the depth information of the
行動検出部33により、指2がユーザ3の顔1にタッチしたことが検出される(ステップ205)。本実施形態では、顔1のデプス情報と指2のデプス情報との差が所定の閾値以下の場合に、指2が顔1にタッチしたと判定される。ステップ205は、図3に示すステップ103の操作物体による対象物体への操作の検出に相当する。
The
表示制御部35により、指2がユーザ3の顔のタッチした箇所に仮想オブジェクト4を表示する(ステップ206)。ステップ206では、仮想オブジェクト4がユーザ3の顔1に対してどのように描画されるかを確認するための仮想的に重畳表示される。すなわち、仮想オブジェクト4の表示される位置、仮想オブジェクト4の大きさや角度等を確認するためのイメージ図がユーザ3の顔1に表示される。もちろんステップ206で表示された仮想オブジェクト4に対して、拡大、縮小、回転、移動等の様々な制御を行うことが可能である。
The
照明推定部34により、顔1の3D形状(表面形状)と顔1の輝度とに基づいて、照明状況が推定される(ステップ207)。図5に示すように、本実施形態では、RGBカメラにより顔1の輝度の低い領域40が影の領域として取得される。照明推定部34により、顔1の形状に生じる領域40の位置に基づいて、光源41の位置が推定される。例えば、顔の左下に領域40が生じる場合は、光源41が顔1に対して領域40の反対側にいると推定される。
The
表示制御部35により、照明状況に基づいて、顔1の形状に沿った陰影が仮想オブジェクト4に付与され、表示される(ステップ208)。図5に示すように、領域40内にある仮想オブジェクト4に対して陰影が付与される。本実施形態では、顔1の影の輝度に応じた仮想の陰影が仮想オブジェクト4に付与される。
ステップ208で表示された仮想オブジェクト4に対して、拡大、縮小、回転、移動等の様々な制御を行うことが可能である。また種々の制御が実行された際にも、仮想オブジェクト4に対して重畳表示が制御される。例えば、仮想オブジェクト4をユーザ3の口42に移動させた場合、仮想オブジェクト4が口42の形状に沿って表示される。また仮想オブジェクト4が重畳表示されている際に顔1の姿勢が変わった場合も、姿勢の変化に応じた影の領域の位置の変化に基づいて、仮想オブジェクト4の陰影の付与が制御される。
なお、仮想オブジェクト4に対して仮想の陰影を付与する方法は限定されない。例えば、仮想オブジェクト4の輝度が低く制御されることで陰影が表現されてもよい。また仮想オブジェクト4に対して顔1の輝度に応じた影のレイヤーが重畳されることで陰影が表現されてもよい。
ステップ206〜ステップ208は、図3に示すステップ104に相当する。
The
It is possible to perform various controls such as enlargement, reduction, rotation, and movement of the
The method of giving a virtual shadow to the
Steps 206 to 208 correspond to step 104 shown in FIG.
以上、本実施形態に係る情報処理装置10は、対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、操作物体による対象物体への操作に応じた対象物体の形状に応じた仮想オブジェクトの重畳表示が制御される。これにより、高品質な視聴体験を提供することができる。
As described above, the
スマートフォン等の2次元の画面上では、2次元の位置指定に比べて3次元的な奥行きの位置指定や位置の調整が困難である。また顔周辺を指で操作する場合など、顔と指が同じ肌色であるためRGBカメラ等から得られる輝度の情報だけでは頑健な認識が困難である。 On a two-dimensional screen such as a smartphone, it is more difficult to specify a three-dimensional depth position and adjust the position than to specify a two-dimensional position. Further, when the area around the face is operated with a finger, since the face and the finger have the same skin color, it is difficult to perform robust recognition only with the brightness information obtained from an RGB camera or the like.
そこで、本技術では、TOFセンサを用いて顔や指のデプス情報が取得される。顔や指のデプス情報に基づいて指が顔に対して実行される操作が検出され、顔に対して仮想オブジェクトの重畳表示が制御される。これにより、高品質な視聴体験を提供することが可能となる。また仮想オブジェクトの3次元的な加工及び調整が容易に可能となる。 Therefore, in this technique, depth information of a face or a finger is acquired by using a TOF sensor. The operation performed by the finger on the face is detected based on the depth information of the face and the finger, and the superimposed display of the virtual object on the face is controlled. This makes it possible to provide a high-quality viewing experience. In addition, three-dimensional processing and adjustment of virtual objects becomes possible.
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
<Other Embodiments>
The present technology is not limited to the embodiments described above, and various other embodiments can be realized.
上記の実施形態では、操作物体である指が対象物体である顔に接触した場合に、仮想オブジェクト4が重畳表示された。これに限定されず、操作物体の接触する箇所に応じて、重畳表示の制御が切り替えられてもよい。
In the above embodiment, when the finger, which is the operating object, comes into contact with the face, which is the target object, the
図6は、重畳表示の処理の切替の実行例を示すフローチャートである。
図7は、仮想オブジェクトの重畳表示の他の例を示す模式図である。図7では、説明の簡略化のために、ユーザ端末とユーザ端末を保持する左手との図示が省略されている。また、ユーザ50の右手51の図示が簡略化されている。
また図7に示す例では、対象物体が顔52、操作物体が右手51、仮想オブジェクトが星53として設定される。
なお、図6におけるステップ201〜ステップ208の説明は図4と同様のため、その説明を省略又は簡略化する。
FIG. 6 is a flowchart showing an execution example of switching the processing of the superimposed display.
FIG. 7 is a schematic diagram showing another example of the superimposed display of virtual objects. In FIG. 7, for the sake of simplification of the description, the illustration of the user terminal and the left hand holding the user terminal is omitted. Further, the illustration of the
Further, in the example shown in FIG. 7, the target object is set as the
Since the description of steps 201 to 208 in FIG. 6 is the same as that in FIG. 4, the description will be omitted or simplified.
図7に示すように、ユーザ50が黒色の帽子54をかぶっている。TOFセンサでは、黒色の帽子54の領域のデプス情報が正確に求まらない可能性がある。本実施形態では、RGBカメラから得られる輝度(輝度情報分布)に基づいて、帽子54の領域(輝度の低い領域)が推定される(ステップ301)。
形状推定部32により、帽子54の領域のデプス情報が推定される(ステップ302)。本実施形態では、帽子54をかぶるユーザ50の顔52のデプス情報に基づいて、帽子54の領域のデプス情報が推定される。例えば、帽子54の大きさに基づいて、顔52のデプス情報を基準に帽子54のデプス情報が推定されてもよい。
As shown in FIG. 7, the
The
表示制御部35により、右手51の操作を行う位置に応じて、仮想オブジェクトの制御が切り替えられる(ステップ303)。行動検出部33により、右手51が顔にタッチしたことが検出された場合(ステップ205)、図4及び図5に示すようにステップ206〜ステップ208の処理が実行される。
図7に示すように、行動検出部33により、右手51が帽子54の領域にタッチしたことが検出される(ステップ304)。本実施形態では、帽子54の領域におけるデプス情報と右手51のデプス情報との差が所定の閾値以下の場合に、右手51が顔52にタッチしたと判定される。
表示制御部35により、帽子54の領域における仮想オブジェクトの重畳表示が制御される(ステップ305)。本実施形態では、右手51がタッチした箇所に対して星53が表示される。例えば、右手51がタッチした箇所のデプス情報に基づいて、星53の大きさが制御される。すなわち、顔52(帽子54)の表面に沿って星53が重畳表示される。
また行動検出部33により、右手51が星53をつまむような操作を検出したとする。表示制御部35により、該当する星53の重畳表示が制御される。例えば、右手51が星53をつまんだ状態で移動した場合、右手51の移動に追従するように星53が移動されてもよい。
これ以外にもユーザ50は、仮想オブジェクトに対して任意の制御を実行することが可能である。例えば、星53を発光させたり、星53の色を変更させることや星53の大きさ等を制御することが可能である。
なお、重畳表示される仮想オブジェクトの種類は限定されない。例えば、所定のキャラクターや模様を帽子54の周辺に重畳表示してもよい。またこれらの仮想オブジェクトに対して、照明状況に基づいた陰影を付与させてもよい。また重畳された仮想オブジェクトを光源として、ユーザ50の顔に重畳される仮想オブジェクトに新たな陰影が付与されてもよい。
The
As shown in FIG. 7, the
The
Further, it is assumed that the
In addition to this, the
The types of virtual objects that are superimposed and displayed are not limited. For example, a predetermined character or pattern may be superimposed and displayed around the
上記の実施形態では、ワニや星が仮想オブジェクトとして重畳表示が制御された。これに限定されず、ユーザの髪等の体の一部や帽子等のユーザが装着可能な物体を仮想オブジェクトとして、重畳表示が制御されてもよい。例えば、仮想オブジェクトの髪をユーザの頭に表示することで様々な髪型のユーザを閲覧することが可能となる。またこの際に、仮想オブジェクトの大きさや姿勢等がユーザの頭の大きさや姿勢(対象物体情報)に基づいて、制御されてもよい。 In the above embodiment, the superimposition display of alligators and stars as virtual objects is controlled. Not limited to this, superimposition display may be controlled by using a part of the body such as the user's hair or an object such as a hat that can be worn by the user as a virtual object. For example, by displaying the hair of a virtual object on the user's head, it is possible to browse users with various hairstyles. At this time, the size and posture of the virtual object may be controlled based on the size and posture of the user's head (target object information).
また上記の実施形態では、星53等の複数の同じ仮想オブジェクトが表示された。これに限定されず、任意の仮想オブジェクトが任意の数で重畳表示されてもよい。例えば、口紅やアイライナー等の化粧が仮想オブジェクトとしてユーザの顔に重畳表示されてもよい。この場合、特定の化粧の組み合わせが1つの仮想オブジェクトとして設定されてもよい。
Further, in the above embodiment, a plurality of the same virtual objects such as the
また上記の実施形態では、仮想オブジェクトは対象物体の形状及び陰影に応じた仮想の陰影が付与された。これに限定されず、対象物体の輝度が高い領域(明るい領域)に仮想オブジェクトが重畳表示される場合、領域の輝度に応じて仮想オブジェクトの輝度が高く制御されてもよい。 Further, in the above embodiment, the virtual object is given a virtual shadow according to the shape and shadow of the target object. Not limited to this, when the virtual object is superimposed and displayed in a region (bright region) where the brightness of the target object is high, the brightness of the virtual object may be controlled to be high according to the brightness of the region.
上記の実施形態では、対象物体の周辺の照明状況に基づいて、仮想オブジェクトに陰影が付与された。これに限定されず、顔の各領域における輝度に基づいて、仮想オブジェクトの輝度が制御されてもよい。 In the above embodiment, the virtual object is shaded based on the lighting conditions around the target object. The brightness of the virtual object may be controlled based on the brightness in each area of the face without being limited to this.
上記の実施形態では、ユーザの顔(対象物体)をユーザが内向きカメラ13で撮影することで、仮想オブジェクトの重畳表示が制御された。これに限定されず、他のユーザが外向きカメラ13で撮影され、仮想オブジェクトの重畳表示が制御されてもよい。例えば、ユーザは、外向きカメラ14に取得された他のユーザをタッチパネル15で確認しながら、他のユーザの顔をユーザが指でタッチすることで他のユーザに対して仮想オブジェクトを重畳表示させることが可能である。
In the above embodiment, the superimposition display of the virtual object is controlled by the user taking a picture of the user's face (target object) with the
上記の実施形態では、ユーザ端末5はスマートフォン等が用いられた。これに限定されず、ARグラス等の透過型のHMD(Head Mounted Display)がユーザ端末5として用いられてもよい。
In the above embodiment, a smartphone or the like is used as the
図8は、他の実施形態に係るHMDの外観を示す斜視図である。HMD60は、透過型のディスプレイを備えたメガネ型の装置であり、ユーザの頭部に装着されて使用される。HMD60は、フレーム61、左右のレンズ62a及び62b、左眼用ディスプレイ61a及び右眼用ディスプレイ61b、左眼用カメラ63a及び右眼用カメラ63bを有する。またフレーム61の内部や所定の位置には、図2に示すのと略同様のコントローラやセンサ部等が構成されている。
FIG. 8 is a perspective view showing the appearance of the HMD according to another embodiment. The
左右のレンズ62a及び62bは、ユーザの左眼及び右眼の前方にそれぞれ配置される。左眼用及び右眼用ディスプレイ61a及び61bは、ユーザの視野を覆うように、左右のレンズ62a及び62bにそれぞれ設けられる。
The left and
左眼用及び右眼用ディスプレイ61a及び61bは、透過型のディスプレイであり、左眼及び右眼用の画像等がそれぞれ表示される。HMD60を装着するユーザは、現実の景色を視認すると同時に、各ディスプレイに表示される画像を視認することが可能となる。これにより、ユーザは拡張現実感(AR)等を体験することが可能となる。
The left-eye and right-
なお、左眼用及び右眼用ディスプレイ61a及び61bの外側(ユーザの眼とは反対の側)に、調光素子(図示省略)等が設けられてもよい。調光素子は、当該素子を透過する光の量を調節可能な素子である。調光素子を設けることで、例えば各ディスプレイを透過してユーザに視認される現実の景色を規制し、各ディスプレイに表示される画像を強調してユーザに視認させることが可能である。これにより、ユーザは仮想現実(VR)等を体験することが可能となる。
A dimming element (not shown) or the like may be provided on the outside of the left-eye and right-
左眼用及び右眼用ディスプレイ61a及び61bとしては、例えば透過型の有機ELディスプレイやLCD(Liquid Crystal Display、液晶表示素子)ディスプレイ等が用いられる。また調光素子としては、例えば透過率を電気的に制御可能な調光ガラス、調光シート、及び液晶シャッター等が用いられる。本実施形態では、左右のレンズ62a及び62bと、左眼用及び右眼用ディスプレイ61a及び61bにより、仮想オブジェクトの表示機構が実現される。
As the left-eye and right-
左眼用及び右眼用カメラ63a及び63bは、ユーザの左眼及び右眼を撮像可能な任意の位置に設けられる。例えば左眼用及び右眼用カメラ63a及び63bにより撮影された左眼及び右眼の画像に基づいて、仮想オブジェクトの重畳表示される位置が制御されてもよい。
The left-eye and right-
図8に示すHMD60では、フレーム61に対して、左右のレンズ62a及び62bの各々が移動可能に構成され、駆動機構により移動される。またフレーム61自体も移動可能に構成され、保持力が変更可能となっている。左右のレンズ62a及び62bの各々の、位置や傾きが適宜変更されることで、上記の実施形態と同様に、高品質な視聴体験を実現することが可能である。
In the
上記の実施形態では、情報処理装置10がユーザ端末5自身により実現された。これに限定されず、情報処理装置10とユーザ端末5が有線又は無線を介して、通信可能に接続されていてもよい。また各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能であってもよい。
In the above embodiment, the
図9は、情報処理装置10のハードウェア構成例を示すブロック図である。
FIG. 9 is a block diagram showing a hardware configuration example of the
情報処理装置10は、CPU71、ROM72、RAM73、入出力インタフェース75、及びこれらを互いに接続するバス74を備える。入出力インタフェース75には、表示部76、入力部77、記憶部78、通信部79、及びドライブ部80等が接続される。
The
表示部76は、例えば液晶、EL等を用いた表示デバイスである。入力部77は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部77がタッチパネルを含む場合、そのタッチパネルは表示部76と一体となり得る。
The
記憶部78は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部80は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体81を駆動することが可能なデバイスである。
The
通信部79は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部79は、有線及び無線のどちらを利用して通信するものであってもよい。通信部79は、情報処理装置10とは別体で使用される場合が多い。
本実施形態では、通信部79により、ネットワークを介した他の装置との通信が可能となる。
The
In the present embodiment, the
上記のようなハードウェア構成を有する情報処理装置10による情報処理は、記憶部78またはROM72等に記憶されたソフトウェアと、情報処理装置10のハードウェア資源との協働により実現される。具体的には、ROM72等に記憶された、ソフトウェアを構成するプログラムをRAM73にロードして実行することにより、本技術に係る情報処理方法が実現される。
Information processing by the
プログラムは、例えば記録媒体71を介して情報処理装置10にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置10にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
The program is installed in the
通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理装置、情報処理方法、及びプログラムが実行され、本技術に係る情報処理装置が構築されてもよい。 The information processing device, information processing method, and program related to this technology are executed by linking the computer mounted on the communication terminal with another computer that can communicate via a network or the like, and the information processing device related to this technology. May be constructed.
すなわち本技術に係る情報処理装置、情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。 That is, the information processing apparatus, information processing method, and program according to the present technology can be executed not only in a computer system composed of a single computer but also in a computer system in which a plurality of computers operate in conjunction with each other. In the present disclosure, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether or not all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device in which a plurality of modules are housed in one housing are both systems.
コンピュータシステムによる本技術に係る情報処理装置、情報処理方法、及びプログラムの実行は、例えば、対象物体情報の取得、照明状況の推定、及び重畳表示の制御等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。 The information processing device, information processing method, and program related to this technology are executed by a computer system when, for example, acquisition of target object information, estimation of lighting status, control of superimposed display, and the like are executed by a single computer. , And when each process is performed by a different computer. Further, the execution of each process by a predetermined computer includes causing another computer to execute a part or all of the process and acquire the result.
すなわち本技術に係る情報処理装置、情報処理方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。 That is, the information processing device, information processing method, and program related to the present technology can be applied to a cloud computing configuration in which one function is shared and jointly processed by a plurality of devices via a network. ..
各図面を参照して説明した形状推定部、行動検出部、照明推定部、表示制御部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。 Each configuration of the shape estimation unit, the behavior detection unit, the lighting estimation unit, the display control unit, etc., the control flow of the communication system, etc. described with reference to each drawing are merely embodiments, and are within the scope of the present technology. And it can be transformed arbitrarily. That is, other arbitrary configurations, algorithms, and the like for implementing the present technology may be adopted.
なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。 The effects described in the present disclosure are merely examples and are not limited, and other effects may be obtained. The description of the plurality of effects described above does not necessarily mean that those effects are exerted at the same time. It means that at least one of the above-mentioned effects can be obtained depending on the conditions and the like, and of course, there is a possibility that an effect not described in the present disclosure may be exhibited.
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。 It is also possible to combine at least two feature parts among the feature parts of each form described above. That is, the various feature portions described in each embodiment may be arbitrarily combined without distinction between the respective embodiments.
本開示において、「中心」「中央」「均一」「等しい」「同じ」「直交」「平行」「対称」「延在」「軸方向」「円柱形状」「円筒形状」「リング形状」「円環形状」等の、形状、サイズ、位置関係、状態等を規定する概念は、「実質的に中心」「実質的に中央」「実質的に均一」「実質的に等しい」「実質的に同じ」「実質的に直交」「実質的に平行」「実質的に対称」「実質的に延在」「実質的に軸方向」「実質的に円柱形状」「実質的に円筒形状」「実質的にリング形状」「実質的に円環形状」等を含む概念とする。 In the present disclosure, "center", "center", "uniform", "equal", "same", "orthogonal", "parallel", "symmetrical", "extended", "axial", "cylindrical", "cylindrical", "ring", and "circle". Concepts that define shape, size, positional relationship, state, etc., such as "ring shape," are "substantially centered," "substantially centered," "substantially uniform," "substantially equal," and "substantially the same." "Substantially orthogonal" "substantially parallel" "substantially symmetrical" "substantially extending" "substantially axial" "substantially cylindrical" "substantially cylindrical" "substantially cylindrical" The concept includes "ring shape", "substantially ring shape", and the like.
例えば「完全に中心」「完全に中央」「完全に均一」「完全に等しい」「完全に同じ」「完全に直交」「完全に平行」「完全に対称」「完全に延在」「完全に軸方向」「完全に円柱形状」「完全に円筒形状」「完全にリング形状」「完全に円環形状」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。 For example, "perfectly centered", "perfectly centered", "perfectly uniform", "perfectly equal", "perfectly identical", "perfectly orthogonal", "perfectly parallel", "perfectly symmetric", "perfectly extending", "perfectly extending" Includes states that are included in a predetermined range (for example, ± 10% range) based on "axial direction", "completely cylindrical shape", "completely cylindrical shape", "completely ring shape", "completely annular shape", etc. Is done.
なお、本技術は以下のような構成も採ることができる。
(1)
対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、前記操作物体による前記対象物体への操作に応じた前記対象物体の形状に応じた仮想オブジェクトの重畳表示を制御する表示制御部
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記表示制御部は、前記対象物体の表面に沿うように前記仮想オブジェクトを重畳表示する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記表示制御部は、前記対象物体の表面に前記仮想オブジェクトが仮想的に描画されるように、前記重畳表示を制御する
情報処理装置。
(4)(2)又は(3)に記載の情報処理装置であって、
前記表示制御部は、前記対象物体の表面に沿って前記仮想オブジェクトが仮想的に配置されるように、前記重畳表示を制御する
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記対象物体の位置及び前記操作物体の位置の各々は、デプスセンサにより検出されるデプス情報を含む
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記デプスセンサは、少なくともTOF(Time of Flight)カメラを含む
情報処理装置。
(7)(1)から(6)のうちいずれか1つに記載の情報処理装置であって、
前記対象物体情報は、前記対象物体の陰影状況を含み、
前記表示制御部は、前記陰影状況に基づいて、前記仮想オブジェクトの輝度を制御する
情報処理装置。
(8)(7)に記載の情報処理装置であって、
前記表示制御部は、前記対象物体の前記陰影状況が前記仮想オブジェクトに反映されるように、前記仮想オブジェクトの輝度を制御する
情報処理装置。
(9)(7)又は(8)に記載の情報処理装置であって、さらに、
前記対象物体情報及び前記操作物体情報を取得する取得部を具備し、
前記取得部は、前記対象物体に対する照明状況と前記対象物体の形状とに基づいて、前記対象物体の陰影状況を推定することが可能である
情報処理装置。
(10)(9)に記載の情報処理装置であって、
前記照明状況は、前記対象物体に光を投射する光源の位置、及び前記光源の明るさを含む
情報処理装置。
(11)(1)から(10)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記対象物体を含む対象物体画像に対して、前記仮想オブジェクトを重畳表示する
情報処理装置。
(12)(1)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記対象物体は、顔又は頭の少なくとも一方であり、
前記操作物体は、指である
情報処理装置。
(13)(1)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記対象物体及び前記操作物体は、同じユーザの互いに異なる部位である
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記対象物体情報は、輝度を含む
情報処理装置。
(15)(1)から(14)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記操作物体が前記対象物体に接触した場合に、前記対象物体に対して前記仮想オブジェクトを表示する
情報処理装置。
(16)(1)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記操作物体による前記対象物体への操作を行う位置に基づいて、前記対象物体の形状に応じた前記仮想オブジェクトの重畳表示を制御する
情報処理装置。
(17)
対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、前記操作物体による前記対象物体への操作に応じた前記対象物体の形状に応じた仮想オブジェクトの重畳表示を制御する
ことをコンピュータシステムが実行する情報処理方法。
(18)
対象物体の位置及び形状を含む対象物体情報と、操作物体の位置を含む操作物体情報とに基づいて、前記操作物体による前記対象物体への操作に応じた前記対象物体の形状に応じた仮想オブジェクトの重畳表示を制御するステップ
をコンピュータシステムに実行させるプログラム。
The present technology can also adopt the following configurations.
(1)
Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. An information processing device including a display control unit that controls a superposed display of.
(2) The information processing device according to (1).
The display control unit is an information processing device that superimposes and displays the virtual object along the surface of the target object.
(3) The information processing device according to (2).
The display control unit is an information processing device that controls the superimposed display so that the virtual object is virtually drawn on the surface of the target object.
(4) The information processing device according to (2) or (3).
The display control unit is an information processing device that controls the superimposed display so that the virtual object is virtually arranged along the surface of the target object.
(5) The information processing device according to any one of (1) to (4).
An information processing device that includes depth information detected by a depth sensor in each of the position of the target object and the position of the operating object.
(6) The information processing device according to (5).
The depth sensor is an information processing device including at least a TOF (Time of Flight) camera.
(7) The information processing device according to any one of (1) to (6).
The target object information includes the shadow status of the target object.
The display control unit is an information processing device that controls the brightness of the virtual object based on the shadow condition.
(8) The information processing apparatus according to (7).
The display control unit is an information processing device that controls the brightness of the virtual object so that the shadow state of the target object is reflected in the virtual object.
(9) The information processing apparatus according to (7) or (8), further
It is provided with an acquisition unit for acquiring the target object information and the operation object information.
The acquisition unit is an information processing device capable of estimating the shadow state of the target object based on the lighting state of the target object and the shape of the target object.
(10) The information processing apparatus according to (9).
The lighting condition is an information processing device including the position of a light source that projects light onto the target object and the brightness of the light source.
(11) The information processing apparatus according to any one of (1) to (10).
The display control unit is an information processing device that superimposes and displays the virtual object on an image of the target object including the target object.
(12) The information processing apparatus according to any one of (1) to (11).
The object of interest is at least one of the face or head.
The operating object is an information processing device that is a finger.
(13) The information processing apparatus according to any one of (1) to (12).
An information processing device in which the target object and the operation object are different parts of the same user.
(14) The information processing apparatus according to any one of (1) to (13).
The target object information is an information processing device including brightness.
(15) The information processing apparatus according to any one of (1) to (14).
The display control unit is an information processing device that displays the virtual object on the target object when the operating object comes into contact with the target object.
(16) The information processing apparatus according to any one of (1) to (15).
The display control unit is an information processing device that controls superimposition display of the virtual object according to the shape of the target object based on a position where the operation object operates on the target object.
(17)
Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. An information processing method in which a computer system performs control of the superimposed display of.
(18)
Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. A program that causes a computer system to perform steps that control the superposition of.
1…対象物体
2…操作物体
5…ユーザ端末
6…対象物体情報
7…操作物体情報
10…情報処理装置
31…情報取得部
32…形状推定部
34…照明推定部
35…表示制御部
100…表示制御システム
1 ...
Claims (18)
を具備する情報処理装置。 Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. An information processing device including a display control unit that controls a superposed display of.
前記表示制御部は、前記対象物体の表面に沿うように前記仮想オブジェクトを重畳表示する
情報処理装置。 The information processing device according to claim 1.
The display control unit is an information processing device that superimposes and displays the virtual object along the surface of the target object.
前記表示制御部は、前記対象物体の表面に前記仮想オブジェクトが仮想的に描画されるように、前記重畳表示を制御する
情報処理装置。 The information processing device according to claim 2.
The display control unit is an information processing device that controls the superimposed display so that the virtual object is virtually drawn on the surface of the target object.
前記表示制御部は、前記対象物体の表面に沿って前記仮想オブジェクトが仮想的に配置されるように、前記重畳表示を制御する
情報処理装置。 The information processing device according to claim 2.
The display control unit is an information processing device that controls the superimposed display so that the virtual object is virtually arranged along the surface of the target object.
前記対象物体の位置及び前記操作物体の位置の各々は、デプスセンサにより検出されるデプス情報を含む
情報処理装置。 The information processing device according to claim 1.
An information processing device that includes depth information detected by a depth sensor in each of the position of the target object and the position of the operating object.
前記デプスセンサは、少なくともTOF(Time of Flight)カメラを含む
情報処理装置。 The information processing device according to claim 5.
The depth sensor is an information processing device including at least a TOF (Time of Flight) camera.
前記対象物体情報は、前記対象物体の陰影状況を含み、
前記表示制御部は、前記陰影状況に基づいて、前記仮想オブジェクトの輝度を制御する
情報処理装置。 The information processing device according to claim 1.
The target object information includes the shadow status of the target object.
The display control unit is an information processing device that controls the brightness of the virtual object based on the shadow condition.
前記表示制御部は、前記対象物体の前記陰影状況が前記仮想オブジェクトに反映されるように、前記仮想オブジェクトの輝度を制御する
情報処理装置。 The information processing device according to claim 7.
The display control unit is an information processing device that controls the brightness of the virtual object so that the shadow state of the target object is reflected in the virtual object.
前記対象物体情報及び前記操作物体情報を取得する取得部を具備し、
前記取得部は、前記対象物体に対する照明状況と前記対象物体の形状とに基づいて、前記対象物体の陰影状況を推定することが可能である
情報処理装置。 The information processing device according to claim 7, further
It is provided with an acquisition unit for acquiring the target object information and the operation object information.
The acquisition unit is an information processing device capable of estimating the shadow state of the target object based on the lighting state of the target object and the shape of the target object.
前記照明状況は、前記対象物体に光を投射する光源の位置、及び前記光源の明るさを含む
情報処理装置。 The information processing device according to claim 9.
The lighting condition is an information processing device including the position of a light source that projects light onto the target object and the brightness of the light source.
前記表示制御部は、前記対象物体を含む対象物体画像に対して、前記仮想オブジェクトを重畳表示する
情報処理装置。 The information processing device according to claim 1.
The display control unit is an information processing device that superimposes and displays the virtual object on an image of the target object including the target object.
前記対象物体は、顔又は頭の少なくとも一方であり、
前記操作物体は、指である
情報処理装置。 The information processing device according to claim 1.
The object of interest is at least one of the face or head.
The operating object is an information processing device that is a finger.
前記対象物体及び前記操作物体は、同じユーザの互いに異なる部位である
情報処理装置。 The information processing device according to claim 1.
An information processing device in which the target object and the operation object are different parts of the same user.
前記対象物体情報は、輝度を含む
情報処理装置。 The information processing device according to claim 1.
The target object information is an information processing device including brightness.
前記表示制御部は、前記操作物体が前記対象物体に接触した場合に、前記対象物体に対して前記仮想オブジェクトを表示する
情報処理装置。 The information processing device according to claim 1.
The display control unit is an information processing device that displays the virtual object on the target object when the operating object comes into contact with the target object.
前記表示制御部は、前記操作物体による前記対象物体への操作を行う位置に基づいて、前記対象物体の形状に応じた前記仮想オブジェクトの重畳表示を制御する
情報処理装置。 The information processing device according to claim 1.
The display control unit is an information processing device that controls superimposition display of the virtual object according to the shape of the target object based on a position where the operation object operates on the target object.
ことをコンピュータシステムが実行する情報処理方法。 Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. An information processing method in which a computer system performs control of the superimposed display of.
をコンピュータシステムに実行させるプログラム。 Based on the target object information including the position and shape of the target object and the operation object information including the position of the operation object, a virtual object according to the shape of the target object according to the operation on the target object by the operation object. A program that causes a computer system to perform steps that control the superposition of.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019216826A JP2021086511A (en) | 2019-11-29 | 2019-11-29 | Information processing device, information processing method, and program |
PCT/JP2020/041895 WO2021106552A1 (en) | 2019-11-29 | 2020-11-10 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019216826A JP2021086511A (en) | 2019-11-29 | 2019-11-29 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021086511A true JP2021086511A (en) | 2021-06-03 |
Family
ID=76088334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019216826A Pending JP2021086511A (en) | 2019-11-29 | 2019-11-29 | Information processing device, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021086511A (en) |
WO (1) | WO2021106552A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8947455B2 (en) * | 2010-02-22 | 2015-02-03 | Nike, Inc. | Augmented reality design system |
JP5901370B2 (en) * | 2012-03-19 | 2016-04-06 | 株式会社Bs—Tbs | Image processing apparatus, image processing method, and image processing program |
JP6596914B2 (en) * | 2015-05-15 | 2019-10-30 | セイコーエプソン株式会社 | Head-mounted display device, method for controlling head-mounted display device, computer program |
CN111316202A (en) * | 2017-11-10 | 2020-06-19 | 索尼半导体解决方案公司 | Display processing device, display processing method, and program |
JPWO2019111465A1 (en) * | 2017-12-04 | 2020-12-24 | ソニー株式会社 | Information processing equipment, information processing methods, and recording media |
US11500453B2 (en) * | 2018-01-30 | 2022-11-15 | Sony Interactive Entertainment Inc. | Information processing apparatus |
-
2019
- 2019-11-29 JP JP2019216826A patent/JP2021086511A/en active Pending
-
2020
- 2020-11-10 WO PCT/JP2020/041895 patent/WO2021106552A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021106552A1 (en) | 2021-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3807710B1 (en) | Augmented reality display with frame modulation functionality | |
US11074748B2 (en) | Matching meshes for virtual avatars | |
US20240005808A1 (en) | Individual viewing in a shared space | |
US11797105B2 (en) | Multi-modal hand location and orientation for avatar movement | |
WO2019177870A1 (en) | Animating virtual avatar facial movements | |
AU2021290132C1 (en) | Presenting avatars in three-dimensional environments | |
US11493989B2 (en) | Modes of user interaction | |
EP3759542B1 (en) | Head scan alignment using ocular registration | |
US11579693B2 (en) | Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body | |
WO2021106552A1 (en) | Information processing device, information processing method, and program | |
WO2021131950A1 (en) | Information processing device, information processing method, and program | |
US20230171484A1 (en) | Devices, methods, and graphical user interfaces for generating and displaying a representation of a user | |
Bhaskaran et al. | Immersive User Experiences: Trends and Challenges of Using XR Technologies | |
CN116868152A (en) | Interface for rendering avatars in a three-dimensional environment |