JP2014064248A - Image projection device and image projection method - Google Patents

Image projection device and image projection method Download PDF

Info

Publication number
JP2014064248A
JP2014064248A JP2012209623A JP2012209623A JP2014064248A JP 2014064248 A JP2014064248 A JP 2014064248A JP 2012209623 A JP2012209623 A JP 2012209623A JP 2012209623 A JP2012209623 A JP 2012209623A JP 2014064248 A JP2014064248 A JP 2014064248A
Authority
JP
Japan
Prior art keywords
image
projection
user
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012209623A
Other languages
Japanese (ja)
Inventor
Mikiko Nakanishi
美木子 中西
Tsutomu Horikoshi
力 堀越
Masaaki Fukumoto
雅朗 福本
Shinji Kimura
真治 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012209623A priority Critical patent/JP2014064248A/en
Publication of JP2014064248A publication Critical patent/JP2014064248A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To project, on a person capable of moving, an image corresponding to his/her motion.SOLUTION: A control unit 11 specifies a feature point B in an image in which a user's face is captured. Next, the control unit 11 obtains a correspondence relationship between the specified feature point B and a feature point A stored in a storage unit 12, and calculates a transform matrix for transforming projection image data. Then, the control unit 11 reads the projection image data from the storage unit 12, transforms the projection image data on the basis of the transform matrix, and projects an image from a wide-angle projector 18.

Description

本発明は、ユーザに装着されて用いられる画像投影装置及びその装置の画像投影方法に関する。   The present invention relates to an image projection apparatus used by being worn by a user, and an image projection method for the apparatus.

ユーザの頭部に装着された状態で用いられる画像投影装置として、例えばヘッドマウントディスプレイと呼ばれるものが知られている。特許文献1には、撮像手段の撮像方向をユーザの視線の方向に追従させることが開示されている。特許文献2には、プロジェクタからの出力画像をユーザの視線に追従させることが開示されている。   As an image projection device used in a state of being mounted on a user's head, for example, a so-called head mounted display is known. Patent Document 1 discloses that the imaging direction of the imaging unit is made to follow the direction of the user's line of sight. Patent Document 2 discloses that an output image from a projector follows a user's line of sight.

特開2000−59666号公報JP 2000-59666 A 特開平10−301055号公報JP 10-301055 A

プロジェクタなどの投影手段から投影する画像は、例えば複数人が出席する会議で用いる資料の画像などが一般的であるが、例えば、動くことが可能な人間自身に対してその動きに応じた画像を投影することで、従来にはない面白さがあるサービスを提供することが考えられる。   An image projected from a projection unit such as a projector is generally an image of a material used in a meeting attended by a plurality of people, for example. For example, an image corresponding to the movement of a person who can move is displayed. By projecting, it is conceivable to provide a service with an unprecedented interest.

そこで本発明は、動くことが可能な人間に対してその動きに応じた画像を投影し得る仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism capable of projecting an image corresponding to a movement of a human who can move.

本発明の一態様に係る画像投影装置は、自装置を装着するユーザを撮像する撮像手段と、自装置を装着するユーザに向かって画像を投影する投影手段と、前記撮像手段の撮像範囲の少なくとも一部を画像投影範囲として、当該画像投影範囲において前記撮像手段により撮像された画像の特徴に応じた投影画像を、前記投影手段から投影させる投影制御手段とを備えることを特徴とする。   An image projection apparatus according to an aspect of the present invention includes an imaging unit that captures an image of a user wearing the device, a projection unit that projects an image toward the user wearing the device, and at least an imaging range of the imaging unit. Projection control means for projecting from the projection means a projection image corresponding to the characteristics of the image captured by the imaging means within the image projection range as a part of the image projection range.

画像投影装置は、前記ユーザの頭部に装着され、前記画像投影範囲が前記ユーザの顔の少なくとも一部を含むものであってもよい。   The image projection device may be mounted on the user's head, and the image projection range may include at least a part of the user's face.

前記投影制御手段は、前記投影手段による画像の投影に先立って、前記撮像手段により撮像されたユーザの画像における特徴点を特定し、特定した特徴点に基づいて、投影画像の基準となる画像を変形した投影画像データを生成して、前記特定した特徴点と関連付けて記憶しておき、前記投影手段によって画像を投影する場合には、前記撮像手段により撮像されたユーザの画像における特徴点を特定し、特定した当該特徴点と、記憶しておいた前記特徴点との対応関係を求め、求めた対応関係に基づいて、記憶しておいた前記投影画像データを変換し、変換後の投影画像データによって表される画像を前記投影手段から投影させるようにしてもよい。   Prior to projecting an image by the projection unit, the projection control unit identifies a feature point in the user's image captured by the imaging unit, and based on the identified feature point, an image serving as a reference for the projection image is obtained. When deformed projection image data is generated and stored in association with the identified feature point, when the image is projected by the projection unit, the feature point in the user image captured by the imaging unit is identified. Then, the correspondence relationship between the identified feature point and the stored feature point is obtained, the stored projection image data is converted based on the obtained correspondence relationship, and the projection image after the conversion An image represented by data may be projected from the projection means.

前記投影制御手段は、投影画像の基準となる基準投影画像データを、当該基準投影画像データが表す画像における特徴点と関連付けて記憶しておき、前記撮像手段により撮像されたユーザの画像に基づき、当該画像における特徴点とユーザの各部位とを特定し、特定した各々の前記部位の位置および傾き、並びに、特定した前記特徴点と前記基準投影画像データに関連付けて記憶しておいた特徴点との対応関係を求め、求めた前記部位の位置および傾きと前記対応関係とに基づいて、記憶しておいた前記基準投影画像データを変換し、変換後の投影画像データによって表される画像を前記投影手段から投影させるようにしてもよい。   The projection control unit stores reference projection image data serving as a reference of a projection image in association with a feature point in an image represented by the reference projection image data, and based on a user image captured by the imaging unit, Identifying the feature points in the image and each part of the user, the position and inclination of each identified part, and the feature points stored in association with the identified feature points and the reference projection image data; And converting the stored reference projection image data based on the obtained position and inclination of the part and the correspondence relationship, and converting the image represented by the converted projection image data into the image You may make it project from a projection means.

前記投影制御手段は、複数の種別の投影画像のうちいずれかを、前記画像投影範囲に投影する投影画像として決定し、決定した投影画像を前記投影手段から投影させるようにしてもよい。   The projection control unit may determine one of a plurality of types of projection images as a projection image to be projected on the image projection range, and cause the projection unit to project the determined projection image.

また、本発明の一態様に係る画像投影方法は、ユーザを撮像する撮像手段と当該ユーザに向かって画像を投影する投影手段とを有し当該ユーザに装着される画像投影装置が、前記撮像手段の撮像範囲の少なくとも一部を画像投影範囲として、当該画像投影範囲において前記撮像手段により撮像された画像の特徴に応じた投影画像を、前記投影手段から投影させることを特徴とする。   According to another aspect of the present invention, there is provided an image projection method including: an imaging unit that captures an image of a user; and a projection unit that projects an image toward the user. The projection unit projects at least a part of the imaging range as an image projection range, and projects a projection image corresponding to the feature of the image captured by the imaging unit in the image projection range.

本発明によれば、動くことが可能な人間に対してその動きに応じた画像を投影することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image according to the motion can be projected with respect to the person who can move.

本発明の一実施形態に係る画像投影装置の正面図、側面図、上面図、背面図。1 is a front view, a side view, a top view, and a rear view of an image projection apparatus according to an embodiment of the present invention. 画像投影装置をユーザが装着しているときの様子を示す斜視図。The perspective view which shows a mode when the user has mounted | worn the image projector. 画像投影装置のハードウェア構成を示すブロック図。The block diagram which shows the hardware constitutions of an image projector. 画像投影装置の機能構成を示すブロック図。The block diagram which shows the function structure of an image projector. 画像投影装置を装着しているユーザに対して画像を投影したときの様子を示す斜視図。The perspective view which shows a mode when an image is projected with respect to the user with which the image projector is mounted | worn. 画像投影装置が投影画像データを登録するときの手順を示すフローチャート。The flowchart which shows the procedure when an image projection apparatus registers projection image data. 画像投影装置がユーザの顔に画像を投影するときの手順を示すフローチャート。The flowchart which shows the procedure in case an image projection apparatus projects an image on a user's face. 変形例1において画像投影装置が実行する処理の手順を示すフローチャート。10 is a flowchart showing a procedure of processing executed by the image projection apparatus in Modification 1; 変形例2において画像投影装置が実行する処理の手順を示すフローチャート。10 is a flowchart showing a procedure of processing executed by the image projection apparatus in Modification 2.

[実施形態]
図1において、(A)は本発明の一実施形態に係る画像投影装置1の正面図であり、(B)は側面図であり、(C)は上面図であり、(D)は背面図である。図2は、画像投影装置1をユーザが装着しているときの様子を示す斜視図である。画像投影装置1は、ユーザ2の例えば頭部に装着された状態で用いられる画像投影装置であり、ここでは、通話やデータ通信が可能な通信装置として機能する。この画像投影装置1は、ユーザ2の頭部を挟むようにして装着される。すなわち、画像投影装置1は、ノーズ部と呼ばれる部品がユーザ2の鼻2aに接し、且つ、アーム部と呼ばれる部品がユーザ2の両耳2bに接した状態で、ユーザ2の頭部に装着される。
[Embodiment]
1A is a front view of an image projection apparatus 1 according to an embodiment of the present invention, FIG. 1B is a side view, FIG. 1C is a top view, and FIG. 1D is a rear view. It is. FIG. 2 is a perspective view showing a state when the user is wearing the image projection apparatus 1. The image projecting device 1 is an image projecting device that is used while being worn on the head of the user 2, for example, and functions as a communication device capable of calling and data communication. The image projection apparatus 1 is mounted so as to sandwich the head of the user 2. That is, the image projection apparatus 1 is mounted on the head of the user 2 with a part called a nose part in contact with the nose 2a of the user 2 and a part called an arm part in contact with both ears 2b of the user 2. The

画像投影装置1の正面側には、画像を表示する表示部16が設けられている。表示部16の外縁は、リム部16aと呼ばれる部品により覆われている。表示部16及びリム部16aは、ユーザ2の眼前に位置した状態(図1(C)において実線で図示)と、眼前からはずれて待避した状態(図1(C)において点線で図示)との間で変位することが可能になっている。表示部16は、光を透過する素材で構成されており、ユーザ2の眼前に位置した状態であっても、ユーザ2は表示部16を介して、自身の前方を視認することができるようになっている。   A display unit 16 for displaying an image is provided on the front side of the image projector 1. The outer edge of the display unit 16 is covered with a component called a rim portion 16a. The display unit 16 and the rim unit 16a are positioned in front of the user 2 (shown by solid lines in FIG. 1C) and in a state of being separated from the front and retracted (shown by dotted lines in FIG. 1C). It is possible to displace between. The display unit 16 is made of a material that transmits light so that the user 2 can visually recognize the front of the user 2 through the display unit 16 even when the display unit 16 is positioned in front of the user 2. It has become.

ユーザ2のそれぞれの眼に対応したリム部16aの内側(画像投影装置1をユーザ2が装着したときにユーザに向かい合う側)には、広角カメラ17及び広角プロジェクタ18が1つずつ設けられている。広角カメラ17は、ユーザの顔を撮像する撮像手段である。広角プロジェクタ18は、ユーザの顔に向けて画像を投影する投影手段である。本実施形態では、画像投影装置1をユーザ2が装着したとき、広角カメラ17とユーザ2の顔との距離が比較的短くなってしまうため、ユーザ2の顔のできるだけ広い範囲を撮像し得るように、広角レンズを用いた広角カメラ17が採用されている。同様に広角プロジェクタ18についても、ユーザ2の顔のできるだけ広い範囲に画像を投影し得るように、広角レンズを用いた広角プロジェクタ18が採用されている。   One wide-angle camera 17 and one wide-angle projector 18 are provided inside the rim portion 16a corresponding to each eye of the user 2 (the side facing the user when the user 2 wears the image projection device 1). . The wide-angle camera 17 is an imaging unit that images a user's face. The wide-angle projector 18 is a projection unit that projects an image toward the user's face. In this embodiment, when the user 2 wears the image projection device 1, the distance between the wide-angle camera 17 and the user 2 's face is relatively short, so that the widest possible range of the user 2's face can be captured. In addition, a wide-angle camera 17 using a wide-angle lens is employed. Similarly, a wide-angle projector 18 using a wide-angle lens is also adopted for the wide-angle projector 18 so that an image can be projected as wide as possible on the face of the user 2.

図3は、画像投影装置1のハードウェア構成を示すブロック図である。画像投影装置1は、前述したとおり通信装置として機能するものであり、制御部11と、記憶部12と、通信部13と、音声入出力部14と、操作部15と、表示部16と、広角カメラ17と、広角プロジェクタ18とを備えている。制御部11は、CPU(Central Processing Unit)などの演算装置と、ROM(Read Only Memory)およびRAM(Random Access Memory)などの記憶装置とを備えたコンピュータである。CPUは、RAMをワークエリアとして用いてROMや記憶部12に記憶されたプログラムを実行することによって、画像投影装置1の各部の動作を制御する。記憶部12は、書き込み可能な不揮発性の記憶手段であり、例えばEEPROM(Electronically Erasable and Programmable ROM)やバックアップ電源を備えたSRAM(Static Random Access Memory)である。記憶部12には、制御部11によって実行されるプログラムのほか、後述する各種のデータなどが記憶されている。通信部13は、無線用のアンテナや通信回路を備えており、移動通信網の基地局や無線LAN(Loval Area Network)のアクセスポイントなどと無線通信を行う。音声入出力部14は、スピーカ、マイクロホンおよび音声処理回路などを備えており、通話に係る音声の入出力を行う。操作部15は、キーやタッチセンサなどの操作子を備え、ユーザの操作に応じた操作信号を制御部11に供給する。制御部11は、この操作信号に応じた処理を行う。表示部16は、液晶パネルや液晶駆動回路を備えており、制御部11からの指示に応じて画像を表示する。広角カメラ17及び広角プロジェクタ18は、前述したとおりである。   FIG. 3 is a block diagram showing a hardware configuration of the image projection apparatus 1. As described above, the image projection device 1 functions as a communication device, and includes a control unit 11, a storage unit 12, a communication unit 13, a voice input / output unit 14, an operation unit 15, a display unit 16, A wide-angle camera 17 and a wide-angle projector 18 are provided. The control unit 11 is a computer including an arithmetic device such as a CPU (Central Processing Unit) and a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The CPU controls the operation of each unit of the image projection apparatus 1 by executing a program stored in the ROM or the storage unit 12 using the RAM as a work area. The storage unit 12 is a writable nonvolatile storage means such as an EEPROM (Electronically Erasable and Programmable ROM) or an SRAM (Static Random Access Memory) equipped with a backup power source. In addition to the program executed by the control unit 11, the storage unit 12 stores various data described below. The communication unit 13 includes a wireless antenna and a communication circuit, and performs wireless communication with a base station of a mobile communication network, an access point of a wireless LAN (Loval Area Network), and the like. The voice input / output unit 14 includes a speaker, a microphone, a voice processing circuit, and the like, and performs voice input / output related to a call. The operation unit 15 includes operation elements such as keys and touch sensors, and supplies an operation signal corresponding to a user operation to the control unit 11. The control unit 11 performs processing according to the operation signal. The display unit 16 includes a liquid crystal panel and a liquid crystal drive circuit, and displays an image in response to an instruction from the control unit 11. The wide-angle camera 17 and the wide-angle projector 18 are as described above.

図4は、画像投影装置1の機能構成を示すブロック図である。画像投影装置1は、撮像手段101と、投影手段102と、投影制御手段103とを備える、撮像手段101は、広角カメラ17によって実現される構成であり、画像投影装置1を装着するユーザの顔を撮像する。投影手段102は、広角プロジェクタ18によって実現される構成であり、画像投影装置1を装着するユーザの顔に向かって画像を投影する。投影制御手段103は、制御部11及び記憶部12によって実現される構成であり、撮像手段101の撮像範囲の少なくとも一部を画像投影範囲として、当該画像投影範囲において撮像手段101により撮像された画像の特徴に応じた投影画像を、投影手段102から投影させる。投影される画像はユーザの顔を装飾するような画像であり、例えば図2に示したユーザの顔にピエロの顔の画像を投影した場合には、ユーザの顔は図5のような外観となる。このピエロの顔の画像が、ユーザの顔の動きつまり表情に応じて動くようになっている。   FIG. 4 is a block diagram showing a functional configuration of the image projection apparatus 1. The image projecting apparatus 1 includes an image capturing unit 101, a projecting unit 102, and a projection control unit 103. The image capturing unit 101 is configured by the wide-angle camera 17, and the face of the user wearing the image projecting device 1 Image. The projection unit 102 is configured by the wide-angle projector 18 and projects an image toward the face of the user wearing the image projection apparatus 1. The projection control unit 103 is configured by the control unit 11 and the storage unit 12, and an image captured by the imaging unit 101 in the image projection range with at least a part of the imaging range of the imaging unit 101 as an image projection range. The projection unit 102 projects a projection image corresponding to the above feature. The projected image is an image that decorates the user's face. For example, when a clown face image is projected on the user's face shown in FIG. 2, the user's face has the appearance shown in FIG. Become. This clown face image moves in accordance with the movement of the user's face, that is, the facial expression.

より具体的な処理は次のとおりである。投影制御手段103は、投影手段102による画像の投影に先立って、撮像手段101により撮像されたユーザの画像における特徴点を特定し、特定した特徴点に基づいて、投影画像の基準となる画像を変形した投影画像データを生成して、特定した特徴点とともに記憶手段104に記憶しておく。そして、投影制御手段103は、投影手段102によってユーザに画像を投影する場合には、撮像手段101により撮像されたユーザの画像における特徴点を特定し、特定した当該特徴点とその前段で記憶手段104に記憶しておいた特徴点との対応関係を求める。そして、投影制御手段103は、求めた対応関係に基づいて、記憶手段104に記憶しておいた投影画像データを変換し、変換後の投影画像データによって表される画像を投影手段102から投影させる。画像における特徴点とは、その画像において他の物体の画像に比べてユニークとなるような点の集合であり、例えば画像の輪郭に相当する直線又は曲線において2本のエッジの交点であるコーナーや変曲点などである。   More specific processing is as follows. Prior to the projection of the image by the projection unit 102, the projection control unit 103 identifies a feature point in the user's image captured by the imaging unit 101, and based on the identified feature point, an image serving as a reference for the projection image is obtained. Deformed projection image data is generated and stored in the storage unit 104 together with the identified feature points. Then, when projecting an image onto the user by the projection unit 102, the projection control unit 103 identifies a feature point in the user image captured by the imaging unit 101, and stores the identified feature point and its preceding stage. A correspondence relationship with the feature points stored in 104 is obtained. Then, the projection control unit 103 converts the projection image data stored in the storage unit 104 based on the obtained correspondence relationship, and causes the projection unit 102 to project an image represented by the converted projection image data. . A feature point in an image is a set of points that are unique in the image as compared to an image of another object. For example, a corner or an intersection of two edges in a straight line or a curve corresponding to the contour of the image Inflection points.

次に本実施形態の動作について説明する。
図6は、制御部11が、プログラムに記述された手順に従って、画像の投影に先立って投影画像データを記憶部12に登録するときの手順を示すフローチャートである。まず、画像投影装置1がユーザ2に装着された状態でユーザが所定の操作を行うと、制御部11は、広角カメラ17によって撮像された画像を表す撮像データを取得する(ステップS11)。このとき、ユーザは自身の顔をごく自然な表情のままできるだけ静止させている。また、この撮像データは、例えば2つの広角カメラ17からそれぞれ供給されるものであるが、これらのカメラの視点が異なるため、制御部11は、カメラの視点の位置が既知であることを前提として所定の画像合成アルゴリズムに基づき1つの撮像データを合成することで、ユーザの顔を正面から見たときの画像を表す撮像データを生成する。また、この撮像データは、広角カメラ17から供給されるものではなく、これ以外のカメラで撮像したときの撮像データであってもよい。例えば正面から撮った顔、右からとった横顔および左からとった横顔の3種類の撮像データが用いられる。この場合も上記と同様にこれらのカメラの視点が異なるため、制御部11は、カメラの視点の位置が既知であることを前提として所定の画像合成アルゴリズムに基づき1つの撮像データを合成することで、ユーザの顔の画像を表す撮像データを生成する。なお、求められる精度次第では、例えば正面から撮った顔の撮像データだけを用いてもよい。
Next, the operation of this embodiment will be described.
FIG. 6 is a flowchart showing a procedure when the control unit 11 registers projection image data in the storage unit 12 prior to image projection according to the procedure described in the program. First, when the user performs a predetermined operation while the image projection apparatus 1 is attached to the user 2, the control unit 11 acquires imaging data representing an image captured by the wide-angle camera 17 (step S11). At this time, the user keeps his / her face as stationary as possible with a very natural expression. Further, the imaging data is supplied from, for example, two wide-angle cameras 17, but since the viewpoints of these cameras are different, the control unit 11 assumes that the position of the camera viewpoint is known. By synthesizing one image data based on a predetermined image composition algorithm, image data representing an image when the user's face is viewed from the front is generated. In addition, the imaging data is not supplied from the wide-angle camera 17 and may be imaging data obtained by imaging with other cameras. For example, three types of imaging data are used: a face taken from the front, a profile taken from the right, and a profile taken from the left. In this case as well, since the viewpoints of these cameras are different as described above, the control unit 11 combines one piece of imaging data based on a predetermined image composition algorithm on the assumption that the position of the camera viewpoint is known. The imaging data representing the image of the user's face is generated. Depending on the required accuracy, for example, only face image data taken from the front may be used.

次に、制御部11は、上記撮像データに基づいてユーザの顔の3次元モデルを生成し、これを顔モデルデータとして記憶部12に記憶させる(ステップS12)。この3次元モデルつまり顔モデルデータは、多角形の図形の組み合わせで3次元の物体を表現したポリゴンデータである。   Next, the control unit 11 generates a three-dimensional model of the user's face based on the imaging data and stores it in the storage unit 12 as face model data (step S12). This three-dimensional model, that is, face model data, is polygon data representing a three-dimensional object by a combination of polygonal figures.

ここで、記憶部12には標準的な人間の顔の3次元モデル(以下、標準3Dモデルという)が予め記憶されている。この標準3Dモデルも、多角形の図形の組み合わせで3次元の物体を表現したポリゴンデータであり、標準的な人間の顔の画像における多数の特徴点が関連付けられている。また、記憶部12には、投影される画像における特徴点を含む投影画像データ、つまり図5に示すようなピエロの画像に特徴点が関連付けられた投影画像データが記憶されている。この投影画像データは、ユーザの顔の動きに応じた投影画像データを生成するときの基準となるので、以下、基準投影画像データという。   Here, a standard three-dimensional model of a human face (hereinafter referred to as a standard 3D model) is stored in the storage unit 12 in advance. This standard 3D model is also polygon data representing a three-dimensional object by a combination of polygonal figures, and many feature points in a standard human face image are associated with each other. The storage unit 12 stores projection image data including feature points in the projected image, that is, projection image data in which feature points are associated with a clown image as shown in FIG. Since this projection image data serves as a reference when generating projection image data corresponding to the movement of the user's face, it is hereinafter referred to as reference projection image data.

制御部11は、記憶部12に予め記憶している標準3Dモデルと、ステップS12で生成した顔モデルデータとを比較しながら、顔モデルデータに対してエッジ検出や外周調査などの既知の手法を用って、この顔モデルデータにおいて、標準3Dモデルにおいて関連付けられている各特徴点に対応する特徴点(特徴点Aという)を特定し、記憶部12に記憶する(ステップS13)。これにより、撮像されたユーザの顔において、標準的な顔で決められている特徴点に相当する位置(つまりユーザの顔における特徴点)が分かることになる。   The control unit 11 compares the standard 3D model stored in advance in the storage unit 12 with the face model data generated in step S12, and applies a known method such as edge detection or outer periphery inspection to the face model data. Therefore, in this face model data, a feature point (referred to as feature point A) corresponding to each feature point associated with the standard 3D model is specified and stored in the storage unit 12 (step S13). Thereby, in the captured user's face, the position corresponding to the feature point determined by the standard face (that is, the feature point in the user's face) can be known.

次に、制御部11は、標準3Dモデルにおける特徴点と顔モデルデータにおける特徴点との差分に基づいて、基準投影画像データが表す投影画像の形状を変形した投影画像データを生成する(ステップS14)。より具体的には、基準投影画像データが表す投影画像における特徴点と、顔モデルデータにおける特徴点との差分は、ベクトルによって表すことができるから、基準投影画像データが表す投影画像の各部を、その各部に含まれる特徴点どうしの差分であるベクトルに応じた方向と大きさだけ移動させることで、投影画像データが生成される。生成された投影画像データにおいては、基準投影画像データと同じく、ユーザの顔における特徴点が関連付けられている。制御部11は、生成した投影画像データを記憶部12に記憶する。   Next, the control unit 11 generates projection image data obtained by modifying the shape of the projection image represented by the reference projection image data based on the difference between the feature point in the standard 3D model and the feature point in the face model data (step S14). ). More specifically, since the difference between the feature point in the projection image represented by the reference projection image data and the feature point in the face model data can be represented by a vector, each part of the projection image represented by the reference projection image data Projection image data is generated by moving only the direction and the magnitude according to the vector which is the difference between the feature points included in each part. In the generated projection image data, feature points on the user's face are associated with each other as in the case of the reference projection image data. The control unit 11 stores the generated projection image data in the storage unit 12.

次に、図7は、制御部11が、プログラムに記述された手順に従って、ユーザの顔に画像を投影するときの手順を示すフローチャートである。まず、画像投影装置1がユーザ2に装着された状態でユーザが所定の操作を行うと、制御部11は、ステップS11と同様に、広角カメラ17によって撮像された画像を表す撮像データを取得する(ステップS21)。このとき、ユーザはステップS11の撮像時とは異なり、自然な表情で静止させておく必要はない。   Next, FIG. 7 is a flowchart showing a procedure when the control unit 11 projects an image on the user's face according to the procedure described in the program. First, when the user performs a predetermined operation while the image projection apparatus 1 is attached to the user 2, the control unit 11 acquires imaging data representing an image captured by the wide-angle camera 17, as in step S11. (Step S21). At this time, unlike the case of imaging in step S11, the user does not need to be kept stationary with a natural expression.

次に、制御部11は、撮像データが表す画像において、エッジ検出や外周調査などの既知の手法を用いてその画像の特徴点(特徴点Bという)を特定する(ステップS22)。ここで特定された特徴点Bの位置は、前述したユーザの自然な表情の画像における特徴点Aの位置とは異なり、ユーザが任意に決めた表情の画像における特徴点の位置となる。次に、制御部11は、特定した特徴点Bと、ステップS13にて記憶部12に記憶されている特徴点Aとの対応関係を求める(ステップS23)。つまり制御部11は、前者の各特徴点Bが後者の特徴点A群のうちどの特徴点に相当するのかということを決定してゆく。   Next, the control unit 11 specifies a feature point (referred to as a feature point B) of the image represented by the imaging data using a known method such as edge detection or outer periphery inspection (step S22). The position of the feature point B identified here is different from the position of the feature point A in the user's natural expression image described above, and is the position of the feature point in the expression image arbitrarily determined by the user. Next, the control unit 11 obtains a correspondence relationship between the identified feature point B and the feature point A stored in the storage unit 12 in step S13 (step S23). That is, the control unit 11 determines which feature point in the latter feature point group A corresponds to the former feature point B.

次に、制御部11は、対応する特徴点どうしの位置の違いに基づいて、基準投影画像データを変換するための変換行列を求める(ステップS24)。そして、制御部11は、記憶部12から基準投影画像データを読み出し、その基準投影画像データを変換行列に基づいて変換する(ステップS25)。そして、制御部11は、変換後の投影画像データを広角プロジェクタ18に供給し、その投影画像データによって表される画像をユーザの顔に投影させる(ステップS26)。以上のステップS21〜S26の処理が投影処理を終了するような指示があるまで(ステップS27;YES)、繰り返し実行される。   Next, the control unit 11 obtains a conversion matrix for converting the reference projection image data based on the difference in position between the corresponding feature points (step S24). Then, the control unit 11 reads the reference projection image data from the storage unit 12, and converts the reference projection image data based on the conversion matrix (step S25). Then, the control unit 11 supplies the converted projection image data to the wide-angle projector 18, and projects an image represented by the projection image data on the user's face (step S26). The processes in steps S21 to S26 are repeatedly executed until an instruction is given to end the projection process (step S27; YES).

上記実施形態によれば、ユーザが顔を動かして表情を変えた場合であっても、制御部11は、動いた後の顔の画像において特徴点Bを特定し、その特徴点Bに基づいて変換した画像をユーザの顔に投影するから、ユーザの顔の動きに追従して画像を変化させることが可能となる。従って、ユーザが笑えば、そのユーザに投影されるピエロの画像も笑った表情となる。   According to the embodiment, even when the user moves the face and changes the facial expression, the control unit 11 specifies the feature point B in the face image after moving, and based on the feature point B Since the converted image is projected onto the user's face, the image can be changed following the movement of the user's face. Therefore, if the user laughs, the image of the clown projected on the user also has a laughing expression.

なお、ユーザの顔に画像を投影するときの利用シーンとしては、実施形態のように普段のユーザとは関わりのないようなピエロの画像を投影することで非日常的な変装或いは装飾的な面白さを演出するというケースのほか、例えば、ユーザの顔にあるしみやほくろに対してその周りの肌色と同じ色の画像を投影することで、そのしみやほくろを他人から見えづらくするといった形態も考えられる。   In addition, as a use scene when projecting an image on the user's face, an unusual disguise or decorative fun by projecting a clown image that is not related to the usual user as in the embodiment. In addition to the case of directing the image, for example, by projecting an image of the same color as the surrounding skin color on the spot or mole on the user's face, it may be difficult for others to see the spot or mole Conceivable.

[変形例]
本発明は、上述した実施形態の態様に限らず、他の態様でも実施することができる。以下に示すのは、本発明の他の態様の一例である。なお、これらの変形例は、必要に応じて、各々を適宜組み合わせてもよい。
[Modification]
The present invention is not limited to the aspect of the embodiment described above, and can be implemented in other aspects. The following is an example of another embodiment of the present invention. In addition, you may combine these modifications suitably as needed.

[変形例1]
実施形態では、画像の投影に先立って、ユーザの顔の特徴に合わせた投影画像データの登録処理を行っていたが、これを行わなくてもよい。図8は、この変形例1において制御部11がプログラムに記述された手順に従って、画像を投影するときの手順を示すフローチャートである。図8において、図7と同じ処理については同じ符号を付している。制御部11は、広角カメラ17によって撮像された画像を表す撮像データを取得すると(ステップS21)、エッジ検出や外周調査などの手法を用いてその画像における特徴点Bを特定するとともに、オブジェクトの形状や大きさを考慮したパターン認識等の技術を用いて例えば鼻や眼、耳、眉、口などといった
顔の各部位を特定する(ステップS22a)。
[Modification 1]
In the embodiment, the projection image data registration process that matches the facial features of the user is performed prior to the image projection, but this may not be performed. FIG. 8 is a flowchart showing a procedure when the control unit 11 projects an image according to the procedure described in the program in the first modification. In FIG. 8, the same processes as those in FIG. When the control unit 11 acquires imaging data representing an image captured by the wide-angle camera 17 (step S21), the control unit 11 specifies a feature point B in the image using a method such as edge detection or outer periphery investigation, and also determines the shape of the object. For example, each part of the face such as the nose, eyes, ears, eyebrows, and mouth is identified using a technique such as pattern recognition in consideration of the size (step S22a).

次に、制御部11は、特定した各部位の位置が予め決められた標準的な位置とどの程度違うかということと、特定した各部位の傾き(姿勢)が予め決められた標準的な傾き(姿勢)とどの程度違うかということを解析するとともに、記憶部12に予め記憶している標準3Dモデルで関連付けられている特徴点Aと特徴点Bの対応関係を特定する(ステップS23a)。なお、各部位の標準的な位置や傾き(姿勢)は記憶部12に予め記憶されているものとする。   Next, the control unit 11 determines how much the position of each specified part is different from a predetermined standard position, and the standard inclination in which the inclination (posture) of each specified part is predetermined. The degree of difference from (posture) is analyzed, and the correspondence between the feature points A and B associated with the standard 3D model stored in advance in the storage unit 12 is specified (step S23a). It is assumed that the standard position and inclination (posture) of each part are stored in advance in the storage unit 12.

そして、制御部11は、ステップS23aで特定した事項(つまり各部位の位置および傾きとそれらの標準値との差分、並びに、特徴点Aと特徴点Bの対応関係)に基づき、基準投影画像データを変換するための変換行列を求める(ステップS24a)。そして、制御部11は、記憶部12から読み出した基準投影画像データを変換行列に基づいて変換し(ステップS25)、変換後の投影画像データを広角プロジェクタ18に供給して画像を投影させる(ステップS26)。このようにすれば、事前の登録処理が不要となる。   Then, the control unit 11 determines the reference projection image data based on the items specified in step S23a (that is, the difference between the position and inclination of each part and their standard values, and the correspondence between the feature point A and the feature point B). A conversion matrix for converting is obtained (step S24a). Then, the control unit 11 converts the reference projection image data read from the storage unit 12 based on the conversion matrix (step S25), supplies the converted projection image data to the wide-angle projector 18, and projects an image (step). S26). In this way, prior registration processing becomes unnecessary.

[変形例2]
実施形態では、ユーザに投影する画像が予め決められていたが、これをユーザが決めるようにしてもよい。図9は、この変形例2において制御部11がプログラムに記述された手順に従って、画像を投影するときの手順を示すフローチャートである。この変形例2において、記憶部12には、ピエロの投影画像データのほか、例えば怪物だとか漫画のヒーローといったように、複数の種別の標準3Dモデルが記憶されている。
[Modification 2]
In the embodiment, the image to be projected to the user is determined in advance, but the user may determine this. FIG. 9 is a flowchart showing a procedure when the control unit 11 projects an image according to the procedure described in the program in the second modification. In the second modification, in addition to the projection image data of the clown, the storage unit 12 stores a plurality of types of standard 3D models such as a monster or a cartoon hero.

図9において、図6と同じ処理については同じ符号を付しており、ステップS11からステップS13までは図6と同じ処理である。ステップS13の後、制御部11は、記憶部12に記憶している標準3Dモデルの種別一覧を表示部16に表示させ、この一覧の中から所望のものを操作部15によってユーザに選択させる。この選択操作に応じて、制御部11は、標準3Dモデルの種別を決定すると(ステップS15)、その種別の3Dモデルを読み出して基準投影画像データを生成して記憶部12に記憶する(ステップS14)。このようにすれば、ユーザの所望する画像を投影することが可能となる。なお、ユーザが標準3Dモデルの種別一覧から所望のものを選択するタイミングは、ステップS14以前であればどのタイミングでもよい。   9, the same processes as those in FIG. 6 are denoted by the same reference numerals, and steps S11 to S13 are the same processes as in FIG. After step S <b> 13, the control unit 11 causes the display unit 16 to display a standard 3D model type list stored in the storage unit 12, and causes the operation unit 15 to select a desired one from the list. In response to this selection operation, the control unit 11 determines the type of the standard 3D model (step S15), reads the 3D model of that type, generates reference projection image data, and stores it in the storage unit 12 (step S14). ). In this way, it is possible to project an image desired by the user. Note that the timing at which the user selects a desired one from the standard 3D model type list may be any timing before step S14.

ユーザが図9の処理を経て複数種類の基準投影画像データを画像投影装置1に記憶させておき、画像投影時にこれらの中から所望のものを選ぶようにしてもよい。例えば、制御部11は、図7のステップS21の前に、記憶部12に記憶している基準投影画像データの一覧を表示部16に表示させ、この一覧の中から所望のものを操作部15によってユーザに選択させる。この選択操作に応じて、制御部11は、用いる基準投影画像データを決定し、ステップS25において、その基準投影画像データを変換行列に基づいて変換する。このようにすれば、ユーザの所望する画像を投影することが可能となる。   The user may store a plurality of types of reference projection image data in the image projection apparatus 1 through the processing of FIG. 9 and select a desired one from these during image projection. For example, the control unit 11 displays a list of reference projection image data stored in the storage unit 12 on the display unit 16 before step S21 in FIG. Allows the user to select. In response to this selection operation, the control unit 11 determines the reference projection image data to be used, and converts the reference projection image data based on the conversion matrix in step S25. In this way, it is possible to project an image desired by the user.

[変形例3]
図5では、ユーザの顔のほぼ全域に画像が投影されている例を示したが、顔表面の凹凸によって広角プロジェクタ18からの投影光がユーザの顔の全域に至らず、その結果として、ユーザの顔の一部(例えば眼や鼻、額のあたり)にしか画像を投影することができないこともあり得る。ただし、そのようなケースも本発明を適用し得る範囲である。つまり、本発明に係る画像投影装置は、撮像手段の撮像範囲の少なくとも一部を画像投影範囲として、その画像投影範囲において撮像手段により撮像された画像の特徴に応じた投影画像を投影するものである。よって、画像投影範囲は、画像投影装置を装着しているユーザの顔の少なくとも一部を含んでいればよいし、さらに、そのユーザの顔に限らず、そのユーザの人体であればどこでもよい。また、本発明において、投影する画像はどのようなものでもよい。
[Modification 3]
FIG. 5 shows an example in which an image is projected on almost the entire area of the user's face, but the projection light from the wide-angle projector 18 does not reach the entire area of the user's face due to the unevenness of the face surface. It is possible that an image can only be projected onto a part of the face (for example, around the eyes, nose, or forehead). However, such a case is also a range to which the present invention can be applied. That is, the image projection apparatus according to the present invention projects at least a part of the imaging range of the imaging unit as an image projection range, and projects a projection image corresponding to the characteristics of the image captured by the imaging unit in the image projection range. is there. Therefore, the image projection range only needs to include at least a part of the face of the user wearing the image projection apparatus, and is not limited to the face of the user, and may be any place of the user's human body. In the present invention, any image may be projected.

[変形例4]
広角カメラ17及び広角プロジェクタ18は、リム部16a以外の箇所に設けられていてもよい。例えば、ユーザの両眼に対応したリム部16aが、ブリッジ部と呼ばれる部品で連結されている場合、このリム部16a又はブリッジ部に広角カメラ17及び広角プロジェクタ18が設けられていてもよい。
[Modification 4]
The wide-angle camera 17 and the wide-angle projector 18 may be provided in places other than the rim portion 16a. For example, when the rim portion 16a corresponding to both eyes of the user is connected by a component called a bridge portion, the wide-angle camera 17 and the wide-angle projector 18 may be provided on the rim portion 16a or the bridge portion.

[変形例5]
画像投影装置1が実装する機能は、実施形態の例に限らず、様々なものが考えられる。例えば、網膜投射型ディスプレイ、視線検出機構、虹彩認証機構、骨伝導マイク及びイヤホン、脈波・血圧・体温・生体ガスなどの生体情報測定機構、眼電センサ、前方全視野広角カメラ、照度センサ、UVセンサ、距離センサ、非接触充電機構、角速度センサ、地磁気センサ、測位機構、温度センサ、湿度センサなどである。
[Modification 5]
The functions implemented by the image projection apparatus 1 are not limited to the example of the embodiment, and various functions are conceivable. For example, retinal projection display, gaze detection mechanism, iris authentication mechanism, bone conduction microphone and earphone, biological information measurement mechanism such as pulse wave, blood pressure, body temperature, biogas, ocular sensor, front full-field wide-angle camera, illuminance sensor, UV sensors, distance sensors, non-contact charging mechanisms, angular velocity sensors, geomagnetic sensors, positioning mechanisms, temperature sensors, humidity sensors, and the like.

[変形例6]
本発明は、画像投影装置やこれが実行する画像投影方法としてだけではなく、画像投影装置が実行するプログラムとして把握することも可能である。また、このプログラムは、光ディスクなどの記録媒体に記録した形態や、インターネットなどのネットワークを介して、画像投影装置にダウンロードさせ、これをインストールして利用可能にする形態などでも提供することができる。
[Modification 6]
The present invention can be understood not only as an image projection apparatus and an image projection method executed by the image projection apparatus, but also as a program executed by the image projection apparatus. The program can also be provided in a form recorded on a recording medium such as an optical disk, or in a form in which the program is downloaded to an image projection apparatus via a network such as the Internet and can be installed and used.

1 画像投影装置、2 ユーザ、2a 鼻、2b 耳、11 制御部、12 記憶部、13 通信部、14 音声入出力部、15 操作部、16 表示部、17 広角カメラ、18 広角プロジェクタ、101 撮像手段、102 投影手段、103 投影制御手段、104 記憶手段。 DESCRIPTION OF SYMBOLS 1 Image projector, 2 user, 2a nose, 2b ear, 11 control part, 12 memory | storage part, 13 communication part, 14 audio | voice input / output part, 15 operation part, 16 display part, 17 wide angle camera, 18 wide angle projector, 101 imaging Means, 102 Projection means, 103 Projection control means, 104 Storage means.

Claims (6)

自装置を装着するユーザを撮像する撮像手段と、
自装置を装着するユーザに向かって画像を投影する投影手段と、
前記撮像手段の撮像範囲の少なくとも一部を画像投影範囲として、当該画像投影範囲において前記撮像手段により撮像された画像の特徴に応じた投影画像を、前記投影手段から投影させる投影制御手段と
を備えることを特徴とする画像投影装置。
Imaging means for imaging a user wearing the device;
Projecting means for projecting an image toward a user wearing the apparatus;
A projection control unit for projecting from the projection unit a projection image corresponding to the characteristics of the image captured by the imaging unit in the image projection range, wherein at least a part of the imaging range of the imaging unit is an image projection range. An image projection apparatus characterized by that.
前記ユーザの頭部に装着され、
前記画像投影範囲が前記ユーザの顔の少なくとも一部を含む
ことを特徴とする請求項1記載の画像投影装置。
Worn on the user's head,
The image projection apparatus according to claim 1, wherein the image projection range includes at least a part of the user's face.
前記投影制御手段は、
前記投影手段による画像の投影に先立って、前記撮像手段により撮像されたユーザの画像における特徴点を特定し、特定した特徴点に基づいて、投影画像の基準となる画像を変形した投影画像データを生成して、前記特定した特徴点と関連付けて記憶しておき、
前記投影手段によって画像を投影する場合には、前記撮像手段により撮像されたユーザの画像における特徴点を特定し、特定した当該特徴点と、記憶しておいた前記特徴点との対応関係を求め、求めた対応関係に基づいて、記憶しておいた前記投影画像データを変換し、変換後の投影画像データによって表される画像を前記投影手段から投影させる
ことを特徴とする請求項1又は2に記載の画像投影装置。
The projection control means includes
Prior to projecting the image by the projection unit, a feature point in the user's image captured by the imaging unit is identified, and projection image data obtained by modifying an image serving as a reference of the projection image based on the identified feature point is obtained. Generated and stored in association with the identified feature points,
When projecting an image by the projection unit, a feature point in the user image captured by the imaging unit is specified, and a correspondence relationship between the specified feature point and the stored feature point is obtained. The stored projection image data is converted based on the obtained correspondence relationship, and an image represented by the converted projection image data is projected from the projection unit. The image projection apparatus described in 1.
前記投影制御手段は、
投影画像の基準となる基準投影画像データを、当該基準投影画像データが表す画像における特徴点と関連付けて記憶しておき、
前記撮像手段により撮像されたユーザの画像に基づき、当該画像における特徴点とユーザの各部位とを特定し、
特定した各々の前記部位の位置および傾き、並びに、特定した前記特徴点と前記基準投影画像データに関連付けて記憶しておいた特徴点との対応関係を求め、
求めた前記部位の位置および傾きと前記対応関係とに基づいて、記憶しておいた前記基準投影画像データを変換し、変換後の投影画像データによって表される画像を前記投影手段から投影させる
ことを特徴とする請求項1又は2に記載の画像投影装置。
The projection control means includes
Reference projection image data serving as a reference for the projection image is stored in association with feature points in the image represented by the reference projection image data,
Based on the image of the user imaged by the imaging means, the feature point in the image and each part of the user are identified,
Obtaining the correspondence between the identified position and inclination of each of the parts, and the feature points that have been identified and stored in association with the reference projection image data;
The stored reference projection image data is converted based on the obtained position and inclination of the part and the correspondence relationship, and an image represented by the converted projection image data is projected from the projection means. The image projection apparatus according to claim 1, wherein:
前記投影制御手段は、複数の種別の投影画像のうちいずれかを、前記画像投影範囲に投影する投影画像として決定し、決定した投影画像を前記投影手段から投影させる
ことを特徴とする請求項1〜4のいずれか1項に記載の画像投影装置。
The projection control unit determines any one of a plurality of types of projection images as a projection image to be projected onto the image projection range, and causes the projection unit to project the determined projection image. The image projector of any one of -4.
ユーザを撮像する撮像手段と当該ユーザに向かって画像を投影する投影手段とを有し当該ユーザに装着される画像投影装置が、前記撮像手段の撮像範囲の少なくとも一部を画像投影範囲として、当該画像投影範囲において前記撮像手段により撮像された画像の特徴に応じた投影画像を、前記投影手段から投影させる
を備えることを特徴とする画像投影方法。
An image projection apparatus that includes an imaging unit that captures an image of a user and a projection unit that projects an image toward the user, wherein at least a part of the imaging range of the imaging unit is used as an image projection range. An image projection method comprising: projecting, from the projection unit, a projection image corresponding to a feature of an image captured by the imaging unit in an image projection range.
JP2012209623A 2012-09-24 2012-09-24 Image projection device and image projection method Pending JP2014064248A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012209623A JP2014064248A (en) 2012-09-24 2012-09-24 Image projection device and image projection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012209623A JP2014064248A (en) 2012-09-24 2012-09-24 Image projection device and image projection method

Publications (1)

Publication Number Publication Date
JP2014064248A true JP2014064248A (en) 2014-04-10

Family

ID=50619088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012209623A Pending JP2014064248A (en) 2012-09-24 2012-09-24 Image projection device and image projection method

Country Status (1)

Country Link
JP (1) JP2014064248A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109760A (en) * 2014-12-03 2016-06-20 日本電信電話株式会社 Display device and display method
JP2017192040A (en) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 Projection method and system for three-dimensional projection object
KR20190054119A (en) * 2016-09-28 2019-05-21 매직 립, 인코포레이티드 Face model capture by wearable device
JP2020042569A (en) * 2018-09-11 2020-03-19 株式会社デンソー Vehicle decoration image synthesizing apparatus
FR3099957A1 (en) * 2019-08-12 2021-02-19 Yanis ROUVRAIS Portable device for projecting an image onto at least part of a user's body
US11880043B2 (en) 2018-07-24 2024-01-23 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user
US11906742B2 (en) 2016-10-05 2024-02-20 Magic Leap, Inc. Periocular test for mixed reality calibration

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109760A (en) * 2014-12-03 2016-06-20 日本電信電話株式会社 Display device and display method
JP2017192040A (en) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 Projection method and system for three-dimensional projection object
KR20190054119A (en) * 2016-09-28 2019-05-21 매직 립, 인코포레이티드 Face model capture by wearable device
KR102491438B1 (en) 2016-09-28 2023-01-25 매직 립, 인코포레이티드 Face model capture by wearable device
US11740474B2 (en) 2016-09-28 2023-08-29 Magic Leap, Inc. Face model capture by a wearable device
US11906742B2 (en) 2016-10-05 2024-02-20 Magic Leap, Inc. Periocular test for mixed reality calibration
US11880043B2 (en) 2018-07-24 2024-01-23 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user
JP2020042569A (en) * 2018-09-11 2020-03-19 株式会社デンソー Vehicle decoration image synthesizing apparatus
JP7028116B2 (en) 2018-09-11 2022-03-02 株式会社デンソー Decorative image synthesizer for vehicles
FR3099957A1 (en) * 2019-08-12 2021-02-19 Yanis ROUVRAIS Portable device for projecting an image onto at least part of a user's body

Similar Documents

Publication Publication Date Title
US9838597B2 (en) Imaging device, imaging method, and program
JP2014064248A (en) Image projection device and image projection method
US10733992B2 (en) Communication device, communication robot and computer-readable storage medium
US10445917B2 (en) Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method
CN106662919B (en) Safe wearable computer interface
JP6008309B2 (en) Electronic mirror device
US20140254939A1 (en) Apparatus and method for outputting information on facial expression
WO2014128773A1 (en) Gesture registration device, gesture registration program, and gesture registration method
JP6675384B2 (en) Makeup support system, measuring device, portable terminal device and program
CN110263617B (en) Three-dimensional face model obtaining method and device
CN109993115A (en) Image processing method, device and wearable device
JP2006212717A (en) Robot device
CN104408702B (en) A kind of image processing method and device
JP2007299070A (en) Face shape model generation apparatus and method
JP6981277B2 (en) Detection device and detection program
JP7075237B2 (en) Operation judgment device and operation judgment method
WO2017056520A1 (en) Robot apparatus
JP7271909B2 (en) DISPLAY DEVICE AND CONTROL METHOD OF DISPLAY DEVICE
KR102136137B1 (en) Customized LED mask pack manufacturing apparatus thereof
US20230290096A1 (en) Progressive body capture of user body for building an avatar of user
US11231591B2 (en) Information processing apparatus, information processing method, and program
JP6638195B2 (en) DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP5702037B1 (en) Imaging apparatus, imaging method, and program
US20230171484A1 (en) Devices, methods, and graphical user interfaces for generating and displaying a representation of a user
JP2014063446A (en) Image projection apparatus and image projection method