JP2019209065A - Display device, display method and display program - Google Patents

Display device, display method and display program Download PDF

Info

Publication number
JP2019209065A
JP2019209065A JP2018110612A JP2018110612A JP2019209065A JP 2019209065 A JP2019209065 A JP 2019209065A JP 2018110612 A JP2018110612 A JP 2018110612A JP 2018110612 A JP2018110612 A JP 2018110612A JP 2019209065 A JP2019209065 A JP 2019209065A
Authority
JP
Japan
Prior art keywords
display
subject
unit
information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018110612A
Other languages
Japanese (ja)
Other versions
JP7135466B2 (en
JP2019209065A5 (en
Inventor
大塚 利彦
Toshihiko Otsuka
利彦 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018110612A priority Critical patent/JP7135466B2/en
Publication of JP2019209065A publication Critical patent/JP2019209065A/en
Publication of JP2019209065A5 publication Critical patent/JP2019209065A5/ja
Application granted granted Critical
Publication of JP7135466B2 publication Critical patent/JP7135466B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a display device suppressing reduction of visibility of an image when prescribed information which is displayed on a display part and transmitted a mirror part is displayed while superposed on a mirror image reflected on a mirror part.SOLUTION: A display device 1 comprises: a mirror part 18; a display part 19; a subject information acquisition part; a processing part; and a display control part. The mirror part 18 reflects an image of a subject. The display part 19 is arranged to overlap on a reflection surface of the mirror part 18 and displays prescribed information. The subject information acquisition part acquires information related to the subject. The processing part processes the prescribed information on the basis of the information related to the subject acquired by the subject information acquisition part. The display control part performs control in such a way that the display part 19 displays the prescribed information processed by the processing part. The image of the subject reflected by the mirror part 18 and the prescribed information displayed on the display part 19 overlap each other.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、表示方法及び表示プログラムに関する。   The present invention relates to a display device, a display method, and a display program.

近年、透過性のあるハーフミラーにより構成された鏡部の反射面の背面側に、液晶ディスプレイ等により構成された表示部を配置した表示装置が知られている。このような表示装置によれば、鏡部に反射する鏡像に、表示部に表示され鏡部を透過した所定の情報を重畳して表示することができる(例えば、特許文献1参照)。
このような情報処理装置によれば、ユーザは鏡像とガイド画像の双方をユーザに同時に視認させることができる。
In recent years, there has been known a display device in which a display unit configured by a liquid crystal display or the like is disposed on the back side of a reflection surface of a mirror unit configured by a transmissive half mirror. According to such a display device, it is possible to superimpose and display predetermined information displayed on the display unit and transmitted through the mirror unit on the mirror image reflected on the mirror unit (see, for example, Patent Document 1).
According to such an information processing apparatus, the user can make the user visually recognize both the mirror image and the guide image.

特開2003−153739号公報JP 2003-153739 A

上述したような表示装置では、鏡像を表示する鏡部の反射面と、ガイド画像等の所定の情報を表示する表示部の表示面の2つの面が重なる構造となっており、これら2つの面は、ユーザからの距離が異なる。よって、ユーザが表示を視認すると、鏡像と、ガイド画像等の所定の情報との間に視差が生じてしまう。
そのため、ユーザにとってみれば、鏡像とガイド画像等の所定の情報とが重畳された表示は、視認上のギャップがあり、ユーザにとって視認性が低くなってしまう場合があった。
The display device as described above has a structure in which two surfaces of the reflection surface of the mirror unit that displays a mirror image and the display surface of the display unit that displays predetermined information such as a guide image overlap. Are different in distance from the user. Therefore, when the user visually recognizes the display, parallax occurs between the mirror image and predetermined information such as a guide image.
Therefore, for the user, the display in which the mirror image and the predetermined information such as the guide image are superimposed has a visual gap, and the visibility may be lowered for the user.

本発明は、このような状況に鑑みてなされたものであり、鏡部に反射する鏡像に、表示部に表示され鏡部を透過した所定の情報を重畳して表示する場合における視認性の低減を抑制することを目的とする。   The present invention has been made in view of such a situation, and the visibility is reduced when predetermined information displayed on the display unit and transmitted through the mirror unit is superimposed on the mirror image reflected on the mirror unit. It aims at suppressing.

上記目的を達成するため、本発明の一態様の表示装置は、
被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
前記被写体に関する情報を取得する取得手段と、
前記取得手段により取得された被写体に関する情報に基づいて、前記所定の情報を加工する加工手段と、
前記加工手段により加工された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御手段と、
を備え、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする。
In order to achieve the above object, a display device of one embodiment of the present invention includes:
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
Obtaining means for obtaining information on the subject;
Processing means for processing the predetermined information based on information about the subject acquired by the acquisition means;
Display control means for performing control to display the predetermined information processed by the processing means on the display means;
With
The subject image reflected by the reflecting means overlaps with predetermined information displayed on the display means.

本発明によれば、鏡部に反射する鏡像に、表示部に表示され鏡部を透過した所定の情報を重畳して表示する場合における視認性の低減を抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, the reduction | decrease in visibility in the case of superimposing and displaying the predetermined information which was displayed on the display part and permeate | transmitted the mirror part on the mirror image reflected on a mirror part can be suppressed.

本発明の一実施形態に係る表示システムの構成を示す構成図である。It is a block diagram which shows the structure of the display system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置の前面の外観構成を示す構成図である。It is a block diagram which shows the external appearance structure of the front surface of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置の側面の外観構成を示す構成図である。It is a block diagram which shows the external appearance structure of the side surface of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置の機能的構成のうち、加工表示処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a process display process among the functional structures of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置の特定部による被写体の顔の座標領域と色判定の一例を示す模式図である。It is a schematic diagram which shows an example of the coordinate area | region and color determination of a subject's face by the specific | specification part of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置の加工部によるガイド画像に対してのグラデーション加工の一例を示す模式図である。It is a schematic diagram which shows an example of the gradation process with respect to the guide image by the process part of the display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表示装置が実行する加工表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process display process which the display apparatus which concerns on one Embodiment of this invention performs.

以下、本発明の実施形態について、図面を用いて説明する。
[実施形態の概略]
本発明の実施形態に係る表示装置1は、ユーザが携帯可能な自立式の鏡として構成される。そして、表示装置1は、鏡を視認するユーザに対して、鏡部に反射する鏡像と、表示部に表示したガイド画像等の所定の情報とを重畳することにより、ユーザに対するガイダンスを行う。
この場合に、表示装置1は、ユーザを被写体として撮像し、撮像したユーザに対してフェイストラッキングを行うことにより、ユーザの顔の各部の座標と、各部に対応するユーザの顔の色とを検出する。また、表示装置1は、検出したユーザの顔の色に応じて、ガイド画像に対するグラデーション加工を行う。更に、表示装置1は、検出した顔の各部の座標に基づいて、グラデーション加工後のガイド画像を表示する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Outline of Embodiment]
The display device 1 according to the embodiment of the present invention is configured as a self-supporting mirror that can be carried by a user. Then, the display device 1 provides guidance to the user by superimposing a mirror image reflected on the mirror unit and predetermined information such as a guide image displayed on the display unit with respect to the user viewing the mirror.
In this case, the display apparatus 1 detects the coordinates of each part of the user's face and the color of the user's face corresponding to each part by capturing the user as a subject and performing face tracking on the captured user. To do. The display device 1 performs gradation processing on the guide image according to the detected face color of the user. Further, the display device 1 displays a guide image after gradation processing based on the detected coordinates of each part of the face.

このような表示装置1によれば、鏡部に反射する鏡像と、表示部に表示したガイド画像とを重畳する場合に、ユーザの顔の色に合わせてガイド画像のエッジ部分をグラデーション等の画像処理にてぼかすので、視認上のギャップを低減して表示することができる。
つまり、表示装置1によれば、重畳表示における違和感を抑制することができる。
According to such a display device 1, when the mirror image reflected on the mirror portion and the guide image displayed on the display portion are superimposed, the edge portion of the guide image is an image such as a gradation according to the color of the user's face. Since the process is blurred, it is possible to display with a reduced visual gap.
That is, according to the display device 1, it is possible to suppress a sense of discomfort in superimposed display.

[システム構成]
図1は、本実施形態に係る表示装置1が含まれる表示システムSの全体構成を示す構成図である。図1に示すように、表示システムSは、複数の表示装置1、ネットワーク2及びサーバ群3を含む。
表示装置1の台数には、特に制限はなく、n台(nは、任意の自然数)の表示装置1が表示システム1に含まれていてよい。なお、以下の説明において、n台の表示装置1を特に区別することなく説明する場合には、符号の末尾のアルファベットを省略し、単に「表示装置1」と称する。
[System configuration]
FIG. 1 is a configuration diagram showing an overall configuration of a display system S including a display device 1 according to the present embodiment. As shown in FIG. 1, the display system S includes a plurality of display devices 1, a network 2, and a server group 3.
The number of display devices 1 is not particularly limited, and n display devices 1 (n is an arbitrary natural number) may be included in the display system 1. In the following description, when the n display devices 1 are described without particular distinction, the alphabet at the end of the reference numerals is omitted and simply referred to as “display device 1”.

表示装置1は、上述したとおり、違和感を抑制した重畳表示を行うことにより、ガイダンスを行う装置である。表示装置1は、ネットワーク2を介して、サーバ群3に含まれる各サーバと、相互に通信可能に接続されている。   As described above, the display device 1 is a device that provides guidance by performing superimposed display with a sense of incongruity suppressed. The display device 1 is connected to each server included in the server group 3 via the network 2 so that they can communicate with each other.

ネットワーク2は、例えば、インターネットや、LAN(Local Area Network)や、携帯電話網の何れか又はこれらを組み合わせたネットワークにより実現される。   The network 2 is realized by, for example, the Internet, a LAN (Local Area Network), a mobile phone network, or a combination of these.

サーバ群3には、表示装置1と協働する各種のサーバが含まれる。例えば、サーバ群3には、表示装置1のユーザを認証するための認証サーバが含まれる。また、例えば、サーバ群3には、表示装置1の機能を実現するためのアプリケーションソフトウェアを配信するアプリケーション配信サーバが含まれる。更に、例えば、サーバ群3には、ユーザに関する設定情報やユーザによる表示装置1の利用履歴等を含んだ情報である、ユーザのプロファイル情報を格納する測定データ格納サーバが含まれる。
ただし、これは一例に過ぎず、他の機能を有するサーバがサーバ群3に含まれていてもよい。また、サーバ群3に含まれる複数のサーバを、それぞれ別個のサーバ装置で実現してもよく、単一のサーバ装置にて実現するようにしてもよい。
The server group 3 includes various servers that cooperate with the display device 1. For example, the server group 3 includes an authentication server for authenticating the user of the display device 1. Further, for example, the server group 3 includes an application distribution server that distributes application software for realizing the function of the display device 1. Further, for example, the server group 3 includes a measurement data storage server for storing user profile information, which is information including setting information related to the user, usage history of the display device 1 by the user, and the like.
However, this is only an example, and the server group 3 may include servers having other functions. In addition, a plurality of servers included in the server group 3 may be realized by separate server devices or may be realized by a single server device.

[外観構成]
図2は、本発明の一実施形態に係る表示装置1の前面の外観構成を示す構成図である。また、図3は、表示装置1の側面の外観構成を示す構成図である。表示装置1の前面の大きさは、例えば、国際規格であるISO(International Organization for Standardization)216で規定されるA4サイズに形成される。
[Appearance configuration]
FIG. 2 is a configuration diagram showing an external configuration of the front surface of the display device 1 according to the embodiment of the present invention. FIG. 3 is a configuration diagram showing an external configuration of the side surface of the display device 1. The size of the front surface of the display device 1 is, for example, formed in A4 size defined by ISO (International Organization for Standardization) 216 which is an international standard.

図2及び図3に示すように、表示装置1は、本体部30と、脚部31と、ヒンジ部32を含んで構成される。本体部30は、鏡部18や表示部19、及びその他のハードウェアを含む本体部分である。また、脚部31とヒンジ部32は、表示装置1を自立させるための部材である。脚部31は、ヒンジ部32によって本体部30に対して回動可能に接合される。
図3(A)に示すように、ユーザは、表示装置1を携帯する際に、本体部30の側面と、脚部31の側面とを揃えて、嵩張らない形状として持ち運ぶことができる。一方で、図3(B)に示すように、ユーザは、表示装置1を机等に設置して利用する際には、ヒンジ部32を中心点として脚部31を回動させることにより、表示装置1を自立させることができる。なお、表示装置1を自立可能とするために、ヒンジ部32は、脚部31が所定の角度を保った状態で保持するための機構を有する。
As shown in FIGS. 2 and 3, the display device 1 includes a main body portion 30, a leg portion 31, and a hinge portion 32. The main body 30 is a main body including the mirror 18, the display 19, and other hardware. Moreover, the leg part 31 and the hinge part 32 are members for making the display device 1 self-supporting. The leg portion 31 is joined to the main body portion 30 by a hinge portion 32 so as to be rotatable.
As shown in FIG. 3A, when carrying the display device 1, the user can carry the display device 1 in a non-bulky shape by aligning the side surface of the main body 30 and the side surface of the leg portion 31. On the other hand, as shown in FIG. 3B, when the user installs the display device 1 on a desk or the like, the user rotates the leg 31 around the hinge 32 to display the display. The apparatus 1 can be made independent. In addition, in order to enable the display device 1 to stand on its own, the hinge portion 32 has a mechanism for holding the leg portion 31 in a state of maintaining a predetermined angle.

本体部30は、上述したように鏡部18と表示部19とを含む。
鏡部18は、光学的特性として、透過特性と反射特性の双方を有するハーフミラーである。鏡部18は、図示するように本体部30の前面に配置される。
表示部19は、各種の情報を表示することにより、これら各種の情報をユーザに対して表示する部分である。表示部19は、例えば、マッサージ等のガイダンスを行うためのガイド画像や、文字等のメッセージや、ユーザの生体情報等を表示する。
The main body unit 30 includes the mirror unit 18 and the display unit 19 as described above.
The mirror unit 18 is a half mirror having both transmission characteristics and reflection characteristics as optical characteristics. The mirror part 18 is arrange | positioned in the front surface of the main-body part 30 so that it may show in figure.
The display unit 19 is a part that displays various types of information to the user by displaying the various types of information. The display unit 19 displays, for example, a guide image for performing guidance such as massage, a message such as a character, and biometric information of the user.

表示装置1では、鏡部18の反射面と、表示部19の表示面とが、鏡部18に正対するユーザから同時に視認可能に、ユーザの視認方向に重畳して配置される。例えば、液晶ディスプレイにより構成された表示部19が、ハーフミラーにより構成された鏡部18の視認方向における奥側に、並行に重ねて配置される。
このような配置により、ユーザは、例えば、鏡部18により反射された自身の顔(図中の鏡像41に相当)と、表示部19に表示されると共に鏡部18を透過した各種の情報(図中のガイド画像42に相当)とを同時に視認することができる。
In the display device 1, the reflecting surface of the mirror unit 18 and the display surface of the display unit 19 are arranged so as to be simultaneously visible from the user facing the mirror unit 18 so as to overlap with the user's viewing direction. For example, the display unit 19 configured by a liquid crystal display is arranged in parallel on the back side in the viewing direction of the mirror unit 18 configured by a half mirror.
With such an arrangement, for example, the user can reflect his / her face reflected by the mirror unit 18 (corresponding to the mirror image 41 in the figure) and various types of information displayed on the display unit 19 and transmitted through the mirror unit 18 ( Can be viewed at the same time.

図2に示すように、表示装置1は、外観構成として、更に、撮像部16及び入力部17を備えている。   As shown in FIG. 2, the display device 1 further includes an imaging unit 16 and an input unit 17 as an external configuration.

撮像部16は、表示装置1の利用時に、鏡部18に正対するユーザを被写体として撮像する部分である。撮像部16は、鏡部18に正対するユーザの顔画像を撮像可能な位置に配置される。例えば、撮像部16は、図中に示すように、本体部30の前面であって、鏡部18の上部に配置される。   The imaging unit 16 is a part that images a user who faces the mirror unit 18 as a subject when the display device 1 is used. The imaging unit 16 is disposed at a position where the user's face image facing the mirror unit 18 can be captured. For example, as shown in the drawing, the imaging unit 16 is disposed on the front surface of the main body unit 30 and above the mirror unit 18.

入力部17は、ユーザによる操作入力を受け付ける部分である。入力部17は、例えば複数のボタンにより実現される。図中では、一例として、小顔エステ、笑顔トレーニング、及び生体情報の記録等の各種のモードへの切り換えボタンや、表示装置1の電源のオン/オフの切り替えを行うためのボタンを図示する。   The input unit 17 is a part that receives an operation input by a user. The input unit 17 is realized by a plurality of buttons, for example. In the drawing, as an example, buttons for switching to various modes such as small face esthetic, smile training, and recording of biological information, and buttons for switching on / off the power of the display device 1 are illustrated.

以上、表示装置1の外観構造について説明をした。ただし、この構造は一例に過ぎず、表示装置1の外観構造は、この例に限定されない。   The external structure of the display device 1 has been described above. However, this structure is only an example, and the appearance structure of the display device 1 is not limited to this example.

例えば、表示装置1は、鏡部18に正対するユーザを照らすために発光する発光部を更に備えていてもよい。発光部が、照度や色成分を調整してユーザを照らすことにより、表示装置1は、照明付きの鏡として機能する。発光部の数は複数であってもよい。また、発光部は、鏡部18の上部や下部に配置されてもよく、鏡部18の周辺全体に配置されてもよい。   For example, the display device 1 may further include a light emitting unit that emits light to illuminate a user facing the mirror unit 18. The light emitting unit adjusts the illuminance and color components to illuminate the user, whereby the display device 1 functions as a mirror with illumination. There may be a plurality of light emitting units. Further, the light emitting unit may be arranged on the upper part or the lower part of the mirror part 18, or may be arranged on the entire periphery of the mirror part 18.

また、例えば、入力部17の数や配置が変更されてもよい。また、例えば、表示部19の一部がタッチパネルとして構成され、入力部17と表示部19とが一体に構成されてもよい。   Further, for example, the number and arrangement of the input units 17 may be changed. Further, for example, a part of the display unit 19 may be configured as a touch panel, and the input unit 17 and the display unit 19 may be configured integrally.

更に、例えば、上述したようにハーフミラーにより鏡部18を構成し、一般的な液晶ディスプレイにより表示部19を構成するのではなく、一般的な鏡により鏡部18を構成し、透過型の液晶ディスプレイにより表示部19を構成するようにしてもよい。この場合、一般的な鏡により構成された鏡部18が、透過型の液晶ディスプレイにより構成された表示部19の視認方向における奥側に、並行に重ねて配置されるようにするとよい。   Further, for example, the mirror unit 18 is configured by a half mirror as described above, and the display unit 19 is not configured by a general liquid crystal display. The display unit 19 may be configured by a display. In this case, it is preferable that the mirror part 18 configured by a general mirror is arranged in parallel on the back side in the viewing direction of the display unit 19 configured by a transmissive liquid crystal display.

[ハードウェア構成]
図4は、表示装置1のハードウェアの構成を示すブロック図である。
図4に示すように、表示装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、鏡部18と、表示部19と、記憶部20と、通信部21と、ドライブ22と、リムーバブルメディア100と、を備えている。
[Hardware configuration]
FIG. 4 is a block diagram illustrating a hardware configuration of the display device 1.
As shown in FIG. 4, the display device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, and an imaging device. A unit 16, an input unit 17, a mirror unit 18, a display unit 19, a storage unit 20, a communication unit 21, a drive 22, and a removable medium 100 are provided.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16と、入力部17と、表示部19と、記憶部20と、通信部21と、ドライブ22とが接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an input unit 17, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
撮像部16にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The imaging unit 16 is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号は、CPU11等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal to the AFE as an analog signal.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Such an output signal of the imaging unit 16 is appropriately supplied to the CPU 11 or the like.

入力部17は、各種ボタンやマイク等で構成され、ユーザの指示操作や指示音声に応じて各種情報を入力する。   The input unit 17 includes various buttons, a microphone, and the like, and inputs various information according to a user instruction operation or instruction voice.

鏡部18は、光学的特性として、透過特性と反射特性の双方を有するハーフミラーである。鏡部18は、表示部19による表示がなされている領域において、表示部19による表示を透過する。一方で、鏡部18は、表示部19による表示がなされていない領域において、表示装置1に生体するユーザ等の像を、鏡像として反射する。   The mirror unit 18 is a half mirror having both transmission characteristics and reflection characteristics as optical characteristics. The mirror unit 18 transmits the display by the display unit 19 in the area where the display unit 19 displays. On the other hand, the mirror unit 18 reflects an image of a user or the like living on the display device 1 as a mirror image in a region where the display unit 19 does not display.

表示部19は、液晶ディスプレイ等で構成され、CPU11が出力する画像データに対応する画像を表示する。これら表示部19と、鏡部18の配置については、図2を参照して上述した通りである。   The display unit 19 is composed of a liquid crystal display or the like, and displays an image corresponding to the image data output from the CPU 11. The arrangement of the display unit 19 and the mirror unit 18 is as described above with reference to FIG.

記憶部20は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。   The storage unit 20 includes a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and stores various data.

通信部21は、CPU11が、ネットワーク2を介して他の装置(例えば、サーバ群3に含まれる各サーバ)との間で通信を行うための通信制御を行う。   The communication unit 21 performs communication control for the CPU 11 to communicate with another device (for example, each server included in the server group 3) via the network 2.

ドライブ22は、リムーバブルメディア100が装着可能なインターフェースにより構成される。ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア100が適宜装着される。リムーバブルメディア100には、後述の加工表示処理を実行するためのプログラムや、画像データ等の各種データが格納される。ドライブ22によってリムーバブルメディア100から読み出されたプログラムや、画像データ等の各種のデータは、必要に応じて記憶部20にインストールされる。   The drive 22 is configured by an interface to which the removable medium 100 can be attached. A removable medium 100 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The removable medium 100 stores a program for executing a processing display process, which will be described later, and various data such as image data. Programs read from the removable medium 100 by the drive 22 and various data such as image data are installed in the storage unit 20 as necessary.

なお、表示装置1は、上述したハードウェアに加えて、他のハードウェアを更に備えていてもよい。例えば、表示装置1は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する出力部等を更に備えていてもよい。   Note that the display device 1 may further include other hardware in addition to the hardware described above. For example, the display device 1 includes a lamp, a speaker, a vibration motor, or the like, and may further include an output unit that outputs light, sound, or a vibration signal.

[機能的構成]
図5は、表示装置1の機能的構成のうち、加工表示処理を実行するための機能的構成を示す機能ブロック図である。
加工表示処理とは、表示装置1が、ユーザの顔の色に合わせて、ガイド画像のエッジ部分をグラデーション等の画像処理により加工し、加工後のガイド画像を表示する一連の処理である。
[Functional configuration]
FIG. 5 is a functional block diagram illustrating a functional configuration for executing the processing display process among the functional configurations of the display device 1.
The modified display process is a series of processes in which the display device 1 processes the edge portion of the guide image by image processing such as gradation according to the color of the user's face and displays the processed guide image.

加工表示処理が実行される場合、図5に示すように、CPU11において、設定処理部111と、被写体情報取得部112と、加工部113と、表示制御部114とが機能する。
また、記憶部20の一領域には、ガイダンス情報記憶部201と、被写体情報記憶部202とが設定される。
When the processing display process is executed, as shown in FIG. 5, the setting processing unit 111, the subject information acquisition unit 112, the processing unit 113, and the display control unit 114 function in the CPU 11.
A guidance information storage unit 201 and a subject information storage unit 202 are set in one area of the storage unit 20.

ガイダンス情報記憶部201には、加工表示処理におけるガイダンスに関する各種のデータが格納される。例えば、ガイダンス情報記憶部201には、加工表示処理において表示されるガイダンス情報を生成するための、ガイド画像のデータ、テキストデータ、及び音データ等が格納される。また、ガイダンス情報記憶部201には、一連のガイダンスにおける複数のガイダンス情報の表示の順番や、表示するガイダンス情報を次のガイダンス情報へ切り替えるための条件や、各種ユーザインタフェースを生成するためのデータ等も格納される。更に、ガイダンス情報記憶部201には、加工表示処理に関して生成されたユーザのプロファイル情報が格納される。なお、ガイド画像は、予め生成された画像データであってもよく、演算に基づいてリアルタイムに生成されるCG(Computer graphics)等であってもよい。   The guidance information storage unit 201 stores various data related to guidance in the processing display process. For example, the guidance information storage unit 201 stores guide image data, text data, sound data, and the like for generating guidance information displayed in the modified display process. The guidance information storage unit 201 also includes a display order of a plurality of guidance information in a series of guidance, conditions for switching the guidance information to be displayed to the next guidance information, data for generating various user interfaces, and the like. Is also stored. The guidance information storage unit 201 stores user profile information generated for the processing display process. The guide image may be image data generated in advance, or may be CG (Computer graphics) generated in real time based on a calculation.

被写体情報記憶部202には、被写体情報取得部112が取得した、被写体であるユーザに関する情報が格納される。被写体情報記憶部202に格納されるユーザに関する情報の詳細については、被写体情報取得部112の説明として後述する。   The subject information storage unit 202 stores information about the user who is the subject acquired by the subject information acquisition unit 112. Details of the information related to the user stored in the subject information storage unit 202 will be described later as an explanation of the subject information acquisition unit 112.

なお、上述したようなガイダンス情報記憶部201や被写体情報記憶部202に格納される各情報は、記憶部20にのみ格納されていてもよいが、ドライブ22によってリムーバブルメディア100に適宜格納されるようにしてもよい。更に、ガイダンス情報記憶部201や被写体情報記憶部202に格納される各情報は、サーバ群3に含まれる測定データ格納サーバ等に適宜格納されるようにしてもよい。   Each information stored in the guidance information storage unit 201 and the subject information storage unit 202 as described above may be stored only in the storage unit 20, but is appropriately stored in the removable medium 100 by the drive 22. It may be. Furthermore, each information stored in the guidance information storage unit 201 and the subject information storage unit 202 may be appropriately stored in a measurement data storage server included in the server group 3 or the like.

また、以下に説明する各機能ブロックでは、加工表示処理を行う前提として座標情報が設定されている。座標情報は、例えば、撮像部16において撮像された画像についての座標系である撮像座標系、鏡部18の反射面についての座標系である鏡部座標系、及び表示部19の表示面についての座標系である表示部座標系といった各座標系を定義するための情報、及び各座標系における座標を他の座標系における座標に変換するための対応関係を示す情報が含まれる。以下に説明する各機能ブロックは、これらの各座標系における座標の対応関係に基づいて、各座標系における座標を変換することにより加工表示処理を行うことができる。これら各座標系の対応関係は、例えば、表示装置1の製造時に、撮像部16における撮像レンズの方向調整や、ズーム率の調整等による、対応関係の補正を伴うキャリブレーションを行うことにより設定される。例えば、ズーム率の調整は、撮像部16のレンズ位置の調整によって行われる所謂光学ズーム、及び、画像処理における所謂デジタルズーム、の双方又は何れかを用いて行われる。   In each functional block described below, coordinate information is set as a premise for performing the processing display process. The coordinate information includes, for example, an imaging coordinate system that is a coordinate system for an image captured by the imaging unit 16, a mirror coordinate system that is a coordinate system for the reflection surface of the mirror unit 18, and a display surface of the display unit 19. Information for defining each coordinate system, such as a display unit coordinate system that is a coordinate system, and information indicating a correspondence relationship for converting coordinates in each coordinate system into coordinates in another coordinate system are included. Each functional block described below can perform processing display processing by converting the coordinates in each coordinate system based on the correspondence of the coordinates in each coordinate system. The correspondence between these coordinate systems is set, for example, by performing calibration with correction of the correspondence by adjusting the direction of the imaging lens in the imaging unit 16 or adjusting the zoom ratio when the display device 1 is manufactured. The For example, the zoom rate is adjusted using both or either of so-called optical zoom performed by adjusting the lens position of the imaging unit 16 and so-called digital zoom in image processing.

設定処理部111は、加工表示処理に関する設定等の制御を行う部分である。設定処理部111は、例えば、サーバ群3に含まれるアプリケーション配信サーバから、加工表示処理を行うためのアプリケーションソフトウェアを取得して、このアプリケーションソフトウェアを動作させる。また、設定処理部111は、例えば、サーバ群3に含まれる認証サーバと通信を行うことにより、加工表示処理を行うユーザを認証する。更に設定処理部111は、例えば、サーバ群3に含まれる測定データ格納サーバと通信を行うことにより、加工表示処理におけるユーザのプロファイル情報を更新する。   The setting processing unit 111 is a part that performs control such as setting related to the processing display processing. For example, the setting processing unit 111 acquires application software for performing processing display processing from an application distribution server included in the server group 3 and operates the application software. Further, the setting processing unit 111 authenticates a user who performs the processing display process by communicating with an authentication server included in the server group 3, for example. Further, the setting processing unit 111 updates the user profile information in the processing display process by communicating with a measurement data storage server included in the server group 3, for example.

また、設定処理部111は、加工表示処理を行うためのアプリケーションソフトウェアに基づいて、ガイダンスを行うためのメニューを表示する。例えば、ガイダンスに基づいて、「小顔エステ」や「笑顔マッサージ」や「生体情報の測定」や「メイク(化粧)」を行う等の、ガイダンスの内容を選択するための選択肢を含んだメニューを表示する。また、設定処理部111は、メニューを参照したユーザから、入力部17等を介して、何れかのガイダンス内容の選択を受け付ける。例えば、「小顔エステ」の選択を受け付ける。これにより、小顔エステに関するガイダンスのために、加工表示処理が行われる。なお、小顔エステとは、例えば、リンパを流すマッサージにより顔のむくみを減少させるリンパマッサージ等を、ユーザがユーザ自身の顔等に対して行うことをいう。   In addition, the setting processing unit 111 displays a menu for performing guidance based on application software for performing processing display processing. For example, based on the guidance, a menu that includes options for selecting the content of the guidance, such as “small face esthetics”, “smile massage”, “measurement of biological information”, and “makeup (makeup)”. indicate. In addition, the setting processing unit 111 receives selection of any guidance content from the user who refers to the menu via the input unit 17 or the like. For example, selection of “small face esthetic” is accepted. Thereby, the processing display process is performed for guidance on the small face esthetic. The small-face esthetic refers to, for example, a user performing lymphatic massage or the like for reducing facial swelling by lymphatic massage on the user's own face or the like.

被写体情報取得部112は、加工表示処理において、撮像部16による撮像の被写体となったユーザに関する情報(以下、「被写体情報」と称する。)を取得する部分である。被写体情報とは、例えば、ユーザの顔等における各部位の位置を示す座標や、ユーザの顔等における各部位の色や、ユーザの生体情報等である。   The subject information acquisition unit 112 is a part that acquires information (hereinafter, referred to as “subject information”) related to the user who is the subject of imaging by the imaging unit 16 in the processing display process. The subject information is, for example, coordinates indicating the position of each part on the user's face, the color of each part on the user's face, the user's biological information, and the like.

被写体情報の取得のために、被写体情報取得部112は、撮像部16が撮像した、被写体としてユーザを含む画像を解析して、画像に含まれるユーザの状態を検出する。
例えば、被写体情報取得部112は、ユーザの顔を含む顔画像に対して、輪郭や部位のパターンマッチングや肌色識別等のフェイストラッキングに関する処理を行うことで、顔の輪郭や眼の位置や肌の領域を認識し、額、頬、顎、及び首等の所定の部位領域の検出を行う。そして、被写体情報取得部112は、この検出した部位領域それぞれの、座標やユーザの肌の色や、ユーザの顔の角度(すなわち、ユーザの顔の向き)といった状態を検出する。
In order to acquire subject information, the subject information acquisition unit 112 analyzes an image including the user as a subject captured by the imaging unit 16 and detects the state of the user included in the image.
For example, the subject information acquisition unit 112 performs processing related to face tracking such as contour pattern matching, part color matching, and skin color identification on a face image including a user's face, so that the face contour, eye position, and skin Recognize the region, and detect a predetermined region such as the forehead, cheek, chin, and neck. Then, the subject information acquisition unit 112 detects a state such as coordinates, the user's skin color, and the user's face angle (that is, the user's face direction) for each of the detected region regions.

更に、被写体情報取得部112は、検出された、各部位領域と、対応する肌の色とを紐付けたデータ(以下、「対応肌色データ」と称する。)を生成する。対応肌色データは、例えば、テーブル形式のデータとして生成される。   Furthermore, the subject information acquisition unit 112 generates data (hereinafter referred to as “corresponding skin color data”) in which each detected part region is associated with the corresponding skin color. The corresponding skin color data is generated as data in a table format, for example.

対応肌色データについて、図6を参照して説明をする。
図6(A)に、ユーザの顔と、被写体情報取得部112により検出される各部位領域とを模式的に示す。上述したように、被写体情報取得部112は、フェイストラッキングに関する処理を行うことで、額、頬、顎、及び首等の所定の部位領域の検出を行う。また、被写体情報取得部112は、これら各部位領域を識別するために、識別情報を付与する。図6(A)では、説明の為の一例として、識別情報として「(1)」等の括弧付き数字を用いる。
The corresponding skin color data will be described with reference to FIG.
FIG. 6A schematically shows the user's face and each part region detected by the subject information acquisition unit 112. As described above, the subject information acquisition unit 112 detects a predetermined region such as the forehead, cheek, chin, and neck by performing processing related to face tracking. In addition, the subject information acquisition unit 112 provides identification information in order to identify each of these part regions. In FIG. 6A, as an example for explanation, a number with parentheses such as “(1)” is used as identification information.

また、上述したように、被写体情報取得部112は、この検出した部位領域それぞれの、ユーザの肌の色を検出する。検出した色は、例えば、RGBカラーモデルにおける、R(赤)、G(緑)、及びB(青)のそれぞれの値として数値化される。
次に、被写体情報取得部112は、各部位領域と、対応する肌の色とを紐付けることにより、テーブル形式の対応肌色データを生成する。生成された対応肌色テーブルの一例を図6(B)に示す。図6(B)に示す例では、各部位領域の識別情報と、対応する肌の色のRBG値とが紐付けられる。このように生成された対応肌色データは、後述の加工部113が、ガイド画像をグラデーション加工する場合に、加工に用いる肌色を決定するための加工基準の情報として利用することができる。
In addition, as described above, the subject information acquisition unit 112 detects the skin color of the user in each of the detected region regions. The detected color is digitized as, for example, each value of R (red), G (green), and B (blue) in the RGB color model.
Next, the subject information acquisition unit 112 generates corresponding skin color data in a table format by associating each region with a corresponding skin color. An example of the generated corresponding skin color table is shown in FIG. In the example shown in FIG. 6B, the identification information of each region is associated with the corresponding RBG value of the skin color. The corresponding skin color data generated in this way can be used as processing reference information for determining the skin color used for processing when the processing unit 113 described later performs gradation processing on the guide image.

また、被写体情報取得部112は、他にも、実際にユーザに触れることなく、ユーザに対しては非接触で生体情報(バイタルデータと呼ばれることもある。)の計測を行うようにしてもよい。この場合、上記の検出された検出された所定の領域は、非接触で生体情報を取得するための関心領域(ROI:Region of interest)に相当する。
そして、被写体情報取得部112は、例えば、この関心領域における皮下の血液中ヘモグロビンが吸収する緑色信号に基づいて、心拍周波数近傍の成分を分析することにより計測を行う。被写体情報取得部112が計測する生体情報は、例えば、脈拍、脈波、及び血流等である。
In addition, the subject information acquisition unit 112 may measure biological information (sometimes referred to as vital data) without touching the user without actually touching the user. . In this case, the detected predetermined area detected corresponds to a region of interest (ROI) for acquiring biological information without contact.
Then, the subject information acquisition unit 112 performs measurement, for example, by analyzing a component in the vicinity of the heartbeat frequency based on a green signal absorbed by subcutaneous blood hemoglobin in the region of interest. The biological information measured by the subject information acquisition unit 112 is, for example, a pulse, a pulse wave, and a blood flow.

また、被写体情報取得部112は、1つの関心領域の画像を対象として計測を行ってもよいが、複数の関心領域の画像を対象として計測を行ってもよい。この場合、被写体情報取得部112は、脈拍の遅延がわかる離れた2点(例えば頬と額、又は、額か頬と手のひら等)の関心領域を対象として測定を行なうことにより、例えば、脈波伝播速度や、脈波伝播速度と相関する血圧変動を測定することができる。
また、被写体情報取得部112は、測定した生体情報に対してノイズ除去等を行うことにより、平均化処理を施すようにしてもよい。
The subject information acquisition unit 112 may measure a single region of interest image, or may measure a plurality of region of interest images. In this case, the subject information acquisition unit 112 performs measurement on two regions of interest (for example, cheek and forehead or forehead or cheek and palm) where the delay of the pulse is known, for example, the pulse wave It is possible to measure the blood pressure fluctuation correlated with the propagation speed and the pulse wave propagation speed.
Further, the subject information acquisition unit 112 may perform an averaging process by performing noise removal or the like on the measured biological information.

なお、被写体情報取得部112による生体情報の測定は、例えば、下記の参考文献に記載の技術を利用することにより行うことができる。
<参考文献>
東北大学 サイバーサイエンスセンター 先端情報技術研究部、東北大学 革新的イノベーション研究機構、“血行状態モニタリング装置「魔法の鏡」の開発に成功”、[online]、平成28年9月27日、[平成29年12月15日検索]、インターネット<URL:http://www.tohoku.ac.jp/japanese/newimg/pressimg/tohokuuniv-press20160927_01web.pdf>
The measurement of the biological information by the subject information acquisition unit 112 can be performed by using, for example, the technique described in the following reference.
<References>
Tohoku University Cyber Science Center Advanced Information Technology Research Institute, Tohoku University Innovative Innovation Research Organization, “Succeeded in developing blood flow monitoring device“ Magic Mirror ”” [online], September 27, 2016, Search on December 15, 2011], Internet <URL: http://www.tohoku.ac.jp/japanese/newimg/pressimg/tohokuuniv-press20160927_01web.pdf>

被写体情報取得部112は、このようにして取得した、対応肌色データや生体情報といった被写体情報を、被写体情報記憶部202に格納する。   The subject information acquisition unit 112 stores the subject information such as corresponding skin color data and biological information acquired in this manner in the subject information storage unit 202.

加工部113は、ガイダンス情報記憶部201に格納されているガイダンス情報と、被写体情報記憶部202に格納されている被写体情報とに基づいて、ガイド画像に対するグラデーション加工を行う部分である。加工部113は、ガイダンス情報記憶部201からガイダンスにおいて表示すべきガイド画像を取得する。また、加工部113は、被写体情報記憶部202から対応肌色データを取得する。
そして、加工部113は、取得したガイド画像に対して、対応肌色データに基づいたグラデーション加工を行う。
The processing unit 113 is a part that performs gradation processing on the guide image based on the guidance information stored in the guidance information storage unit 201 and the subject information stored in the subject information storage unit 202. The processing unit 113 acquires a guide image to be displayed in the guidance from the guidance information storage unit 201. In addition, the processing unit 113 acquires corresponding skin color data from the subject information storage unit 202.
And the process part 113 performs the gradation process based on corresponding skin color data with respect to the acquired guide image.

このグラデーション加工の具体例を、図7に示す。
図7(A)の<加工前画像>に、ガイド画像51として示すように、ガイド画像が矢印の形状であるとする。この場合、矢印の輪郭及び輪郭の内部領域は所定の色となっている。例えば、ユーザの鏡像における肌の色と対比しやすい青色等の色となっている。加工部113は、このガイド画像51に対してグラデーション加工を行う。
A specific example of this gradation processing is shown in FIG.
Assume that the guide image has the shape of an arrow as shown as a guide image 51 in <image before processing> in FIG. In this case, the outline of the arrow and the inner area of the outline have a predetermined color. For example, it is a color such as blue that is easy to contrast with the skin color in the mirror image of the user. The processing unit 113 performs gradation processing on the guide image 51.

具体的には、図7(A)の<加工後ガイド画像>に、グラデーション画像52として示すように、ガイド画像51の輪郭周辺の所定領域に対して、グラデーション画像52を追加することにより、ガイド画像51を加工する。グラデーション画像52の色は、肌色とする。   Specifically, as shown as a gradation image 52 in the <processed guide image> in FIG. 7A, a gradation image 52 is added to a predetermined area around the outline of the guide image 51, thereby providing a guide. The image 51 is processed. The color of the gradation image 52 is a skin color.

同様に、図7(B)の<加工前画像>に、ガイド画像53として示すように、ガイド画像が螺旋状の矢印の形状であるとする。この場合も、矢印の輪郭及び輪郭の内部領域は所定の色となっている。例えば、ユーザの鏡像における肌の色と対比しやすい青色等の色となっている。加工部113は、このガイド画像53に対してグラデーション加工を行う。   Similarly, it is assumed that the guide image has a spiral arrow shape as shown as a guide image 53 in <image before processing> in FIG. Also in this case, the outline of the arrow and the inner area of the outline have a predetermined color. For example, it is a color such as blue that is easy to contrast with the skin color in the mirror image of the user. The processing unit 113 performs gradation processing on the guide image 53.

具体的には、図7(B)の<加工後ガイド画像>に、グラデーション画像54として示すように、ガイド画像53の輪郭周辺の所定領域に対して、グラデーション画像54を追加することにより、ガイド画像53を加工する。グラデーション画像54の色は、肌色とする。
このように、本実施形態では、グラデーション加工の対象とするガイド画像毎に、グラデーション加工を行う領域や色を定めておくことにより、様々なガイド画像を対象としてグラデーション加工を行うことができる。
Specifically, as shown as the gradation image 54 in the <processed guide image> in FIG. 7B, the gradation image 54 is added to a predetermined area around the outline of the guide image 53, thereby providing a guide. The image 53 is processed. The color of the gradation image 54 is a skin color.
As described above, in the present embodiment, gradation processing can be performed on various guide images by determining a region and color to be subjected to gradation processing for each guide image to be subjected to gradation processing.

このようにして、グラデーション画像が付加されたガイド画像を表示部19に表示した場合、鏡部18に反射するユーザの顔等に、グラデーション画像が付加されたガイド画像を重畳される。このグラデーション画像により、鏡部18に反射するユーザの顔等と、ガイド画像との境界をぼかすことができる。これにより、鏡部18と表示部19との構造上、鏡像と、ガイド画像とのそれぞれに対しての視差が生じてしまったとしても、視認上のギャップを低減して表示することができる。   In this way, when the guide image to which the gradation image is added is displayed on the display unit 19, the guide image to which the gradation image is added is superimposed on the user's face or the like reflected by the mirror unit 18. With this gradation image, it is possible to blur the boundary between the user's face reflected on the mirror 18 and the guide image. Thereby, even if the parallax with respect to each of a mirror image and a guide image has arisen on the structure of the mirror part 18 and the display part 19, it can reduce and display a visual gap.

なお、仮にこのようなグラデーション加工を行わない場合には、ガイド画像の色(例えば、青色)と、鏡部18に反射するユーザの顔等の肌色とが隣接することになり、ガイド画像の輪郭が余計強調されて、視認上のギャップが生じてしまう。
しかしながら、本実施形態では、上述したように、視認上のギャップを低減して表示することができる。つまり、本実施形態では、このようにグラデーション加工を行うことにより、重畳表示における違和感を抑制することができる。
If such gradation processing is not performed, the color of the guide image (for example, blue) and the skin color of the user's face reflected on the mirror 18 are adjacent to each other, and the contour of the guide image Will be exaggerated, creating a visual gap.
However, in this embodiment, as described above, the visual gap can be reduced and displayed. That is, in the present embodiment, by performing gradation processing in this way, it is possible to suppress a sense of discomfort in superimposed display.

また、グラデーション画像における肌色は、予め設定されている肌色であってもよいが、ガイド画像を表示する場所等に応じて、適切な肌色を選択するようにしてもよい。例えば、ユーザ毎に肌の色は異なり、同じユーザであっても顔等の部位によっても肌の色は異なる。そこで、加工部113は、グラデーション画像における肌色を、被写体情報取得部112が生成した対応肌色データに基づいて決定する。すなわち、加工部113は、ガイド画像を表示する部位領域に対応する肌色のRGB値を対応肌色データから取得する。そして、加工部113は、取得したRGB値に基づいた肌色を、グラデーション画像における肌色とする。これにより、グラデーション画像の肌色を、ユーザ毎、且つ、部位毎に応じた適切な肌色とすることができる。これにより、上述した視認上のギャップを、より低減して表示することができる。   Further, the skin color in the gradation image may be a skin color set in advance, but an appropriate skin color may be selected according to the location where the guide image is displayed. For example, the skin color is different for each user, and even for the same user, the skin color is different depending on the part such as the face. Therefore, the processing unit 113 determines the skin color in the gradation image based on the corresponding skin color data generated by the subject information acquisition unit 112. That is, the processing unit 113 acquires the skin color RGB value corresponding to the part region in which the guide image is displayed from the corresponding skin color data. Then, the processing unit 113 sets the skin color based on the acquired RGB values as the skin color in the gradation image. Thereby, the skin color of a gradation image can be made into the suitable skin color according to every user and every site | part. Thereby, the above-described visual gap can be further reduced and displayed.

更に、グラデーション画像の色は、全体が単一の肌色であってもよいが、複数の肌色を含んでいてもよい。この場合、グラデーション画像に対応する領域を区分し、区分した領域毎に異なる度合いで、段階的に色が変化するようにしてもよい。例えば、加工部113は、ガイド画像に近い領域は肌色が濃く、ガイド画像から遠い領域ほど肌色が薄くなるようにグラデーション加工を行うようにしてもよい。また、中間の領域の肌色については線形補間等により求めるようにしてもよい。   Furthermore, the color of the gradation image may be a single skin color as a whole, or may include a plurality of skin colors. In this case, the area corresponding to the gradation image may be divided, and the color may be changed stepwise with a different degree for each divided area. For example, the processing unit 113 may perform gradation processing so that the region close to the guide image has a deep skin color, and the region far from the guide image has a light skin color. Further, the skin color of the intermediate region may be obtained by linear interpolation or the like.

また他にも、例えば、グラデーション画像を所定の画素数単位で格子状に区分し、格子毎にグラデーション画像を表示させたり、表示させなかったりすることにより、グラデーション加工を行うようにしてもよい。例えば、ガイド画像に近い領域には肌色を表示する格子の密度を高くし、ガイド画像から遠い領域ほど肌色を表示する格子の密度を低くなるようにグラデーション加工を行うようにしてもよい。これにより、ガイド画像に近い領域には表示部19に表示される肌色の割合が多くなり、ガイド画像から遠い領域ほど鏡部18に反射する鏡像の割合が多くなる、というグラデーションとすることができる。このように区分した領域毎のグラデーションの度合いを異ならせることにより、上述した視認上のギャップを、より低減して表示することができる。   In addition, for example, the gradation processing may be performed by dividing the gradation image into a grid in units of a predetermined number of pixels, and displaying or not displaying the gradation image for each grid. For example, the gradation processing may be performed such that the density of the grid displaying the skin color is increased in the area close to the guide image, and the density of the grid displaying the skin color is decreased in the area far from the guide image. As a result, it is possible to obtain a gradation in which the proportion of the skin color displayed on the display unit 19 increases in the region close to the guide image, and the proportion of the mirror image reflected on the mirror unit 18 increases in the region far from the guide image. . By changing the degree of gradation for each of the divided areas as described above, the above-described visual gap can be further reduced and displayed.

加工部113は、このように生成したグラデーション加工後の、グラデーション画像が付加されたガイド画像(以下、「加工後ガイド画像」と称する。)を、表示制御部114に対して出力する。   The processing unit 113 outputs, to the display control unit 114, the guide image (hereinafter referred to as “post-processing guide image”) to which the gradation image after the gradation processing generated in this way is added.

表示制御部114は、ガイダンス情報を表示する部分である。表示制御部114は、加工後ガイド画像や、その他のガイダンス情報を切り替えて表示部19に表示をさせることによって、一連のガイダンスを実現する。
そのために、表示制御部114は、加工部113から、加工後ガイド画像の入力を受け付ける。また、表示制御部114は、ガイダンス情報記憶部201からガイダンス情報を読み込む。
そして、表示制御部114は、読み込んだガイダンス情報に定められたタイミングで、読み込んだガイダンス情報に定められた位置に、加工後ガイド画像や、その他のガイド画像情報を表示する。
The display control unit 114 is a part that displays guidance information. The display control unit 114 realizes a series of guidance by switching the post-processing guide image and other guidance information to display on the display unit 19.
For this purpose, the display control unit 114 receives an input of a post-processing guide image from the processing unit 113. In addition, the display control unit 114 reads guidance information from the guidance information storage unit 201.
Then, the display control unit 114 displays the post-processing guide image and other guide image information at a position determined in the read guidance information at a timing determined in the read guidance information.

具体的に、表示制御部114は、例えば、鏡部18によりユーザの顔等の所定の部位領域の鏡像が反射している位置に重畳するように、加工後ガイド画像を表示する。例えば、マッサージについてのガイダンスを行うタイミングで、マッサージの際の手の動きを示す矢印の加工後ガイド画像を、ユーザの顔のマッサージを行う部位領域の鏡像が反射している位置に重畳するように表示する。ユーザは、この重畳された表示を参照することにより、マッサージを行う部位領域や、マッサージの方向等を、自身の鏡像と重畳して、分かりやすく視認することができる。この場合、上述したように、加工後ガイド画像であることから、視認上のギャップを、より低減して表示することができる。   Specifically, for example, the display control unit 114 displays the post-processing guide image so as to be superimposed on a position where a mirror image of a predetermined part region such as the user's face is reflected by the mirror unit 18. For example, at the timing of giving guidance about massage, the processed guide image of the arrow indicating the movement of the hand during massage is superimposed on the position where the mirror image of the part area where the user's face is massaged is reflected indicate. By referring to the superimposed display, the user can visually recognize the region to be massaged, the massage direction, and the like superimposed on his / her mirror image. In this case, as described above, since it is a post-processing guide image, the visual gap can be further reduced and displayed.

なお、このような重畳表示を行う場合、例えば、被写体情報取得部112は、フェイストラッキングにより、撮像部16が撮像したユーザの所定の部位領域を検出する。そして、上述した各座標系の対応関係に基づいて、検出した部位領域の撮像座標系における座標に対応する、表示部座標系の座標を取得する。そして、表示制御部114は、表示部19の被写体情報取得部112が取得した表示部座標系の座標に、前記加工後ガイド画像を表示することにより、重畳表示を行うことができる。   Note that when performing such superimposed display, for example, the subject information acquisition unit 112 detects a predetermined region of the user imaged by the imaging unit 16 by face tracking. And based on the correspondence of each coordinate system mentioned above, the coordinate of the display part coordinate system corresponding to the coordinate in the imaging coordinate system of the detected site | part area | region is acquired. The display control unit 114 can perform the superimposed display by displaying the post-processing guide image at the coordinates of the display unit coordinate system acquired by the subject information acquisition unit 112 of the display unit 19.

また、表示制御部114は、ユーザの顔等の鏡像と重複しない領域に(すなわち、ユーザの顔と重畳しない領域に)、一連のガイダンスにおいてユーザが向くべき方向や、マッサージの方法を画像やテキストで自動配置し表示するようにしてもよい。他にも、表示制御部114は、例えば、ユーザの顔等の鏡像と重複しない領域に(すなわち、ユーザの顔と重畳しない領域に)、生体情報を表示するための波形データや必要な文字、画像情報を自動配置し表示するようにしてもよい。   In addition, the display control unit 114 displays the direction in which the user should face in a series of guidance and the massage method in an image or text in a region that does not overlap with a mirror image such as the user's face (that is, in a region that does not overlap with the user's face) May be automatically arranged and displayed. In addition, for example, the display control unit 114 displays waveform data and necessary characters for displaying biological information in a region that does not overlap with a mirror image of the user's face or the like (that is, in a region that does not overlap with the user's face), Image information may be automatically arranged and displayed.

また、表示制御部114は、これらの表示を組み合わせるようにしてもよい。例えば、表示制御部114は、マッサージの際の手の動きを示す矢印はユーザの顔等の鏡像と重複する領域に重畳して表示し、マッサージの内容を示すテキストはユーザの顔等の鏡像と重複しない領域に表示するようにしてもよい。   Further, the display control unit 114 may combine these displays. For example, the display control unit 114 displays an arrow indicating the movement of the hand during massage superimposed on a region overlapping the mirror image of the user's face and the text indicating the massage content is a mirror image of the user's face and the like. You may make it display on the area | region which does not overlap.

表示制御部114が、このような情報をリアルタイムに表示することで、一連のガイダンスを、ユーザに伝わりやすく、適切に行うことができる。   The display control unit 114 displays such information in real time, so that a series of guidance can be easily transmitted to the user and appropriately performed.

なお、表示制御部114は、表示に加えて、他の方法でガイダンス情報を出力するようにしてもよい。例えば、表示制御部114は、音データを含んだガイダンス情報を読み出し、読み出したガイダンス情報から生成される音声や音楽をスピーカから出力してもよい。また、他にも、例えば、表示制御部114は、発光部による発光状態を変化させるようにしてもよい。   In addition to the display, the display control unit 114 may output the guidance information by another method. For example, the display control unit 114 may read guidance information including sound data and output voice or music generated from the read guidance information from a speaker. In addition, for example, the display control unit 114 may change the light emission state of the light emitting unit.

[加工表示処理]
図8は、図5の機能的構成を有する図1の表示装置1が実行する加工表示処理の流れを説明するフローチャートである。
加工表示処理は、例えば、表示装置1の電源投入と共に開始される。
[Processing display processing]
FIG. 8 is a flowchart for explaining the flow of processing display processing executed by the display device 1 of FIG. 1 having the functional configuration of FIG.
The processing display process is started when the display device 1 is powered on, for example.

図8に示すように、ステップS11において、設定処理部111は、初期設定を行う。例えば、設定処理部111は、サーバ群3に含まれるアプリケーション配信サーバから、加工表示処理を行うためのアプリケーションソフトウェアを取得して、このアプリケーションソフトウェアを動作させる。また、設定処理部111は、アプリケーションソフトウェアの動作に伴い、撮像部16等の各ハードウェアに対して、アプリケーションソフトウェアに応じた設定を行う。そして、設定処理部111は、撮像部16による撮像を開始させる。   As shown in FIG. 8, in step S11, the setting processing unit 111 performs initial setting. For example, the setting processing unit 111 acquires application software for performing processing display processing from an application distribution server included in the server group 3 and operates the application software. In addition, the setting processing unit 111 performs settings corresponding to the application software on each piece of hardware such as the imaging unit 16 in accordance with the operation of the application software. Then, the setting processing unit 111 starts imaging by the imaging unit 16.

ステップS12において、設定処理部111は、ユーザを識別するための個人認証を試み、個人認証に成功したか否かを判定する。個人認証に成功した場合は、ステップS12においてYesと判定され、処理はステップS13に進む。一方で、個人認証に失敗した場合は、ステップS12においてNoと判定され、ステップS12を繰り返す。なお、個人認証は、例えば、撮像部16が撮像したユーザの顔画像を用いた顔認識や、入力部17に含まれるマイクにて集音したユーザの音声を用いた声紋認識等により行うことができる。また、それ以外にも、所定の生体情報を利用した生体認証や、ユーザから入力されたパスワードを利用した認証等の他の認証方法により個人認証を行うようにしてもよい。   In step S12, the setting processing unit 111 attempts personal authentication for identifying the user, and determines whether the personal authentication is successful. If the personal authentication is successful, it is determined Yes in step S12, and the process proceeds to step S13. On the other hand, when personal authentication fails, it determines with No in step S12, and repeats step S12. The personal authentication may be performed by, for example, face recognition using the user's face image captured by the imaging unit 16 or voice print recognition using the user's voice collected by the microphone included in the input unit 17. it can. In addition, personal authentication may be performed by other authentication methods such as biometric authentication using predetermined biometric information or authentication using a password input by a user.

ステップS13において、設定処理部111は、個人認証により特定したユーザについてのプロファイル情報を、サーバ群3に含まれる認証サーバに対して問い合わせる。認証サーバは、問い合わせを受けたユーザについてのプロファイル情報の有無を確認する。そして、認証サーバは、プロファイル情報が存在する場合には、サーバ群3に含まれる測定データ格納サーバから、対応するプロファイル情報を取得する。そして、認証サーバは、取得したプロファイル情報を、問い合わせに対する応答として、設定処理部111に対して送信する。一方で、認証サーバは、プロファイル情報が存在する場合には、その旨を、問い合わせに対する応答として、設定処理部111に対して送信する。   In step S <b> 13, the setting processing unit 111 inquires of the authentication server included in the server group 3 about profile information about the user specified by personal authentication. The authentication server confirms whether there is profile information about the user who has received the inquiry. Then, when the profile information exists, the authentication server acquires corresponding profile information from the measurement data storage server included in the server group 3. Then, the authentication server transmits the acquired profile information to the setting processing unit 111 as a response to the inquiry. On the other hand, when there is profile information, the authentication server transmits that fact to the setting processing unit 111 as a response to the inquiry.

ここで、プロファイル情報には、ユーザに関する設定情報やユーザによる表示装置1の利用履歴等が含まれる。ここで、ユーザの関連情報とは、例えば、ユーザを識別するための識別情報や、ユーザの名前や年齢、身長体重等の情報や、認証を行うための認証元画像である。また、ユーザによる表示装置1の利用履歴とは、例えば、過去にどのようなガイダンス情報に基づいた処理を行ったかという情報や、その際に取得されたユーザの生体情報等の情報である。また、利用履歴には、例えば、そのユーザについて過去に生成された対応肌色データ等が含まれていてもよい。   Here, the profile information includes setting information about the user, a usage history of the display device 1 by the user, and the like. Here, the user related information is, for example, identification information for identifying the user, information such as the user's name, age, height and weight, or an authentication source image for performing authentication. Further, the usage history of the display device 1 by the user is, for example, information on what kind of guidance information has been used in the past and information such as the user's biological information acquired at that time. In addition, the usage history may include, for example, corresponding skin color data generated in the past for the user.

ステップS14において、設定処理部111は、認証サーバからの応答の内容を確認する。認証サーバからの応答の内容が、プロファイル情報である場合には、ステップS14においてYesと判定され、処理はステップS15に進む。一方で、認証サーバからの応答の内容が、プロファイル情報が存在しない旨である場合には、ステップS14においてNoと判定され、処理はステップS16に進む。   In step S14, the setting processing unit 111 confirms the content of the response from the authentication server. When the content of the response from the authentication server is profile information, it is determined Yes in step S14, and the process proceeds to step S15. On the other hand, when the content of the response from the authentication server indicates that the profile information does not exist, No is determined in step S14, and the process proceeds to step S16.

ステップS15において、設定処理部111は、認証サーバからの応答として受信したプロファイル情報を読み込む。   In step S15, the setting processing unit 111 reads profile information received as a response from the authentication server.

ステップS16において、設定処理部111は、今回処理の対象としているユーザについてのプロファイル情報を生成し、認証サーバへ送信すると共に、プロファイル情報の登録を依頼する。認証サーバは、受信したプロファイル情報を、測定データ格納サーバに格納することにより登録を行う。   In step S <b> 16, the setting processing unit 111 generates profile information about the user to be processed this time, transmits it to the authentication server, and requests registration of profile information. The authentication server performs registration by storing the received profile information in the measurement data storage server.

ステップS17において、被写体情報取得部112は、上述したようにして、対応肌色データを生成する。なお、対応肌色データの生成は、ステップS17のタイミングで行われてもよいが、他のタイミングで行うようにしてもよい。例えば、後述の各ステップと並行して、周期的に、対応肌色データの生成を行うようにしてもよい。このように、対応肌色データを周期的に生成することにより、最新のユーザの顔の向きや撮像環境の外光等の状況に応じた、適切な対応肌色データをリアルタイムに生成することができる。   In step S17, the subject information acquiring unit 112 generates corresponding skin color data as described above. The generation of the corresponding skin color data may be performed at the timing of step S17, but may be performed at another timing. For example, the corresponding skin color data may be generated periodically in parallel with each step described later. In this way, by appropriately generating the corresponding skin color data, it is possible to generate appropriate corresponding skin color data in real time according to the latest user face orientation, the external environment of the imaging environment, and the like.

ステップS18において、表示制御部114は、ガイド画像を表示するか否か判定する。例えば、表示制御部114は、ユーザが小顔エステを行うことを選択した場合に、この小顔エステにおけるガイダンスにて、ガイド画像を表示するタイミングであるか否かを判定する。ガイド画像を表示する場合は、ステップS17においてYesと判定され、処理はステップS19に進む。一方で、ガイド画像を表示しない場合は、ステップS17においてNoと判定され、処理はステップS18の判定を繰り返す。   In step S18, the display control unit 114 determines whether to display a guide image. For example, when the user selects to perform a small face esthetic, the display control unit 114 determines whether it is the timing to display the guide image by the guidance in the small face esthetic. When displaying a guide image, it determines with Yes in step S17, and a process progresses to step S19. On the other hand, when not displaying a guide image, it determines with No in step S17, and a process repeats determination of step S18.

ステップS19において、加工部113は、表示するガイド画像に対して、グラデーション加工を実行することにより、加工後ガイド画像を生成する。このグラデーション加工は、上述したステップS17において生成された対応肌色データ(又は、他のタイミングで周期的に生成された対応肌色データ)に基づいて、行われる。   In step S19, the processing unit 113 generates a post-processing guide image by executing gradation processing on the guide image to be displayed. This gradation processing is performed based on the corresponding skin color data generated in step S17 described above (or the corresponding skin color data periodically generated at other timing).

ステップS20において、表示制御部114は、ステップS13において生成された加工後ガイド画像を、表示部19の適切な位置に表示させることにより、ガイダンスを行う。   In step S <b> 20, the display control unit 114 performs guidance by displaying the post-processing guide image generated in step S <b> 13 at an appropriate position on the display unit 19.

ステップS21において、表示制御部114は、他のガイド画像を表示するか否か判定する。例えば、表示制御部114は、ユーザが小顔エステを行うことを選択した場合に、この小顔エステにおけるガイダンスにて、現在表示しているガイド画像以外の、他のガイド画像を新たに表示するタイミングであるか否かを判定する。他のガイド画像を表示する場合は、ステップS21においてYesと判定され、処理はステップS19に戻る。そして、この他のガイド画像を対象として、再度ステップS19及びステップS20が行われる。一方で、他のガイド画像を表示しない場合は、ステップS21においてNoと判定され、処理はステップS21の判定を繰り返す。   In step S21, the display control unit 114 determines whether to display another guide image. For example, when the user selects to perform a small face esthetic, the display control unit 114 newly displays other guide images other than the currently displayed guide image by the guidance in the small face esthetic. It is determined whether it is timing. When displaying another guide image, it determines with Yes in step S21, and a process returns to step S19. Then, Step S19 and Step S20 are performed again for the other guide images. On the other hand, when not displaying another guide image, it determines with No in step S21, and a process repeats determination of step S21.

ステップS22において、表示制御部114は、ガイダンスを終了するか否かを判定する。例えば、ガイダンスにおける最後のガイド画像を表示して所定時間が経過した場合に、ガイダンスは終了する。ガイダンスを終了する場合は、ステップS22においてYesと判定され、処理はステップS23に進む。一方で、ガイダンスを終了しない場合は、ステップS22においてNoと判定され、処理は再度ステップS21から繰り返される。   In step S22, the display control unit 114 determines whether or not to end the guidance. For example, the guidance ends when a predetermined time has elapsed since the last guide image in the guidance was displayed. When ending guidance, it is judged as Yes in Step S22, and processing progresses to Step S23. On the other hand, when not ending guidance, it determines with No in Step S22, and processing is repeated from Step S21 again.

ステップS23において、表示制御部114は、ガイダンス情報に表示を終了させることにより、ガイダンスを終了する。   In step S <b> 23, the display control unit 114 ends the guidance by terminating the display in the guidance information.

ステップS24において、設定処理部111は、今回のガイダンスにおいて生成した対応肌色データや、今回測定した生体情報等に基づいて、記憶部20のガイダンス情報記憶部201や、サーバ群3に含まれる測定データ格納サーバ等に保存されているプロファイル情報を更新する。これにより、加工表示処理は、終了する。   In step S24, the setting processing unit 111 performs measurement data included in the guidance information storage unit 201 of the storage unit 20 and the server group 3 based on the corresponding skin color data generated in the current guidance, the biological information measured this time, and the like. Update the profile information stored in the storage server. Thereby, the processing display process ends.

なお、同じユーザを対象として次回以降に行われる加工表示処理では、ステップS14においてYesと判定されることになり、ステップS16の処理を省略することができる。また、次回以降に行われる加工表示処理では、ステップS11におけるアプリケーションの取得等の処理も省略してよい。   It should be noted that in the processing display process performed for the same user after the next time, it is determined Yes in step S14, and the process of step S16 can be omitted. Further, in the processing display processing performed after the next time, processing such as acquisition of an application in step S11 may be omitted.

以上説明した加工表示処理によれば、鏡部18に反射する鏡像と、表示部19に表示したガイド画像とを重畳する場合に、ユーザの顔の色に合わせてガイド画像のエッジ部分をグラデーション等の画像処理にてぼかすので、視認上のギャップを低減して表示することができる。つまり、加工表示処理によれば、重畳表示における違和感を抑制することができる。
また、ユーザは、ガイド画像が、ユーザの鏡像と共に表示されるので、ユーザはその内容を直感的且つ適切に理解することができる。
According to the processing display processing described above, when the mirror image reflected on the mirror unit 18 and the guide image displayed on the display unit 19 are superimposed, the edge portion of the guide image is gradated according to the color of the user's face. Therefore, the visual gap can be reduced and displayed. That is, according to the processed display process, it is possible to suppress a sense of discomfort in superimposed display.
Further, since the guide image is displayed together with the mirror image of the user, the user can understand the contents intuitively and appropriately.

更に、加工表示処理では、表示するガイド画像を加工すればよく、ユーザに対して、例えば、視差を低減するための特殊な3Dメガネ等の別途の装置の装着を要求することはない。従って、コストの増大を抑えることができる。また、顔に3Dメガネを装着したことにより、マッサージが可能な箇所が限定されてしまうようなことも防止できる。   Furthermore, in the modified display process, it is only necessary to process the guide image to be displayed, and the user is not required to wear a separate device such as special 3D glasses for reducing parallax, for example. Therefore, an increase in cost can be suppressed. Moreover, it can also prevent that the location which can be massaged is limited by having 3D glasses mounted on the face.

以上のように構成される表示装置1は、鏡部18と、表示部19と、被写体情報取得部112と、加工部113と、表示制御部114と、を備える。
鏡部18は、被写体の像を反射する。
表示部19は、鏡部18の反射面に重なるように配置され、所定の情報を表示する。被写体情報取得部112は、被写体に関する情報を取得する。
加工部113は、被写体情報取得部112により取得された前記被写体に関する情報に基づいて、所定の情報を加工する。
表示制御部114は、加工部113により加工された所定の情報を、表示部19に表示させる制御を行う。
鏡部18により反射された被写体の像と表示部19に表示された所定の情報とが重なる。
これにより、鏡部18に反射する鏡像と、表示部19に表示したガイド画像とが重なる場合に、被写体に関する情報に基づいて、所定の情報を加工することができる。例えば、ユーザの顔の色に合わせてガイド画像のエッジ部分をグラデーション等の画像処理にてぼかすことができる。従って、視認上のギャップを低減して表示することができる。
つまり、表示装置1によれば、重畳表示における違和感を抑制することができる。
The display device 1 configured as described above includes the mirror unit 18, the display unit 19, the subject information acquisition unit 112, the processing unit 113, and the display control unit 114.
The mirror unit 18 reflects the image of the subject.
The display unit 19 is disposed so as to overlap the reflection surface of the mirror unit 18 and displays predetermined information. The subject information acquisition unit 112 acquires information about the subject.
The processing unit 113 processes predetermined information based on the information related to the subject acquired by the subject information acquisition unit 112.
The display control unit 114 performs control for causing the display unit 19 to display predetermined information processed by the processing unit 113.
The subject image reflected by the mirror unit 18 and the predetermined information displayed on the display unit 19 overlap.
Thereby, when the mirror image reflected on the mirror part 18 and the guide image displayed on the display part 19 overlap, predetermined information can be processed based on the information regarding the subject. For example, the edge portion of the guide image can be blurred by image processing such as gradation according to the color of the user's face. Therefore, the visual gap can be reduced and displayed.
That is, according to the display device 1, it is possible to suppress a sense of discomfort in superimposed display.

表示制御部114は、被写体情報取得部112により取得された被写体となった人物に関する情報に基づいて、表示部19に表示させる制御を行う。
これにより、表示部19に表示させる制御を、被写体となった人物に関する情報に基づいて実現することができる。
The display control unit 114 performs display control on the display unit 19 based on the information related to the person who is the subject acquired by the subject information acquisition unit 112.
Thereby, the control displayed on the display part 19 is realizable based on the information regarding the person who became a to-be-photographed object.

被写体となった人物に関する情報とは、被写体となった人物の肌の色に関する情報である。
これにより、表示部19に表示させる制御を、被写体となった人物の肌の色に関する情報に基づいて実現することができる。
The information on the person who is the subject is information on the skin color of the person who is the subject.
Thereby, the control displayed on the display unit 19 can be realized based on the information about the skin color of the person who is the subject.

加工部113は、被写体の像を表示部19の表示面の全面に表示する場合に、被写体情報取得部112が取得した肌の色に関する情報に基づいて所定の情報を加工する。
これにより、被写体となった人物の肌の色に関する情報に基づいて所定の情報を加工して、表示することができる。
The processing unit 113 processes predetermined information based on information about the skin color acquired by the subject information acquisition unit 112 when displaying an image of the subject on the entire display surface of the display unit 19.
Thereby, predetermined information can be processed and displayed based on the information regarding the skin color of the person who is the subject.

加工部113は、鏡部18により反射された被写体の像と表示部19に表示された所定の情報とが重なる場合に、所定の情報を加工する。
これにより、被写体の像と所定の情報とが重なる場合に、加工をした所定の情報を用いた表示を行うことができる。
The processing unit 113 processes the predetermined information when the image of the subject reflected by the mirror unit 18 overlaps the predetermined information displayed on the display unit 19.
Accordingly, when the subject image and the predetermined information overlap, display using the processed predetermined information can be performed.

被写体情報取得部112は、被写体に関する情報として、鏡部18での被写体の像の反射位置に対応する、表示部19の表示面の座標を取得する。
表示制御部114は、加工部113が加工した所定の情報を、被写体情報取得部112が取得した表示部19の表示面の座標に表示させる制御を行う。
これにより、鏡部18で反射する被写体の像と、所定の情報とを重畳することができる。
The subject information acquisition unit 112 acquires the coordinates of the display surface of the display unit 19 corresponding to the reflection position of the subject image on the mirror unit 18 as information about the subject.
The display control unit 114 performs control to display the predetermined information processed by the processing unit 113 on the coordinates of the display surface of the display unit 19 acquired by the subject information acquisition unit 112.
Thereby, the image of the subject reflected by the mirror unit 18 and the predetermined information can be superimposed.

被写体情報取得部112は、被写体に関する情報として、被写体の各位置の座標毎、もしくは被写体の各部位に対応する位置の座標毎に、それぞれ対応する加工基準情報を取得する。
加工部113は、被写体情報取得部112により取得された加工基準情報に基づいて、所定の情報を加工する。
これにより、被写体の各位置それぞれ、もしくは被写体の各部位それぞれに対応して、所定の情報を加工することができる。
The subject information acquisition unit 112 acquires corresponding processing reference information as information about the subject for each coordinate of each position of the subject or for each coordinate of a position corresponding to each part of the subject.
The processing unit 113 processes predetermined information based on the processing reference information acquired by the subject information acquisition unit 112.
Thereby, predetermined information can be processed corresponding to each position of the subject or each part of the subject.

加工部113は、所定の情報を表示部19の一部に表示する場合に、被写体情報取得部112により取得された加工基準情報に基づいて、所定の情報を加工する。
これにより、被写体の各部それぞれに対応して、表示部19の一部に表示する所定の情報を加工することができる。
When displaying the predetermined information on a part of the display unit 19, the processing unit 113 processes the predetermined information based on the processing reference information acquired by the subject information acquisition unit 112.
Thereby, the predetermined information displayed on a part of the display unit 19 can be processed corresponding to each part of the subject.

加工部113は、所定の情報が示す画像の形状の輪郭に対応する領域に対して加工を行う。
これにより、所定の情報が示す画像の輪郭をぼかすような加工をすることができる。
The processing unit 113 processes the area corresponding to the contour of the shape of the image indicated by the predetermined information.
Thereby, it is possible to perform processing such as blurring the outline of the image indicated by the predetermined information.

加工部113は、所定の情報が示す画像の形状の輪郭に対応する領域を区分し、区分した領域毎に異なる度合いで、段階的に加工を行う。
これにより、段階的なグラデーションのような加工をすることができる。
The processing unit 113 divides a region corresponding to the contour of the shape of the image indicated by the predetermined information, and performs processing step by step with a different degree for each divided region.
As a result, it is possible to perform a gradation-like process.

加工部113は、所定の情報が示す画像の少なくとも一部を、被写体に関する情報に基づいた色とする加工を行う。
これにより、被写体に対応した色に加工した画像を、表示することができる。
The processing unit 113 performs processing to make at least a part of the image indicated by the predetermined information a color based on the information about the subject.
Thereby, an image processed into a color corresponding to the subject can be displayed.

加工部113は、所定の情報が示す画像を複数の格子状に区分し、区分した格子毎に表示制御部114による表示の対象とする画像の密度を異ならせる加工を行う
これにより、加工した画像の割合を段階的に異ならせて、表示をすることができる。
The processing unit 113 divides the image indicated by the predetermined information into a plurality of grids, and performs processing to vary the density of the image to be displayed by the display control unit 114 for each of the divided grids. The ratio can be displayed in stages.

鏡部18は、反射面の正面側に対して被写体の像を反射すると共に、反射面の正面側に対して表示部19が表示する所定の情報を透過することにより、被写体の像と所定の情報とを重畳する。
これにより、鏡部18の正面側に対して、被写体の像と所定の情報とを重畳して出力することができる。
The mirror unit 18 reflects the image of the subject to the front side of the reflecting surface and transmits predetermined information displayed on the display unit 19 to the front side of the reflecting surface. Superimpose information.
Thereby, it is possible to superimpose and output the subject image and the predetermined information on the front side of the mirror unit 18.

表示装置1は、被写体を撮像する撮像部16を更に備える。
被写体情報取得部112は、撮像部16により撮像された被写体の撮像画像から、被写体に関する情報を取得する。
これにより、撮像部16が撮像した画像から取得した被写体に関する情報に基づいて、加工を行うことができる。
The display device 1 further includes an imaging unit 16 that images a subject.
The subject information acquisition unit 112 acquires information about the subject from the captured image of the subject imaged by the imaging unit 16.
Thereby, it can process based on the information regarding the to-be-photographed object acquired from the image which the imaging part 16 imaged.

撮像部16は、反射手段での被写体の像の反射位置と、表示手段の表示面の座標との対応関係を補正する。
これにより、例えば、撮像部16における撮像レンズの方向調整や、ズーム率の調整等により、対応関係の補正を行うことができる。
The imaging unit 16 corrects the correspondence between the reflection position of the subject image on the reflecting means and the coordinates of the display surface of the display means.
Thereby, for example, the correspondence can be corrected by adjusting the direction of the imaging lens in the imaging unit 16, adjusting the zoom ratio, or the like.

鏡部18は、ハーフミラーであり、
表示部19は、鏡部18の反射面の背面に配置され、所定の情報を表示する。
これにより、ハーフミラーの反射特性と、透過特性とにより、鏡像と所定の情報とを重畳することができる。
The mirror part 18 is a half mirror,
The display part 19 is arrange | positioned at the back surface of the reflective surface of the mirror part 18, and displays predetermined information.
Thereby, a mirror image and predetermined information can be superimposed by the reflection characteristic and transmission characteristic of a half mirror.

表示部19は、透過型の表示手段であり、
鏡部18は、表示手段の背面に配置される、
これにより、透過型の表示手段の反射特性と、透過特性とにより、鏡像と所定の情報とを重畳することができる。
The display unit 19 is a transmissive display unit,
The mirror unit 18 is disposed on the back surface of the display means.
Thereby, the mirror image and the predetermined information can be superimposed by the reflection characteristic and the transmission characteristic of the transmission type display means.

[変形例]
本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。例えば、上述の実施形態を以下の変形例のように変形してもよい。
[Modification]
The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention. For example, the above-described embodiment may be modified as in the following modified example.

<第1変形例>
上述した実施形態では、加工表示処理の対象となる被写体がユーザの顔等であることを想定していた。そして、このユーザの顔等の肌の色に基づいてグラデーション加工を行い、加工後ガイド画像を、このユーザの顔等に重畳して表示していた。
これに限らず、ユーザの顔等以外を、加工表示処理の対象の被写体とするようにしてもよい。例えば、ユーザの顔以外の、腕や足や全身を加工表示処理の対象の被写体とするようにしてもよい。また他にも、例えば、ユーザ以外の動物を加工表示処理の対象の被写体とするようにしてもよい。更に他にも、例えば、建築物の壁等や、棚等の家具等のものを加工表示処理の対象の被写体とするようにしてもよい。そして、これらの被写体の色に基づいてグラデーション加工を行い、加工後ガイド画像を、これらの被写体に重畳して表示するようにしてもよい。
また、このように、被写体に重畳して表示する場合に、更に、例えば、被写体の周辺の背景の色に基づいてグラデーション加工を行い、加工後ガイド画像を、この被写体の周辺の背景に重畳して表示してもよい。
<First Modification>
In the above-described embodiment, it is assumed that the subject to be processed and processed is the face of the user. Then, gradation processing is performed based on the skin color of the user's face or the like, and the post-processing guide image is displayed superimposed on the user's face or the like.
However, the present invention is not limited to this, and a subject other than the user's face or the like may be set as a subject to be processed and processed. For example, an arm, a leg, or the whole body other than the user's face may be set as a subject to be processed and displayed. In addition, for example, an animal other than the user may be used as a subject to be processed and displayed. In addition, for example, a building wall or furniture such as a shelf may be used as a subject to be processed and displayed. Then, gradation processing may be performed based on the colors of these subjects, and the processed guide image may be displayed superimposed on these subjects.
In addition, when the image is superimposed and displayed on the subject as described above, for example, gradation processing is performed based on the background color around the subject, and the processed guide image is superimposed on the background around the subject. May be displayed.

<第2変形例>
上述した実施形態では、加工後ガイド画像を、表示部19の表示面の一部(例えば、所定の部位領域に対応する一部の領域)に表示する場合に、加工部113が、対応肌色データを用いたグラデーション加工を行っていた。これに限らず、加工部113が、他の方法でグラデーション加工を行うようにしてもよい。
例えば、加工後ガイド画像を、表示部19の表示面の全面の複数の位置(例えば、異なる位置にある複数の部位領域に対応する複数の領域)に表示する場合に、加工部113が、対応肌色データを用いたグラデーション加工は行わないようにしてもよい。
この場合、例えば、加工部113が、対応肌色データを用いることなく、予め用意した一般的な肌色を用いてグラデーション加工を行うようにしてもよい。また、例えば、被写体が上述した建築物の壁等の全面が同じ一様な色の場合にも、対応肌色データを用いることなく、予め用意した所定の色を用いてグラデーション加工を行うようにしてもよい。
<Second Modification>
In the embodiment described above, when the processed guide image is displayed on a part of the display surface of the display unit 19 (for example, a part of the region corresponding to the predetermined part region), the processing unit 113 displays the corresponding skin color data. Gradation processing using was performed. Not limited to this, the processing unit 113 may perform gradation processing by another method.
For example, when the processed guide image is displayed at a plurality of positions (for example, a plurality of regions corresponding to a plurality of region regions at different positions) on the entire display surface of the display unit 19, the processing unit 113 supports The gradation process using the skin color data may not be performed.
In this case, for example, the processing unit 113 may perform gradation processing using a general skin color prepared in advance without using the corresponding skin color data. Further, for example, even when the entire surface of the above-described building wall or the like has the same uniform color, gradation processing is performed using a predetermined color prepared in advance without using corresponding skin color data. Also good.

<他の変形例>
例えば、上述の実施形態において、表示装置1と、サーバ群3に含まれる各サーバとが協働することを想定していたが、各サーバの機能を表示装置1に追加して、表示装置1のみで全ての処理を行うようにしてもよい。
<Other variations>
For example, in the above-described embodiment, it is assumed that the display device 1 and each server included in the server group 3 cooperate. However, the function of each server is added to the display device 1 to display the display device 1. All of the processing may be performed only by the above.

また、上述の実施形態では、本発明が適用される表示装置1は、携帯可能な自立式の鏡に組み込まれた電子機器を例として説明したが、特にこれに限定されない。
例えば、本発明は、姿見等の大型の鏡に組み込まれた電子機器や、据え置き型の洗面化粧台に組み込まれた電子機器や、浴室に設置される鏡形状の電子機器に適用可能である。
In the above-described embodiment, the display device 1 to which the present invention is applied has been described using an electronic device incorporated in a portable free-standing mirror as an example, but is not particularly limited thereto.
For example, the present invention can be applied to an electronic device incorporated in a large mirror such as a figure, an electronic device incorporated in a stationary type vanity, and a mirror-shaped electronic device installed in a bathroom.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図5の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が表示装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図5の例に限定されない。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 5 is merely an example, and is not particularly limited. That is, it is sufficient that the display device 1 has a function capable of executing the above-described series of processes as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.

また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment is configured by various processing devices such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, these various processing apparatuses and a combination of processing circuits such as ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate Array) are included.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図4のリムーバブルメディア100により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア100は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD,Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図4のROM12や、図4、5の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only configured by the removable medium 100 shown in FIG. 4 distributed separately from the apparatus main body in order to provide the program to the user, but is also stored in the apparatus main body in advance. The recording medium etc. provided in The removable medium 100 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is configured by, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD, a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being pre-installed in the apparatus main body includes, for example, the ROM 12 in FIG. 4 in which the program is recorded, the hard disk included in the storage unit 20 in FIGS. The

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
前記被写体に関する情報を取得する取得手段と、
前記取得手段により取得された前記被写体に関する情報に基づいて、前記所定の情報を加工する加工手段と、
前記加工手段により加工された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御手段と、
を備え、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする表示装置。
[付記2]
前記表示制御手段は、
前記取得手段により取得された前記被写体となった人物に関する情報に基づいて、前記表示手段に表示させる制御を行う、
ことを特徴とする付記1に記載の表示装置。
[付記3]
前記被写体となった人物に関する情報とは、前記被写体となった人物の肌の色に関する情報である、
ことを特徴とする付記2に記載の表示装置。
[付記4]
前記加工手段は、前記被写体の像を前記表示手段の表示面の全面に表示する場合に、前記取得手段が取得した肌の色に関する情報に基づいて前記所定の情報を加工する、
ことを特徴とする付記3に記載の表示装置。
[付記5]
前記加工手段は、前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なる場合に、前記所定の情報を加工する、
ことを特徴とする付記1乃至4の何れか1に記載の表示装置。
[付記6]
前記取得手段は、前記被写体に関する情報として、前記反射手段での前記被写体の像の反射位置に対応する前記表示手段の表示面の座標を取得し、
前記表示制御手段は、前記加工手段が加工した前記所定の情報を、前記取得手段が取得した前記表示手段の表示面の座標に表示させる制御を行う、
ことを特徴とする付記1乃至5の何れか1に記載の表示装置。
[付記7]
前記取得手段は、前記被写体に関する情報として、前記被写体の各位置の座標毎、もしくは前記被写体の各部位に対応する位置の座標毎に、それぞれ対応する加工基準情報を取得し、
前記加工手段は、前記取得手段により取得された加工基準情報に基づいて前記所定の情報を加工する、
ことを特徴とする付記1乃至6の何れか1に記載の表示装置。
[付記8]
前記加工手段は、前記所定の情報を前記表示手段の一部に表示する場合に、前記取得手段により取得された加工基準情報に基づいて前記所定の情報を加工する、
ことを特徴とする付記7に記載の表示装置。
[付記9]
前記加工手段は、前記所定の情報が示す画像の形状の輪郭に対応する領域に対して加工を行う付記1乃至8の何れか1に記載の表示装置。
[付記10]
前記加工手段は、前記所定の情報が示す画像を複数の領域に区分し、区分した領域毎に異なる度合いで、段階的に加工を行う付記1乃至9の何れか1に記載の表示装置。
[付記11]
前記加工手段は、前記所定の情報が示す画像の少なくとも一部を、前記被写体に関する情報に基づいた色とする加工を行う付記1乃至10の何れか1に記載の表示装置。
[付記12]
前記加工手段は、前記所定の情報が示す画像を複数の格子状に区分し、区分した格子毎に前記表示制御手段による表示の対象とする画像の密度を異ならせる加工を行う付記1乃至11の何れか1に記載の表示装置。
[付記13]
前記反射手段は、前記反射面の正面側に対して前記被写体の像を反射すると共に、前記反射面の正面側に対して前記表示手段が表示する前記所定の情報を透過することにより、前記被写体の像と前記所定の情報とを重畳する、
ことを特徴とする付記1乃至12の何れか1に記載の表示装置。
[付記14]
前記被写体を撮像する撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮像された被写体の撮像画像から、前記被写体に関する情報を取得する、
ことを特徴とする付記1乃至13の何れか1に記載の表示装置。
[付記15]
前記撮像手段は、前記反射手段での前記被写体の像の反射位置と、前記表示手段の表示面の座標との対応関係を補正する、
ことを特徴とする付記14に記載の表示装置。
[付記16]
前記反射手段はハーフミラーであり、
前記表示手段は、前記反射手段の反射面の背面に配置され、所定の情報を表示する、
ことを特徴とする付記1乃至15の何れか1に記載の表示装置。
[付記17]
前記表示手段は透過型の表示手段であり、
前記反射手段は、前記表示手段の背面に配置される、
ことを特徴とする付記1乃至15の何れか1に記載の表示装置。
[付記18]
被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
を備えたコンピュータが行う表示方法であって、
前記被写体に関する情報を取得する取得ステップと、
前記取得ステップにて取得された前記被写体に関する情報に基づいて、前記所定の情報を加工する加工ステップと、
前記加工ステップにて加工された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御ステップと、
を有し、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする表示方法。
[付記19]
被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
を備えたコンピュータに、
前記被写体に関する情報を取得する取得機能と、
前記取得機能により取得された前記被写体に関する情報に基づいて、前記所定の情報を加工する加工機能と、
前記加工機能により取得された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御機能と、
を実現させ、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする表示プログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
Obtaining means for obtaining information on the subject;
Processing means for processing the predetermined information based on information on the subject acquired by the acquisition means;
Display control means for performing control to display the predetermined information processed by the processing means on the display means;
With
A display device, wherein an image of a subject reflected by the reflecting means overlaps with predetermined information displayed on the display means.
[Appendix 2]
The display control means includes
Based on the information about the person who is the subject acquired by the acquisition unit, control to display on the display unit,
The display device according to appendix 1, wherein
[Appendix 3]
The information about the person who is the subject is information about the skin color of the person who is the subject.
The display device according to Supplementary Note 2, wherein
[Appendix 4]
The processing means processes the predetermined information based on information on the skin color acquired by the acquisition means when displaying the image of the subject on the entire display surface of the display means.
The display device according to supplementary note 3, wherein
[Appendix 5]
The processing means processes the predetermined information when an image of the subject reflected by the reflecting means and the predetermined information displayed on the display means overlap.
5. The display device according to any one of appendices 1 to 4, wherein
[Appendix 6]
The acquisition unit acquires the coordinates of the display surface of the display unit corresponding to the reflection position of the image of the subject on the reflection unit as information on the subject,
The display control means performs control to display the predetermined information processed by the processing means on the coordinates of the display surface of the display means acquired by the acquisition means.
The display device according to any one of appendices 1 to 5, characterized in that:
[Appendix 7]
The acquisition means acquires, as information about the subject, corresponding processing reference information for each coordinate of each position of the subject or for each coordinate of a position corresponding to each part of the subject,
The processing means processes the predetermined information based on the processing reference information acquired by the acquisition means.
The display device according to any one of appendices 1 to 6, characterized in that:
[Appendix 8]
The processing means processes the predetermined information based on the processing reference information acquired by the acquisition means when displaying the predetermined information on a part of the display means.
The display device according to appendix 7, which is characterized in that.
[Appendix 9]
The display device according to any one of appendices 1 to 8, wherein the processing unit performs processing on a region corresponding to a contour of an image shape indicated by the predetermined information.
[Appendix 10]
The display device according to any one of appendices 1 to 9, wherein the processing unit divides the image indicated by the predetermined information into a plurality of regions, and processes the images stepwise at different degrees for each of the divided regions.
[Appendix 11]
11. The display device according to any one of appendices 1 to 10, wherein the processing unit performs processing to make at least a part of an image indicated by the predetermined information a color based on information on the subject.
[Appendix 12]
The processing means performs processing to divide an image indicated by the predetermined information into a plurality of grids and to change a density of an image to be displayed by the display control unit for each of the divided grids. The display device according to any one of the above.
[Appendix 13]
The reflecting means reflects the image of the subject to the front side of the reflecting surface and transmits the predetermined information displayed by the display means to the front side of the reflecting surface. Superimposing the image and the predetermined information,
13. The display device according to any one of appendices 1 to 12, characterized in that:
[Appendix 14]
It further comprises imaging means for imaging the subject,
The acquisition unit acquires information on the subject from a captured image of the subject captured by the imaging unit.
14. The display device according to any one of appendices 1 to 13, characterized in that:
[Appendix 15]
The imaging unit corrects the correspondence between the reflection position of the image of the subject on the reflection unit and the coordinates of the display surface of the display unit;
Item 15. The display device according to appendix 14, wherein
[Appendix 16]
The reflecting means is a half mirror;
The display means is disposed on the back surface of the reflection surface of the reflection means and displays predetermined information.
The display device according to any one of appendices 1 to 15, characterized in that:
[Appendix 17]
The display means is a transmissive display means,
The reflecting means is disposed on the back surface of the display means.
The display device according to any one of appendices 1 to 15, characterized in that:
[Appendix 18]
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
A display method performed by a computer equipped with
An acquisition step of acquiring information about the subject;
A processing step of processing the predetermined information based on the information about the subject acquired in the acquisition step;
A display control step for performing control to display the predetermined information processed in the processing step on the display means;
Have
A display method characterized in that an image of a subject reflected by the reflecting means and predetermined information displayed on the display means overlap.
[Appendix 19]
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
On a computer with
An acquisition function for acquiring information about the subject;
A processing function for processing the predetermined information based on information on the subject acquired by the acquisition function;
A display control function for controlling the display unit to display the predetermined information acquired by the processing function;
Realized
A display program characterized in that an image of a subject reflected by the reflecting means overlaps with predetermined information displayed on the display means.

1・・・表示装置,2・・・ネットワーク,3・・・サーバ群,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・鏡部,19・・・表示部,20・・・記憶部,21・・・通信部,22・・・ドライブ,30・・・本体部,31・・・脚部,32・・・ヒンジ部,100・・・リムーバブルメディア,111・・・設定処理部,112・・・被写体情報取得部,113・・・加工部,114・・・表示制御部,201・・・ガイダンス情報記憶部,202・・・被写体情報記憶部,S・・・表示システム   DESCRIPTION OF SYMBOLS 1 ... Display apparatus, 2 ... Network, 3 ... Server group, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output Interface, 16 ... Imaging unit, 17 ... Input unit, 18 ... Mirror unit, 19 ... Display unit, 20 ... Storage unit, 21 ... Communication unit, 22 ... Drive, DESCRIPTION OF SYMBOLS 30 ... Main-body part, 31 ... Leg part, 32 ... Hinge part, 100 ... Removable media, 111 ... Setting process part, 112 ... Subject information acquisition part, 113 ... Processing 114, display control unit, 201 guidance information storage unit, 202 subject information storage unit, S display system

Claims (19)

被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
前記被写体に関する情報を取得する取得手段と、
前記取得手段により取得された前記被写体に関する情報に基づいて、前記所定の情報を加工する加工手段と、
前記加工手段により加工された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御手段と、
を備え、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする表示装置。
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
Obtaining means for obtaining information on the subject;
Processing means for processing the predetermined information based on information on the subject acquired by the acquisition means;
Display control means for performing control to display the predetermined information processed by the processing means on the display means;
With
A display device, wherein an image of a subject reflected by the reflecting means overlaps with predetermined information displayed on the display means.
前記表示制御手段は、
前記取得手段により取得された前記被写体となった人物に関する情報に基づいて、前記表示手段に表示させる制御を行う、
ことを特徴とする請求項1に記載の表示装置。
The display control means includes
Based on the information about the person who is the subject acquired by the acquisition unit, control to display on the display unit is performed.
The display device according to claim 1.
前記被写体となった人物に関する情報とは、前記被写体となった人物の肌の色に関する情報である、
ことを特徴とする請求項2に記載の表示装置。
The information about the person who is the subject is information about the skin color of the person who is the subject.
The display device according to claim 2.
前記加工手段は、前記被写体の像を前記表示手段の表示面の全面に表示する場合に、前記取得手段が取得した肌の色に関する情報に基づいて前記所定の情報を加工する、
ことを特徴とする請求項3に記載の表示装置。
The processing means processes the predetermined information based on information on the skin color acquired by the acquisition means when displaying the image of the subject on the entire display surface of the display means.
The display device according to claim 3.
前記加工手段は、前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なる場合に、前記所定の情報を加工する、
ことを特徴とする請求項1乃至4の何れか1項に記載の表示装置。
The processing means processes the predetermined information when an image of the subject reflected by the reflecting means and the predetermined information displayed on the display means overlap.
The display device according to claim 1, wherein the display device is a display device.
前記取得手段は、前記被写体に関する情報として、前記反射手段での前記被写体の像の反射位置に対応する前記表示手段の表示面の座標を取得し、
前記表示制御手段は、前記加工手段が加工した前記所定の情報を、前記取得手段が取得した前記表示手段の表示面の座標に表示させる制御を行う、
ことを特徴とする請求項1乃至5の何れか1項に記載の表示装置。
The acquisition unit acquires the coordinates of the display surface of the display unit corresponding to the reflection position of the image of the subject on the reflection unit as information on the subject,
The display control means performs control to display the predetermined information processed by the processing means on the coordinates of the display surface of the display means acquired by the acquisition means.
The display device according to claim 1, wherein the display device is a display device.
前記取得手段は、前記被写体に関する情報として、前記被写体の各位置の座標毎、もしくは前記被写体の各部位に対応する位置の座標毎に、それぞれ対応する加工基準情報を取得し、
前記加工手段は、前記取得手段により取得された加工基準情報に基づいて前記所定の情報を加工する、
ことを特徴とする請求項1乃至6の何れか1項に記載の表示装置。
The acquisition means acquires, as information about the subject, corresponding processing reference information for each coordinate of each position of the subject or for each coordinate of a position corresponding to each part of the subject,
The processing means processes the predetermined information based on the processing reference information acquired by the acquisition means.
The display device according to claim 1, wherein the display device is a display device.
前記加工手段は、前記所定の情報を前記表示手段の一部に表示する場合に、前記取得手段により取得された加工基準情報に基づいて前記所定の情報を加工する、
ことを特徴とする請求項7に記載の表示装置。
The processing means processes the predetermined information based on the processing reference information acquired by the acquisition means when displaying the predetermined information on a part of the display means.
The display device according to claim 7.
前記加工手段は、前記所定の情報が示す画像の形状の輪郭に対応する領域に対して加工を行う請求項1乃至8の何れか1項に記載の表示装置。   The display device according to claim 1, wherein the processing unit processes a region corresponding to a contour of an image shape indicated by the predetermined information. 前記加工手段は、前記所定の情報が示す画像を複数の領域に区分し、区分した領域毎に異なる度合いで、段階的に加工を行う請求項1乃至9の何れか1項に記載の表示装置。   10. The display device according to claim 1, wherein the processing unit divides an image indicated by the predetermined information into a plurality of regions, and performs processing in stages with different degrees for each of the divided regions. . 前記加工手段は、前記所定の情報が示す画像の少なくとも一部を、前記被写体に関する情報に基づいた色とする加工を行う請求項1乃至10の何れか1項に記載の表示装置。   The display device according to any one of claims 1 to 10, wherein the processing unit performs processing to make at least a part of an image indicated by the predetermined information a color based on information on the subject. 前記加工手段は、前記所定の情報が示す画像を複数の格子状に区分し、区分した格子毎に前記表示制御手段による表示の対象とする画像の密度を異ならせる加工を行う請求項1乃至11の何れか1項に記載の表示装置。   The processing means divides an image indicated by the predetermined information into a plurality of grids, and performs a process of changing a density of an image to be displayed by the display control unit for each of the divided grids. The display device according to any one of the above. 前記反射手段は、前記反射面の正面側に対して前記被写体の像を反射すると共に、前記反射面の正面側に対して前記表示手段が表示する前記所定の情報を透過することにより、前記被写体の像と前記所定の情報とを重畳する、
ことを特徴とする請求項1乃至12の何れか1項に記載の表示装置。
The reflecting means reflects the image of the subject to the front side of the reflecting surface and transmits the predetermined information displayed by the display means to the front side of the reflecting surface. Superimposing the image and the predetermined information,
The display device according to claim 1, wherein the display device is a display device.
前記被写体を撮像する撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮像された被写体の撮像画像から、前記被写体に関する情報を取得する、
ことを特徴とする請求項1乃至13の何れか1項に記載の表示装置。
It further comprises imaging means for imaging the subject,
The acquisition unit acquires information on the subject from a captured image of the subject captured by the imaging unit.
The display device according to claim 1, wherein the display device is a display device.
前記撮像手段は、前記反射手段での前記被写体の像の反射位置と、前記表示手段の表示面の座標との対応関係を補正する、
ことを特徴とする請求項14に記載の表示装置。
The imaging unit corrects the correspondence between the reflection position of the image of the subject on the reflection unit and the coordinates of the display surface of the display unit;
The display device according to claim 14.
前記反射手段は、ハーフミラーであり、
前記表示手段は、前記反射手段の反射面の背面に配置され、所定の情報を表示する、
ことを特徴とする請求項1乃至15の何れか1項に記載の表示装置。
The reflecting means is a half mirror,
The display means is disposed on the back surface of the reflection surface of the reflection means and displays predetermined information.
The display device according to claim 1, wherein the display device is a display device.
前記表示手段は、透過型の表示手段であり、
前記反射手段は、前記表示手段の背面に配置される、
ことを特徴とする請求項1乃至15の何れか1項に記載の表示装置。
The display means is a transmissive display means,
The reflecting means is disposed on the back surface of the display means.
The display device according to claim 1, wherein the display device is a display device.
被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
を備えたコンピュータが行う表示方法であって、
前記被写体に関する情報を取得する取得ステップと、
前記取得ステップにて取得された前記被写体に関する情報に基づいて、前記所定の情報を加工する加工ステップと、
前記加工ステップにて加工された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御ステップと、
を有し、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする表示方法。
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
A display method performed by a computer equipped with
An acquisition step of acquiring information about the subject;
A processing step of processing the predetermined information based on the information about the subject acquired in the acquisition step;
A display control step for performing control to display the predetermined information processed in the processing step on the display means;
Have
A display method characterized in that an image of a subject reflected by the reflecting means and predetermined information displayed on the display means overlap.
被写体の像を反射する反射手段と、
前記反射手段の反射面に重なるように配置され、所定の情報を表示する表示手段と、
を備えたコンピュータに、
前記被写体に関する情報を取得する取得機能と、
前記取得機能により取得された前記被写体に関する情報に基づいて、前記所定の情報を加工する加工機能と、
前記加工機能により取得された前記所定の情報を、前記表示手段に表示させる制御を行う表示制御機能と、
を実現させ、
前記反射手段により反射された被写体の像と前記表示手段に表示された所定の情報とが重なることを特徴とする表示プログラム。
Reflection means for reflecting the image of the subject;
A display unit arranged to overlap the reflection surface of the reflection unit and displaying predetermined information;
On a computer with
An acquisition function for acquiring information about the subject;
A processing function for processing the predetermined information based on information on the subject acquired by the acquisition function;
A display control function for controlling the display unit to display the predetermined information acquired by the processing function;
Realized
A display program characterized in that an image of a subject reflected by the reflecting means overlaps with predetermined information displayed on the display means.
JP2018110612A 2018-06-08 2018-06-08 Display device, display method and display program Active JP7135466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018110612A JP7135466B2 (en) 2018-06-08 2018-06-08 Display device, display method and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018110612A JP7135466B2 (en) 2018-06-08 2018-06-08 Display device, display method and display program

Publications (3)

Publication Number Publication Date
JP2019209065A true JP2019209065A (en) 2019-12-12
JP2019209065A5 JP2019209065A5 (en) 2021-07-26
JP7135466B2 JP7135466B2 (en) 2022-09-13

Family

ID=68846083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018110612A Active JP7135466B2 (en) 2018-06-08 2018-06-08 Display device, display method and display program

Country Status (1)

Country Link
JP (1) JP7135466B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113303772A (en) * 2020-02-27 2021-08-27 卡西欧计算机株式会社 Electronic device, control method of electronic device, and storage medium
JPWO2021171442A1 (en) * 2020-02-26 2021-09-02

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064423A (en) * 2007-08-10 2009-03-26 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2013182062A (en) * 2012-02-29 2013-09-12 Nikon Corp Display device and projection device
JP2013246184A (en) * 2012-05-23 2013-12-09 Sharp Corp Display device
JP2014023127A (en) * 2012-07-23 2014-02-03 Sharp Corp Information display device, information display method, control program, and recording medium
JP2014052512A (en) * 2012-09-07 2014-03-20 Panasonic Corp Mirror display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064423A (en) * 2007-08-10 2009-03-26 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method, and makeup simulation program
JP2013182062A (en) * 2012-02-29 2013-09-12 Nikon Corp Display device and projection device
JP2013246184A (en) * 2012-05-23 2013-12-09 Sharp Corp Display device
JP2014023127A (en) * 2012-07-23 2014-02-03 Sharp Corp Information display device, information display method, control program, and recording medium
JP2014052512A (en) * 2012-09-07 2014-03-20 Panasonic Corp Mirror display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021171442A1 (en) * 2020-02-26 2021-09-02
WO2021171442A1 (en) * 2020-02-26 2021-09-02 日本電信電話株式会社 Display device, display method, and display program for displaying information by superposing same over mirror image
JP7318795B2 (en) 2020-02-26 2023-08-01 日本電信電話株式会社 Display device, display method and display program for superimposing and displaying information on a mirror image
CN113303772A (en) * 2020-02-27 2021-08-27 卡西欧计算机株式会社 Electronic device, control method of electronic device, and storage medium

Also Published As

Publication number Publication date
JP7135466B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
JP7135472B2 (en) Display control device, display control method and display control program
TW201610401A (en) Electronic device and method for enhancing accuracy of a contactless body temperature measurement
AU2014275184A1 (en) Manipulation of virtual object in augmented reality via intent
JP7115458B2 (en) ELECTRONIC DEVICE, METHOD OF OPERATING ELECTRONIC DEVICE, AND CONTROL PROGRAM FOR ELECTRONIC DEVICE
JPWO2016076140A1 (en) Information processing apparatus, information processing method, and program
JP2021132869A (en) Electronic device, control method of electronic device, and control program of electronic device
JP7135466B2 (en) Display device, display method and display program
US20220087547A1 (en) Electronic device, control method for electronic device, and recording medium
JP7230409B2 (en) Determination device, determination method and determination program
JP7139638B2 (en) Notification device, notification method and notification program
US10915617B2 (en) Image processing apparatus, image processing method, and recording medium
JP2015103991A (en) Image processing apparatus, method and computer program
JP7415318B2 (en) Image processing device, image processing method and program
JP2020057153A (en) Display control device, display control method and display control program
JP7225749B2 (en) Notification device, notification method and program
JP7392806B2 (en) Electronic device, control method for electronic device, and control program for electronic device
JP7485114B2 (en) Notification device, notification method, and program
WO2021060250A1 (en) Image processing device, image processing method, and image processing program
JP2023057107A (en) Notification device, notification method and program
JP2019208906A (en) Information processing device, information processing method, and information processing program
JP2020000307A (en) Reflecting device, reflection method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150