JP2015210509A - Display divice - Google Patents

Display divice Download PDF

Info

Publication number
JP2015210509A
JP2015210509A JP2014094205A JP2014094205A JP2015210509A JP 2015210509 A JP2015210509 A JP 2015210509A JP 2014094205 A JP2014094205 A JP 2014094205A JP 2014094205 A JP2014094205 A JP 2014094205A JP 2015210509 A JP2015210509 A JP 2015210509A
Authority
JP
Japan
Prior art keywords
image
display
person
display device
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014094205A
Other languages
Japanese (ja)
Other versions
JP6316648B2 (en
Inventor
山崎 幸生
Yukio Yamazaki
幸生 山崎
実雄 阪本
Jitsuo Sakamoto
実雄 阪本
司 神之門
Tsukasa Kaminomon
司 神之門
優 西島
Masaru Nishijima
優 西島
光治 酒井
Mitsuharu Sakai
光治 酒井
英満 南田
Hidemitsu Minamida
英満 南田
一則 安田
Kazunori Yasuda
一則 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014094205A priority Critical patent/JP6316648B2/en
Priority to PCT/JP2015/062870 priority patent/WO2015166957A1/en
Publication of JP2015210509A publication Critical patent/JP2015210509A/en
Application granted granted Critical
Publication of JP6316648B2 publication Critical patent/JP6316648B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of changing an image to be superposed on a mirror image without performing any troublesome operation.SOLUTION: A display device (101) includes a display control part (25) which displays an image, acquired according to only a movement of an operation region, in a specific area, corresponding to a selection region specified by a selection region specification part (26), in a person area where an image of a person transmitted through a half-mirror is displayed on a display surface.

Description

本発明は、表示装置に関し、特に、表示面において、光の一部を透過し、一部を反射する光透過反射機能を有する表示装置に関する。   The present invention relates to a display device, and more particularly to a display device having a light transmission / reflection function of transmitting part of light and reflecting part of light on a display surface.

表示面において、光の一部を透過し、一部を反射する光透過反射機能を有する表示装置、所謂ミラー機能付き表示装置として、例えば特許文献1には、表示面にハーフミラーを備えたバックライト式画像表示装置が開示されている。   As a display device having a light transmission / reflection function of transmitting part of light and reflecting part of the light on the display surface, a display device with a so-called mirror function, for example, Patent Document 1 discloses a back having a half mirror on the display surface A light-type image display device is disclosed.

特開平11−015392号公報(1999年1月22日公開)JP 11-015392 A (published January 22, 1999)

ところで、従来のミラー機能付き表示装置では、ディスプレイの上に、鏡像と合成表示される画像を、鏡に映る使用者の像を邪魔しないようにシステムによって位置や大きさや形状が予め固定されている。   By the way, in the conventional display device with a mirror function, the position, size, and shape are fixed in advance on the display by the system so as not to interfere with the image of the user reflected in the mirror. .

そのため、使用者が合成表示された画像に対し、鏡像と重ねて表示させたいという要望に動的に応えられないという問題が生じる。   Therefore, there arises a problem that the user cannot dynamically respond to the desire to display the combined and displayed image superimposed on the mirror image.

そこで、ディスプレイ上に表示される画像の表示位置やサイズを使用者が操作する手段として、リモコンやタッチパネルを用いることが考えられるが、以下のような問題が生じる。   Therefore, it is conceivable to use a remote control or a touch panel as means for the user to operate the display position and size of the image displayed on the display, but the following problems arise.

タッチパネルを用いる場合、タッチパネルに手が届かない場所への設置ができないという制約が発生し、逆に、手が届くところに設置すると、画面に指紋がついて鏡としての機能が損なわれる虞がある。   When the touch panel is used, there is a restriction that it cannot be installed in a place where the touch panel cannot be reached. On the contrary, if the touch panel is installed in a place where the hand can reach, a fingerprint may be attached to the screen and the function as a mirror may be impaired.

また、リモコンを用いる場合は、使用者が操作をしたいと考えるたびにリモコンを操作することになり、その煩わしさが鏡としての機能を阻害する虞がある。   Further, when a remote controller is used, the remote controller is operated every time the user wants to perform an operation, and the troublesomeness may hinder the function as a mirror.

本発明は、上記の各問題点に鑑みなされたものであって、その目的は、表示面上の画像を、鏡像に重ねて表示したときに、煩わしい操作を行うことなく、当該鏡像に重ねる画像を変更できるミラー機能付きの表示装置を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to superimpose an image on a mirror image without performing troublesome operations when the image on the display surface is superimposed on the mirror image. Is to provide a display device with a mirror function.

上記の課題を解決するために、本発明の一態様に係る表示装置は、光の一部が透過し、一部が反射する光透過反射部材を、表示面上に重ねて配置した表示装置において、上記光透過反射部材の光反射面側に存在する人物の像が上記光反射面側に映る人物領域を検出する領域検出手段と、上記光透過反射部材の光反射面側に存在する人物を撮影して得られた人物映像を、上記領域検出手段が検出した人物領域に上記光透過反射部材を透過するように表示させる表示制御手段と、上記人物映像から検出された人体の各部位のうち、一つの部位を操作部位とし、当該操作部位の表示領域と少なくとも一部重なる領域を含んだ部位を選択部位として特定する特定手段と、を備え、上記表示制御手段は、上記人物領域のうち、上記選択部位に対応する特定領域に、上記操作部位の動きのみに応じて取得した更新用の画像を表示させることを特徴としている。   In order to solve the above-described problem, a display device according to one embodiment of the present invention is a display device in which a light-transmitting / reflecting member that transmits part of light and reflects part of the light is reflected over the display surface. A region detecting means for detecting a person region in which an image of a person existing on the light reflecting surface side of the light transmitting and reflecting member is reflected on the light reflecting surface side; and a person existing on the light reflecting surface side of the light transmitting and reflecting member. Display control means for displaying a human image obtained by photographing so as to transmit the light transmitting / reflecting member in a person area detected by the area detection means, and each part of the human body detected from the person video Specifying a part including an area that overlaps at least a part of the display area of the operation part as a selection part, and the display control means includes: Special features corresponding to the selected part In the region, it is characterized in that to display an image for updating acquired in accordance with only the movement of the operation site.

本発明の一態様によれば、人物映像を、鏡像に重ねて表示したときに、操作部位の動きのみによって、更新用の画像を表示させることができるので、煩わしい操作を行うことなく、当該鏡像に重ねる画像を変更できるという効果を奏する。   According to one embodiment of the present invention, when a person image is displayed superimposed on a mirror image, an update image can be displayed only by the movement of the operation part. Therefore, the mirror image can be displayed without performing a troublesome operation. There is an effect that the image to be overlaid can be changed.

本発明の実施形態1に係る表示装置の概略構成ブロック図である。1 is a schematic configuration block diagram of a display device according to Embodiment 1 of the present invention. 図1に示す表示装置の概略構成図である。It is a schematic block diagram of the display apparatus shown in FIG. 図1に示す表示装置における画像表示処理の流れを示すフローチャートである。3 is a flowchart showing a flow of image display processing in the display device shown in FIG. 1. 図3に示す画像表示処理における画像更新処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image update process in the image display process shown in FIG. 図1に示す表示装置における画像更新処理の流れを説明する図である。It is a figure explaining the flow of the image update process in the display apparatus shown in FIG. (a)(b)は、画像更新時の画像サイズおよび表示位置の調整方法を説明するための図である。(A) and (b) are the figures for demonstrating the adjustment method of the image size at the time of an image update, and a display position. 本実施形態1の変形例を示す表示装置の概略構成ブロック図である。It is a schematic block diagram of the display apparatus which shows the modification of this Embodiment 1. 本発明の実施形態2に係る表示装置の概略構成ブロック図である。It is a schematic block diagram of the display apparatus which concerns on Embodiment 2 of this invention. (a)(b)は、図8に示す表示装置における拡大処理を説明するための図である。(A) and (b) are the figures for demonstrating the expansion process in the display apparatus shown in FIG. (a)(b)は、図8に示す表示装置における縮小処理を説明するための図である。(A) and (b) are the figures for demonstrating the reduction process in the display apparatus shown in FIG. 本発明の実施形態3に係る表示装置の概略構成図である。It is a schematic block diagram of the display apparatus which concerns on Embodiment 3 of this invention. (a)〜(c)は、本発明の実施形態4に係る表示装置における鏡像と画像との入替え表示を説明するための図である。(A)-(c) is a figure for demonstrating the replacement display of the mirror image and image in the display apparatus which concerns on Embodiment 4 of this invention.

〔実施形態1〕
以下、本発明の実施の形態について、詳細に説明する。本実施形態では、ミラー(鏡)として機能する光透過反射部材として、ハーフミラーを例に説明する。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail. In the present embodiment, a half mirror will be described as an example of a light transmitting and reflecting member that functions as a mirror.

(表示装置の概要)
図1は、本実施形態に係るミラー機能付き表示装置(以下、表示装置と称する)101の概要を説明するための図である。
(Outline of display device)
FIG. 1 is a diagram for explaining an overview of a display device with a mirror function (hereinafter referred to as a display device) 101 according to the present embodiment.

表示装置101は、図2に示すように、表示部(表示手段)11と、表示部11の表示面11a上に重ねて配置されたハーフミラー(光透過反射部材)12と、表示部11の周囲に設けられた、カメラ13と、マイク14、スピーカ15とを備えている。   As shown in FIG. 2, the display device 101 includes a display unit (display unit) 11, a half mirror (light transmitting / reflecting member) 12 disposed on the display surface 11 a of the display unit 11, and a display unit 11. A camera 13, a microphone 14, and a speaker 15 are provided around the camera.

表示部11は、映像を表示する表示手段であり、液晶表示パネルからなり、液晶表示パネル以外の、EL(有機、無機)、PDP(Plasma Display Panel)、SED(Surface−conduction Electron−emitter Display)等のFPD(Flat Panel Display)であってもよい。   The display unit 11 is a display means for displaying an image, and includes a liquid crystal display panel. Other than the liquid crystal display panel, an EL (organic or inorganic), PDP (Plasma Display Panel), SED (Surface-conduction Electron-emitter Display) is used. FPD (Flat Panel Display) such as the above may be used.

ハーフミラー12は、光の入射率と反射率とが同じになるように、板ガラス、あるいはアクリルなどの有機ガラスに、反射膜をごく薄く形成し、半透明にして形成された光透過反射部材である。ハーフミラー12としては、市販されているものを使用することができる。   The half mirror 12 is a light transmitting / reflecting member formed by forming a very thin reflective film on a plate glass or an organic glass such as acrylic so that the incident rate and reflectance of light are the same, and making it semitransparent. is there. As the half mirror 12, a commercially available one can be used.

ハーフミラー12は、上述のように、表示部11の表示面11a上に重ねて配置されているので、当該表示面11aに表示される映像を透過して映し出し、外部から表示面11aに向かって入射される光の一部を反射して鏡像が生成される。   As described above, since the half mirror 12 is arranged so as to overlap the display surface 11a of the display unit 11, the image displayed on the display surface 11a is transmitted through and projected from the outside toward the display surface 11a. A part of the incident light is reflected to generate a mirror image.

カメラ13は、表示面11a側から、表示装置101の前に居る人物を撮影するための撮影手段であって、表示部11の表示に寄与しない周縁部の左右に2箇所設けられている。カメラ13を2箇所設けるのは、表示装置101の前に居る人物と表示部11の表示面11aとの間の距離を測定するためである。   The camera 13 is a photographing unit for photographing a person in front of the display device 101 from the display surface 11 a side, and is provided at two places on the left and right sides of the peripheral part that does not contribute to the display of the display unit 11. The two cameras 13 are provided in order to measure the distance between the person in front of the display device 101 and the display surface 11 a of the display unit 11.

また、カメラ13は、撮像素子として、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を用いた一般的な小型のデジタルカメラであり、表示装置101の前に居る人物を撮影できるものであれば、何でもよい。   The camera 13 is a general small digital camera using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like as an image sensor, and can photograph a person in front of the display device 101. Anything is acceptable.

さらに、本発明では、表示装置101の前に居る人物の操作部位(本実施形態では、手先)を検出する手段(操作部位検出手段)が必須である。従って、本実施形態では、カメラ13によって、表示装置101の前に居る人物を撮影して、その撮影映像から人体の各部位(頭、首、腕、手先、脚、足先、胴体、腰部等)を検出し、検出した各部位から指先16aを操作部位として検出する。   Furthermore, in the present invention, means (operation part detection means) for detecting an operation part (a hand in this embodiment) of a person in front of the display device 101 is essential. Therefore, in the present embodiment, a person in front of the display device 101 is photographed by the camera 13, and each part of the human body (head, neck, arms, hands, legs, feet, torso, waist, etc.) is taken from the photographed image. ) And the fingertip 16a is detected as an operation part from the detected parts.

マイク14は、表示装置101の前に居る人物が発する音声を取り込むための手段であり、スマートフォンや携帯電話等に用いられる一般的なマイクで構成されている。また、マイク14によって取り込まれた音声から個人を特定するようにしてもよい。   The microphone 14 is a means for capturing sound produced by a person in front of the display device 101, and is configured by a general microphone used for a smartphone, a mobile phone, or the like. Further, an individual may be specified from the voice captured by the microphone 14.

スピーカ15は、表示装置101の前に居る人物に対して音声を発する手段であり、スマートフォンや携帯電話等に用いられる一般的なスピーカで構成されている。また、スピーカ15は、表示装置101の前に居る人物に対して必要とされる情報を音声で報知するための手段としても用いられる。例えば、スピーカ15は、表示部11の表示面11aに表示された画像17a〜17dに対応する情報を音声で発して、表示装置101の前に居る人物に報知する。   The speaker 15 is a unit that emits voice to a person in front of the display device 101, and is configured by a general speaker used for a smartphone, a mobile phone, or the like. The speaker 15 is also used as a means for notifying a user of information necessary for the person in front of the display device 101 by voice. For example, the speaker 15 emits information corresponding to the images 17 a to 17 d displayed on the display surface 11 a of the display unit 11 and notifies the person in front of the display device 101.

なお、上記カメラ13は、ハーフミラー12の前に居る人物の動きを検出するために用いてもよい。この動き検出の結果は、制御装置20に入力され、動きに応じたコマンドを実行(ジャスチャ入力処理)するようになっている。例えば、人物の指先を検出し、その動きを検出し、指先が指した位置に表示されているカスタマイズ情報を選択するようにしてもよい。   The camera 13 may be used to detect the movement of a person in front of the half mirror 12. The result of the motion detection is input to the control device 20, and a command corresponding to the motion is executed (a gesture input process). For example, the fingertip of a person may be detected, its movement detected, and customization information displayed at the position pointed by the fingertip may be selected.

(表示装置の詳細)
ここで、表示装置101の詳細について図2を参照しながら以下に説明する。
(Details of display device)
Details of the display device 101 will be described below with reference to FIG.

表示装置101は、図2に示すように、通信ネットワーク(図示せず)を介して管理サーバ2に接続されており、表示部11、カメラ13、マイク14、スピーカ15、これらを制御する制御装置20を備えている。   As shown in FIG. 2, the display device 101 is connected to the management server 2 via a communication network (not shown), and includes a display unit 11, a camera 13, a microphone 14, a speaker 15, and a control device that controls these. 20 is provided.

制御装置20は、情報取得部(画像取得手段)21、人体部位検出部22、操作部位検出部23、人物領域検出部(領域検出手段)24、表示制御部(表示制御手段)25、選択部位特定部(特定手段)26を含んでいる。   The control device 20 includes an information acquisition unit (image acquisition unit) 21, a human body part detection unit 22, an operation part detection unit 23, a person region detection unit (region detection unit) 24, a display control unit (display control unit) 25, and a selected part. A specifying unit (specifying means) 26 is included.

人体部位検出部22は、カメラ13によって撮影された人物の撮影映像から、人体の予め設定した各部位を検出する。具体的には、人物の撮影映像から、既存の画像認識処理を用いて、上述したように、人体の各部位(頭、首、腕、手先、脚、足先、胴体、腰部等)を検出する。   The human body part detection unit 22 detects each preset part of the human body from the photographed image of the person photographed by the camera 13. Specifically, each part of the human body (head, neck, arms, hands, legs, toes, torso, waist, etc.) is detected from the captured video of the person using the existing image recognition processing as described above. To do.

操作部位検出部23は、人体部位検出部22によって検出された人体の各部位のうち、操作指示に用いる操作部位を検出する。具体的には、人体の各部位のうち、人体の手先に該当する部位を操作部位として検出する。図2の符号16aが手先に該当する部位を示す。   The operation part detection unit 23 detects an operation part used for an operation instruction among the parts of the human body detected by the human body part detection unit 22. Specifically, a part corresponding to the hand of the human body among the parts of the human body is detected as an operation part. Reference numeral 16a in FIG. 2 indicates a portion corresponding to the hand.

情報取得部21は、インターネット等の通信ネットワークを介して接続された管理サーバ2から必要な情報を取得する。ここで、必要な情報とは、後述する変更対象となる画像(上着、ズボン、靴、帽子、スカートなどの画像)であり、他の変更すべき情報であってもよい。   The information acquisition unit 21 acquires necessary information from the management server 2 connected via a communication network such as the Internet. Here, the necessary information is an image (an image of a jacket, trousers, shoes, a hat, a skirt, etc.) to be changed, which will be described later, and may be other information to be changed.

また、情報取得部21は、操作部位検出部23によって検出される操作部位の指示内容に応じて、表示制御部25からの指示に基づいて管理サーバ2から情報を取得している。例えば、操作部位の指示内容が、ユーザの頭を指すことを示す内容であれば、帽子の画像を管理サーバ2から取得する。   Further, the information acquisition unit 21 acquires information from the management server 2 based on an instruction from the display control unit 25 according to the instruction content of the operation part detected by the operation part detection unit 23. For example, if the instruction content of the operation part indicates content indicating the user's head, the hat image is acquired from the management server 2.

情報取得部21は、取得した情報を表示制御部25に送る。   The information acquisition unit 21 sends the acquired information to the display control unit 25.

人物領域検出部24は、図2に示すように、ハーフミラー12を透過した人物の像が上記表示面11aに表示される領域(人物領域11b)を検出する。ここでは、例えば2つのカメラ13により撮影された表示装置101の前に居る人物の撮影映像から、表示装置101と人物との間の距離を求め、この距離からハーフミラー12に映し出された鏡像16の大きさおよび表示位置を求めて、当該表示装置101の表示部11の表示面11aに投影される鏡像16の表示位置を人物領域11bとして検出する。   As shown in FIG. 2, the person area detection unit 24 detects an area (person area 11b) in which an image of a person who has passed through the half mirror 12 is displayed on the display surface 11a. Here, for example, the distance between the display device 101 and the person is obtained from the photographed image of the person in front of the display device 101 photographed by the two cameras 13, and the mirror image 16 projected on the half mirror 12 from this distance. The display position of the mirror image 16 projected on the display surface 11a of the display unit 11 of the display device 101 is detected as the person region 11b.

人物領域検出部24は、検出した人物領域11bを表示制御部25に送る。   The person area detection unit 24 sends the detected person area 11 b to the display control unit 25.

選択部位特定部26は、上記人物領域11bにおける、上記操作部位検出部23によって検出された操作部位の表示領域に少なくとも一部重なる表示領域である特定領域に表示された部位を選択部位として特定する。つまり、特定された選択部位は、操作対象となる部位となる。ここでは、例えば、操作部位を人物の指先16aとして、この指先16aの表示面11aにおける人物領域11bの表示領域と、人体の各部位の表示面11aにおける表示領域との重なり度合いを検出し、重なり度合いが一番大きい表示領域を特定領域とし、この特定領域に表示された部位を選択部位であると特定する。   The selected part specifying unit 26 specifies, as the selected part, a part displayed in the specific area that is a display area at least partially overlapping the display area of the operation part detected by the operation part detecting unit 23 in the person region 11b. . That is, the specified selected part is a part to be operated. Here, for example, assuming that the operation part is a person's fingertip 16a, the degree of overlap between the display area of the person area 11b on the display surface 11a of the fingertip 16a and the display area on the display surface 11a of each part of the human body is detected. A display area having the largest degree is set as a specific area, and a part displayed in the specific area is specified as a selected part.

選択部位特定部26は、特定した選択部位を表示制御部25に送る。   The selected part specifying unit 26 sends the specified selected part to the display control unit 25.

表示制御部25は、表示部11の表示面11aに表示すべき映像の表示位置を制御する。具体的には、表示制御部25は、人物領域検出部24からの人物領域11bの表示位置を特定し、この人物領域11bに、カメラ13によって撮影された人物の撮影映像(人物映像)を表示させる。これにより、ハーフミラー12に映し出される人物の鏡像と、当該人物の撮影映像とが、表示面11a上の人物領域11bにおいて重ねて表示される。   The display control unit 25 controls the display position of the video to be displayed on the display surface 11 a of the display unit 11. Specifically, the display control unit 25 specifies the display position of the person region 11b from the person region detection unit 24, and displays a photographed image (person image) of the person photographed by the camera 13 in the person region 11b. Let As a result, the mirror image of the person displayed on the half mirror 12 and the photographed video of the person are displayed in an overlapping manner in the person area 11b on the display surface 11a.

また、表示制御部25は、カメラ13からの撮影映像を所望のサイズに変換して、人物の撮影映像として表示部11の表示面11aの所望する位置に表示させることもできる。   The display control unit 25 can also convert the captured image from the camera 13 to a desired size and display it as a captured image of a person at a desired position on the display surface 11 a of the display unit 11.

さらに、表示制御部25は、選択部位特定部26によって特定された選択部位の表示面11aにおける表示座標に相当する領域(特定領域)を、人物領域検出部24によって検出された人物領域11bから抽出し、当該抽出領域をハイライト表示し、カメラ13からの人物の撮影映像に合成して表示データとして表示部11に出力する。これにより、表示装置101の前に居る人物は、自分で指示(選択)した自分の体の部位がハイライト表示されていることを確認できる。ここでは、選択部位にハイライト画像を重ねることでハイライト表示を実現している。   Further, the display control unit 25 extracts an area (specific area) corresponding to the display coordinates of the selected part specified by the selected part specifying part 26 on the display surface 11a from the person area 11b detected by the person area detecting unit 24. Then, the extraction area is highlighted, synthesized with a photographed image of a person from the camera 13, and output to the display unit 11 as display data. Thereby, the person in front of the display apparatus 101 can confirm that the part of his / her body instructed (selected) by himself / herself is highlighted. Here, the highlight display is realized by superimposing the highlight image on the selected part.

また、表示制御部25は、ハイライト表示した状態で、操作部位検出部23によって検出された操作部位による操作指示を受け付けて、受け付けた操作指示に応じた情報を情報取得部21から取得し、取得した情報(更新用の画像)をハイライト表示された領域(特定領域)に表示させる。つまり、表示制御部25は、上記特定領域に、上記操作部位の動きに応じて取得した更新用の画像を表示させる。   The display control unit 25 receives an operation instruction by the operation part detected by the operation part detection unit 23 in a highlighted state, acquires information according to the received operation instruction from the information acquisition unit 21, and The acquired information (update image) is displayed in the highlighted area (specific area). That is, the display control unit 25 displays an update image acquired in accordance with the movement of the operation part in the specific region.

ここで、例えば、操作部位が手先であれば、手先を回転させること(操作部位の動き)で、更新用の画像を取得するための操作指示とすることができる。この操作指示は、カメラ13による人物の撮影映像を解析することにより表示制御部25に伝わる。これは、操作指示と、対応するコマンド(情報を取得すること)を対応付けておくことで実現できる。なお、操作指示は、手先の回転だけでなく、手先を横に振る動作であってもよく、特に限定されるものではない。   Here, for example, if the operation part is a hand, the operation instruction for acquiring an image for update can be obtained by rotating the hand (movement of the operation part). This operation instruction is transmitted to the display control unit 25 by analyzing a photographed image of a person by the camera 13. This can be realized by associating an operation instruction with a corresponding command (acquiring information). Note that the operation instruction may be not only the rotation of the hand but also an action of shaking the hand, and is not particularly limited.

(画像更新処理)
以下に、ユーザによる人体の部位を特定してハイライト表示させ、ハイライト表示させた特定領域に更新用の画像を表示させる処理の流れについて、図3および4に示すフローチャート、図5に示す表示例を参照しながら説明する。
(Image update processing)
In the following, regarding the flow of processing for identifying and highlighting a part of the human body by the user and displaying an update image in the highlighted specific area, the flowcharts shown in FIGS. 3 and 4 and the table shown in FIG. This will be described with reference to examples.

まず、鏡像の表示位置の検出を行う(ステップS11)。具体的には、人物領域検出部24によって、ハーフミラー12を透過した人物の像が上記表示面11aに表示される領域(人物領域11b)を検出する。   First, the display position of the mirror image is detected (step S11). Specifically, the person area detection unit 24 detects an area (person area 11b) in which an image of a person transmitted through the half mirror 12 is displayed on the display surface 11a.

次に、人体部位の検出を行う(ステップS12)。具体的には、人体部位検出部22によって人物の撮影映像から画像認識処技術を用いて、人体の各部位を検出する。   Next, the human body part is detected (step S12). Specifically, each part of the human body is detected by the human body part detection unit 22 from the captured video of the person using an image recognition processing technique.

続いて、操作部位の検出を行う(ステップS13)。具体的には、操作部位検出部23によって、検出された各部位から、予め設定した部位を操作部位として検出する。本実施形態では、人物の指先16aを操作部位として説明する。   Subsequently, the operation site is detected (step S13). Specifically, the operation part detection unit 23 detects a preset part as an operation part from the detected parts. In the present embodiment, a human fingertip 16a will be described as an operation part.

ここまでの処理により、ユーザは、図3の(a)に示すように、鏡像16を映し出した状態で、指先16aで体の部位を指示する。   Through the processing so far, the user designates a body part with the fingertip 16a in a state where the mirror image 16 is projected as shown in FIG.

続いて、選択部位の特定を行う(ステップS14)。具体的には、選択部位特定部26によって、人体部位検出部22によって検出された各部位のうち、操作部位検出部23によって検出された操作部位に指示された部位を選択部位として特定する。   Subsequently, the selected part is specified (step S14). Specifically, the selected part specifying unit 26 specifies, as a selected part, a part designated by the operation part detected by the operation part detecting unit 23 among the parts detected by the human body part detecting unit 22.

そして、特定された部位のハイライト表示を行う(ステップS15)。例えば、図5の(b)に示すように、指先16aが指している選択部位16bに対応する領域がハイライト表示される。ここで、ハイライト表示された部位が所望する部位である場合、すなわち正しい場合は、ユーザは指先16aを使ってOKマークを形作る。これにより、ハイライト表示される領域が決定される。この場合、指先16aを使って形成したOKマークは、カメラ13により撮影され、撮影映像を解析することで、認識される。なお、指先16aでOKマークを指示するだけでなく、「OK」と音声を発してもよい。この場合、既存の音声認識処理を行い、「OK」を認識して、ハイライト表示される領域が決定される。   Then, the highlighted part is highlighted (step S15). For example, as shown in FIG. 5B, a region corresponding to the selected portion 16b pointed to by the fingertip 16a is highlighted. Here, when the highlighted portion is a desired portion, that is, when it is correct, the user forms an OK mark using the fingertip 16a. Thereby, the area to be highlighted is determined. In this case, the OK mark formed using the fingertip 16a is captured by the camera 13, and is recognized by analyzing the captured image. In addition to instructing the OK mark with the fingertip 16 a, “OK” may be uttered. In this case, an existing voice recognition process is performed, “OK” is recognized, and an area to be highlighted is determined.

なお、指先16aが指示した部位が所望の部位でない場合には、再度、指先16aを使って体の部位を指示する。   If the part indicated by the fingertip 16a is not a desired part, the body part is indicated again using the fingertip 16a.

続いて、画像更新処理が実行される。ここで、画像更新処理とは、ハイライト表示された選択部位16bに対応する領域に、既に表示されている画像を、ユーザの指示により別の画像に交換することをいう。   Subsequently, an image update process is executed. Here, the image update process refers to exchanging an image already displayed in a region corresponding to the highlighted selected region 16b with another image according to a user instruction.

すなわち、図4に示すステップS21において、操作部位による画像取得操作を検出すれば、画像取得を行う(ステップS22)。操作部位による画像取得操作とは、指先16aを回転する等のジェスチャーを行うことを示す。ここでは、指先16aの回転を画像取得操作として対応付けることで、ユーザは、指先16aを回転させることで、更新用の画像取得を行うことができる。   That is, in step S21 shown in FIG. 4, if an image acquisition operation by the operation part is detected, image acquisition is performed (step S22). The image acquisition operation by the operation part indicates performing a gesture such as rotating the fingertip 16a. Here, by associating the rotation of the fingertip 16a as an image acquisition operation, the user can acquire an image for update by rotating the fingertip 16a.

続いて、取得した画像をハイライト表示された選択部位に対応する領域に表示する(ステップS23)。ここでは、図5の(c)に示すように、ハイライト表示された選択部位16bに対応する領域に表示させる画像17(帽子)を、当該部位16bを挟んで水平方向に並んで表示される。ユーザは、指先16aを回転させることで、表示されている画像17をスクロールさせながら、ハイライト表示された選択部位16bに対応する領域に順次表示させる。   Subsequently, the acquired image is displayed in a region corresponding to the selected region highlighted (step S23). Here, as shown in FIG. 5C, the image 17 (hat) to be displayed in the region corresponding to the highlighted selected part 16b is displayed side by side in the horizontal direction across the part 16b. . By rotating the fingertip 16a, the user sequentially displays the displayed image 17 in a region corresponding to the highlighted selected portion 16b while scrolling.

従って、上記構成の表示装置101を自宅の鏡として用いることで、商品を実際に身に付けなくてもユーザが商品を身に付けた状態を当該表示装置101に映しだし、衣服のコーディネートや商品購入を検討できる。   Therefore, by using the display device 101 having the above configuration as a mirror at home, a state in which the user wears the product is displayed on the display device 101 without actually wearing the product, and the coordinates of the clothing and the product are displayed. You can consider purchasing.

つまり、上記構成の表示装置101を自宅の鏡として用いれば、ユーザは、当該鏡に映った像を見ながら、衣服を表示する位置を指定し、例えば鏡像を見ながら衣服を変えたい部位に手を重ねるか、あるいは自分自身の体の一部を指差すことで、ユーザの姿を取得するカメラにてユーザが鏡像のどの部位を見ながら指定しているかが検出される。そして、選択された部位(ユーザ指定の部位)に応じた衣服を鏡像の大きさにサイズと形状を変更し、選択された部位に対応する領域に重ね合わせて表示する。   In other words, if the display device 101 having the above configuration is used as a home mirror, the user designates a position for displaying clothes while looking at the image reflected in the mirror, and for example, looks at the mirror image and moves the hand to a part where the clothes are to be changed. Or by pointing a part of his / her body, it is detected by the camera that acquires the user's figure which part of the mirror image the user is specifying. Then, the size and shape of the clothes corresponding to the selected part (part designated by the user) are changed to the size of the mirror image, and are displayed superimposed on the area corresponding to the selected part.

(重ね合わせる画像のサイズ調整)
次に、選択部位に重ね合わせる画像のサイズ調整および表示位置の調整について、図6の(a)(b)を参照しながら以下に説明する。以下、説明の便宜上、「選択された部位」を「選択部位」、「選択部位を表示する表示領域に更新用の画像を表示する」を、「選択部位に画像を重ねる」と称して説明する。
(Adjusting the size of the superimposed image)
Next, the adjustment of the size of the image to be superimposed on the selected part and the adjustment of the display position will be described below with reference to FIGS. Hereinafter, for convenience of explanation, “selected part” is referred to as “selected part”, and “displaying an update image in a display area for displaying the selected part” is referred to as “overlaying an image on the selected part”. .

まず、図6の(a)に示すように、ハーフミラー側に立つユーザから見た表示装置の画面上の選択部位の高さ(縦方向の長さ)Aを求める。   First, as shown in FIG. 6A, the height (length in the vertical direction) A of the selected portion on the screen of the display device viewed from the user standing on the half mirror side is obtained.

Aは、以下の式で求めることができる。   A can be obtained by the following equation.

A={E−(H+V)}/2+(H+V)−(E+H)/2=V/2
ここで、Eは、ユーザの眼の高さを示し、Vは鏡像の選択部位の高さ、Hは鏡像の方から地面までの距離から選択部位の高さVを引いた高さを示す。
A = {E− (H + V)} / 2+ (H + V) − (E + H) / 2 = V / 2
Here, E indicates the height of the user's eyes, V indicates the height of the selected portion of the mirror image, and H indicates the height obtained by subtracting the height V of the selected portion from the distance from the mirror image to the ground.

次に、ハーフミラー側に立つユーザから見た表示装置の画面上の選択部位の位置(地面からの高さ)Bを求める。   Next, the position (height from the ground) B of the selected part on the screen of the display device as viewed from the user standing on the half mirror side is obtained.

Bは、以下の式で求めることができる。   B can be obtained by the following equation.

B=H+(E−2H)/2=(E+H)/2
続いて、図6の(b)に示すように、ハーフミラー側に立つユーザから見た表示装置の画面上の選択部位の幅(横方向の長さ)Cを求める。
B = H + (E−2H) / 2 = (E + H) / 2
Subsequently, as shown in FIG. 6B, the width (lateral length) C of the selected portion on the screen of the display device viewed from the user standing on the half mirror side is obtained.

Cは、以下の式で求めることができる。   C can be obtained by the following equation.

C=W/2
ここで、Wは、ユーザの鏡像の選択部位における幅を示す。
C = W / 2
Here, W indicates the width of the selected part of the mirror image of the user.

以上のようにして求めた選択部位の高さA,幅Cとなるように、表示装置に表示すべき画像サイズを調整し、選択部位の位置Bに表示させ、さらに、画像形状を選択部位の形状に合わせることで、ユーザは自分の鏡像に重ね合わせた画像を違和感なく見ることができる。   The image size to be displayed on the display device is adjusted so as to be the height A and width C of the selected part obtained as described above, and is displayed at the position B of the selected part. By matching the shape, the user can see the image superimposed on his mirror image without a sense of incongruity.

また、鏡像における選択部位にハイライト画像を重ねてハイライト表示を実現する点について説明したが、ハイライト画像を重ねるのではなく、選択部位を点滅させるようにしてハイライト表示を実現してもよい。   In addition, the highlight display is realized by overlaying the highlight image on the selected part in the mirror image, but the highlight display can be realized by blinking the selected part instead of overlaying the highlight image. Good.

選択部位に画像を重ねた状態で、鏡像が動いた場合、鏡像の動きに追従して重ねた画像を表示し続けるようにしてもよい。この場合、鏡像が動いて、選択部位が隠れる状態、すなわち、選択部位がハーフミラーに映し出されない状態になると、選択部位に重ねて表示している画像も隠れるようにする。   When the mirror image moves while the image is superimposed on the selected part, the superimposed image may be continuously displayed following the movement of the mirror image. In this case, when the mirror image moves and the selected part is hidden, that is, the selected part is not projected on the half mirror, the image displayed on the selected part is also hidden.

また、ユーザが、選択部位に重ねて表示された画像を触るようなジェスチャーを行うことで、当該画像を移動させるようにしてもよい。例えば、画像が衣服の場合、ユーザは、鏡像を見ながら、衣服を触るようなジェスチャーで衣服の画像を移動させる。   Alternatively, the user may move the image by performing a gesture such as touching the image displayed over the selected region. For example, when the image is clothing, the user moves the clothing image with a gesture of touching the clothing while looking at the mirror image.

なお、選択部位に重ねる画像は、上述したように、通信ネットワークを介して管理サーバ2から取得している。これにより、取得する画像を衣服とした場合、ユーザは、未だ購入していない衣服などの商品の画像を取得し、コーディネートを仮想的に行うことができる。   Note that the image to be superimposed on the selected part is acquired from the management server 2 via the communication network as described above. Thereby, when the acquired image is a garment, the user can acquire an image of a product such as a garment that has not yet been purchased and can virtually coordinate it.

また、選択部位に重ねる画像を、管理サーバ2からではなく、自分が所有している衣服などを撮影した画像とすることもできる。この場合には、情報取得部21が取得する画像は、管理サーバ2ではなく、装置内に、ユーザが撮影した画像を格納して、必要に応じて画像を読み出すようにすればよい。   Further, the image to be superimposed on the selected part can be an image obtained by photographing clothes and the like owned by the user, not from the management server 2. In this case, the image acquired by the information acquisition unit 21 may be stored in the apparatus instead of the management server 2 and the image captured by the user may be read out as necessary.

これにより、自分が持っている衣服のコーディネートを仮想的に行うことができるので、実際に衣服を着用する手間を省くことができる。   As a result, the clothes that the user has can be virtually coordinated, so that the trouble of actually wearing the clothes can be saved.

また、ユーザが自身で所有している衣服を着用した状態で、表示装置101のカメラ13にて撮影して、撮影映像からユーザ自身で選択部位を特定して、特定した選択部位に対応する衣服の映像を抜き出して、コーディネート用の画像として保存するようにしてもよい。この場合には、自分が持っている衣服を着用することなく、コーディネートすることが可能である。   In addition, the user wears clothes that the user owns, captures the image with the camera 13 of the display device 101, identifies the selected region by the user himself from the captured image, and corresponds to the identified selected region. May be extracted and stored as an image for coordination. In this case, it is possible to coordinate without wearing the clothes that you have.

(変形例)
(表示装置の詳細)
図7は、選択部位をジェスチャーで特定するのではなく、音声で特定するための構成を備えた表示装置102の概略を示すブロック図である。
(Modification)
(Details of display device)
FIG. 7 is a block diagram showing an outline of the display device 102 having a configuration for specifying a selected part not by a gesture but by a voice.

表示装置102は、基本的に、図1に示す表示装置101と同じ構成であるが、音声で特定するための構成として、操作部位検出部23の代わりに、音声認識処理部27、音声認識データベース28を備えている。   The display device 102 basically has the same configuration as the display device 101 shown in FIG. 1, but as a configuration for specifying by voice, instead of the operation site detection unit 23, a voice recognition processing unit 27, a voice recognition database. 28.

音声認識処理部27は、マイク14から入力される音声データを認識し、認識した音声データに対応するコマンドを選択部位特定部26に出力する。コマンドは、音声認識データベース28において、音声データに対応付けられて格納されている。ここで、コマンドは選択部位を特定するためのコマンドである。つまり、マイク14から入力された音声データを認識し、認識した音声データに対応するコマンドを音声認識データベース28から読み出して、選択部位特定部26に送ることで、当該選択部位特定部26は、送られたコマンドに対応する部位を選択部位として特定する。   The voice recognition processing unit 27 recognizes voice data input from the microphone 14 and outputs a command corresponding to the recognized voice data to the selected part specifying unit 26. The command is stored in the voice recognition database 28 in association with the voice data. Here, the command is a command for specifying the selected part. That is, by recognizing the voice data input from the microphone 14, the command corresponding to the recognized voice data is read from the voice recognition database 28 and sent to the selected site specifying unit 26, so that the selected site specifying unit 26 transmits the command. A part corresponding to the given command is specified as a selected part.

このように、音声により選択部位の特定を行うこと以外の処理は、前記の表示装置101と同じ処理である。   Thus, the processes other than specifying the selected part by voice are the same processes as those of the display device 101 described above.

以上の説明では、コーディネートすべき帽子を、ユーザが最初被っていないことを想定していたが、ユーザが予め帽子を被っている場合には、予め被っている帽子がコーディネートする帽子の画像の表示を邪魔する虞がある。   In the above explanation, it was assumed that the user did not wear the hat to be coordinated first, but when the user has previously worn the hat, display of the hat image coordinated by the hat that has been worn beforehand There is a risk of disturbing.

また、ユーザが予め着用している上着が長袖であり、コーディネートすべき上着が半袖の場合にも、元の長袖の上着が、コーディネートする上着の画像の表示を邪魔する虞がある。   In addition, even when the outer garment worn by the user is a long sleeve and the outer garment to be coordinated is a short sleeve, the original long sleeve garment may interfere with the display of the image of the outer garment to be coordinated. .

このように、ユーザが最初に着用している衣服や帽子については、選択部位として特定された段階で、ハイライト表示用の画像によって隠すように画像処理を行うようにすればよい。これにより、コーディネートする衣服や帽子などの画像は、元の衣服や帽子に邪魔されることなく、表示させることができる。
〔実施形態2〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
As described above, the clothing or hat that the user first wears may be subjected to image processing so as to be hidden by the highlight display image at the stage when it is specified as the selected portion. As a result, images of clothes and hats to be coordinated can be displayed without being disturbed by the original clothes and hats.
[Embodiment 2]
The following will describe another embodiment of the present invention. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

(表示装置の詳細)
図8は、本実施形態に係る表示装置103の概略を示すブロック図である。
(Details of display device)
FIG. 8 is a block diagram illustrating an outline of the display device 103 according to the present embodiment.

表示装置103は、前記実施形態1の図1に示す表示装置101とほぼ同じであり、表示部11として液晶表示パネルを用いて、さらに、当該液晶表示パネルを背面から光を照射するバックライト装置(光量調整手段)30を備えている点で異なる。   The display device 103 is substantially the same as the display device 101 shown in FIG. 1 of the first embodiment, and uses a liquid crystal display panel as the display unit 11 and further irradiates the liquid crystal display panel with light from the back side. The difference is that (light amount adjusting means) 30 is provided.

本実施形態では、表示装置103の前に立つ人物(ユーザ)を撮影した撮影映像を拡大または縮小表示する例について説明する。通常、表示装置103では、鏡像と撮影映像との大きさは同じで重なっている。しかしながら、ユーザを撮影したユーザの撮影映像を拡大または縮小した場合、ユーザの鏡像と、ユーザの撮影映像との大きさが異なるため、ユーザの撮影映像を適切にみるためには、ユーザの鏡像を映し出さないように工夫する必要がある。   In the present embodiment, an example will be described in which a captured image obtained by photographing a person (user) standing in front of the display device 103 is enlarged or reduced. Normally, in the display device 103, the mirror image and the captured image have the same size and overlap. However, when the captured image of the user who captured the user is enlarged or reduced, the mirror image of the user is different from the size of the captured image of the user. It is necessary to devise so as not to project.

ここで、表示部11に液晶表示パネルを用い、当該液晶表示パネルの背面をバックライト装置30により光照射することで、表示部11の前面に配されたハーフミラー12におけるミラーとしての機能を調整してもよい。この場合には、バックライト装置30による光照射の強度を上げて、表示部11から照射される光を強くすることで、ハーフミラー12におけるミラーとしての機能を低下させ、当該表示部11に表示された映像を鏡像に邪魔されることなく、当該表示装置103の前に立つ人物に見せることができる。また、特に光を強くしたい箇所では液晶表示パネルの表示を白色に近づけるとミラーとしての機能を低下させるのに効果的である。逆に、バックライト装置30による光照射の強度を下げて、表示部11から照射される光を弱くすることで、ハーフミラー12におけるミラーとしての機能を向上させ、当該表示部11に表示された映像に鏡像を重ねた状態で、当該表示装置103の前に立つ人物に見せることができる。光を強くするのと同様に、特に光を弱くしたい箇所では液晶表示パネルの表示を黒色に近づけるのもミラーとしての機能向上に効果的である。   Here, a liquid crystal display panel is used as the display unit 11, and the back surface of the liquid crystal display panel is irradiated with light by the backlight device 30, thereby adjusting the function as a mirror in the half mirror 12 disposed on the front surface of the display unit 11. May be. In this case, by increasing the intensity of light irradiation by the backlight device 30 and increasing the light irradiated from the display unit 11, the function as a mirror in the half mirror 12 is reduced, and the display unit 11 displays the light. The displayed video can be shown to a person standing in front of the display device 103 without being disturbed by the mirror image. In particular, in a place where it is desired to increase the light intensity, it is effective to reduce the function as a mirror if the display on the liquid crystal display panel is close to white. Conversely, by reducing the intensity of light irradiation by the backlight device 30 and weakening the light irradiated from the display unit 11, the function as a mirror in the half mirror 12 is improved and displayed on the display unit 11. It can be shown to a person standing in front of the display device 103 with a mirror image superimposed on the video. As in the case of increasing the intensity of light, it is effective for improving the function as a mirror to make the display of the liquid crystal display panel close to black especially in a position where it is desired to decrease the intensity of light.

表示装置103の表示面の大きさや人物の立つ位置によって、表示面に打ち出される鏡像は、人物の上半身であったり、全身であったりする。例えば、鏡像が全身、あるいは上半身の場合、選択部位に表示させる画像が衣服の場合には、ユーザが所望する選択部位の特定は容易であるが、眼鏡や時計などの小物の場合には、ユーザが所望する選択部位を適切に選択することができない虞がある。   Depending on the size of the display surface of the display device 103 and the position where the person stands, the mirror image projected on the display surface may be the upper body of the person or the whole body. For example, when the mirror image is the whole body or upper body, if the image to be displayed on the selected part is clothing, it is easy to specify the selected part desired by the user, but in the case of small items such as glasses and watches, the user However, there is a possibility that a desired selection site cannot be appropriately selected.

(選択部位の拡大処理)
そこで、ユーザが選択部位を特定する際に、表示装置103に表示されているユーザの撮影映像を拡大表示することが考えられる。
(Enlargement process of selected part)
Therefore, when the user specifies the selected part, it is conceivable to enlarge and display the user's captured video displayed on the display device 103.

図9の(a)は、ユーザの鏡像16とユーザの撮影映像16’とが重なっている状態を示す図であり、図9の(b)は、ユーザの鏡像16を映し出さずに、拡大したユーザの撮影映像16’のみを表示した状態を示す図である。   FIG. 9A is a diagram illustrating a state in which the user's mirror image 16 and the user's captured image 16 ′ overlap each other, and FIG. 9B is an enlarged view of the user's mirror image 16 without being projected. It is a figure which shows the state which displayed only the user's picked-up image | video 16 '.

つまり、ユーザが眼鏡を選択部位として特定しようとする場合、図9の(a)に示すように、表示装置103の表示面11aに表示されたユーザの撮影映像16’を拡大して、且つ、バックライト装置30の照射光の光量をアップさせて、鏡像を映さないようにして、図9の(b)に示すような状態とし、眼鏡に対応する選択部位16bを特定する。もちろん、特定した選択部位16bは、ハイライト表示する。   That is, when the user intends to specify glasses as the selected part, as shown in FIG. 9A, the user's captured video 16 ′ displayed on the display surface 11a of the display device 103 is enlarged, and The amount of irradiation light of the backlight device 30 is increased so as not to reflect a mirror image, and the state shown in FIG. 9B is set, and the selected portion 16b corresponding to the glasses is specified. Of course, the specified selected part 16b is highlighted.

このように、撮影映像16’を拡大すれば、選択部位が小さいものであても、容易に特定することができる。   In this way, by enlarging the captured video 16 ', even if the selected part is small, it can be easily identified.

眼鏡に対応する選択部位16b’を特定した後は、再度、図9の(a)に示す状態に戻して、選択部位16b’に表示されている眼鏡に対応する画像を取得して、画像を順次変更して、眼鏡のコーディネートを確認する。   After specifying the selected portion 16b ′ corresponding to the glasses, the state is returned to the state shown in FIG. 9A again, and an image corresponding to the glasses displayed on the selected portion 16b ′ is acquired, and the image is displayed. Change sequentially to check the coordinates of the glasses.

なお、選択部位16b’を特定した後、眼鏡のコーディネートの確認を、図9の(a)に示す状態に戻さず、図9の(b)に示す状態で行ってもよい。   Note that after specifying the selected portion 16 b ′, the coordinate adjustment of the glasses may be performed in the state shown in FIG. 9B instead of returning to the state shown in FIG.

一方、図9の(a)に示すように、ユーザの鏡像16の下半身が写し出されていない状態で、靴をコーディネートしたい場合、上記の処理とは逆の処理、すなわち、撮影映像16’の縮小処理を行う。   On the other hand, as shown in FIG. 9 (a), when the user wants to coordinate shoes without the lower body of the mirror image 16 being projected, the process opposite to the above process, that is, the reduction of the photographed image 16 ′ is performed. Process.

(選択部位の縮小処理)
そこで、ユーザが選択部位を特定する際に、表示装置103に表示されているユーザの撮影映像を縮小して全身を表示することが考えられる。
(Selection part reduction processing)
Therefore, when the user specifies the selected part, it is conceivable to display the whole body by reducing the captured video of the user displayed on the display device 103.

図10の(a)は、ユーザの鏡像16とユーザの撮影映像16’とが重なっている状態を示す図であり、図10の(b)は、ユーザの鏡像16を映し出さずに、縮小したユーザの撮影映像16’のみを表示した状態を示す図である。   FIG. 10A is a diagram showing a state in which the user's mirror image 16 and the user's captured image 16 ′ overlap each other, and FIG. 10B is a view showing that the user's mirror image 16 is not projected and is reduced. It is a figure which shows the state which displayed only the user's picked-up image | video 16 '.

つまり、ユーザが、今履いている靴を選択部位として特定しようとする場合、図10の(a)に示すように、表示装置103の表示面11aに表示されたユーザの撮影映像16’を縮小して、且つ、バックライト装置30の照射光の光量をアップさせて、鏡像16を映さないようにして、図10の(b)に示すような状態とし、操作部位16a’によって靴に対応する選択部位16c’を特定する。もちろん、特定した選択部位16c’は、ハイライト表示される。   In other words, when the user intends to specify the currently worn shoe as the selected part, as shown in FIG. 10A, the user's captured video 16 ′ displayed on the display surface 11a of the display device 103 is reduced. In addition, the amount of irradiation light of the backlight device 30 is increased so that the mirror image 16 is not reflected, and the state shown in FIG. 10B is obtained, and the shoe corresponds to the shoe by the operation part 16a ′. The selected part 16c ′ is specified. Of course, the specified selected part 16c 'is highlighted.

このように、撮影映像16’を縮小すれば、表示面11aに映し出されていない、人物の下半身まで表示することが可能となる。これにより、表示面11aに映し出されていない人物の領域における選択部位を特定することが可能となる。   Thus, if the captured video 16 'is reduced, it is possible to display the lower half of the person that is not projected on the display surface 11a. As a result, it is possible to specify the selected part in the area of the person that is not projected on the display surface 11a.

靴を特定した後は、図10の(b)に示す状態で、靴に対応する画像を取得して、画像を順次変更して、靴のコーディネートを確認する。   After specifying the shoes, in the state shown in FIG. 10B, images corresponding to the shoes are acquired, the images are sequentially changed, and the coordinates of the shoes are confirmed.

以上のように、上記実施形態1,2の表示装置101〜103によれば、ユーザは、コーディネートの対象となる帽子、服、靴などを自分の鏡像が表示された状態で選択できる。このため、ユーザは、コーディネートの対象物を直感的に選択できるという効果を奏する。   As described above, according to the display devices 101 to 103 of the first and second embodiments, the user can select a hat, clothes, shoes, and the like to be coordinated in a state where his / her mirror image is displayed. For this reason, there exists an effect that the user can select the target object of coordination intuitively.

以下の実施形態3では、表示装置101の前に居る人物の鏡像が映し出されている領域(人物領域)以外の領域に白色画像を表示することで、補助光とする例について説明する。   In the following third embodiment, an example in which a white image is displayed in a region other than a region (person region) where a mirror image of a person in front of the display device 101 is projected will be described as auxiliary light.

〔実施形態3〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、本実施形態に係る表示装置として、前記実施形態1の表示装置101(102)、実施形態2の表示装置103の何れも用いることができるため、表示装置101を例に説明する。
[Embodiment 3]
The following will describe another embodiment of the present invention. Note that, as the display device according to the present embodiment, any of the display device 101 (102) of the first embodiment and the display device 103 of the second embodiment can be used. Therefore, the display device 101 will be described as an example.

図11は、表示装置101における、人物の鏡像16の表示領域である人物領域11b以外の領域11cに白色画像を表示させて補助光とした表示面の一例を示している。   FIG. 11 shows an example of a display surface on the display device 101 that displays a white image in an area 11c other than the person area 11b, which is a display area of the mirror image 16 of the person, and serves as auxiliary light.

上記表示装置101を鏡台の鏡として使用した場合、鏡台の鏡でユーザが映っていない一部の領域11cを白色画像にし、補助光として利用する。補助光として利用する領域11cは、予め固定した領域に設定してもよいし、任意に設定するようにしてもよい。例えば表示面11a上の領域を指定するように、ユーザが手を動かすことで、補助光として利用する領域11cを指定することが考えられる。   When the display device 101 is used as a mirror of a table, a part of the region 11c that is not reflected by the user is converted into a white image and used as auxiliary light. The area 11c used as auxiliary light may be set to a fixed area in advance or may be set arbitrarily. For example, it is conceivable that the user designates the region 11c used as auxiliary light by moving his / her hand so as to designate the region on the display surface 11a.

このように、補助光として利用する領域11cを指定することで、ユーザは、自分の鏡像16においてどのように光が照射されているかを確認することができる。   Thus, by designating the region 11c used as auxiliary light, the user can confirm how light is irradiated in his / her mirror image 16.

また、補助光として利用する領域11cに表示する画像を、白色画像ではなく、電球色等の色味の異なる色の画像とすることで、補助光の色を変えることができる。これにより、例えば、鏡台で化粧をしているユーザは、異なる色味の補助光を用いることで、化粧の見え具合を色味毎に確認することができる。   Moreover, the color of auxiliary light can be changed by making the image displayed on the area | region 11c utilized as auxiliary light into the image of the color from which hues, such as a light bulb color, differ instead of a white image. Thereby, for example, the user who is applying makeup on the table can check the appearance of the makeup for each color by using auxiliary light of different colors.

以下の実施形態4では、表示装置101の前に居る人物の鏡像が映し出されている領域(人物領域)以外の領域に、生活情報(交通情報、ニュースなど)を表示する例について説明する。   In a fourth embodiment below, an example in which life information (traffic information, news, etc.) is displayed in an area other than an area (person area) where a mirror image of a person in front of the display device 101 is displayed will be described.

〔実施形態4〕
本発明の他の実施形態について説明すれば、以下のとおりである。なお、本実施形態に係る表示装置として、前記実施形態1の表示装置101(102)、実施形態2の表示装置103の何れも用いることができるため、表示装置101を例に説明する。
[Embodiment 4]
The following will describe another embodiment of the present invention. Note that, as the display device according to the present embodiment, any of the display device 101 (102) of the first embodiment and the display device 103 of the second embodiment can be used. Therefore, the display device 101 will be described as an example.

本実施形態では、表示装置において、鏡像の表領域以外の領域に表示されている、生活情報(交通情報、ニュース記事)などを表示している画像をユーザが選択し、ユーザが見やすい位置に移動させたり、大きさを変えたりする点について説明する。   In the present embodiment, on the display device, the user selects an image displaying life information (traffic information, news articles) displayed in an area other than the mirror image surface area, and moves to a position where the user can easily view the information. I will explain the point of changing the size.

例えば、表示装置101(鏡)に映った自分の鏡像16を見ながら、生活情報を表示している画像を選択する。例えば、ユーザは、鏡を見ながら所望する生活情報を表示している画像に手を重ねる。一定時間重ねると手の動きに追従して画像が移動し、例えば自分の正面(鏡像16が映し出されている領域)にニュース記事を表示した画像が移動できる。このようにユーザの手の動きに追従する画像は、歯を磨くときはあごの下に置き、ネクタイを締めるときは顔の上に置き、特にニュースに用がないときは鏡の隅に小さくして追いやることができる。   For example, an image displaying life information is selected while viewing the mirror image 16 of the user reflected on the display device 101 (mirror). For example, the user puts his hand on an image displaying desired life information while looking at a mirror. When the images overlap for a certain period of time, the image moves following the movement of the hand. For example, the image displaying the news article can be moved in front of itself (the area where the mirror image 16 is displayed). The image that follows the movement of the user's hand should be placed under the chin when brushing teeth, placed on the face when tightening the tie, and reduced to the corner of the mirror, especially when news is not available. Can be driven.

図12の(a)〜(c)は、人物領域以外の領域に生活情報が表示されている画像の処理の流れを示す図である。   (A)-(c) of FIG. 12 is a figure which shows the flow of a process of the image by which life information is displayed on areas other than a person area.

例えば図12の(a)は、生活情報が表示されている画像17a〜17dのうち、交通情報が表示されている画像17dがユーザの手の動きによって指定された状態を示している。   For example, FIG. 12A shows a state in which the image 17d on which traffic information is displayed is designated by the movement of the user's hand among the images 17a to 17d on which life information is displayed.

この状態で、ユーザが手を動かして画像17dを、自分の正面の位置(鏡像16が映し出される領域(人物領域11b))まで移動させ、図12の(b)に示すように、生活情報の詳細が表示されてように拡大した画像17d’を、人物領域11bに表示する。このとき、鏡像16の代わりに、表示装置101の前に居る人物をカメラ13で撮影した撮影映像16’を元の画像17dが表示された位置に表示する。   In this state, the user moves his / her hand to move the image 17d to a position in front of himself / herself (an area where the mirror image 16 is projected (person area 11b)), and as shown in FIG. The image 17d ′ enlarged so that the details are displayed is displayed in the person area 11b. At this time, instead of the mirror image 16, a photographed video 16 'obtained by photographing the person in front of the display device 101 with the camera 13 is displayed at the position where the original image 17d is displayed.

そして、生活情報を確認し終わり、再び正面に鏡像16を映し出すため、ユーザの手を撮影映像16’に重ねると、図12の(c)に示すように、撮影映像16’が選択されたことを示すリング18が表示され、この状態で所定時間経過すると、再び、図12の(a)に示すように、鏡像16が表示される。   Then, after confirming the life information, the mirror image 16 is again displayed on the front, and when the user's hand is placed on the photographed image 16 ′, the photographed image 16 ′ is selected as shown in FIG. 12 (c). When a predetermined time elapses in this state, a mirror image 16 is displayed again as shown in FIG.

上記の処理を繰り返すことで、表示装置101の前に居る人物は、自分の姿を確認しながら、必要な情報を見やすい位置で確認することができる。   By repeating the above processing, a person in front of the display device 101 can confirm necessary information at a position where it can be easily seen while confirming his / her appearance.

以上の各実施形態において、表示装置101〜105では、ミラー機能を実現するための手段としてハーフミラー12を用いているが、ミラー機能を実現するための手段としてはハーフミラー12に限定されるものではない。ハーフミラー12は、光の透過率と光の反射率とが等しいが、光の透過率と光の反射率とが異なる光透過反射部材であってもよい。   In each of the above embodiments, the display devices 101 to 105 use the half mirror 12 as a means for realizing the mirror function, but the means for realizing the mirror function is limited to the half mirror 12. is not. The half mirror 12 may be a light-transmitting / reflecting member in which the light transmittance and the light reflectance are equal, but the light transmittance and the light reflectance are different.

例えば、表示装置101〜105は、映り込む鏡像を利用していることから、ハーフミラー12におけるミラーの材料や厚みを調整することにより、可視波長域全域に亘る反射率が少なくとも30%以上あることが望ましく、更には50%以上あることが望ましい。   For example, since the display devices 101 to 105 use a mirror image to be reflected, the reflectance over the entire visible wavelength range is at least 30% or more by adjusting the mirror material or thickness of the half mirror 12. It is desirable that it be 50% or more.

〔ソフトウェアによる実現例〕
表示装置101〜103の制御ブロック(制御装置20)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (control device 20) of the display devices 101 to 103 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or software using a CPU (Central Processing Unit). It may be realized by.

後者の場合、制御装置20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the control device 20 includes a CPU that executes instructions of a program that is software that implements each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU), or A storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る表示装置は、光の一部が透過し、一部が反射する光透過反射部材(ハーフミラー12)を、表示面11a上に重ねて配置した表示装置において、上記光透過反射部材の光反射面側に存在する人物の像が上記光反射面側に映る人物領域を検出する領域検出手段(人物領域検出部24)と、上記光透過反射部材(ハーフミラー12)の光反射面側に存在する人物を撮影して得られた人物映像を、上記領域検出手段が検出した人物領域11bに上記光透過反射部材(ハーフミラー12)を透過するように表示させる表示制御手段(表示制御部25)と、上記人物映像から検出された人体の各部位のうち、一つの部位を操作部位とし、上記人物領域11bにおける、当該操作部位の表示領域に少なくとも一部重なる表示領域である特定領域に表示された部位を選択部位として特定する特定手段(選択部位特定部26)と、を備え、上記表示制御手段(表示制御部25)は、上記特定領域に、上記操作部位の動きのみに応じて取得した更新用の画像を表示させることを特徴としている。
[Summary]
In the display device according to the first aspect of the present invention, in the display device in which a light transmitting / reflecting member (half mirror 12) that transmits part of light and reflects part of the light is reflected on the display surface 11a, A region detecting means (person region detecting unit 24) for detecting a person region in which an image of a person existing on the light reflecting surface side of the transmitting / reflecting member is reflected on the light reflecting surface side; and a light transmitting / reflecting member (half mirror 12) Display control means for displaying a person image obtained by photographing a person existing on the light reflecting surface side so that the person area 11b detected by the area detecting means transmits the light transmitting / reflecting member (half mirror 12). (Display control unit 25) and a display region that overlaps at least a part of the display region of the operation region in the human region 11b with one of the regions of the human body detected from the person image as the operation region. is there Specifying means (selected part specifying part 26) for specifying a part displayed in the specific area as a selected part, and the display control means (display control part 25) only moves the operation part in the specific area. It is characterized by displaying an image for update acquired according to the above.

上記構成によれば、表示制御手段が、人物の像が光透過反射部材を透過するように表示面に表示した人物領域のうち、人体の一つの部位である操作部位により特定された人体の部位に対応する領域に、当該操作部位の動作に応じて取得した画像を表示させていることで、ユーザは自分の体の一部である操作部位(手)を動作させるだけで、所望する部位に所望する画像を表示させることができる。   According to the above configuration, the part of the human body specified by the operation part that is one part of the human body among the human regions displayed on the display surface so that the image of the person passes through the light transmitting and reflecting member. By displaying the image acquired according to the operation of the operation part in the area corresponding to the user, the user can move the operation part (hand) that is a part of his body to the desired part. A desired image can be displayed.

これにより、人物映像を、鏡像に重ねて表示したときに、操作部位の動きのみにより更新用の画像を表示することができるので、リモコン操作や、タッチパネル操作のような煩わしい操作を行うことなく、当該鏡像に重ねる画像を変更できる。   As a result, when a human image is displayed superimposed on a mirror image, an image for updating can be displayed only by the movement of the operation part, so that a troublesome operation such as a remote control operation or a touch panel operation is not performed. The image superimposed on the mirror image can be changed.

従って、鏡としての機能を阻害することなく、鏡像に重ねる画像を任意に変更することができるという効果を奏する。   Therefore, there is an effect that the image to be superimposed on the mirror image can be arbitrarily changed without hindering the function as a mirror.

本発明の態様2に係る表示装置は、上記態様1において、上記表示制御手段(表示制御部25)は、上記特定領域に、上記操作部位の動きに応じて取得した画像を表示させる前に、ハイライト表示用の画像を表示させてもよい。   The display device according to aspect 2 of the present invention is the display apparatus according to aspect 1, in which the display control unit (display control unit 25) displays the image acquired according to the movement of the operation part in the specific area. An image for highlight display may be displayed.

上記構成によれば、ユーザは、ハイライト表示されている部位を見るだけで、自分が選択した部位であるか否かを容易に判断することができる。   According to the above-described configuration, the user can easily determine whether or not the selected part is just by looking at the highlighted part.

本発明の態様3に係る表示装置は、上記態様2において、上記表示制御手段(表示制御部25)は、上記特定領域がハイライト表示されている間に、当該特定領域への画像表示の指示を受け付けると、当該特定領域に、上記更新用の画像を表示させてもよい。   In the display device according to aspect 3 of the present invention, in the aspect 2, the display control unit (display control unit 25) instructs the specific area to display an image while the specific area is highlighted. May be displayed in the specific area.

上記構成によれば、ユーザの意図するタイミングで、特定領域に更新用の画像を表示させることが可能となる。   According to the above configuration, an update image can be displayed in the specific area at a timing intended by the user.

本発明の態様4に係る表示装置は、上記態様1〜3の何れか1態様において、上記表示制御手段(表示制御部25)は、上記特定領域のサイズに合わせて上記更新用の画像のサイズを調整してもよい。   The display device according to aspect 4 of the present invention is the display device according to any one of the aspects 1 to 3, wherein the display control unit (display control unit 25) is configured to adjust the size of the image for update according to the size of the specific area. May be adjusted.

上記構成によれば、特定領域のサイズに合わせて更新用の画像サイズを調整することで、更新用の画像を鏡像と重ね合わせた場合の違和感を少なくできる。   According to the above configuration, by adjusting the image size for update in accordance with the size of the specific area, it is possible to reduce the uncomfortable feeling when the image for update is superimposed on the mirror image.

本発明の態様5に係る表示装置は、上記態様1〜4の何れか1態様において、上記表示制御手段(表示制御部25)は、上記人物映像の表示サイズを変更もよい。   In the display device according to aspect 5 of the present invention, in any one of aspects 1 to 4, the display control means (display control unit 25) may change the display size of the person video.

上記の構成によれば、人物映像の表示サイズを変更して表示させることで、表示面のサイズに応じたサイズの人物映像を表示させることができる。例えば、表示面に人物の上半身のみが表示され、下半身を確認したいときには、全身が映るように表示サイズを縮小して人物映像を表示させ、表示面に人物の全身が表示され、ある部位を確認したいときには、ある部位が拡大するように表示サイズを拡大した人物映像を表示させることができる。   According to the above configuration, it is possible to display a person image having a size corresponding to the size of the display surface by changing and displaying the display size of the person image. For example, when only the upper body of a person is displayed on the display surface and you want to check the lower body, display the person image with the display size reduced so that the whole body is displayed, and display the whole body of the person on the display surface. When it is desired to do so, it is possible to display a human image whose display size is enlarged so that a certain part is enlarged.

これにより、ユーザは、所望する画像を表示させるための領域を容易に特定することが可能となる。   Thereby, the user can easily specify an area for displaying a desired image.

本発明の態様6に係る表示装置は、上記態様5において、上記表示面11aから上記光透過反射部材に向かって照射する光量を調整する光量調整手段(バックライト装置30)をさらに備え、上記光量調整手段(バックライト装置30)は、上記表示制御手段(表示制御部25)によって、人物映像の表示サイズを変更するとき、上記光透過反射部材に向かって照射する光量を上げることが好ましい。   The display device according to aspect 6 of the present invention further includes a light amount adjusting means (backlight device 30) for adjusting the amount of light emitted from the display surface 11a toward the light transmitting / reflecting member in the above aspect 5. The adjusting means (backlight device 30) preferably increases the amount of light emitted toward the light transmitting / reflecting member when the display control means (display control unit 25) changes the display size of the person video.

上記の構成によれば、表示制御手段によって、人物映像の表示サイズを変更するとき、光透過反射部材に向かって照射する光量を上げることで、当該光透過反射部材に映し出された鏡像を確認し難くなる。これにより、人物映像のみを表示面に表示させることができるので、人物映像を拡大しても、縮小してもユーザは当該人物映像を確認することができる。   According to the above configuration, when the display size of the person image is changed by the display control unit, the mirror image projected on the light transmission / reflection member is confirmed by increasing the amount of light irradiated toward the light transmission / reflection member. It becomes difficult. As a result, since only the person video can be displayed on the display surface, the user can check the person video regardless of whether the person video is enlarged or reduced.

本発明の態様7に係る表示装置は、上記態様1〜6の何れか1態様において、上記特定領域に表示させる画像を取得する画像取得手段(情報取得部21)をさらに備え、上記画像取得手段(情報取得部21)は、通信ネットワークを介して、画像を管理する管理サーバ2から画像を取得してもよい。   A display device according to aspect 7 of the present invention is the display apparatus according to any one of aspects 1 to 6, further comprising an image acquisition unit (information acquisition unit 21) that acquires an image to be displayed in the specific region. (Information acquisition part 21) may acquire an image from management server 2 which manages an image via a communication network.

上記の構成によれば、表示装置をどこに持っていても、同じ画像を取得することが可能となるため、どこでも、衣服などのコーディネートを行うことが可能となる。   According to the above configuration, the same image can be acquired regardless of where the display device is held, and therefore, clothes and the like can be coordinated everywhere.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、ミラー機能付きの表示装置に利用でき、特に、鏡像と撮影映像に加えて、ユーザが指定する領域に画像を重ねて表示する表示装置に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used for a display device with a mirror function, and in particular, can be used for a display device that displays an image superimposed on a region designated by a user in addition to a mirror image and a captured video.

2 管理サーバ
11 表示部
11a 表示面
11b 人物領域
11c 領域
12 ハーフミラー(光透過反射部材)
13 カメラ
14 マイク
15 スピーカ
16 鏡像
16’ 撮影映像
16a 指先
16a’ 操作部位
16b 選択部位
16b’ 選択部位
16c’ 選択部位
17a〜17d 画像
18 リング
20 制御装置
21 情報取得部(画像取得手段)
22 人体部位検出部
23 操作部位検出部
24 人物領域検出部(領域検出手段)
25 表示制御部(表示制御手段)
26 選択部位特定部(特定手段)
27 音声認識処理部
28 音声認識データベース
30 バックライト装置(光量調整手段)
101 表示装置
102 表示装置
103 表示装置
2 management server 11 display unit 11a display surface 11b person region 11c region 12 half mirror (light transmission / reflection member)
13 Camera 14 Microphone 15 Speaker 16 Mirror image 16 'Shooting image 16a Fingertip 16a' Operation part 16b Selection part 16b 'Selection part 16c' Selection part 17a-17d Image 18 Ring 20 Control device 21 Information acquisition part (image acquisition means)
22 human body part detection unit 23 operation part detection unit 24 human region detection unit (region detection means)
25 Display control unit (display control means)
26 Selected part specifying part (specifying means)
27 Voice recognition processing unit 28 Voice recognition database 30 Backlight device (light quantity adjusting means)
101 display device 102 display device 103 display device

Claims (5)

光の一部が透過し、一部が反射する光透過反射部材を、表示面上に重ねて配置した表示装置において、
上記光透過反射部材の光反射面側に存在する人物の像が上記光反射面側に映る人物領域を検出する領域検出手段と、
上記光透過反射部材の光反射面側に存在する人物を撮影して得られた人物映像を、上記領域検出手段が検出した人物領域に上記光透過反射部材を透過するように表示させる表示制御手段と、
上記人物映像から検出された人体の各部位のうち、一つの部位を操作部位とし、上記人物領域における、当該操作部位の表示領域に少なくとも一部重なる表示領域である特定領域に表示された部位を選択部位として特定する特定手段と、
を備え、
上記表示制御手段は、
上記特定領域に、上記操作部位の動きのみに応じて取得した更新用の画像を表示させることを特徴とする表示装置。
In a display device in which a light transmitting / reflecting member that transmits part of light and reflects part of the light is disposed on the display surface,
Area detecting means for detecting a person area in which an image of a person existing on the light reflecting surface side of the light transmitting and reflecting member is reflected on the light reflecting surface side; and
Display control means for displaying a person image obtained by photographing a person existing on the light reflecting surface side of the light transmitting / reflecting member so that the person area detected by the area detecting means is transmitted through the light transmitting / reflecting member. When,
Among the parts of the human body detected from the person image, one part is set as the operation part, and the part displayed in the specific area that is a display area at least partially overlapping the display area of the operation part in the person area A specifying means for specifying the selected part;
With
The display control means includes
A display device, wherein an update image acquired according to only the movement of the operation part is displayed in the specific region.
上記表示制御手段は、
上記特定領域に、上記更新用の画像を表示させる前に、ハイライト表示用の画像を表示させることを特徴とする請求項1に記載の表示装置。
The display control means includes
The display device according to claim 1, wherein a highlight display image is displayed before the update image is displayed in the specific area.
上記表示制御手段は、
上記特定領域がハイライト表示用の画像が表示されている間に、当該特定領域への画像表示の指示を受け付けると、当該特定領域に、上記更新用の画像を表示させることを特徴とする請求項2に記載の表示装置。
The display control means includes
The image for update is displayed in the specific area when an instruction to display an image in the specific area is received while the image for highlight display is displayed in the specific area. Item 3. The display device according to Item 2.
上記表示制御手段は、
上記特定領域のサイズに合わせて上記更新用の画像のサイズを調整することを特徴とする請求項1〜3の何れか1項に記載の表示装置。
The display control means includes
The display device according to claim 1, wherein a size of the update image is adjusted in accordance with a size of the specific area.
上記表示制御手段は、
上記人物映像の表示サイズを変更することを特徴とする請求項1〜4の何れか1項に記載の表示装置。
The display control means includes
The display device according to claim 1, wherein a display size of the person video is changed.
JP2014094205A 2014-04-30 2014-04-30 Display device Active JP6316648B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014094205A JP6316648B2 (en) 2014-04-30 2014-04-30 Display device
PCT/JP2015/062870 WO2015166957A1 (en) 2014-04-30 2015-04-28 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014094205A JP6316648B2 (en) 2014-04-30 2014-04-30 Display device

Publications (2)

Publication Number Publication Date
JP2015210509A true JP2015210509A (en) 2015-11-24
JP6316648B2 JP6316648B2 (en) 2018-04-25

Family

ID=54358684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014094205A Active JP6316648B2 (en) 2014-04-30 2014-04-30 Display device

Country Status (2)

Country Link
JP (1) JP6316648B2 (en)
WO (1) WO2015166957A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312599B2 (en) 2019-04-24 2023-07-21 セコム株式会社 surveillance display

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017090345A1 (en) * 2015-11-24 2017-06-01 エイブル株式会社 Door having mirror and video display function
JP5939603B1 (en) * 2015-11-24 2016-06-22 エイブル株式会社 Door with mirror and video display function

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357103A (en) * 2003-05-30 2004-12-16 Pioneer Electronic Corp Mirror device with display device
JP2006145645A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Information display apparatus
WO2006085385A1 (en) * 2005-02-14 2006-08-17 Fujitsu Limited Sale supporting device
JP2010070889A (en) * 2008-09-22 2010-04-02 Seiren Co Ltd Virtual fitting system
JP2012108805A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system
JP2014509758A (en) * 2011-02-28 2014-04-21 フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド Real-time virtual reflection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357103A (en) * 2003-05-30 2004-12-16 Pioneer Electronic Corp Mirror device with display device
JP2006145645A (en) * 2004-11-17 2006-06-08 Hitachi Ltd Information display apparatus
WO2006085385A1 (en) * 2005-02-14 2006-08-17 Fujitsu Limited Sale supporting device
JP2010070889A (en) * 2008-09-22 2010-04-02 Seiren Co Ltd Virtual fitting system
JP2012108805A (en) * 2010-11-18 2012-06-07 Toshiba Tec Corp Try-on system
JP2014509758A (en) * 2011-02-28 2014-04-21 フェイスケーキ マーケティング テクノロジーズ,インコーポレイテッド Real-time virtual reflection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312599B2 (en) 2019-04-24 2023-07-21 セコム株式会社 surveillance display

Also Published As

Publication number Publication date
WO2015166957A1 (en) 2015-11-05
JP6316648B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
US20210407203A1 (en) Augmented reality experiences using speech and text captions
JP2023179485A (en) Gaze-based user interaction
US10440319B2 (en) Display apparatus and controlling method thereof
JP2011186856A (en) Mobile terminal to be used with head mounted display as external display device
WO2021244145A1 (en) Head-mounted display device interaction method, terminal device, and storage medium
KR20160051384A (en) Wearable device and control method thereof
US20230292077A1 (en) Immersive augmented reality experiences using spatial audio
CN115917474A (en) Rendering avatars in three-dimensional environments
JP6316648B2 (en) Display device
WO2014128751A1 (en) Head mount display apparatus, head mount display program, and head mount display method
US11893154B2 (en) Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JP2015210797A (en) Display divice
US20230066318A1 (en) Handcrafted augmented reality effort evidence
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
KR102171968B1 (en) Virtual Wearing Device for Accessory and Virtual Wearing Program for Accessory
JP2015052895A (en) Information processor and method of processing information
JP6541940B2 (en) Display device
US20240028177A1 (en) Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments
JP7427739B2 (en) display device
US20240103615A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240104859A1 (en) User interfaces for managing live communication sessions
US20240103614A1 (en) Devices, methods, for interacting with graphical user interfaces
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180328

R150 Certificate of patent or registration of utility model

Ref document number: 6316648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150