JP2012103836A - Shadow image display system, shadow image display method and shadow image display program - Google Patents

Shadow image display system, shadow image display method and shadow image display program Download PDF

Info

Publication number
JP2012103836A
JP2012103836A JP2010250663A JP2010250663A JP2012103836A JP 2012103836 A JP2012103836 A JP 2012103836A JP 2010250663 A JP2010250663 A JP 2010250663A JP 2010250663 A JP2010250663 A JP 2010250663A JP 2012103836 A JP2012103836 A JP 2012103836A
Authority
JP
Japan
Prior art keywords
shadow image
shadow
image
image display
animal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010250663A
Other languages
Japanese (ja)
Other versions
JP5631700B2 (en
Inventor
Masataka Banba
正敬 番場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Komuten Co Ltd
Original Assignee
Takenaka Komuten Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Komuten Co Ltd filed Critical Takenaka Komuten Co Ltd
Priority to JP2010250663A priority Critical patent/JP5631700B2/en
Publication of JP2012103836A publication Critical patent/JP2012103836A/en
Application granted granted Critical
Publication of JP5631700B2 publication Critical patent/JP5631700B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a shadow image display system, a shadow image display method and a shadow image display program capable of enhancing attraction as an interface while removing an unpleasant feeling from a person to be used as security information.SOLUTION: The shadow image display system includes a camera 10 for imaging a person, a position detection part 34a for detecting a position of the person based on the imaged image of the person, a profile extraction part 34b for extracting a profile of the person based on the imaged image, a shadow creation part 34c for creating a shadow image of the person based on the extracted profile, an image output part 34d for outputting the shadow image created by the shadow creation part 34c and an operation control part 34f for performing control in response to the position of the person detected by the position detection part 34a.

Description

本発明は、動物の影の画像を利用して各種の制御を行うための影画像表示システム、影画像表示方法、及び影画像表示プログラムに関する。   The present invention relates to a shadow image display system, a shadow image display method, and a shadow image display program for performing various controls using an image of an animal shadow.

従来、人をカメラにて撮像し、当該撮像された画像に基づいて、所定装置の制御を行ったり、特定の領域を監視するシステムが提案されている。   Conventionally, a system has been proposed in which a person is imaged by a camera, and a predetermined device is controlled or a specific area is monitored based on the captured image.

例えば、所定装置の制御を行うものとしては、カメラにて撮像された画像に基づいて、人の動作を検出し、所定動作が検出された場合には、当該動作に予め割り当てられた所定の制御を行うシステムが提案されている。このようなシステムによれば、人の動作を装置制御用のインターフェースとして利用することができる。   For example, for controlling a predetermined device, a human motion is detected based on an image captured by a camera, and when a predetermined motion is detected, a predetermined control assigned in advance to the motion is detected. A system has been proposed. According to such a system, human movement can be used as an interface for device control.

あるいは、特定の領域を監視するものとしては、敷地内に設けられたカメラからの映像信号に基づいて監視対象を特定し、当該特定した監視対象の位置や軌跡を表示装置に表示するシステムが提案されている(例えば、特許文献1参照)。このようなシステムによれば、人の位置や軌跡をセキュリティー情報として利用することができる。   Alternatively, as a system for monitoring a specific area, a system is proposed in which a monitoring target is specified based on a video signal from a camera provided in the site, and the position and locus of the specified monitoring target are displayed on a display device. (For example, refer to Patent Document 1). According to such a system, the position and trajectory of a person can be used as security information.

特開2006−202062号公報JP 2006-202062 A

しかしながら、このようなシステムでは、人自体の動作や位置等を直接的にインターフェースやセキュリティー情報として利用しており、人という物理的な存在を単にそのまま利用していたので、インターフェースとしての面白みに欠けたり、監視される人に対して不快感を与えるという問題があった。   However, in such a system, the movement or position of the person itself is directly used as an interface or security information, and the physical existence of the person is simply used as it is, so the interface is not interesting. There was a problem of discomforting the person being monitored.

本発明は、上記に鑑みてなされたものであって、人を含む動物の動作や位置等をインターフェースやセキュリティー情報として利用する場合において、インターフェースとしての面白みを向上させたり、セキュリティー情報として利用される人に対して不快感を取り除くことが可能となる、影画像表示システム、影画像表示方法、及び影画像表示プログラムを提供することを目的とする。   The present invention has been made in view of the above, and in the case where the movement or position of an animal including a person is used as an interface or security information, the fun of the interface is improved or the security information is used. An object of the present invention is to provide a shadow image display system, a shadow image display method, and a shadow image display program capable of removing discomfort for a person.

上述した課題を解決し、目的を達成するために、請求項1に記載の影画像表示システムは、動物を撮像する撮像手段と、前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出手段と、前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出手段と、前記輪郭抽出手段にて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成手段と、前記影生成手段にて生成された影画像を出力する画像出力手段と、前記位置検出手段にて検出された前記動物の位置に応じた制御を行う制御手段とを備える。   In order to solve the above-described problems and achieve the object, the shadow image display system according to claim 1 is based on an imaging unit that images an animal, and an image of the animal captured by the imaging unit. Based on the position detection means for detecting the position of the animal, the contour extraction means for extracting the contour of the animal based on the image of the animal imaged by the imaging means, and the contour extracted by the contour extraction means A shadow generation unit that generates a shadow image of the animal, an image output unit that outputs a shadow image generated by the shadow generation unit, and a position of the animal detected by the position detection unit. Control means for performing control.

また、請求項2に記載の影画像表示システムは、請求項1に記載の影画像表示システムにおいて、前記位置検出手段にて検出された前記動物の位置に基づいて、前記動物の動作を検出する動作検出手段を備え、前記制御手段は、前記動作検出手段にて検出された前記動物の動作に応じた制御を行う。   The shadow image display system according to claim 2 detects the movement of the animal based on the position of the animal detected by the position detection means in the shadow image display system according to claim 1. A motion detection unit is provided, and the control unit performs control according to the motion of the animal detected by the motion detection unit.

また、請求項3に記載の影画像表示システムは、請求項1又は2に記載の影画像表示システムにおいて、前記画像出力手段は、前記影画像の出力領域内に、操作用インターフェースを出力し、前記制御手段は、前記影画像の出力領域内に出力された前記操作用インターフェースと、前記位置検出手段にて検出された前記動物の位置との相対的な位置関係に応じた制御を行う。   The shadow image display system according to claim 3 is the shadow image display system according to claim 1 or 2, wherein the image output means outputs an operation interface in an output area of the shadow image, The control unit performs control according to a relative positional relationship between the operation interface output in the output area of the shadow image and the position of the animal detected by the position detection unit.

また、請求項4に記載の影画像表示システムは、請求項1から3のいずれか一項に記載の影画像表示システムにおいて、前記影画像に重畳して表示する重畳画像を格納する重畳画像格納手段を備え、前記制御手段は、前記位置検出手段にて検出された前記動物の位置に応じて、前記影画像に重畳して表示すべき重畳画像を前記重畳画像格納手段から取得すると共に、当該取得した重畳画像の表示位置を決定し、当該取得した重畳画像を当該決定した位置に基づいて前記影画像に重畳して表示する。   The shadow image display system according to claim 4 is the shadow image display system according to any one of claims 1 to 3, wherein the superimposed image storage stores a superimposed image to be displayed superimposed on the shadow image. The control means acquires from the superimposed image storage means a superimposed image to be displayed superimposed on the shadow image according to the position of the animal detected by the position detection means, and The display position of the acquired superimposed image is determined, and the acquired superimposed image is displayed superimposed on the shadow image based on the determined position.

また、請求項5に記載の影画像表示方法は、動物を撮像する撮像ステップと、前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出ステップと、前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成ステップと、前記影生成ステップにて生成された影画像を出力する画像出力ステップと、前記位置検出ステップにて検出された前記動物の位置に応じた制御を行う制御ステップとを含む。   The shadow image display method according to claim 5 includes an imaging step of imaging an animal, a position detection step of detecting the position of the animal based on the image of the animal captured by the imaging step, A contour extraction step for extracting the contour of the animal based on the image of the animal imaged in the imaging step, and a shadow generation for generating a shadow image of the animal based on the contour extracted in the contour extraction step An image output step for outputting the shadow image generated in the shadow generation step; and a control step for performing control in accordance with the position of the animal detected in the position detection step.

また、請求項6に記載の影画像表示プログラムは、請求項5に記載の方法をコンピュータに実行させる。   A shadow image display program according to claim 6 causes a computer to execute the method according to claim 5.

請求項1に記載の影画像表示システム、請求項5に記載の影画像表示方法、及び請求項6に記載の影画像表示プログラムによれば、動物の画像に基づいて輪郭が抽出され、この輪郭に基づいて影画像が生成されて出力され、さらに、動物の位置に応じた制御が行われるので、動物という物理的な存在ではなく、動物の影画像という仮想的な画像を利用して様々な制御を行うことができるので、影画像をインターフェースとして利用した場合には、仮想的な面白みのあるインターフェースを構築することができ、あるいは、影画像をセキュリティー情報として利用した場合には、仮想的な情報による緩やかな監視を行うことで、監視される人の不快感を和らげることができる。   According to the shadow image display system according to claim 1, the shadow image display method according to claim 5, and the shadow image display program according to claim 6, an outline is extracted based on an animal image, and the outline is extracted. The shadow image is generated and output based on the image, and further, the control according to the position of the animal is performed. Therefore, various images are used by using a virtual image called the animal shadow image instead of the physical existence of the animal. Since it is possible to perform control, when a shadow image is used as an interface, a virtual interesting interface can be constructed, or when a shadow image is used as security information, a virtual By performing gentle monitoring with information, the discomfort of the monitored person can be reduced.

また、請求項2に記載の影画像表示システムによれば、動物の動作に応じた制御を行うので、動作に応じた直観的で迅速な制御を行うことが可能になる。   In addition, according to the shadow image display system of the second aspect, since the control according to the movement of the animal is performed, it is possible to perform the intuitive and quick control according to the movement.

また、請求項3に記載の影画像表示システムによれば、操作用インターフェースと動物の位置との相対的な位置関係に応じた制御を行うので、様々な形状や位置の操作用インターフェースを利用した多様性のある制御を行うことが可能になる。   Further, according to the shadow image display system according to claim 3, since the control is performed according to the relative positional relationship between the operation interface and the position of the animal, the operation interfaces of various shapes and positions are used. Diversified control can be performed.

また、請求項4に記載の影画像表示システムによれば、重畳画像を影画像に重畳して表示するので、出力する画像の仮想性をさらに高めることで、インターフェースやセキュリティー情報の面白みや多様性を向上させることができる。   According to the shadow image display system of claim 4, since the superimposed image is displayed superimposed on the shadow image, the virtuality of the output image is further enhanced, so that the interface and security information are interesting and diverse. Can be improved.

本発明の実施形態1に係る影画像表示システムを適用した空間の斜視図である。It is a perspective view of the space where the shadow image display system concerning Embodiment 1 of the present invention is applied. 実施形態1に係る影画像表示システムを機能概念的に例示するブロック図である。It is a block diagram which illustrates functionally the shadow image display system concerning Embodiment 1. 操作内容定義情報の構成例を示す図である。It is a figure which shows the structural example of operation content definition information. 輪郭履歴情報の構成例を示す図である。It is a figure which shows the structural example of outline log | history information. 位置履歴情報の構成例を示す図である。It is a figure which shows the structural example of position history information. 影画像表示処理のフローチャートである。It is a flowchart of a shadow image display process. 実施形態2に係る影画像表示システムを機能概念的に例示するブロック図である。It is a block diagram which illustrates functionally the shadow image display system which concerns on Embodiment 2. FIG. 操作内容定義情報の構成例を示す図である。It is a figure which shows the structural example of operation content definition information. 商品情報の構成例を示す図である。It is a figure which shows the structural example of merchandise information. 影画像表示処理のフローチャートである。It is a flowchart of a shadow image display process. 影画像の出力例を示す図である。It is a figure which shows the example of an output of a shadow image. 実施形態3に係る影画像表示システムを機能概念的に例示するブロック図である。It is a block diagram which illustrates functionally the shadow image display system which concerns on Embodiment 3. FIG. 操作内容定義情報の構成例を示す図である。It is a figure which shows the structural example of operation content definition information. セキュリティ情報の構成例を示す図である。It is a figure which shows the structural example of security information. 影画像表示処理のフローチャートである。It is a flowchart of a shadow image display process. 影画像の出力例を示す図である。It is a figure which shows the example of an output of a shadow image.

以下に添付図面を参照して、この発明に係る影画像表示システム、影画像表示方法、及び影画像表示プログラムの各実施の形態を詳細に説明する。まず、〔I〕各実施の形態に共通の基本的概念を説明した後、〔II〕各実施の形態の具体的内容について説明し、〔III〕最後に、各実施の形態に対する変形例について説明する。ただし、各実施の形態によって本発明が限定されるものではない。   Hereinafter, embodiments of a shadow image display system, a shadow image display method, and a shadow image display program according to the present invention will be described in detail with reference to the accompanying drawings. [I] First, the basic concept common to each embodiment was explained, then [II] the specific contents of each embodiment were explained, and [III] Finally, modifications to each embodiment were explained. To do. However, the present invention is not limited to each embodiment.

〔I〕各実施の形態に共通の基本的概念
まず、各実施の形態に共通の基本的概念について説明する。各実施の形態に係る影画像表示システム、影画像表示方法、及び影画像表示プログラムは、商業施設、オフィス、及びアミューズメント施設を含む任意の空間において、動物の影の画像を利用して各種の制御を行うためのものである。
[I] Basic concept common to the embodiments First, the basic concept common to the embodiments will be described. The shadow image display system, the shadow image display method, and the shadow image display program according to each embodiment perform various controls using an animal shadow image in an arbitrary space including a commercial facility, an office, and an amusement facility. Is for doing.

動物とは、人の他にも、犬や猫の如き任意の生物を含む概念である。例えば、犬の如き動物が所定動作を行ったことを、当該動物の影の画像(以下、影画像)を利用して検出し、各種の制御を行うことができる。この場合において、動物自身に、当該制御を行う意思があったか否かに関わらず、当該制御を行うことができる。以下では、人の影画像を利用する場合について説明する。   An animal is a concept that includes an arbitrary organism such as a dog or a cat in addition to a person. For example, it is possible to detect that an animal such as a dog has performed a predetermined operation using a shadow image of the animal (hereinafter referred to as a shadow image) and perform various controls. In this case, the control can be performed regardless of whether or not the animal itself has an intention to perform the control. Below, the case where a person's shadow image is utilized is demonstrated.

影とは、動物が光を遮った際に、当該動物を挟んで当該光と反対側にできる、当該動物の形の像を意味するが、ここでは、このような像以外に、後述する投影手段によって人為的に投影された動物の形の像を含む。また、光を遮った動物の外形を完全に反映した黒い像以外にも、人為的に外形や色が修正された像を含む。   The shadow means an image of the shape of the animal that is formed on the opposite side of the light when the animal blocks the light. Here, in addition to such an image, a projection described later is used. Contains images of animal shapes artificially projected by means. In addition to a black image that completely reflects the outer shape of an animal that blocks light, an image in which the outer shape and color are artificially corrected is included.

各種の制御の具体的内容は任意であり、動物の影画像を利用して行うことができる限りにおいて、あらゆる制御が対象になるが、以下では、影画像を装置制御のインターフェースとして利用する場合(実施の形態1及び実施の形態2)と、影画像を用いてセキュリティ制御を行う場合(実施の形態3)とについて説明する。   The specific contents of the various controls are arbitrary, and as long as they can be performed using animal shadow images, all types of control are targeted. In the following, when shadow images are used as an interface for device control ( Embodiment 1 and Embodiment 2) and a case where security control is performed using a shadow image (Embodiment 3) will be described.

各実施の形態に係る影画像表示システム、影画像表示方法、及び影画像表示プログラムの特徴の一つは、撮像手段により撮像された動物の画像に基づいて、動物の影画像を生成して出力し、動物の位置に応じた制御を行う点にある。このように、人為的に生成した影画像を利用することで、人という物理的な存在を単にそのまま利用する場合に比べて、インターフェースとしての面白みを向上させたり、セキュリティー情報として利用される人に対して不快感を与えることを回避することができる。   One of the features of the shadow image display system, shadow image display method, and shadow image display program according to each embodiment is to generate and output an animal shadow image based on the animal image captured by the imaging means. However, the control is performed according to the position of the animal. In this way, artificially generated shadow images can be used to improve the fun of the interface compared to simply using the physical presence of people as it is, or to people who are used as security information On the other hand, it is possible to avoid discomfort.

〔II〕各実施の形態の具体的内容
次に、各実施の形態の具体的内容について説明する。
[II] Specific Contents of Each Embodiment Next, specific contents of each embodiment will be described.

〔実施の形態1〕
最初に、実施の形態1について説明する。この形態は、影画像を装置制御のインターフェースとして利用する形態である。
[Embodiment 1]
First, the first embodiment will be described. In this form, a shadow image is used as an apparatus control interface.

(構成)
図1は、実施の形態1に係る影画像表示システム1を適用した空間の斜視図である。図1に示すように、この空間には、床と壁が配置されており、その内部又は外部近傍に影画像表示システム1が配置されている。ここでは、床に人が立ち、この人の影画像が壁に投影されるものとする。従って、壁の表面は、影画像を投影する投影面として機能する。
(Constitution)
FIG. 1 is a perspective view of a space to which a shadow image display system 1 according to Embodiment 1 is applied. As shown in FIG. 1, a floor and a wall are arranged in this space, and a shadow image display system 1 is arranged inside or outside the space. Here, it is assumed that a person stands on the floor and a shadow image of the person is projected on the wall. Therefore, the surface of the wall functions as a projection surface for projecting a shadow image.

図2は、影画像表示システム1を機能概念的に例示するブロック図である。図2に示すように、この影画像表示システム1は、カメラ10、プロジェクタ20、及び影画像表示装置30を備えて構成されている。   FIG. 2 is a block diagram illustrating the shadow image display system 1 in terms of functional concepts. As shown in FIG. 2, the shadow image display system 1 includes a camera 10, a projector 20, and a shadow image display device 30.

(構成−カメラ)
カメラ10は、人を撮像する撮像手段であり、撮像した画像を影画像表示装置30に出力する。例えば、カメラ10は、床に人が立つと想定される領域に向けて設置されている。このカメラ10は、例えば、赤外線サーモグラフィカメラとして構成され、撮像領域における赤外線を検出し、当該赤外線の波長分布に基づいて、撮像領域の温度分布画像を出力する。このようにサーモグラフィカメラを使用することで、照度が不足している場合や背景が雑多な場合であっても、撮像された画像に基づいて人の輪郭を正確に検出することが可能になる。ただし、このような必要性がない場合には、光学式カメラを使用してもよい。
(Configuration-Camera)
The camera 10 is an imaging unit that images a person, and outputs the captured image to the shadow image display device 30. For example, the camera 10 is installed toward an area where a person is supposed to stand on the floor. For example, the camera 10 is configured as an infrared thermography camera, detects infrared rays in the imaging region, and outputs a temperature distribution image of the imaging region based on the wavelength distribution of the infrared rays. By using a thermography camera in this way, it is possible to accurately detect the contour of a person based on a captured image even when the illuminance is insufficient or the background is messy. However, if there is no such need, an optical camera may be used.

(構成−プロジェクタ)
プロジェクタ20は、後述する影生成部34cにて生成された影画像を出力する画像出力手段である。例えば、プロジェクタ20は、壁に画像を投影可能な位置であって、床に人が立つと想定される領域と投影光線とが相互に干渉しない位置に設置されている。例えば、プロジェクタ20は、液晶プロジェクタやDLPプロジェクタの如き任意構造の公知のプロジェクタとして構成される。
(Configuration-Projector)
The projector 20 is an image output unit that outputs a shadow image generated by a shadow generation unit 34c described later. For example, the projector 20 is installed at a position where an image can be projected onto a wall and a region where a person is supposed to stand on the floor and a projection light beam do not interfere with each other. For example, the projector 20 is configured as a known projector having an arbitrary structure such as a liquid crystal projector or a DLP projector.

(構成−影画像表示装置)
影画像表示装置30は、影画像表示に関する制御を行う制御装置であり、入力部31、出力部32、記憶部33、及び制御部34を備えて構成される。この影画像表示装置30には、上述のカメラ10及びプロジェクタ20が有線又は無線にて接続されている。
(Configuration-Shadow image display device)
The shadow image display device 30 is a control device that performs control related to shadow image display, and includes an input unit 31, an output unit 32, a storage unit 33, and a control unit 34. The above-described camera 10 and projector 20 are connected to the shadow image display device 30 by wire or wirelessly.

入力部31は、影画像表示装置30が実行する各種処理に必要な情報を当該影画像表示装置30に入力する入力手段であり、ここでは、キーボード及びマウスとして構成されている。   The input unit 31 is an input unit that inputs information necessary for various processes executed by the shadow image display device 30 to the shadow image display device 30, and is configured as a keyboard and a mouse here.

出力部32は、影画像表示装置30からの情報を外部装置に出力する出力手段であり、ここでは、モニタ、スピーカ、及び外部装置制御用のインターフェースとして構成されている。外部装置制御用のインターフェースとは、後述する操作制御部34fが所定の外部装置に対して制御を行う際に、当該所定の外部装置に対して制御信号を送信等するためのインターフェースである。   The output unit 32 is an output unit that outputs information from the shadow image display device 30 to an external device. Here, the output unit 32 is configured as a monitor, a speaker, and an interface for controlling the external device. The interface for external device control is an interface for transmitting a control signal to the predetermined external device when an operation control unit 34f described later controls the predetermined external device.

記憶部33は、影画像表示装置30の動作に必要なプログラム及び各種のデータを記憶する記憶手段であり、例えば、外部記憶装置としてのハードディスク(図示省略)を用いて構成されている。ただし、ハードディスクに代えてあるいはハードディスクと共に、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。   The storage unit 33 is a storage unit that stores a program and various data necessary for the operation of the shadow image display device 30, and is configured using, for example, a hard disk (not shown) as an external storage device. However, any other recording medium including a magnetic recording medium such as a magnetic disk or an optical recording medium such as a DVD or a Blu-ray disk can be used instead of or together with the hard disk.

この記憶部33は、操作内容定義情報データベース(以下、データベースをDBと表記する)33a、輪郭履歴情報DB33b、及び位置履歴情報DB33cを備える。   The storage unit 33 includes an operation content definition information database (hereinafter referred to as DB) 33a, contour history information DB 33b, and position history information DB 33c.

操作内容定義情報DB33aは、所定装置の操作内容を定義するための操作内容定義情報を格納する操作内容定義情報格納手段である。この操作内容定義情報は、図3の構成例に示すように、項目「動作」及び項目「操作内容」と、これら各項目に対応する情報を関連付けて構成されている。項目「動作」に対応する情報は、人の動作を特定するための情報であり、ここでは、「右腕上げ」、「右腕下げ」、「左腕上げ」、「左腕下げ」の4種類の情報である。例えば、「右腕上げ」とは、人が右腕を所定基準位置よりも下方から上方に上げる動作を示している。項目「操作内容」に対応する情報は、所定装置の操作内容を特定するための情報であり、ここでは、「空調機ON」、「空調機OFF」、「照明ON」、「照明OFF」の4種類の情報である。すなわち、ここでは、所定装置として空調機又は照明(いずれも図示省略)を制御することを想定しており、例えば、「空調機ON」とは、空調機の電源をONすることを意味している。この操作内容定義情報DB33aは、影画像表示システム1の管理者等により任意に設定され、後述する影画像表示処理に先だって予め記憶部33に格納される。   The operation content definition information DB 33a is an operation content definition information storage unit that stores operation content definition information for defining the operation content of a predetermined device. As shown in the configuration example of FIG. 3, the operation content definition information is configured by associating an item “operation” and an item “operation content” with information corresponding to these items. The information corresponding to the item “motion” is information for specifying a person's motion, and here, there are four types of information of “right arm raised”, “right arm lowered”, “left arm raised”, and “left arm lowered”. is there. For example, “right arm raising” indicates an operation in which a person raises the right arm upward from below a predetermined reference position. The information corresponding to the item “operation content” is information for specifying the operation content of the predetermined device. Here, “air conditioner ON”, “air conditioner OFF”, “lighting ON”, “lighting OFF” There are four types of information. That is, here, it is assumed that an air conditioner or lighting (both not shown) is controlled as the predetermined device. For example, “air conditioner ON” means that the air conditioner is turned on. Yes. The operation content definition information DB 33a is arbitrarily set by the administrator of the shadow image display system 1 and stored in the storage unit 33 in advance prior to a shadow image display process described later.

図2の輪郭履歴情報DB33bは、人の輪郭の履歴を特定するための輪郭履歴情報を格納する輪郭履歴情報格納手段である。この輪郭履歴情報は、図4の構成例に示すように、項目「時刻」及び項目「輪郭」と、これら各項目に対応する情報を関連付けて構成されている。項目「時刻」に対応する情報は、人の輪郭が検出された時刻を特定するための情報であり、例えば、「13:15:25」とある場合には、13時15分25秒に人の輪郭が検出されたことを示す。項目「輪郭」は、記録された輪郭を特定するための情報であり、ここでは、輪郭抽出部34bにて抽出された画像データが記録されている。   The contour history information DB 33b of FIG. 2 is contour history information storage means for storing contour history information for specifying a history of a person's contour. As shown in the configuration example of FIG. 4, the contour history information is configured by associating the item “time” and the item “contour” with information corresponding to these items. The information corresponding to the item “time” is information for specifying the time at which the contour of the person is detected. For example, when “13:15:25” is present, the person at 13:15:25 This indicates that the contour of is detected. The item “contour” is information for specifying the recorded contour, and here, the image data extracted by the contour extraction unit 34b is recorded.

図2の位置履歴情報DB33cは、人の位置の履歴を特定するための位置履歴情報を格納する位置履歴情報格納手段である。この位置履歴情報は、図5の構成例に示すように、項目「時刻」及び項目「位置」と、これら各項目に対応する情報を関連付けて構成されている。項目「時刻」に対応する情報は、図4の同一項目名に対応する情報と同じである。項目「位置」は、さらに項目「中心」、項目「右腕」、及び項目「左腕」を含んでおり、項目「中心」に対応する情報は、人の中心の位置(ここでは、所定基準位置に対する上下方向(y方向)と左右方向(x方向)の距離(座標))を示し、項目「右腕」に対応する情報は、人の右腕の位置(ここでは、所定基準位置よりも上にあるか下にあるか)を示し、項目「右腕」に対応する情報は、人の左腕の位置(ここでは、所定基準位置よりも上にあるか下にあるか)を示している。例えば、項目「右腕」に対応する情報として「上」とある場合には、右腕が所定基準位置よりも上にあることを示す。この位置履歴情報は、後述する影画像表示処理において記憶部33に格納される。   The position history information DB 33c in FIG. 2 is a position history information storage unit that stores position history information for specifying a person's position history. As shown in the configuration example of FIG. 5, the position history information is configured by associating an item “time” and an item “position” with information corresponding to these items. The information corresponding to the item “time” is the same as the information corresponding to the same item name in FIG. The item “position” further includes an item “center”, an item “right arm”, and an item “left arm”. The information corresponding to the item “center” is the position of the center of the person (here, a predetermined reference position). Indicates the distance (coordinates) between the vertical direction (y direction) and the horizontal direction (x direction), and the information corresponding to the item “right arm” is the position of the right arm of the person (here, whether it is above a predetermined reference position) The information corresponding to the item “right arm” indicates the position of the left arm of the person (in this case, whether it is above or below the predetermined reference position). For example, when the information corresponding to the item “right arm” is “upper”, it indicates that the right arm is above a predetermined reference position. This position history information is stored in the storage unit 33 in a shadow image display process described later.

図2の制御部34は、影画像表示装置30に関する計算処理を行う処理手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及び影画像表示プログラムを含む各種のプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。プログラムは、磁気的記録媒体や光学的記録媒体を含む任意の記録媒体に記録され、記憶部33にインストールされる。   The control unit 34 in FIG. 2 is a processing unit that performs calculation processing related to the shadow image display device 30. Specifically, the CPU, various programs interpreted on the CPU (basic control programs such as an OS, And an internal memory such as a RAM for storing various programs including a shadow image display program and various data. The program is recorded on an arbitrary recording medium including a magnetic recording medium and an optical recording medium, and is installed in the storage unit 33.

この制御部34は、機能概念的に、位置検出部34a、輪郭抽出部34b、影生成部34c、画像出力部34d、動作検出部34e、及び操作制御部34fを備える。位置検出部34aは、カメラ10により撮像された人の画像に基づいて、人の位置を検出する位置検出手段である。輪郭抽出部34bは、カメラ10により撮像された人の画像に基づいて、人の輪郭を抽出する輪郭抽出手段である。影生成部34cは、輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する影生成手段である。画像出力部34dは、影生成部34cにて生成された影画像を出力する画像出力手段である。動作検出部34eは、位置検出部34aにて検出された人の位置に基づいて、人の動作を検出する動作検出手段である。操作制御部34fは、位置検出部34aにて検出された人の位置に応じた制御を行う制御手段である。これら各部によって実行される処理の詳細については後述する。   The control unit 34 includes a position detection unit 34a, a contour extraction unit 34b, a shadow generation unit 34c, an image output unit 34d, an operation detection unit 34e, and an operation control unit 34f in terms of functional concept. The position detection unit 34 a is a position detection unit that detects the position of the person based on the person image captured by the camera 10. The contour extracting unit 34 b is a contour extracting unit that extracts a human contour based on a human image captured by the camera 10. The shadow generation unit 34c is a shadow generation unit that generates a human shadow image based on the contour extracted by the contour extraction unit 34b. The image output unit 34d is an image output unit that outputs the shadow image generated by the shadow generation unit 34c. The motion detection unit 34e is a motion detection unit that detects a human motion based on the position of the person detected by the position detection unit 34a. The operation control unit 34f is a control unit that performs control according to the position of the person detected by the position detection unit 34a. Details of the processes executed by these units will be described later.

(処理)
次に、このように構成される影画像表示システム1によって実行される影画像表示処理について説明する。図6は影画像表示処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。
(processing)
Next, a shadow image display process executed by the shadow image display system 1 configured as described above will be described. FIG. 6 is a flowchart of the shadow image display process (in the following description of each process, step is abbreviated as “S”).

この影画像表示処理は、例えば、影画像表示装置30の電源投入後に自動的に起動され、あるいは影画像表示装置30に対して入力部31を介して起動指示が入力された場合に起動される。影画像表示処理が起動されると、輪郭抽出部34bは、カメラ10から入力された画像を解析することにより、人の輪郭を抽出し、当該抽出した輪郭の画像データを公知の方法で取得した当該輪郭の検出時の時刻に関連付けて輪郭履歴情報DB33bに格納する(SA1)。この抽出は、公知のアルゴリズムで行うことができ、例えば、画像を所定閾値で2値化し、2値化した画像に対してラベリング処理を行うことで領域のグループ化を行い、グループ化された領域の中で最大の領域を人の領域として特定し、当該特定した領域の外形を人の輪郭として抽出する。   This shadow image display process is automatically started after the shadow image display device 30 is turned on, or is started when a start instruction is input to the shadow image display device 30 via the input unit 31. . When the shadow image display process is activated, the contour extraction unit 34b analyzes the image input from the camera 10 to extract a human contour, and acquires image data of the extracted contour by a known method. The contour is stored in the contour history information DB 33b in association with the time when the contour is detected (SA1). This extraction can be performed by a known algorithm. For example, the image is binarized with a predetermined threshold value, and the binarized image is subjected to a labeling process to group the regions. The largest area is identified as a human area, and the outline of the identified area is extracted as a human outline.

また、位置検出部34aは、カメラ10により撮像された人の画像に基づいて、人の位置を検出し、当該検出した人の位置を、公知の方法で取得した当該位置の検出時の時刻に関連付けて、位置履歴情報DB33cに格納する(SA2)。ここで、「位置」とは、少なくとも、人が所定の制御用動作を行ったか否かを認識できるように検出されるものであり、人全体の位置を検出する場合のみならず、人の所定部位(例えば腕や足等)の位置を検出する場合も含む。また、緯度及び経度に基づく絶対座標上の位置に限らず、所定基準に対する相対座標上の位置を検出してもよい。   Further, the position detection unit 34a detects the position of the person based on the image of the person captured by the camera 10, and the detected position of the person is obtained at the time of detection of the position acquired by a known method. In association therewith, it is stored in the position history information DB 33c (SA2). Here, the “position” is detected so that at least whether or not a person has performed a predetermined control operation can be recognized. This includes the case of detecting the position of a part (for example, an arm or a leg). Further, not only the position on the absolute coordinate based on the latitude and longitude, but also a position on the relative coordinate with respect to the predetermined reference may be detected.

ここでは、床に人が立つと想定される領域内に設定された所定基準に対する人の中心の相対的な位置と左右の腕の相対的な位置を検出するものとする。また、このSA3における人の位置の検出は、公知のアルゴリズムで行うことができ、例えば、SA1と同様に人の輪郭を抽出し、さらに、当該人の輪郭の中から、人の上下左右の中心位置を抽出したり、人の腕の輪郭が有する特徴的な位置や形状に合致する部分的輪郭を抽出することで腕の輪郭を抽出することができる。また、カメラ10と床との位置関係を予め位置検出部34aに登録しておくことで、所定基準に対する人の中心の位置や腕の相対的な位置を特定することができる。なお、人の位置の検出と位置履歴情報DB33cへの記録は、所定間隔(例えば、5秒間隔)で行ったり、人の位置が前回検出時の位置から変化したと判定された場合のみに行うようにしてもよい。   Here, it is assumed that the relative position of the person's center and the relative positions of the left and right arms with respect to a predetermined reference set in an area where a person is supposed to stand on the floor are detected. The detection of the position of the person in SA3 can be performed by a known algorithm. For example, the outline of the person is extracted in the same manner as SA1, and the person's top, bottom, left and right centers are extracted from the outline of the person. The contour of the arm can be extracted by extracting the position or extracting a partial contour that matches the characteristic position or shape of the contour of the human arm. In addition, by registering the positional relationship between the camera 10 and the floor in the position detection unit 34a in advance, it is possible to specify the position of the center of the person and the relative position of the arm with respect to a predetermined reference. The detection of the position of the person and the recording in the position history information DB 33c are performed at a predetermined interval (for example, every 5 seconds) or only when it is determined that the position of the person has changed from the position at the previous detection. You may do it.

次いで、動作検出部34eは、位置検出部34aにて検出された人の位置に基づいて、人の動作を検出する(SA3)。この動作の検出は、位置履歴情報DB33cに格納された位置履歴情報に基づいて行う。すなわち、動作検出部34eは、位置履歴情報として相互に関連付けて格納されている時刻と位置に基づいて、人の軌跡を特定し、この軌跡に基づいて、人の動作を特定する。例えば、位置履歴情報に、「時刻」=「13:15:25」と「位置」=「右腕」=「下」が関連付けて記録されており、「時刻」=「13:15:30」と「位置」=「右腕」=「上」が関連付けて記録されている場合には、「13:15:25」から「13:15:30」に至る間(この例では5秒間)の右腕の軌跡として、当該右腕が下から上に移動したことが特定できるので、「人の動作」=「右腕上げ」であるものと特定する。   Next, the motion detector 34e detects the motion of the person based on the position of the person detected by the position detector 34a (SA3). This operation is detected based on the position history information stored in the position history information DB 33c. That is, the motion detection unit 34e specifies a human trajectory based on the time and position stored in association with each other as the position history information, and specifies the human motion based on the trajectory. For example, “time” = “13:15:25” and “position” = “right arm” = “down” are recorded in association with the position history information, and “time” = “13:15:30”. When “position” = “right arm” = “upper” is recorded in association with each other, the right arm of “13:15:25” to “13:15:30” (in this example, 5 seconds) is recorded. Since it can be identified as the locus that the right arm has moved from the bottom to the top, it is identified that “human motion” = “right arm raised”.

そして、操作制御部34fは、動作検出部34eにて検出された人の動作に基づいて、所定装置の制御を行う(SA4)。具体的には、操作制御部34fは、動作検出部34eにて検出された人の動作に対応する操作内容があるか否かを操作内容定義情報DB33aを参照することにより特定し、当該操作内容がある場合には、当該操作内容に基づいて、所定装置の制御を行う。例えば、「人の動作」=「右腕上げ」である場合には、「操作内容」=「空調機ON」を特定し、空調機をONするための制御信号を、出力部32の外部装置制御用のインターフェースを介して、無線又は有線にて空調機に出力する。このような処理を行うことで、人の動作に基づいて、所定装置を制御することができるため、人の動作を、所定装置の制御のためのインターフェースとして利用することが可能になる。   And the operation control part 34f controls a predetermined apparatus based on the operation | movement of the person detected by the operation | movement detection part 34e (SA4). Specifically, the operation control unit 34f specifies whether or not there is an operation content corresponding to the human motion detected by the motion detection unit 34e by referring to the operation content definition information DB 33a, and the operation content If there is, the predetermined device is controlled based on the operation content. For example, when “human motion” = “right arm raised”, “operation content” = “air conditioner ON” is specified, and a control signal for turning on the air conditioner is sent to the external device control of the output unit 32. Output to the air conditioner wirelessly or via a cable interface. By performing such a process, it is possible to control the predetermined device based on the person's operation, and therefore it becomes possible to use the human operation as an interface for controlling the predetermined device.

次いで、影生成部34cは、SA1において輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する(SA5)。この影画像の生成は、輪郭抽出部34bにて抽出された輪郭によって囲まれる領域を、黒又はその他の所定の色で埋めることにより生成される。   Next, the shadow generation unit 34c generates a human shadow image based on the contour extracted by the contour extraction unit 34b in SA1 (SA5). The shadow image is generated by filling a region surrounded by the contour extracted by the contour extraction unit 34b with black or another predetermined color.

ここで、影生成部34cは、人の影画像として、現在の時点における人の位置に対応する影画像と、所定の過去の1つ以上の時点(ここでは、2つの時点)における人の位置に対応する影画像とを、相互に異なる色で生成し、これら複数の影画像を重畳させることで、最終的に投影する影画像を生成する。すなわち、影生成部34cは、現在の時点における人の位置に対応する影画像としては、輪郭履歴情報DB33bに記録されている輪郭履歴情報の中から、最新の時刻に対応する輪郭の画像データを取得し、この輪郭によって囲まれる領域を、所定の第1色(ここでは、赤色)で埋めることにより生成する。また、影生成部34cは、過去の時点における人の位置に対応する影画像としては、輪郭履歴情報DB33bに記録されている輪郭履歴情報の中から、最新より1つ前の時刻に対応する輪郭の画像データ及び最新より2つ前の時刻に対応する輪郭の画像データを取得し、1つ前の時刻に対応する輪郭によって囲まれる領域を、所定の第2色(ここでは、緑色)で埋めることにより生成し、さらに、2つ前の時刻に対応する輪郭によって囲まれる領域を、所定の第3色(ここでは、青色)で埋めることにより生成する。   Here, the shadow generation unit 34c uses a shadow image corresponding to the position of the person at the current time point as the person's shadow image, and the position of the person at one or more predetermined time points (here, two time points). A shadow image corresponding to is generated in different colors, and the shadow image to be finally projected is generated by superimposing the plurality of shadow images. In other words, the shadow generation unit 34c obtains the contour image data corresponding to the latest time from the contour history information recorded in the contour history information DB 33b as the shadow image corresponding to the position of the person at the current time point. The region surrounded by the contour is acquired and filled with a predetermined first color (here, red). Further, the shadow generation unit 34c, as a shadow image corresponding to the position of the person at the past time point, has a contour corresponding to the time immediately before the latest from the contour history information recorded in the contour history information DB 33b. And the image data of the contour corresponding to the time two times before the latest are acquired, and the area surrounded by the contour corresponding to the previous time is filled with a predetermined second color (here, green) In addition, the region surrounded by the contour corresponding to the previous two times is filled with a predetermined third color (here, blue).

そして、影生成部34cは、このように生成した複数(ここでは、合計3つ)の影画像を、各影画像の中心の位置が、位置履歴情報DB33cに格納されている人の中心の位置であって、各影画像の生成に使用した画像データに対応する人の中心の位置にそれぞれ対応する位置となるように、重畳させる。なお、このように生成する影画像の数は任意であり、最低1つあればよいが、このように複数の影画像を用いることで、人の動作の軌跡を視覚的に把握できる影画像を生成できる。また、影画像の色は任意であり、全ての影画像を同一色としてもよいが、このように赤、緑、青の光の3原色を使用することで、全ての影画像が重畳した領域は白になる等、視覚的な効果を高めることができる。   Then, the shadow generation unit 34c generates a plurality of (in this case, three) shadow images generated in this way, and the position of the center of each shadow image is stored in the position history information DB 33c. In this case, the images are superimposed so that the positions correspond to the positions of the center of the person corresponding to the image data used to generate each shadow image. Note that the number of shadow images generated in this way is arbitrary, and at least one shadow image may be used. By using a plurality of shadow images in this way, a shadow image that can visually grasp a human motion trajectory is obtained. Can be generated. Also, the color of the shadow image is arbitrary, and all the shadow images may be the same color, but by using the three primary colors of red, green, and blue light in this way, an area where all the shadow images are superimposed Can enhance visual effects such as whitening.

次いで、画像出力部34dは、影生成部34cにて生成された影画像をプロジェクタ20を介して出力する(SA6)。すなわち、影生成部34cにて生成された影画像のデータをプロジェクタ20に出力することで、このプロジェクタ20から影画像が壁に投影される。この際、プロジェクタ20と壁との位置関係を予め画像出力部34dに登録しておくことで、影画像がプロジェクタ20から壁に投影された場合の投影倍率を算定し、この投影倍率に基づいて、壁に投影された影画像の位置及び大きさを制御してもよい。例えば、影画像を、その下端位置が壁の下端位置に合致するように投影してもよい。また、位置検出部34aにて人の位置を検出し、当該検出した人の位置に最も近接する壁の表面に、影画像を投影してもよい。このような制御を行う場合、必要に応じて、プロジェクタ20には投影倍率調整用のズーム機構や投影位置調整用の移動機構を設けておき、画像出力部34dからの制御信号によりこれらの機構を制御するようにしてもよい。   Next, the image output unit 34d outputs the shadow image generated by the shadow generation unit 34c via the projector 20 (SA6). That is, by outputting the shadow image data generated by the shadow generator 34c to the projector 20, the shadow image is projected from the projector 20 onto the wall. At this time, the positional relationship between the projector 20 and the wall is registered in the image output unit 34d in advance, thereby calculating the projection magnification when the shadow image is projected onto the wall from the projector 20, and based on this projection magnification. The position and size of the shadow image projected on the wall may be controlled. For example, the shadow image may be projected so that the lower end position thereof matches the lower end position of the wall. Alternatively, the position detection unit 34a may detect a person's position and project a shadow image on the surface of the wall closest to the detected person's position. When performing such control, if necessary, the projector 20 is provided with a zoom mechanism for adjusting the projection magnification and a moving mechanism for adjusting the projection position, and these mechanisms are controlled by a control signal from the image output unit 34d. You may make it control.

これらSA1からSA6の処理は、影画像表示処理の起動後に継続して繰り返し行われる。このため、床に人が立っている場合には、当該人の影画像が壁にほぼリアルタイムで投影され続け、人が動作を行う毎に、この動作に応じた影画像が壁にほぼリアルタイムで投影され続ける。その後、影画像表示装置30に対して入力部31を介して終了指示が入力された場合に(SA7、Yes)、影画像表示処理が終了する。   The processes from SA1 to SA6 are repeatedly performed continuously after the shadow image display process is activated. For this reason, when a person is standing on the floor, the shadow image of the person continues to be projected on the wall in almost real time, and each time the person performs an action, the shadow image corresponding to the action is almost real time on the wall. Continue to be projected. Thereafter, when an end instruction is input to the shadow image display device 30 via the input unit 31 (SA7, Yes), the shadow image display process ends.

(実施の形態1の効果)
この実施の形態1によれば、人の画像に基づいて輪郭が抽出され、この輪郭に基づいて影画像が生成されて出力され、さらに、人の位置に応じた制御が行われるため、人という物理的な存在ではなく、人の影画像という仮想的な画像を利用して様々な制御を行うことができ、影画像をインターフェースとして利用した場合には、仮想的な面白みのあるインターフェースを構築することができる。
(Effect of Embodiment 1)
According to the first embodiment, a contour is extracted based on a person's image, a shadow image is generated and output based on the contour, and further, control according to the position of the person is performed. Various controls can be performed using a virtual image called a human shadow image instead of a physical existence, and when a shadow image is used as an interface, a virtual interesting interface is constructed. be able to.

また、人の動作に応じた制御を行うので、動作に応じた直観的で迅速な制御を行うことが可能になる。   In addition, since control is performed according to a person's action, it is possible to perform intuitive and quick control according to the action.

〔実施の形態2〕
次に、実施の形態2について説明する。この形態は、影画像を装置制御のインターフェースとして利用する形態であり、特に、影画像に他の画像を重畳して表示する形態である。ただし、実施の形態1の構成及び方法と同様の構成及び方法については、実施の形態1で使用したものと同一の符号を付して説明を省略し、あるいは単に説明を省略する。
[Embodiment 2]
Next, a second embodiment will be described. This form is a form in which a shadow image is used as an interface for device control, and in particular, a form in which another image is superimposed and displayed on the shadow image. However, configurations and methods similar to those of the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and description thereof is omitted, or description is simply omitted.

(構成)
図7は、実施の形態2に係る影画像表示システム2を機能概念的に例示するブロック図である。この図7に示すように、この影画像表示システム2は、カメラ10、プロジェクタ20、及び影画像表示装置40を備えて構成されている。
(Constitution)
FIG. 7 is a block diagram illustrating a functional concept of the shadow image display system 2 according to the second embodiment. As shown in FIG. 7, the shadow image display system 2 includes a camera 10, a projector 20, and a shadow image display device 40.

影画像表示装置40は、実施の形態1の影画像表示装置30とほぼ同様に構成されているが、ここでは、記憶部33の操作内容定義情報DB33aに、実施の形態1とは異なる操作内容定義情報が格納されており、また、記憶部33に商品情報DB33dが設けられている。   The shadow image display device 40 is configured in substantially the same manner as the shadow image display device 30 of the first embodiment, but here, the operation content different from that of the first embodiment is stored in the operation content definition information DB 33a of the storage unit 33. Definition information is stored, and a product information DB 33 d is provided in the storage unit 33.

操作内容定義情報DB33aの操作内容定義情報は、図8の構成例に示すように、項目「動作」及び項目「操作内容」と、これら各項目に対応する情報を関連付けて構成されている。項目「動作」に対応する情報は、人の動作を特定するための情報であり、ここでは、「右腕上げ」、「左腕上げ」の2種類の情報に加えて、「操作用インターフェースにタッチ」の情報が格納されている。「操作用インターフェースにタッチ」とは、人が(正確には、人の輪郭に基づいて壁に投影された影画像が)、壁に投影された操作用インターフェースに触れる動作を示している。項目「操作内容」に対応する情報は、所定装置の操作内容を特定するための情報であり、ここでは、「シャツ変更」、「帽子変更」、「クリア」の3種類の情報である。すなわち、ここでは、所定装置として当該影画像表示装置40を制御することを想定しており、具体的には、当該影画像表示装置40において影画像に重合表示される商品(ここでは洋服)の画像データを切り替えることを想定している。例えば、「シャツ変更」とは、影画像に重合表示されるシャツを変更することを意味しており、「クリア」とは、影画像に重合表示される洋服をクリアすること(重合させないこと)を意味している。   As shown in the configuration example of FIG. 8, the operation content definition information in the operation content definition information DB 33a is configured by associating the item “operation” and the item “operation content” with information corresponding to these items. The information corresponding to the item “motion” is information for specifying a person's motion. Here, in addition to the two types of information “raising the right arm” and “raising the left arm”, “touch the operation interface” Is stored. “Touching the operation interface” indicates an operation in which a person touches the operation interface projected on the wall (more precisely, a shadow image projected on the wall based on the outline of the person). The information corresponding to the item “operation content” is information for specifying the operation content of the predetermined device, and here is three types of information of “shirt change”, “cap change”, and “clear”. That is, here, it is assumed that the shadow image display device 40 is controlled as a predetermined device, and specifically, a product (here, clothes) that is superimposed and displayed on the shadow image in the shadow image display device 40. It is assumed that the image data is switched. For example, “change shirt” means to change the shirt superimposed on the shadow image, and “clear” means to clear the clothes superimposed on the shadow image (do not superimpose). Means.

図7の商品情報DB33dは、商品に関する商品情報(ここでは、影画像に重畳して表示する重畳画像)を格納する重畳画像格納手段である。この商品情報は、図9の構成例に示すように、項目「種類」及び項目「画像データ」と、これら各項目に対応する情報を関連付けて構成されている。項目「種類」に対応する情報は、商品の種類を特定するための情報であり、ここでは、「シャツ」、「帽子」である。項目「画像データ」に対応する情報は、各商品の画像データであり、「シャツ」と「帽子」のそれぞれに対応する複数の画像データが格納されている。   The product information DB 33d in FIG. 7 is a superimposed image storage unit that stores product information about a product (in this case, a superimposed image displayed by being superimposed on a shadow image). As shown in the configuration example of FIG. 9, the product information is configured by associating an item “type” and an item “image data” with information corresponding to each item. The information corresponding to the item “type” is information for specifying the type of product, and here, “shirt” and “hat”. The information corresponding to the item “image data” is image data of each product, and a plurality of image data corresponding to “shirt” and “hat” are stored.

(処理)
次に、このように構成される影画像表示システム2によって実行される影画像表示処理について説明する。図10は影画像表示処理のフローチャートである。ただし、SB1、SB2は、図6のSA1、SA2とそれぞれ同じであるため、その説明を省略する。
(processing)
Next, a shadow image display process executed by the thus configured shadow image display system 2 will be described. FIG. 10 is a flowchart of the shadow image display process. However, SB1 and SB2 are the same as SA1 and SA2 in FIG.

SB3において、動作検出部34eは、位置検出部34aにて検出された人の位置に基づいて、人の動作を検出する(SB3)。この動作の検出は、図6のSA3と同様に、位置履歴情報DB33cに格納された位置履歴情報に基づいて行う。さらに、動作検出部34eは、壁に投影された人の影が、壁に投影された操作用インターフェースに触れたか否かを検出する。すなわち、動作検出部34eは、影生成部34cで生成された最新の影画像の位置と、床に人が立つと想定される領域内に設定された操作用インターフェースの所定投影位置とに基づいて、人の位置が所定投影位置を通過したか否かを判定し、通過した場合には、人が、壁に投影された操作用インターフェースに触れたものと判定する。   In SB3, the motion detector 34e detects a human motion based on the position of the person detected by the position detector 34a (SB3). The detection of this operation is performed based on the position history information stored in the position history information DB 33c, similarly to SA3 in FIG. Further, the motion detection unit 34e detects whether or not the shadow of the person projected on the wall has touched the operation interface projected on the wall. That is, the motion detection unit 34e is based on the position of the latest shadow image generated by the shadow generation unit 34c and the predetermined projection position of the operation interface set in an area where a person is supposed to stand on the floor. It is determined whether or not the position of the person has passed the predetermined projection position. If the position has passed, it is determined that the person has touched the operation interface projected on the wall.

そして、操作制御部34fは、動作検出部34eにて検出された人の動作に基づいて、所定装置の制御を行う(SB4)。具体的には、操作制御部34fは、動作検出部34eにて検出された人の動作に対応する操作内容があるか否かを操作内容定義情報DB33aを参照することにより特定し、当該操作内容がある場合には、当該操作内容に基づいて、所定装置の制御を行う。例えば、「人の動作」=「右腕上げ」である場合には、「操作内容」=「シャツ変更」を特定し、後述するSB5で影画像に重畳されるシャツの画像を、商品情報DB33dに格納されているシャツの画像における所定順序の画像(ここでは、現在重畳されているシャツの画像に対する次順のシャツの画像)に変更する。あるいは、「人の動作」=「操作用インターフェースにタッチ」である場合には、「操作内容」=「クリア」を特定し、後述するSB5で影画像に重畳されるシャツ及び帽子の画像をクリアする(重畳させるべき画像をなくす)。このような処理を行うことで、人の動作に基づいて、所定装置を制御することができるため、人の動作を、所定装置の制御のためのインターフェースとして利用することが可能になる。   And the operation control part 34f controls a predetermined apparatus based on the operation | movement of the person detected by the operation | movement detection part 34e (SB4). Specifically, the operation control unit 34f specifies whether or not there is an operation content corresponding to the human motion detected by the motion detection unit 34e by referring to the operation content definition information DB 33a, and the operation content If there is, the predetermined device is controlled based on the operation content. For example, when “person's action” = “right arm raised”, “operation content” = “change shirt” is specified, and the shirt image to be superimposed on the shadow image in SB5 described later is stored in the product information DB 33d. The image is changed to an image in a predetermined order in the stored shirt image (here, the image of the next shirt with respect to the currently superimposed shirt image). Alternatively, if “human action” = “touch the operation interface”, “operation content” = “clear” is specified, and the shirt and hat images superimposed on the shadow image are cleared in SB5 described later. Yes (eliminates the image to be superimposed). By performing such a process, it is possible to control the predetermined device based on the person's operation, and therefore it becomes possible to use the human operation as an interface for controlling the predetermined device.

次いで、影生成部34cは、SB1において輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する(SB5)。ここでは、SA5と同様に影画像を生成した上で、最新の時刻に対応する輪郭の画像データに対して、SB4で特定された洋服の画像を重合する。具体的には、SB4で特定された洋服の画像データを商品情報DB33dを参照して取得する。また、位置履歴情報DB33cに格納された最新の位置履歴情報における人の中心の位置を参照して、当該人の輪郭における重合位置(シャツの場合には人の上半身の位置、帽子の場合には人の頭部の位置)を特定する。そして、当該特定した位置に画像データを重合する。   Next, the shadow generation unit 34c generates a human shadow image based on the contour extracted by the contour extraction unit 34b in SB1 (SB5). Here, after generating a shadow image in the same manner as SA5, the image of the clothes specified in SB4 is superimposed on the image data of the contour corresponding to the latest time. Specifically, the image data of the clothes specified in SB4 is acquired with reference to the product information DB 33d. In addition, referring to the position of the person's center in the latest position history information stored in the position history information DB 33c, the overlapping position (in the case of a shirt, the position of the upper body of the person, in the case of a hat) The position of the person's head). Then, the image data is superimposed on the specified position.

また、影生成部34cは、影画像に対して、操作用インターフェースを付加する。すなわち、所定形状(ここでは円形)の画像データが壁の所定位置に投影されるように、影画像に対して付加する。この操作用インターフェースの位置及び形状は、床に立った人が認識して触れることができるように決定される。なお、ここでは、影画像に対して、操作用インターフェースを付加しているが、操作用インターフェースのみを投影するようにしてもよく、このためには、例えば、プロジェクタ20に加えて別のプロジェクタを影画像表示システム2に同時に接続し、当該別のプロジェクタによって操作用インターフェースのみを投影する。   The shadow generation unit 34c adds an operation interface to the shadow image. That is, the image data having a predetermined shape (here, circular) is added to the shadow image so as to be projected onto a predetermined position on the wall. The position and shape of the operation interface are determined so that a person standing on the floor can recognize and touch. Here, the operation interface is added to the shadow image, but only the operation interface may be projected. For this purpose, for example, another projector in addition to the projector 20 may be used. Simultaneously connected to the shadow image display system 2, only the operation interface is projected by the other projector.

そして、画像出力部34dは、影生成部34cにて生成された影画像をプロジェクタ20を介して出力する(SB6)。図11には、このような影画像の出力例を図示する。この出力例では人の胴部にシャツが重合されている例を示している。この出力例では、3つの影画像の左腕以外の部分が重合しており、この重合している部分にシャツの画像がさらに重合されている。   Then, the image output unit 34d outputs the shadow image generated by the shadow generation unit 34c via the projector 20 (SB6). FIG. 11 illustrates an output example of such a shadow image. This output example shows an example in which a shirt is superposed on a human torso. In this output example, the portions other than the left arm of the three shadow images are overlapped, and the shirt image is further overlapped on the overlapped portion.

これらSB1からSB6の処理は、影画像表示処理の起動後に継続して繰り返し行われる。このため、壁には、SB4で検出された動作に応じて異なる洋服が重合された影画像が投影されるので、床に立った人からすれば、自分の動作に応じて、自分の最新の影画像にシャツや帽子が切り替えて重合表示されるので、様々な洋服を仮想的に試着しているような感覚を与えることができる。また、影画像には、操作用インターフェースが付加されているので、この操作用インターフェースに触れることによって、自分の影画像に重合されていた洋服をクリアすることができる。その後、影画像表示装置40に対して入力部31を介して終了指示が入力された場合に(SB7、Yes)、影画像表示処理が終了する。   The processes from SB1 to SB6 are repeatedly performed continuously after the shadow image display process is activated. For this reason, a shadow image in which different clothes are superimposed according to the motion detected by the SB4 is projected on the wall. Therefore, if you are standing on the floor, the latest image will be displayed according to your motion. Since shirts and hats are switched and displayed in the shadow image, it is possible to give a feeling that various clothes are virtually tried on. Further, since an operation interface is added to the shadow image, by touching the operation interface, the clothes superimposed on the own shadow image can be cleared. Thereafter, when an end instruction is input to the shadow image display device 40 via the input unit 31 (SB7, Yes), the shadow image display process ends.

(実施の形態2の効果)
実施の形態2によれば、実施の形態1と同様の効果に加えて、操作用インターフェースと人の位置との相対的な位置関係に応じた制御を行うので、様々な形状や位置の操作用インターフェースを利用した多様性のある制御を行うことが可能になる。
(Effect of Embodiment 2)
According to the second embodiment, in addition to the same effects as those of the first embodiment, control is performed according to the relative positional relationship between the operation interface and the position of the person. Various controls using the interface can be performed.

また、重畳画像を影画像に重畳して表示するので、出力する画像の仮想性をさらに高めることで、インターフェースやセキュリティー情報の面白みや多様性を向上させることができる。   In addition, since the superimposed image is displayed superimposed on the shadow image, it is possible to improve the fun and diversity of the interface and security information by further increasing the virtuality of the output image.

〔実施の形態3〕
次に、実施の形態3について説明する。この形態は、影画像をセキュリティに利用する形態である。ただし、実施の形態1の構成及び方法と同様の構成及び方法については、実施の形態1で使用したものと同一の符号を付して説明を省略し、あるいは単に説明を省略する。
[Embodiment 3]
Next, Embodiment 3 will be described. In this form, a shadow image is used for security. However, configurations and methods similar to those of the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and description thereof is omitted, or description is simply omitted.

(構成)
図12は、実施の形態3に係る影画像表示システム3を機能概念的に例示するブロック図である。この図12に示すように、この影画像表示システム3は、カメラ10、プロジェクタ20、カードリーダ50、及び影画像表示装置60を備えて構成されている。
(Constitution)
FIG. 12 is a block diagram illustrating a functional concept of the shadow image display system 3 according to the third embodiment. As shown in FIG. 12, the shadow image display system 3 includes a camera 10, a projector 20, a card reader 50, and a shadow image display device 60.

カードリーダ50は、床を通過する人が保持するRFIDカードに記録された個人IDを非接触で読み取る非接触カード読み取り装置である。   The card reader 50 is a non-contact card reader that reads a personal ID recorded on an RFID card held by a person passing through the floor in a non-contact manner.

影画像表示装置60は、実施の形態1の影画像表示装置30とほぼ同様に構成されているが、ここでは、記憶部33の輪郭履歴情報DB33b及び位置履歴情報DB33cは省略されており、記憶部33の操作内容定義情報DB33aには、実施の形態1とは異なる操作内容定義情報が格納されており、記憶部33にはセキュリティ情報DB33eが設けられている。また、制御部34には認証部34gが設けられている。   The shadow image display device 60 is configured in substantially the same manner as the shadow image display device 30 of the first embodiment, but here, the contour history information DB 33b and the position history information DB 33c of the storage unit 33 are omitted and stored. The operation content definition information DB 33a of the unit 33 stores operation content definition information different from that of the first embodiment, and the storage unit 33 is provided with a security information DB 33e. The control unit 34 is provided with an authentication unit 34g.

操作内容定義情報DB33aの操作内容定義情報は、図13の構成例に示すように、項目「認証結果」及び項目「操作内容」と、これら各項目に対応する情報を関連付けて構成されている。項目「認証結果」に対応する情報は、後述する認証部34gによる認証結果を特定するための情報であり、ここでは、「警戒レベル=ゼロ」、「警戒レベル=小」、「警戒レベル=中」、「警戒レベル=大」の4種類の情報が格納されている。例えば、「警戒レベル=ゼロ」とは、認証部34gにおいて認証を行った結果、認証対象となった人の警戒を行う必要性が全くないことを意味し、「警戒レベル=小」とは、認証部34gにおいて認証を行った結果、認証対象となった人の警戒を最小のレベルで行う必要があることを意味する。項目「操作内容」に対応する情報は、所定装置の操作内容を特定するための情報であり、ここでは、「影画像=なし」、「影画像=青」、「影画像=緑」、「影画像=赤」の4種類の情報である。すなわち、ここでは、所定装置として当該影画像表示装置60を制御することを想定しており、具体的には、当該影画像表示装置60において生成及び出力する影画像の有無や色を切り替えることを想定している。例えば、「影画像=なし」とは、影画像を出力しないことを意味しており、「影画像=青」とは、青色の影画像を生成して出力することを意味している。   As shown in the configuration example of FIG. 13, the operation content definition information in the operation content definition information DB 33a is configured by associating the item “authentication result” and the item “operation content” with information corresponding to these items. The information corresponding to the item “authentication result” is information for specifying the authentication result by the authentication unit 34g described later. Here, “warning level = zero”, “warning level = low”, “warning level = medium” ”And“ warning level = high ”are stored. For example, “warning level = zero” means that there is no need to perform warning of a person who has been authenticated as a result of authentication in the authentication unit 34g, and “warning level = low” As a result of the authentication performed by the authenticating unit 34g, it means that the person who is the subject of authentication needs to be alerted at a minimum level. The information corresponding to the item “operation content” is information for specifying the operation content of the predetermined device. Here, “shadow image = none”, “shadow image = blue”, “shadow image = green”, “ The four types of information are “shadow image = red”. That is, here, it is assumed that the shadow image display device 60 is controlled as a predetermined device. Specifically, the presence / absence and color of the shadow image generated and output by the shadow image display device 60 are switched. Assumed. For example, “shadow image = none” means that no shadow image is output, and “shadow image = blue” means that a blue shadow image is generated and output.

図12のセキュリティ情報DB33eは、セキュリティに関するセキュリティ情報を格納するセキュリティ情報格納手段である。このセキュリティ情報は、図14の構成例に示すように、項目「個人ID」及び項目「認証結果」と、これら各項目に対応する情報を関連付けて構成されている。項目「個人ID」に対応する情報は、床を通過する人が保持するRFIDカードに記録された個人IDである。なお、「個人ID」=「なし」とは、床を通過する人がRFIDカードを保持していない場合や、RFIDカードを保持している場合であっても当該RFIDカードから何らかの理由により個人IDが読み取れなかった場合を意味する。項目「認証結果」に対応する情報は、図13の操作内容定義情報の同一項目名に対応する情報と同じである。   The security information DB 33e in FIG. 12 is security information storage means for storing security information related to security. As shown in the configuration example of FIG. 14, the security information is configured by associating an item “personal ID” and an item “authentication result” with information corresponding to these items. The information corresponding to the item “personal ID” is a personal ID recorded on an RFID card held by a person passing through the floor. “Personal ID” = “None” means that the person who passes the floor does not hold the RFID card or holds the RFID card for some reason from the RFID card. Means that could not be read. The information corresponding to the item “authentication result” is the same as the information corresponding to the same item name in the operation content definition information of FIG.

また、図12の制御部34の認証部34gは、人の認証を行う認証手段である。この認証部34gによって実行される処理の詳細については後述する。   Further, the authentication unit 34g of the control unit 34 in FIG. 12 is an authentication unit that performs human authentication. Details of the processing executed by the authentication unit 34g will be described later.

(処理)
次に、このように構成される影画像表示システム3によって実行される影画像表示処理について説明する。図15は影画像表示処理のフローチャートである。ただし、SC1は、図6のSA1と同じであるため、その説明を省略する。
(processing)
Next, a shadow image display process executed by the shadow image display system 3 configured as described above will be described. FIG. 15 is a flowchart of the shadow image display process. However, SC1 is the same as SA1 in FIG.

SC2において、位置検出部34aは、図6のSA2と同様に人の位置を検出する。ただし、ここでは、位置履歴情報DB33cへの情報の格納は行わない(SC2)。   In SC2, the position detection unit 34a detects the position of a person in the same manner as SA2 in FIG. However, information is not stored in the position history information DB 33c here (SC2).

次に、認証部34gは、SA1で輪郭が抽出された人を対象に、個人IDに対応する認証を行う(SC3)。具体的には、認証部34gは、SA1で人の輪郭が抽出された際におけるカードリーダ50からの出力を取り込み、当該出力から個人IDを取得し、当該個人IDに対応する認証結果をセキュリティ情報DB33eから取得する。   Next, the authentication unit 34g performs authentication corresponding to the personal ID for the person whose contour is extracted in SA1 (SC3). Specifically, the authentication unit 34g takes in the output from the card reader 50 when the outline of the person is extracted in SA1, acquires the personal ID from the output, and displays the authentication result corresponding to the personal ID as security information. Obtained from the DB 33e.

そして、操作制御部34fは、認証部34gの認証結果に基づいて、所定装置の制御を行う(SC4)。具体的には、操作制御部34fは、認証部34gの認証結果に対応する操作内容を操作内容定義情報DB33aから取得し、後述するSC5で生成される影画像の有無や色を、当該取得した操作内容に応じて切り替える。   And the operation control part 34f controls a predetermined apparatus based on the authentication result of the authentication part 34g (SC4). Specifically, the operation control unit 34f acquires the operation content corresponding to the authentication result of the authentication unit 34g from the operation content definition information DB 33a, and acquires the presence / absence and color of the shadow image generated in SC5 described later. Switch according to the operation.

次いで、影生成部34cは、SC1において輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する(SC5)。ここでは、SC4で取得された操作内容に基づいて、影画像を生成する。すなわち、操作内容が「影画像=なし」である場合には、影画像の生成は行わず、操作内容が「影画像=青」である場合には、青色の影画像のみを、図6のSA5と同様に生成する。   Next, the shadow generation unit 34c generates a human shadow image based on the contour extracted by the contour extraction unit 34b in SC1 (SC5). Here, a shadow image is generated based on the operation content acquired in SC4. That is, when the operation content is “shadow image = none”, no shadow image is generated, and when the operation content is “shadow image = blue”, only the blue shadow image is shown in FIG. Generated in the same manner as SA5.

そして、画像出力部34dは、影生成部34cにて生成された影画像をプロジェクタ20を介して出力する(SC6)。図16には、このような影画像の出力例を図示する。この出力例では、図示右側の人に対しては、警戒レベル=ゼロであるために影画像が出力されておらず、図示左側の人に対しては、警戒レベル=中であるために緑の影画像が出力されている例を示している。   Then, the image output unit 34d outputs the shadow image generated by the shadow generation unit 34c via the projector 20 (SC6). FIG. 16 shows an output example of such a shadow image. In this output example, the shadow image is not output for the person on the right side in the figure because the alert level is zero, and the person on the left side in the figure is green because the alert level is medium. An example in which a shadow image is output is shown.

これらSC1からSC6の処理は、影画像表示処理の起動後に継続して繰り返し行われる。このため、壁には、床に立った人のセキュリティレベルに応じて影画像が表示されるので、当該人のセキュリティレベルを第三者に対して容易にかつ緩やかな形態(警告ランプや警報ブザーで警報等を行う場合に比べて、刺激が少ない形態)で報知することができる。その後、影画像表示装置60に対して入力部31を介して終了指示が入力された場合に(SC7、Yes)、影画像表示処理が終了する。   The processes from SC1 to SC6 are continuously repeated after the shadow image display process is started. For this reason, a shadow image is displayed on the wall according to the security level of the person standing on the floor, so that the security level of the person can be easily and gently adjusted to a third party (warning lamp or alarm buzzer). Compared to the case where an alarm or the like is performed, the notification can be made in a form with less stimulation. Thereafter, when an end instruction is input to the shadow image display device 60 via the input unit 31 (SC7, Yes), the shadow image display process ends.

(実施の形態3の効果)
実施の形態3によれば、実施の形態1と同様の効果に加えて、人の画像に基づいて輪郭が抽出され、この輪郭に基づいて影画像が生成されて出力され、さらに、人の位置に応じた制御が行われるので、人という物理的な存在ではなく、人の影画像という仮想的な画像を利用して様々な制御を行うことができるので、影画像をセキュリティー情報として利用した場合には、仮想的な情報による緩やかな監視を行うことで、監視される人の不快感を和らげることができる。
(Effect of Embodiment 3)
According to the third embodiment, in addition to the same effects as those of the first embodiment, a contour is extracted based on a human image, a shadow image is generated and output based on the contour, and the position of the human When a shadow image is used as security information, it is possible to perform various controls using a virtual image called a person's shadow image instead of the physical presence of a person. Therefore, it is possible to reduce the discomfort of the person being monitored by performing gradual monitoring using virtual information.

〔III〕各実施の形態に対する変形例
以上、各実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[III] Modifications to Each Embodiment While each embodiment has been described above, the specific configuration and means of the present invention are within the scope of the technical idea of each invention described in the claims. Modifications and improvements can be made arbitrarily. Hereinafter, such a modification will be described.

(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、前記した内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏することがある。さらに、本発明によって、上述していない課題を解決したり、上述していない効果を奏することもある。
(About problems to be solved and effects of the invention)
First, the problems to be solved by the invention and the effects of the invention are not limited to the above contents, and may vary depending on the implementation environment of the invention and the details of the configuration, and only a part of the problems described above. May be solved, or only some of the effects described above may be achieved. Furthermore, according to the present invention, problems not described above may be solved or effects not described above may be achieved.

(分散や統合について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成できる。例えば、影画像表示装置30、40、60の機能を、複数のサーバやパーソナルコンピュータに分散してもよい。
(About distribution and integration)
Further, each of the electrical components described above is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured. For example, the functions of the shadow image display devices 30, 40, 60 may be distributed to a plurality of servers and personal computers.

(各実施の形態の相互の関係について)
各実施の形態の構成や処理は、相互に混在したり、入れ替えることができる。例えば、実施の形態2においては、操作用インターフェースを壁に投影し、この操作用インターフェースに人が触れた場合に所定制御を行うこととしているが、この機能を実施の形態1に適用してもよい。
(About the mutual relationship of each embodiment)
The configuration and processing of each embodiment can be mixed or interchanged. For example, in the second embodiment, an operation interface is projected onto a wall, and predetermined control is performed when a person touches the operation interface. However, this function may be applied to the first embodiment. Good.

(制御の基準について)
実施の形態1、2では、人の動作に基づいて制御を行っているが、人の状態(例えば、所定位置に所定時間以上停止している状態)や軌跡(例えば、右腕の先端がS字カーブに沿って移動した)に基づいて、制御を行ってもよい。また、実施の形態2では、操作用インターフェースに人が触れた場合に所定制御を行うこととしているが、操作用インターフェースに対する所定範囲に人の体の一部が入った場合に所定制御を行う等、制御の基準となる操作用インターフェースとの関係性についても変更することができる。
(About control standards)
In the first and second embodiments, the control is performed based on the movement of the person. However, the person's state (for example, a state where the person has stopped at a predetermined position for a predetermined time or longer) and a locus (for example, the tip of the right arm is S-shaped). Control may be performed on the basis of (moved along a curve). In the second embodiment, the predetermined control is performed when a person touches the operation interface. However, the predetermined control is performed when a part of the human body enters the predetermined range with respect to the operation interface. Also, the relationship with the operation interface that becomes the control reference can be changed.

1、2、3 影画像表示システム
10 カメラ
20 プロジェクタ
30、40、60 影画像表示装置
31 入力部
32 出力部
33 記憶部
33a 操作内容定義情報DB
33b 輪郭履歴情報DB
33c 位置履歴情報DB
33d 商品情報DB
33e セキュリティ情報DB
34 制御部
34a 位置検出部
34b 輪郭抽出部
34c 影生成部
34d 画像出力部
34e 動作検出部
34f 操作制御部
50 カードリーダ
1, 2, 3 Shadow image display system 10 Camera 20 Projector 30, 40, 60 Shadow image display device 31 Input unit 32 Output unit 33 Storage unit 33a Operation content definition information DB
33b Outline history information DB
33c Location history information DB
33d Product information DB
33e Security information DB
34 control unit 34a position detection unit 34b contour extraction unit 34c shadow generation unit 34d image output unit 34e motion detection unit 34f operation control unit 50 card reader

Claims (6)

動物を撮像する撮像手段と、
前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出手段と、
前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出手段と、
前記輪郭抽出手段にて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成手段と、
前記影生成手段にて生成された影画像を出力する画像出力手段と、
前記位置検出手段にて検出された前記動物の位置に応じた制御を行う制御手段と、
を備える影画像表示システム。
Imaging means for imaging animals;
Position detecting means for detecting the position of the animal based on the image of the animal imaged by the imaging means;
Contour extracting means for extracting the contour of the animal based on the image of the animal imaged by the imaging means;
Based on the contour extracted by the contour extracting means, a shadow generating means for generating a shadow image of the animal;
Image output means for outputting a shadow image generated by the shadow generation means;
Control means for performing control according to the position of the animal detected by the position detection means;
A shadow image display system comprising:
前記位置検出手段にて検出された前記動物の位置に基づいて、前記動物の動作を検出する動作検出手段を備え、
前記制御手段は、前記動作検出手段にて検出された前記動物の動作に応じた制御を行う、
請求項1に記載の影画像表示システム。
Based on the position of the animal detected by the position detection means, comprising motion detection means for detecting the motion of the animal;
The control means performs control according to the movement of the animal detected by the movement detection means.
The shadow image display system according to claim 1.
前記画像出力手段は、前記影画像の出力領域内に、操作用インターフェースを出力し、
前記制御手段は、前記影画像の出力領域内に出力された前記操作用インターフェースと、前記位置検出手段にて検出された前記動物の位置との相対的な位置関係に応じた制御を行う、
請求項1又は2に記載の影画像表示システム。
The image output means outputs an operation interface in an output area of the shadow image,
The control means performs control according to a relative positional relationship between the operation interface output in the output area of the shadow image and the position of the animal detected by the position detection means.
The shadow image display system according to claim 1 or 2.
前記影画像に重畳して表示する重畳画像を格納する重畳画像格納手段を備え、
前記制御手段は、前記位置検出手段にて検出された前記動物の位置に応じて、前記影画像に重畳して表示すべき重畳画像を前記重畳画像格納手段から取得すると共に、当該取得した重畳画像の表示位置を決定し、当該取得した重畳画像を当該決定した位置に基づいて前記影画像に重畳して表示する、
請求項1から3のいずれか一項に記載の影画像表示システム。
A superimposed image storage means for storing a superimposed image to be displayed superimposed on the shadow image;
The control means acquires from the superimposed image storage means a superimposed image to be displayed superimposed on the shadow image in accordance with the position of the animal detected by the position detection means, and the acquired superimposed image. And displaying the superimposed image obtained by superimposing the acquired superimposed image on the shadow image based on the determined position.
The shadow image display system according to any one of claims 1 to 3.
動物を撮像する撮像ステップと、
前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出ステップと、
前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出ステップと、
前記輪郭抽出ステップにて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成ステップと、
前記影生成ステップにて生成された影画像を出力する画像出力ステップと、
前記位置検出ステップにて検出された前記動物の位置に応じた制御を行う制御ステップと、
を含む影画像表示方法。
An imaging step for imaging animals;
A position detecting step for detecting the position of the animal based on the image of the animal imaged in the imaging step;
A contour extracting step for extracting a contour of the animal based on the image of the animal imaged in the imaging step;
A shadow generation step of generating a shadow image of the animal based on the contour extracted in the contour extraction step;
An image output step for outputting the shadow image generated in the shadow generation step;
A control step for performing control according to the position of the animal detected in the position detection step;
Shadow image display method including
請求項5に記載の方法をコンピュータに実行させる影画像表示プログラム。   A shadow image display program for causing a computer to execute the method according to claim 5.
JP2010250663A 2010-11-09 2010-11-09 Shadow image display system, shadow image display method, and shadow image display program Active JP5631700B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010250663A JP5631700B2 (en) 2010-11-09 2010-11-09 Shadow image display system, shadow image display method, and shadow image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010250663A JP5631700B2 (en) 2010-11-09 2010-11-09 Shadow image display system, shadow image display method, and shadow image display program

Publications (2)

Publication Number Publication Date
JP2012103836A true JP2012103836A (en) 2012-05-31
JP5631700B2 JP5631700B2 (en) 2014-11-26

Family

ID=46394173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010250663A Active JP5631700B2 (en) 2010-11-09 2010-11-09 Shadow image display system, shadow image display method, and shadow image display program

Country Status (1)

Country Link
JP (1) JP5631700B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069018A1 (en) * 2012-11-05 2014-05-08 Kabushiki Kaisha Toshiba Electronic device and information processing method
JP2014197380A (en) * 2013-03-05 2014-10-16 株式会社リコー Image projector, system, image projection method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040147A (en) * 1998-07-24 2000-02-08 Atr Media Integration & Communications Res Lab Handshake recognition device
JP2010009311A (en) * 2008-06-26 2010-01-14 Panasonic Corp User interface device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000040147A (en) * 1998-07-24 2000-02-08 Atr Media Integration & Communications Res Lab Handshake recognition device
JP2010009311A (en) * 2008-06-26 2010-01-14 Panasonic Corp User interface device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014069018A1 (en) * 2012-11-05 2014-05-08 Kabushiki Kaisha Toshiba Electronic device and information processing method
JP2014092715A (en) * 2012-11-05 2014-05-19 Toshiba Corp Electronic equipment, information processing method, and program
JP2014197380A (en) * 2013-03-05 2014-10-16 株式会社リコー Image projector, system, image projection method and program

Also Published As

Publication number Publication date
JP5631700B2 (en) 2014-11-26

Similar Documents

Publication Publication Date Title
JP6221224B2 (en) Robot system, program, production system and robot
JP5845830B2 (en) Information processing apparatus, display control method, and program
US20170061696A1 (en) Virtual reality display apparatus and display method thereof
US8976160B2 (en) User interface and authentication for a virtual mirror
US10678329B2 (en) Line-of-sight input device, and method of line-of-sight input
JP6766824B2 (en) Information processing equipment, information processing methods, and programs
JP6801263B2 (en) Display control program, display control method and display control device
KR20170026164A (en) Virtual reality display apparatus and display method thereof
JP2013101529A (en) Information processing apparatus, display control method, and program
KR102163742B1 (en) Electronic apparatus and operation method thereof
JP6132719B2 (en) Information processing device
JP2013101526A (en) Information processing apparatus, display control method, and program
JP6000929B2 (en) Information processing device
US10855925B2 (en) Information processing device, information processing method, and program
KR20150116897A (en) Detecting natural user-input engagement
CN111199583B (en) Virtual content display method and device, terminal equipment and storage medium
US10668372B2 (en) Information processing apparatus, information processing method, and program
US10446003B2 (en) System and methods for monitoring and entrapment prevention for a person disposed in a bed
CN109558004B (en) Control method and device for human body auxiliary robot
CN109154656A (en) The audio devices of support posture with visual feedback
JP5631700B2 (en) Shadow image display system, shadow image display method, and shadow image display program
JP2019079481A (en) Biological information analyzer and method for simulating face pattern
US20170177073A1 (en) Method of operating a control system and control system therefore
CN111279410B (en) Display apparatus and display apparatus control method
JP6632298B2 (en) Information processing apparatus, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

R150 Certificate of patent or registration of utility model

Ref document number: 5631700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150