JP2012103836A - Shadow image display system, shadow image display method and shadow image display program - Google Patents
Shadow image display system, shadow image display method and shadow image display program Download PDFInfo
- Publication number
- JP2012103836A JP2012103836A JP2010250663A JP2010250663A JP2012103836A JP 2012103836 A JP2012103836 A JP 2012103836A JP 2010250663 A JP2010250663 A JP 2010250663A JP 2010250663 A JP2010250663 A JP 2010250663A JP 2012103836 A JP2012103836 A JP 2012103836A
- Authority
- JP
- Japan
- Prior art keywords
- shadow image
- shadow
- image
- image display
- animal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、動物の影の画像を利用して各種の制御を行うための影画像表示システム、影画像表示方法、及び影画像表示プログラムに関する。 The present invention relates to a shadow image display system, a shadow image display method, and a shadow image display program for performing various controls using an image of an animal shadow.
従来、人をカメラにて撮像し、当該撮像された画像に基づいて、所定装置の制御を行ったり、特定の領域を監視するシステムが提案されている。 Conventionally, a system has been proposed in which a person is imaged by a camera, and a predetermined device is controlled or a specific area is monitored based on the captured image.
例えば、所定装置の制御を行うものとしては、カメラにて撮像された画像に基づいて、人の動作を検出し、所定動作が検出された場合には、当該動作に予め割り当てられた所定の制御を行うシステムが提案されている。このようなシステムによれば、人の動作を装置制御用のインターフェースとして利用することができる。 For example, for controlling a predetermined device, a human motion is detected based on an image captured by a camera, and when a predetermined motion is detected, a predetermined control assigned in advance to the motion is detected. A system has been proposed. According to such a system, human movement can be used as an interface for device control.
あるいは、特定の領域を監視するものとしては、敷地内に設けられたカメラからの映像信号に基づいて監視対象を特定し、当該特定した監視対象の位置や軌跡を表示装置に表示するシステムが提案されている(例えば、特許文献1参照)。このようなシステムによれば、人の位置や軌跡をセキュリティー情報として利用することができる。 Alternatively, as a system for monitoring a specific area, a system is proposed in which a monitoring target is specified based on a video signal from a camera provided in the site, and the position and locus of the specified monitoring target are displayed on a display device. (For example, refer to Patent Document 1). According to such a system, the position and trajectory of a person can be used as security information.
しかしながら、このようなシステムでは、人自体の動作や位置等を直接的にインターフェースやセキュリティー情報として利用しており、人という物理的な存在を単にそのまま利用していたので、インターフェースとしての面白みに欠けたり、監視される人に対して不快感を与えるという問題があった。 However, in such a system, the movement or position of the person itself is directly used as an interface or security information, and the physical existence of the person is simply used as it is, so the interface is not interesting. There was a problem of discomforting the person being monitored.
本発明は、上記に鑑みてなされたものであって、人を含む動物の動作や位置等をインターフェースやセキュリティー情報として利用する場合において、インターフェースとしての面白みを向上させたり、セキュリティー情報として利用される人に対して不快感を取り除くことが可能となる、影画像表示システム、影画像表示方法、及び影画像表示プログラムを提供することを目的とする。 The present invention has been made in view of the above, and in the case where the movement or position of an animal including a person is used as an interface or security information, the fun of the interface is improved or the security information is used. An object of the present invention is to provide a shadow image display system, a shadow image display method, and a shadow image display program capable of removing discomfort for a person.
上述した課題を解決し、目的を達成するために、請求項1に記載の影画像表示システムは、動物を撮像する撮像手段と、前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出手段と、前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出手段と、前記輪郭抽出手段にて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成手段と、前記影生成手段にて生成された影画像を出力する画像出力手段と、前記位置検出手段にて検出された前記動物の位置に応じた制御を行う制御手段とを備える。 In order to solve the above-described problems and achieve the object, the shadow image display system according to claim 1 is based on an imaging unit that images an animal, and an image of the animal captured by the imaging unit. Based on the position detection means for detecting the position of the animal, the contour extraction means for extracting the contour of the animal based on the image of the animal imaged by the imaging means, and the contour extracted by the contour extraction means A shadow generation unit that generates a shadow image of the animal, an image output unit that outputs a shadow image generated by the shadow generation unit, and a position of the animal detected by the position detection unit. Control means for performing control.
また、請求項2に記載の影画像表示システムは、請求項1に記載の影画像表示システムにおいて、前記位置検出手段にて検出された前記動物の位置に基づいて、前記動物の動作を検出する動作検出手段を備え、前記制御手段は、前記動作検出手段にて検出された前記動物の動作に応じた制御を行う。
The shadow image display system according to
また、請求項3に記載の影画像表示システムは、請求項1又は2に記載の影画像表示システムにおいて、前記画像出力手段は、前記影画像の出力領域内に、操作用インターフェースを出力し、前記制御手段は、前記影画像の出力領域内に出力された前記操作用インターフェースと、前記位置検出手段にて検出された前記動物の位置との相対的な位置関係に応じた制御を行う。
The shadow image display system according to
また、請求項4に記載の影画像表示システムは、請求項1から3のいずれか一項に記載の影画像表示システムにおいて、前記影画像に重畳して表示する重畳画像を格納する重畳画像格納手段を備え、前記制御手段は、前記位置検出手段にて検出された前記動物の位置に応じて、前記影画像に重畳して表示すべき重畳画像を前記重畳画像格納手段から取得すると共に、当該取得した重畳画像の表示位置を決定し、当該取得した重畳画像を当該決定した位置に基づいて前記影画像に重畳して表示する。 The shadow image display system according to claim 4 is the shadow image display system according to any one of claims 1 to 3, wherein the superimposed image storage stores a superimposed image to be displayed superimposed on the shadow image. The control means acquires from the superimposed image storage means a superimposed image to be displayed superimposed on the shadow image according to the position of the animal detected by the position detection means, and The display position of the acquired superimposed image is determined, and the acquired superimposed image is displayed superimposed on the shadow image based on the determined position.
また、請求項5に記載の影画像表示方法は、動物を撮像する撮像ステップと、前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出ステップと、前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成ステップと、前記影生成ステップにて生成された影画像を出力する画像出力ステップと、前記位置検出ステップにて検出された前記動物の位置に応じた制御を行う制御ステップとを含む。 The shadow image display method according to claim 5 includes an imaging step of imaging an animal, a position detection step of detecting the position of the animal based on the image of the animal captured by the imaging step, A contour extraction step for extracting the contour of the animal based on the image of the animal imaged in the imaging step, and a shadow generation for generating a shadow image of the animal based on the contour extracted in the contour extraction step An image output step for outputting the shadow image generated in the shadow generation step; and a control step for performing control in accordance with the position of the animal detected in the position detection step.
また、請求項6に記載の影画像表示プログラムは、請求項5に記載の方法をコンピュータに実行させる。 A shadow image display program according to claim 6 causes a computer to execute the method according to claim 5.
請求項1に記載の影画像表示システム、請求項5に記載の影画像表示方法、及び請求項6に記載の影画像表示プログラムによれば、動物の画像に基づいて輪郭が抽出され、この輪郭に基づいて影画像が生成されて出力され、さらに、動物の位置に応じた制御が行われるので、動物という物理的な存在ではなく、動物の影画像という仮想的な画像を利用して様々な制御を行うことができるので、影画像をインターフェースとして利用した場合には、仮想的な面白みのあるインターフェースを構築することができ、あるいは、影画像をセキュリティー情報として利用した場合には、仮想的な情報による緩やかな監視を行うことで、監視される人の不快感を和らげることができる。 According to the shadow image display system according to claim 1, the shadow image display method according to claim 5, and the shadow image display program according to claim 6, an outline is extracted based on an animal image, and the outline is extracted. The shadow image is generated and output based on the image, and further, the control according to the position of the animal is performed. Therefore, various images are used by using a virtual image called the animal shadow image instead of the physical existence of the animal. Since it is possible to perform control, when a shadow image is used as an interface, a virtual interesting interface can be constructed, or when a shadow image is used as security information, a virtual By performing gentle monitoring with information, the discomfort of the monitored person can be reduced.
また、請求項2に記載の影画像表示システムによれば、動物の動作に応じた制御を行うので、動作に応じた直観的で迅速な制御を行うことが可能になる。 In addition, according to the shadow image display system of the second aspect, since the control according to the movement of the animal is performed, it is possible to perform the intuitive and quick control according to the movement.
また、請求項3に記載の影画像表示システムによれば、操作用インターフェースと動物の位置との相対的な位置関係に応じた制御を行うので、様々な形状や位置の操作用インターフェースを利用した多様性のある制御を行うことが可能になる。
Further, according to the shadow image display system according to
また、請求項4に記載の影画像表示システムによれば、重畳画像を影画像に重畳して表示するので、出力する画像の仮想性をさらに高めることで、インターフェースやセキュリティー情報の面白みや多様性を向上させることができる。 According to the shadow image display system of claim 4, since the superimposed image is displayed superimposed on the shadow image, the virtuality of the output image is further enhanced, so that the interface and security information are interesting and diverse. Can be improved.
以下に添付図面を参照して、この発明に係る影画像表示システム、影画像表示方法、及び影画像表示プログラムの各実施の形態を詳細に説明する。まず、〔I〕各実施の形態に共通の基本的概念を説明した後、〔II〕各実施の形態の具体的内容について説明し、〔III〕最後に、各実施の形態に対する変形例について説明する。ただし、各実施の形態によって本発明が限定されるものではない。 Hereinafter, embodiments of a shadow image display system, a shadow image display method, and a shadow image display program according to the present invention will be described in detail with reference to the accompanying drawings. [I] First, the basic concept common to each embodiment was explained, then [II] the specific contents of each embodiment were explained, and [III] Finally, modifications to each embodiment were explained. To do. However, the present invention is not limited to each embodiment.
〔I〕各実施の形態に共通の基本的概念
まず、各実施の形態に共通の基本的概念について説明する。各実施の形態に係る影画像表示システム、影画像表示方法、及び影画像表示プログラムは、商業施設、オフィス、及びアミューズメント施設を含む任意の空間において、動物の影の画像を利用して各種の制御を行うためのものである。
[I] Basic concept common to the embodiments First, the basic concept common to the embodiments will be described. The shadow image display system, the shadow image display method, and the shadow image display program according to each embodiment perform various controls using an animal shadow image in an arbitrary space including a commercial facility, an office, and an amusement facility. Is for doing.
動物とは、人の他にも、犬や猫の如き任意の生物を含む概念である。例えば、犬の如き動物が所定動作を行ったことを、当該動物の影の画像(以下、影画像)を利用して検出し、各種の制御を行うことができる。この場合において、動物自身に、当該制御を行う意思があったか否かに関わらず、当該制御を行うことができる。以下では、人の影画像を利用する場合について説明する。 An animal is a concept that includes an arbitrary organism such as a dog or a cat in addition to a person. For example, it is possible to detect that an animal such as a dog has performed a predetermined operation using a shadow image of the animal (hereinafter referred to as a shadow image) and perform various controls. In this case, the control can be performed regardless of whether or not the animal itself has an intention to perform the control. Below, the case where a person's shadow image is utilized is demonstrated.
影とは、動物が光を遮った際に、当該動物を挟んで当該光と反対側にできる、当該動物の形の像を意味するが、ここでは、このような像以外に、後述する投影手段によって人為的に投影された動物の形の像を含む。また、光を遮った動物の外形を完全に反映した黒い像以外にも、人為的に外形や色が修正された像を含む。 The shadow means an image of the shape of the animal that is formed on the opposite side of the light when the animal blocks the light. Here, in addition to such an image, a projection described later is used. Contains images of animal shapes artificially projected by means. In addition to a black image that completely reflects the outer shape of an animal that blocks light, an image in which the outer shape and color are artificially corrected is included.
各種の制御の具体的内容は任意であり、動物の影画像を利用して行うことができる限りにおいて、あらゆる制御が対象になるが、以下では、影画像を装置制御のインターフェースとして利用する場合(実施の形態1及び実施の形態2)と、影画像を用いてセキュリティ制御を行う場合(実施の形態3)とについて説明する。 The specific contents of the various controls are arbitrary, and as long as they can be performed using animal shadow images, all types of control are targeted. In the following, when shadow images are used as an interface for device control ( Embodiment 1 and Embodiment 2) and a case where security control is performed using a shadow image (Embodiment 3) will be described.
各実施の形態に係る影画像表示システム、影画像表示方法、及び影画像表示プログラムの特徴の一つは、撮像手段により撮像された動物の画像に基づいて、動物の影画像を生成して出力し、動物の位置に応じた制御を行う点にある。このように、人為的に生成した影画像を利用することで、人という物理的な存在を単にそのまま利用する場合に比べて、インターフェースとしての面白みを向上させたり、セキュリティー情報として利用される人に対して不快感を与えることを回避することができる。 One of the features of the shadow image display system, shadow image display method, and shadow image display program according to each embodiment is to generate and output an animal shadow image based on the animal image captured by the imaging means. However, the control is performed according to the position of the animal. In this way, artificially generated shadow images can be used to improve the fun of the interface compared to simply using the physical presence of people as it is, or to people who are used as security information On the other hand, it is possible to avoid discomfort.
〔II〕各実施の形態の具体的内容
次に、各実施の形態の具体的内容について説明する。
[II] Specific Contents of Each Embodiment Next, specific contents of each embodiment will be described.
〔実施の形態1〕
最初に、実施の形態1について説明する。この形態は、影画像を装置制御のインターフェースとして利用する形態である。
[Embodiment 1]
First, the first embodiment will be described. In this form, a shadow image is used as an apparatus control interface.
(構成)
図1は、実施の形態1に係る影画像表示システム1を適用した空間の斜視図である。図1に示すように、この空間には、床と壁が配置されており、その内部又は外部近傍に影画像表示システム1が配置されている。ここでは、床に人が立ち、この人の影画像が壁に投影されるものとする。従って、壁の表面は、影画像を投影する投影面として機能する。
(Constitution)
FIG. 1 is a perspective view of a space to which a shadow image display system 1 according to Embodiment 1 is applied. As shown in FIG. 1, a floor and a wall are arranged in this space, and a shadow image display system 1 is arranged inside or outside the space. Here, it is assumed that a person stands on the floor and a shadow image of the person is projected on the wall. Therefore, the surface of the wall functions as a projection surface for projecting a shadow image.
図2は、影画像表示システム1を機能概念的に例示するブロック図である。図2に示すように、この影画像表示システム1は、カメラ10、プロジェクタ20、及び影画像表示装置30を備えて構成されている。
FIG. 2 is a block diagram illustrating the shadow image display system 1 in terms of functional concepts. As shown in FIG. 2, the shadow image display system 1 includes a
(構成−カメラ)
カメラ10は、人を撮像する撮像手段であり、撮像した画像を影画像表示装置30に出力する。例えば、カメラ10は、床に人が立つと想定される領域に向けて設置されている。このカメラ10は、例えば、赤外線サーモグラフィカメラとして構成され、撮像領域における赤外線を検出し、当該赤外線の波長分布に基づいて、撮像領域の温度分布画像を出力する。このようにサーモグラフィカメラを使用することで、照度が不足している場合や背景が雑多な場合であっても、撮像された画像に基づいて人の輪郭を正確に検出することが可能になる。ただし、このような必要性がない場合には、光学式カメラを使用してもよい。
(Configuration-Camera)
The
(構成−プロジェクタ)
プロジェクタ20は、後述する影生成部34cにて生成された影画像を出力する画像出力手段である。例えば、プロジェクタ20は、壁に画像を投影可能な位置であって、床に人が立つと想定される領域と投影光線とが相互に干渉しない位置に設置されている。例えば、プロジェクタ20は、液晶プロジェクタやDLPプロジェクタの如き任意構造の公知のプロジェクタとして構成される。
(Configuration-Projector)
The
(構成−影画像表示装置)
影画像表示装置30は、影画像表示に関する制御を行う制御装置であり、入力部31、出力部32、記憶部33、及び制御部34を備えて構成される。この影画像表示装置30には、上述のカメラ10及びプロジェクタ20が有線又は無線にて接続されている。
(Configuration-Shadow image display device)
The shadow
入力部31は、影画像表示装置30が実行する各種処理に必要な情報を当該影画像表示装置30に入力する入力手段であり、ここでは、キーボード及びマウスとして構成されている。
The
出力部32は、影画像表示装置30からの情報を外部装置に出力する出力手段であり、ここでは、モニタ、スピーカ、及び外部装置制御用のインターフェースとして構成されている。外部装置制御用のインターフェースとは、後述する操作制御部34fが所定の外部装置に対して制御を行う際に、当該所定の外部装置に対して制御信号を送信等するためのインターフェースである。
The
記憶部33は、影画像表示装置30の動作に必要なプログラム及び各種のデータを記憶する記憶手段であり、例えば、外部記憶装置としてのハードディスク(図示省略)を用いて構成されている。ただし、ハードディスクに代えてあるいはハードディスクと共に、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。
The
この記憶部33は、操作内容定義情報データベース(以下、データベースをDBと表記する)33a、輪郭履歴情報DB33b、及び位置履歴情報DB33cを備える。
The
操作内容定義情報DB33aは、所定装置の操作内容を定義するための操作内容定義情報を格納する操作内容定義情報格納手段である。この操作内容定義情報は、図3の構成例に示すように、項目「動作」及び項目「操作内容」と、これら各項目に対応する情報を関連付けて構成されている。項目「動作」に対応する情報は、人の動作を特定するための情報であり、ここでは、「右腕上げ」、「右腕下げ」、「左腕上げ」、「左腕下げ」の4種類の情報である。例えば、「右腕上げ」とは、人が右腕を所定基準位置よりも下方から上方に上げる動作を示している。項目「操作内容」に対応する情報は、所定装置の操作内容を特定するための情報であり、ここでは、「空調機ON」、「空調機OFF」、「照明ON」、「照明OFF」の4種類の情報である。すなわち、ここでは、所定装置として空調機又は照明(いずれも図示省略)を制御することを想定しており、例えば、「空調機ON」とは、空調機の電源をONすることを意味している。この操作内容定義情報DB33aは、影画像表示システム1の管理者等により任意に設定され、後述する影画像表示処理に先だって予め記憶部33に格納される。
The operation content
図2の輪郭履歴情報DB33bは、人の輪郭の履歴を特定するための輪郭履歴情報を格納する輪郭履歴情報格納手段である。この輪郭履歴情報は、図4の構成例に示すように、項目「時刻」及び項目「輪郭」と、これら各項目に対応する情報を関連付けて構成されている。項目「時刻」に対応する情報は、人の輪郭が検出された時刻を特定するための情報であり、例えば、「13:15:25」とある場合には、13時15分25秒に人の輪郭が検出されたことを示す。項目「輪郭」は、記録された輪郭を特定するための情報であり、ここでは、輪郭抽出部34bにて抽出された画像データが記録されている。
The contour
図2の位置履歴情報DB33cは、人の位置の履歴を特定するための位置履歴情報を格納する位置履歴情報格納手段である。この位置履歴情報は、図5の構成例に示すように、項目「時刻」及び項目「位置」と、これら各項目に対応する情報を関連付けて構成されている。項目「時刻」に対応する情報は、図4の同一項目名に対応する情報と同じである。項目「位置」は、さらに項目「中心」、項目「右腕」、及び項目「左腕」を含んでおり、項目「中心」に対応する情報は、人の中心の位置(ここでは、所定基準位置に対する上下方向(y方向)と左右方向(x方向)の距離(座標))を示し、項目「右腕」に対応する情報は、人の右腕の位置(ここでは、所定基準位置よりも上にあるか下にあるか)を示し、項目「右腕」に対応する情報は、人の左腕の位置(ここでは、所定基準位置よりも上にあるか下にあるか)を示している。例えば、項目「右腕」に対応する情報として「上」とある場合には、右腕が所定基準位置よりも上にあることを示す。この位置履歴情報は、後述する影画像表示処理において記憶部33に格納される。
The position
図2の制御部34は、影画像表示装置30に関する計算処理を行う処理手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及び影画像表示プログラムを含む各種のプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。プログラムは、磁気的記録媒体や光学的記録媒体を含む任意の記録媒体に記録され、記憶部33にインストールされる。
The
この制御部34は、機能概念的に、位置検出部34a、輪郭抽出部34b、影生成部34c、画像出力部34d、動作検出部34e、及び操作制御部34fを備える。位置検出部34aは、カメラ10により撮像された人の画像に基づいて、人の位置を検出する位置検出手段である。輪郭抽出部34bは、カメラ10により撮像された人の画像に基づいて、人の輪郭を抽出する輪郭抽出手段である。影生成部34cは、輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する影生成手段である。画像出力部34dは、影生成部34cにて生成された影画像を出力する画像出力手段である。動作検出部34eは、位置検出部34aにて検出された人の位置に基づいて、人の動作を検出する動作検出手段である。操作制御部34fは、位置検出部34aにて検出された人の位置に応じた制御を行う制御手段である。これら各部によって実行される処理の詳細については後述する。
The
(処理)
次に、このように構成される影画像表示システム1によって実行される影画像表示処理について説明する。図6は影画像表示処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。
(processing)
Next, a shadow image display process executed by the shadow image display system 1 configured as described above will be described. FIG. 6 is a flowchart of the shadow image display process (in the following description of each process, step is abbreviated as “S”).
この影画像表示処理は、例えば、影画像表示装置30の電源投入後に自動的に起動され、あるいは影画像表示装置30に対して入力部31を介して起動指示が入力された場合に起動される。影画像表示処理が起動されると、輪郭抽出部34bは、カメラ10から入力された画像を解析することにより、人の輪郭を抽出し、当該抽出した輪郭の画像データを公知の方法で取得した当該輪郭の検出時の時刻に関連付けて輪郭履歴情報DB33bに格納する(SA1)。この抽出は、公知のアルゴリズムで行うことができ、例えば、画像を所定閾値で2値化し、2値化した画像に対してラベリング処理を行うことで領域のグループ化を行い、グループ化された領域の中で最大の領域を人の領域として特定し、当該特定した領域の外形を人の輪郭として抽出する。
This shadow image display process is automatically started after the shadow
また、位置検出部34aは、カメラ10により撮像された人の画像に基づいて、人の位置を検出し、当該検出した人の位置を、公知の方法で取得した当該位置の検出時の時刻に関連付けて、位置履歴情報DB33cに格納する(SA2)。ここで、「位置」とは、少なくとも、人が所定の制御用動作を行ったか否かを認識できるように検出されるものであり、人全体の位置を検出する場合のみならず、人の所定部位(例えば腕や足等)の位置を検出する場合も含む。また、緯度及び経度に基づく絶対座標上の位置に限らず、所定基準に対する相対座標上の位置を検出してもよい。
Further, the
ここでは、床に人が立つと想定される領域内に設定された所定基準に対する人の中心の相対的な位置と左右の腕の相対的な位置を検出するものとする。また、このSA3における人の位置の検出は、公知のアルゴリズムで行うことができ、例えば、SA1と同様に人の輪郭を抽出し、さらに、当該人の輪郭の中から、人の上下左右の中心位置を抽出したり、人の腕の輪郭が有する特徴的な位置や形状に合致する部分的輪郭を抽出することで腕の輪郭を抽出することができる。また、カメラ10と床との位置関係を予め位置検出部34aに登録しておくことで、所定基準に対する人の中心の位置や腕の相対的な位置を特定することができる。なお、人の位置の検出と位置履歴情報DB33cへの記録は、所定間隔(例えば、5秒間隔)で行ったり、人の位置が前回検出時の位置から変化したと判定された場合のみに行うようにしてもよい。
Here, it is assumed that the relative position of the person's center and the relative positions of the left and right arms with respect to a predetermined reference set in an area where a person is supposed to stand on the floor are detected. The detection of the position of the person in SA3 can be performed by a known algorithm. For example, the outline of the person is extracted in the same manner as SA1, and the person's top, bottom, left and right centers are extracted from the outline of the person. The contour of the arm can be extracted by extracting the position or extracting a partial contour that matches the characteristic position or shape of the contour of the human arm. In addition, by registering the positional relationship between the
次いで、動作検出部34eは、位置検出部34aにて検出された人の位置に基づいて、人の動作を検出する(SA3)。この動作の検出は、位置履歴情報DB33cに格納された位置履歴情報に基づいて行う。すなわち、動作検出部34eは、位置履歴情報として相互に関連付けて格納されている時刻と位置に基づいて、人の軌跡を特定し、この軌跡に基づいて、人の動作を特定する。例えば、位置履歴情報に、「時刻」=「13:15:25」と「位置」=「右腕」=「下」が関連付けて記録されており、「時刻」=「13:15:30」と「位置」=「右腕」=「上」が関連付けて記録されている場合には、「13:15:25」から「13:15:30」に至る間(この例では5秒間)の右腕の軌跡として、当該右腕が下から上に移動したことが特定できるので、「人の動作」=「右腕上げ」であるものと特定する。
Next, the
そして、操作制御部34fは、動作検出部34eにて検出された人の動作に基づいて、所定装置の制御を行う(SA4)。具体的には、操作制御部34fは、動作検出部34eにて検出された人の動作に対応する操作内容があるか否かを操作内容定義情報DB33aを参照することにより特定し、当該操作内容がある場合には、当該操作内容に基づいて、所定装置の制御を行う。例えば、「人の動作」=「右腕上げ」である場合には、「操作内容」=「空調機ON」を特定し、空調機をONするための制御信号を、出力部32の外部装置制御用のインターフェースを介して、無線又は有線にて空調機に出力する。このような処理を行うことで、人の動作に基づいて、所定装置を制御することができるため、人の動作を、所定装置の制御のためのインターフェースとして利用することが可能になる。
And the
次いで、影生成部34cは、SA1において輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する(SA5)。この影画像の生成は、輪郭抽出部34bにて抽出された輪郭によって囲まれる領域を、黒又はその他の所定の色で埋めることにより生成される。
Next, the
ここで、影生成部34cは、人の影画像として、現在の時点における人の位置に対応する影画像と、所定の過去の1つ以上の時点(ここでは、2つの時点)における人の位置に対応する影画像とを、相互に異なる色で生成し、これら複数の影画像を重畳させることで、最終的に投影する影画像を生成する。すなわち、影生成部34cは、現在の時点における人の位置に対応する影画像としては、輪郭履歴情報DB33bに記録されている輪郭履歴情報の中から、最新の時刻に対応する輪郭の画像データを取得し、この輪郭によって囲まれる領域を、所定の第1色(ここでは、赤色)で埋めることにより生成する。また、影生成部34cは、過去の時点における人の位置に対応する影画像としては、輪郭履歴情報DB33bに記録されている輪郭履歴情報の中から、最新より1つ前の時刻に対応する輪郭の画像データ及び最新より2つ前の時刻に対応する輪郭の画像データを取得し、1つ前の時刻に対応する輪郭によって囲まれる領域を、所定の第2色(ここでは、緑色)で埋めることにより生成し、さらに、2つ前の時刻に対応する輪郭によって囲まれる領域を、所定の第3色(ここでは、青色)で埋めることにより生成する。
Here, the
そして、影生成部34cは、このように生成した複数(ここでは、合計3つ)の影画像を、各影画像の中心の位置が、位置履歴情報DB33cに格納されている人の中心の位置であって、各影画像の生成に使用した画像データに対応する人の中心の位置にそれぞれ対応する位置となるように、重畳させる。なお、このように生成する影画像の数は任意であり、最低1つあればよいが、このように複数の影画像を用いることで、人の動作の軌跡を視覚的に把握できる影画像を生成できる。また、影画像の色は任意であり、全ての影画像を同一色としてもよいが、このように赤、緑、青の光の3原色を使用することで、全ての影画像が重畳した領域は白になる等、視覚的な効果を高めることができる。
Then, the
次いで、画像出力部34dは、影生成部34cにて生成された影画像をプロジェクタ20を介して出力する(SA6)。すなわち、影生成部34cにて生成された影画像のデータをプロジェクタ20に出力することで、このプロジェクタ20から影画像が壁に投影される。この際、プロジェクタ20と壁との位置関係を予め画像出力部34dに登録しておくことで、影画像がプロジェクタ20から壁に投影された場合の投影倍率を算定し、この投影倍率に基づいて、壁に投影された影画像の位置及び大きさを制御してもよい。例えば、影画像を、その下端位置が壁の下端位置に合致するように投影してもよい。また、位置検出部34aにて人の位置を検出し、当該検出した人の位置に最も近接する壁の表面に、影画像を投影してもよい。このような制御を行う場合、必要に応じて、プロジェクタ20には投影倍率調整用のズーム機構や投影位置調整用の移動機構を設けておき、画像出力部34dからの制御信号によりこれらの機構を制御するようにしてもよい。
Next, the
これらSA1からSA6の処理は、影画像表示処理の起動後に継続して繰り返し行われる。このため、床に人が立っている場合には、当該人の影画像が壁にほぼリアルタイムで投影され続け、人が動作を行う毎に、この動作に応じた影画像が壁にほぼリアルタイムで投影され続ける。その後、影画像表示装置30に対して入力部31を介して終了指示が入力された場合に(SA7、Yes)、影画像表示処理が終了する。
The processes from SA1 to SA6 are repeatedly performed continuously after the shadow image display process is activated. For this reason, when a person is standing on the floor, the shadow image of the person continues to be projected on the wall in almost real time, and each time the person performs an action, the shadow image corresponding to the action is almost real time on the wall. Continue to be projected. Thereafter, when an end instruction is input to the shadow
(実施の形態1の効果)
この実施の形態1によれば、人の画像に基づいて輪郭が抽出され、この輪郭に基づいて影画像が生成されて出力され、さらに、人の位置に応じた制御が行われるため、人という物理的な存在ではなく、人の影画像という仮想的な画像を利用して様々な制御を行うことができ、影画像をインターフェースとして利用した場合には、仮想的な面白みのあるインターフェースを構築することができる。
(Effect of Embodiment 1)
According to the first embodiment, a contour is extracted based on a person's image, a shadow image is generated and output based on the contour, and further, control according to the position of the person is performed. Various controls can be performed using a virtual image called a human shadow image instead of a physical existence, and when a shadow image is used as an interface, a virtual interesting interface is constructed. be able to.
また、人の動作に応じた制御を行うので、動作に応じた直観的で迅速な制御を行うことが可能になる。 In addition, since control is performed according to a person's action, it is possible to perform intuitive and quick control according to the action.
〔実施の形態2〕
次に、実施の形態2について説明する。この形態は、影画像を装置制御のインターフェースとして利用する形態であり、特に、影画像に他の画像を重畳して表示する形態である。ただし、実施の形態1の構成及び方法と同様の構成及び方法については、実施の形態1で使用したものと同一の符号を付して説明を省略し、あるいは単に説明を省略する。
[Embodiment 2]
Next, a second embodiment will be described. This form is a form in which a shadow image is used as an interface for device control, and in particular, a form in which another image is superimposed and displayed on the shadow image. However, configurations and methods similar to those of the first embodiment are denoted by the same reference numerals as those used in the first embodiment, and description thereof is omitted, or description is simply omitted.
(構成)
図7は、実施の形態2に係る影画像表示システム2を機能概念的に例示するブロック図である。この図7に示すように、この影画像表示システム2は、カメラ10、プロジェクタ20、及び影画像表示装置40を備えて構成されている。
(Constitution)
FIG. 7 is a block diagram illustrating a functional concept of the shadow
影画像表示装置40は、実施の形態1の影画像表示装置30とほぼ同様に構成されているが、ここでは、記憶部33の操作内容定義情報DB33aに、実施の形態1とは異なる操作内容定義情報が格納されており、また、記憶部33に商品情報DB33dが設けられている。
The shadow
操作内容定義情報DB33aの操作内容定義情報は、図8の構成例に示すように、項目「動作」及び項目「操作内容」と、これら各項目に対応する情報を関連付けて構成されている。項目「動作」に対応する情報は、人の動作を特定するための情報であり、ここでは、「右腕上げ」、「左腕上げ」の2種類の情報に加えて、「操作用インターフェースにタッチ」の情報が格納されている。「操作用インターフェースにタッチ」とは、人が(正確には、人の輪郭に基づいて壁に投影された影画像が)、壁に投影された操作用インターフェースに触れる動作を示している。項目「操作内容」に対応する情報は、所定装置の操作内容を特定するための情報であり、ここでは、「シャツ変更」、「帽子変更」、「クリア」の3種類の情報である。すなわち、ここでは、所定装置として当該影画像表示装置40を制御することを想定しており、具体的には、当該影画像表示装置40において影画像に重合表示される商品(ここでは洋服)の画像データを切り替えることを想定している。例えば、「シャツ変更」とは、影画像に重合表示されるシャツを変更することを意味しており、「クリア」とは、影画像に重合表示される洋服をクリアすること(重合させないこと)を意味している。
As shown in the configuration example of FIG. 8, the operation content definition information in the operation content
図7の商品情報DB33dは、商品に関する商品情報(ここでは、影画像に重畳して表示する重畳画像)を格納する重畳画像格納手段である。この商品情報は、図9の構成例に示すように、項目「種類」及び項目「画像データ」と、これら各項目に対応する情報を関連付けて構成されている。項目「種類」に対応する情報は、商品の種類を特定するための情報であり、ここでは、「シャツ」、「帽子」である。項目「画像データ」に対応する情報は、各商品の画像データであり、「シャツ」と「帽子」のそれぞれに対応する複数の画像データが格納されている。
The
(処理)
次に、このように構成される影画像表示システム2によって実行される影画像表示処理について説明する。図10は影画像表示処理のフローチャートである。ただし、SB1、SB2は、図6のSA1、SA2とそれぞれ同じであるため、その説明を省略する。
(processing)
Next, a shadow image display process executed by the thus configured shadow
SB3において、動作検出部34eは、位置検出部34aにて検出された人の位置に基づいて、人の動作を検出する(SB3)。この動作の検出は、図6のSA3と同様に、位置履歴情報DB33cに格納された位置履歴情報に基づいて行う。さらに、動作検出部34eは、壁に投影された人の影が、壁に投影された操作用インターフェースに触れたか否かを検出する。すなわち、動作検出部34eは、影生成部34cで生成された最新の影画像の位置と、床に人が立つと想定される領域内に設定された操作用インターフェースの所定投影位置とに基づいて、人の位置が所定投影位置を通過したか否かを判定し、通過した場合には、人が、壁に投影された操作用インターフェースに触れたものと判定する。
In SB3, the
そして、操作制御部34fは、動作検出部34eにて検出された人の動作に基づいて、所定装置の制御を行う(SB4)。具体的には、操作制御部34fは、動作検出部34eにて検出された人の動作に対応する操作内容があるか否かを操作内容定義情報DB33aを参照することにより特定し、当該操作内容がある場合には、当該操作内容に基づいて、所定装置の制御を行う。例えば、「人の動作」=「右腕上げ」である場合には、「操作内容」=「シャツ変更」を特定し、後述するSB5で影画像に重畳されるシャツの画像を、商品情報DB33dに格納されているシャツの画像における所定順序の画像(ここでは、現在重畳されているシャツの画像に対する次順のシャツの画像)に変更する。あるいは、「人の動作」=「操作用インターフェースにタッチ」である場合には、「操作内容」=「クリア」を特定し、後述するSB5で影画像に重畳されるシャツ及び帽子の画像をクリアする(重畳させるべき画像をなくす)。このような処理を行うことで、人の動作に基づいて、所定装置を制御することができるため、人の動作を、所定装置の制御のためのインターフェースとして利用することが可能になる。
And the
次いで、影生成部34cは、SB1において輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する(SB5)。ここでは、SA5と同様に影画像を生成した上で、最新の時刻に対応する輪郭の画像データに対して、SB4で特定された洋服の画像を重合する。具体的には、SB4で特定された洋服の画像データを商品情報DB33dを参照して取得する。また、位置履歴情報DB33cに格納された最新の位置履歴情報における人の中心の位置を参照して、当該人の輪郭における重合位置(シャツの場合には人の上半身の位置、帽子の場合には人の頭部の位置)を特定する。そして、当該特定した位置に画像データを重合する。
Next, the
また、影生成部34cは、影画像に対して、操作用インターフェースを付加する。すなわち、所定形状(ここでは円形)の画像データが壁の所定位置に投影されるように、影画像に対して付加する。この操作用インターフェースの位置及び形状は、床に立った人が認識して触れることができるように決定される。なお、ここでは、影画像に対して、操作用インターフェースを付加しているが、操作用インターフェースのみを投影するようにしてもよく、このためには、例えば、プロジェクタ20に加えて別のプロジェクタを影画像表示システム2に同時に接続し、当該別のプロジェクタによって操作用インターフェースのみを投影する。
The
そして、画像出力部34dは、影生成部34cにて生成された影画像をプロジェクタ20を介して出力する(SB6)。図11には、このような影画像の出力例を図示する。この出力例では人の胴部にシャツが重合されている例を示している。この出力例では、3つの影画像の左腕以外の部分が重合しており、この重合している部分にシャツの画像がさらに重合されている。
Then, the
これらSB1からSB6の処理は、影画像表示処理の起動後に継続して繰り返し行われる。このため、壁には、SB4で検出された動作に応じて異なる洋服が重合された影画像が投影されるので、床に立った人からすれば、自分の動作に応じて、自分の最新の影画像にシャツや帽子が切り替えて重合表示されるので、様々な洋服を仮想的に試着しているような感覚を与えることができる。また、影画像には、操作用インターフェースが付加されているので、この操作用インターフェースに触れることによって、自分の影画像に重合されていた洋服をクリアすることができる。その後、影画像表示装置40に対して入力部31を介して終了指示が入力された場合に(SB7、Yes)、影画像表示処理が終了する。
The processes from SB1 to SB6 are repeatedly performed continuously after the shadow image display process is activated. For this reason, a shadow image in which different clothes are superimposed according to the motion detected by the SB4 is projected on the wall. Therefore, if you are standing on the floor, the latest image will be displayed according to your motion. Since shirts and hats are switched and displayed in the shadow image, it is possible to give a feeling that various clothes are virtually tried on. Further, since an operation interface is added to the shadow image, by touching the operation interface, the clothes superimposed on the own shadow image can be cleared. Thereafter, when an end instruction is input to the shadow
(実施の形態2の効果)
実施の形態2によれば、実施の形態1と同様の効果に加えて、操作用インターフェースと人の位置との相対的な位置関係に応じた制御を行うので、様々な形状や位置の操作用インターフェースを利用した多様性のある制御を行うことが可能になる。
(Effect of Embodiment 2)
According to the second embodiment, in addition to the same effects as those of the first embodiment, control is performed according to the relative positional relationship between the operation interface and the position of the person. Various controls using the interface can be performed.
また、重畳画像を影画像に重畳して表示するので、出力する画像の仮想性をさらに高めることで、インターフェースやセキュリティー情報の面白みや多様性を向上させることができる。 In addition, since the superimposed image is displayed superimposed on the shadow image, it is possible to improve the fun and diversity of the interface and security information by further increasing the virtuality of the output image.
〔実施の形態3〕
次に、実施の形態3について説明する。この形態は、影画像をセキュリティに利用する形態である。ただし、実施の形態1の構成及び方法と同様の構成及び方法については、実施の形態1で使用したものと同一の符号を付して説明を省略し、あるいは単に説明を省略する。
[Embodiment 3]
Next,
(構成)
図12は、実施の形態3に係る影画像表示システム3を機能概念的に例示するブロック図である。この図12に示すように、この影画像表示システム3は、カメラ10、プロジェクタ20、カードリーダ50、及び影画像表示装置60を備えて構成されている。
(Constitution)
FIG. 12 is a block diagram illustrating a functional concept of the shadow
カードリーダ50は、床を通過する人が保持するRFIDカードに記録された個人IDを非接触で読み取る非接触カード読み取り装置である。
The
影画像表示装置60は、実施の形態1の影画像表示装置30とほぼ同様に構成されているが、ここでは、記憶部33の輪郭履歴情報DB33b及び位置履歴情報DB33cは省略されており、記憶部33の操作内容定義情報DB33aには、実施の形態1とは異なる操作内容定義情報が格納されており、記憶部33にはセキュリティ情報DB33eが設けられている。また、制御部34には認証部34gが設けられている。
The shadow image display device 60 is configured in substantially the same manner as the shadow
操作内容定義情報DB33aの操作内容定義情報は、図13の構成例に示すように、項目「認証結果」及び項目「操作内容」と、これら各項目に対応する情報を関連付けて構成されている。項目「認証結果」に対応する情報は、後述する認証部34gによる認証結果を特定するための情報であり、ここでは、「警戒レベル=ゼロ」、「警戒レベル=小」、「警戒レベル=中」、「警戒レベル=大」の4種類の情報が格納されている。例えば、「警戒レベル=ゼロ」とは、認証部34gにおいて認証を行った結果、認証対象となった人の警戒を行う必要性が全くないことを意味し、「警戒レベル=小」とは、認証部34gにおいて認証を行った結果、認証対象となった人の警戒を最小のレベルで行う必要があることを意味する。項目「操作内容」に対応する情報は、所定装置の操作内容を特定するための情報であり、ここでは、「影画像=なし」、「影画像=青」、「影画像=緑」、「影画像=赤」の4種類の情報である。すなわち、ここでは、所定装置として当該影画像表示装置60を制御することを想定しており、具体的には、当該影画像表示装置60において生成及び出力する影画像の有無や色を切り替えることを想定している。例えば、「影画像=なし」とは、影画像を出力しないことを意味しており、「影画像=青」とは、青色の影画像を生成して出力することを意味している。
As shown in the configuration example of FIG. 13, the operation content definition information in the operation content
図12のセキュリティ情報DB33eは、セキュリティに関するセキュリティ情報を格納するセキュリティ情報格納手段である。このセキュリティ情報は、図14の構成例に示すように、項目「個人ID」及び項目「認証結果」と、これら各項目に対応する情報を関連付けて構成されている。項目「個人ID」に対応する情報は、床を通過する人が保持するRFIDカードに記録された個人IDである。なお、「個人ID」=「なし」とは、床を通過する人がRFIDカードを保持していない場合や、RFIDカードを保持している場合であっても当該RFIDカードから何らかの理由により個人IDが読み取れなかった場合を意味する。項目「認証結果」に対応する情報は、図13の操作内容定義情報の同一項目名に対応する情報と同じである。
The
また、図12の制御部34の認証部34gは、人の認証を行う認証手段である。この認証部34gによって実行される処理の詳細については後述する。
Further, the
(処理)
次に、このように構成される影画像表示システム3によって実行される影画像表示処理について説明する。図15は影画像表示処理のフローチャートである。ただし、SC1は、図6のSA1と同じであるため、その説明を省略する。
(processing)
Next, a shadow image display process executed by the shadow
SC2において、位置検出部34aは、図6のSA2と同様に人の位置を検出する。ただし、ここでは、位置履歴情報DB33cへの情報の格納は行わない(SC2)。
In SC2, the
次に、認証部34gは、SA1で輪郭が抽出された人を対象に、個人IDに対応する認証を行う(SC3)。具体的には、認証部34gは、SA1で人の輪郭が抽出された際におけるカードリーダ50からの出力を取り込み、当該出力から個人IDを取得し、当該個人IDに対応する認証結果をセキュリティ情報DB33eから取得する。
Next, the
そして、操作制御部34fは、認証部34gの認証結果に基づいて、所定装置の制御を行う(SC4)。具体的には、操作制御部34fは、認証部34gの認証結果に対応する操作内容を操作内容定義情報DB33aから取得し、後述するSC5で生成される影画像の有無や色を、当該取得した操作内容に応じて切り替える。
And the
次いで、影生成部34cは、SC1において輪郭抽出部34bにて抽出された輪郭に基づいて、人の影画像を生成する(SC5)。ここでは、SC4で取得された操作内容に基づいて、影画像を生成する。すなわち、操作内容が「影画像=なし」である場合には、影画像の生成は行わず、操作内容が「影画像=青」である場合には、青色の影画像のみを、図6のSA5と同様に生成する。
Next, the
そして、画像出力部34dは、影生成部34cにて生成された影画像をプロジェクタ20を介して出力する(SC6)。図16には、このような影画像の出力例を図示する。この出力例では、図示右側の人に対しては、警戒レベル=ゼロであるために影画像が出力されておらず、図示左側の人に対しては、警戒レベル=中であるために緑の影画像が出力されている例を示している。
Then, the
これらSC1からSC6の処理は、影画像表示処理の起動後に継続して繰り返し行われる。このため、壁には、床に立った人のセキュリティレベルに応じて影画像が表示されるので、当該人のセキュリティレベルを第三者に対して容易にかつ緩やかな形態(警告ランプや警報ブザーで警報等を行う場合に比べて、刺激が少ない形態)で報知することができる。その後、影画像表示装置60に対して入力部31を介して終了指示が入力された場合に(SC7、Yes)、影画像表示処理が終了する。 The processes from SC1 to SC6 are continuously repeated after the shadow image display process is started. For this reason, a shadow image is displayed on the wall according to the security level of the person standing on the floor, so that the security level of the person can be easily and gently adjusted to a third party (warning lamp or alarm buzzer). Compared to the case where an alarm or the like is performed, the notification can be made in a form with less stimulation. Thereafter, when an end instruction is input to the shadow image display device 60 via the input unit 31 (SC7, Yes), the shadow image display process ends.
(実施の形態3の効果)
実施の形態3によれば、実施の形態1と同様の効果に加えて、人の画像に基づいて輪郭が抽出され、この輪郭に基づいて影画像が生成されて出力され、さらに、人の位置に応じた制御が行われるので、人という物理的な存在ではなく、人の影画像という仮想的な画像を利用して様々な制御を行うことができるので、影画像をセキュリティー情報として利用した場合には、仮想的な情報による緩やかな監視を行うことで、監視される人の不快感を和らげることができる。
(Effect of Embodiment 3)
According to the third embodiment, in addition to the same effects as those of the first embodiment, a contour is extracted based on a human image, a shadow image is generated and output based on the contour, and the position of the human When a shadow image is used as security information, it is possible to perform various controls using a virtual image called a person's shadow image instead of the physical presence of a person. Therefore, it is possible to reduce the discomfort of the person being monitored by performing gradual monitoring using virtual information.
〔III〕各実施の形態に対する変形例
以上、各実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した各発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
[III] Modifications to Each Embodiment While each embodiment has been described above, the specific configuration and means of the present invention are within the scope of the technical idea of each invention described in the claims. Modifications and improvements can be made arbitrarily. Hereinafter, such a modification will be described.
(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、前記した内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏することがある。さらに、本発明によって、上述していない課題を解決したり、上述していない効果を奏することもある。
(About problems to be solved and effects of the invention)
First, the problems to be solved by the invention and the effects of the invention are not limited to the above contents, and may vary depending on the implementation environment of the invention and the details of the configuration, and only a part of the problems described above. May be solved, or only some of the effects described above may be achieved. Furthermore, according to the present invention, problems not described above may be solved or effects not described above may be achieved.
(分散や統合について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成できる。例えば、影画像表示装置30、40、60の機能を、複数のサーバやパーソナルコンピュータに分散してもよい。
(About distribution and integration)
Further, each of the electrical components described above is functionally conceptual and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each part is not limited to the one shown in the figure, and all or a part thereof may be functionally or physically distributed / integrated in arbitrary units according to various loads and usage conditions. Can be configured. For example, the functions of the shadow
(各実施の形態の相互の関係について)
各実施の形態の構成や処理は、相互に混在したり、入れ替えることができる。例えば、実施の形態2においては、操作用インターフェースを壁に投影し、この操作用インターフェースに人が触れた場合に所定制御を行うこととしているが、この機能を実施の形態1に適用してもよい。
(About the mutual relationship of each embodiment)
The configuration and processing of each embodiment can be mixed or interchanged. For example, in the second embodiment, an operation interface is projected onto a wall, and predetermined control is performed when a person touches the operation interface. However, this function may be applied to the first embodiment. Good.
(制御の基準について)
実施の形態1、2では、人の動作に基づいて制御を行っているが、人の状態(例えば、所定位置に所定時間以上停止している状態)や軌跡(例えば、右腕の先端がS字カーブに沿って移動した)に基づいて、制御を行ってもよい。また、実施の形態2では、操作用インターフェースに人が触れた場合に所定制御を行うこととしているが、操作用インターフェースに対する所定範囲に人の体の一部が入った場合に所定制御を行う等、制御の基準となる操作用インターフェースとの関係性についても変更することができる。
(About control standards)
In the first and second embodiments, the control is performed based on the movement of the person. However, the person's state (for example, a state where the person has stopped at a predetermined position for a predetermined time or longer) and a locus (for example, the tip of the right arm is S-shaped). Control may be performed on the basis of (moved along a curve). In the second embodiment, the predetermined control is performed when a person touches the operation interface. However, the predetermined control is performed when a part of the human body enters the predetermined range with respect to the operation interface. Also, the relationship with the operation interface that becomes the control reference can be changed.
1、2、3 影画像表示システム
10 カメラ
20 プロジェクタ
30、40、60 影画像表示装置
31 入力部
32 出力部
33 記憶部
33a 操作内容定義情報DB
33b 輪郭履歴情報DB
33c 位置履歴情報DB
33d 商品情報DB
33e セキュリティ情報DB
34 制御部
34a 位置検出部
34b 輪郭抽出部
34c 影生成部
34d 画像出力部
34e 動作検出部
34f 操作制御部
50 カードリーダ
1, 2, 3 Shadow
33b Outline history information DB
33c Location history information DB
33d Product information DB
33e Security information DB
34
Claims (6)
前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出手段と、
前記撮像手段により撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出手段と、
前記輪郭抽出手段にて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成手段と、
前記影生成手段にて生成された影画像を出力する画像出力手段と、
前記位置検出手段にて検出された前記動物の位置に応じた制御を行う制御手段と、
を備える影画像表示システム。 Imaging means for imaging animals;
Position detecting means for detecting the position of the animal based on the image of the animal imaged by the imaging means;
Contour extracting means for extracting the contour of the animal based on the image of the animal imaged by the imaging means;
Based on the contour extracted by the contour extracting means, a shadow generating means for generating a shadow image of the animal;
Image output means for outputting a shadow image generated by the shadow generation means;
Control means for performing control according to the position of the animal detected by the position detection means;
A shadow image display system comprising:
前記制御手段は、前記動作検出手段にて検出された前記動物の動作に応じた制御を行う、
請求項1に記載の影画像表示システム。 Based on the position of the animal detected by the position detection means, comprising motion detection means for detecting the motion of the animal;
The control means performs control according to the movement of the animal detected by the movement detection means.
The shadow image display system according to claim 1.
前記制御手段は、前記影画像の出力領域内に出力された前記操作用インターフェースと、前記位置検出手段にて検出された前記動物の位置との相対的な位置関係に応じた制御を行う、
請求項1又は2に記載の影画像表示システム。 The image output means outputs an operation interface in an output area of the shadow image,
The control means performs control according to a relative positional relationship between the operation interface output in the output area of the shadow image and the position of the animal detected by the position detection means.
The shadow image display system according to claim 1 or 2.
前記制御手段は、前記位置検出手段にて検出された前記動物の位置に応じて、前記影画像に重畳して表示すべき重畳画像を前記重畳画像格納手段から取得すると共に、当該取得した重畳画像の表示位置を決定し、当該取得した重畳画像を当該決定した位置に基づいて前記影画像に重畳して表示する、
請求項1から3のいずれか一項に記載の影画像表示システム。 A superimposed image storage means for storing a superimposed image to be displayed superimposed on the shadow image;
The control means acquires from the superimposed image storage means a superimposed image to be displayed superimposed on the shadow image in accordance with the position of the animal detected by the position detection means, and the acquired superimposed image. And displaying the superimposed image obtained by superimposing the acquired superimposed image on the shadow image based on the determined position.
The shadow image display system according to any one of claims 1 to 3.
前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の位置を検出する位置検出ステップと、
前記撮像ステップにより撮像された前記動物の画像に基づいて、前記動物の輪郭を抽出する輪郭抽出ステップと、
前記輪郭抽出ステップにて抽出された輪郭に基づいて、前記動物の影画像を生成する影生成ステップと、
前記影生成ステップにて生成された影画像を出力する画像出力ステップと、
前記位置検出ステップにて検出された前記動物の位置に応じた制御を行う制御ステップと、
を含む影画像表示方法。 An imaging step for imaging animals;
A position detecting step for detecting the position of the animal based on the image of the animal imaged in the imaging step;
A contour extracting step for extracting a contour of the animal based on the image of the animal imaged in the imaging step;
A shadow generation step of generating a shadow image of the animal based on the contour extracted in the contour extraction step;
An image output step for outputting the shadow image generated in the shadow generation step;
A control step for performing control according to the position of the animal detected in the position detection step;
Shadow image display method including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010250663A JP5631700B2 (en) | 2010-11-09 | 2010-11-09 | Shadow image display system, shadow image display method, and shadow image display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010250663A JP5631700B2 (en) | 2010-11-09 | 2010-11-09 | Shadow image display system, shadow image display method, and shadow image display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012103836A true JP2012103836A (en) | 2012-05-31 |
JP5631700B2 JP5631700B2 (en) | 2014-11-26 |
Family
ID=46394173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010250663A Active JP5631700B2 (en) | 2010-11-09 | 2010-11-09 | Shadow image display system, shadow image display method, and shadow image display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5631700B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014069018A1 (en) * | 2012-11-05 | 2014-05-08 | Kabushiki Kaisha Toshiba | Electronic device and information processing method |
JP2014197380A (en) * | 2013-03-05 | 2014-10-16 | 株式会社リコー | Image projector, system, image projection method and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000040147A (en) * | 1998-07-24 | 2000-02-08 | Atr Media Integration & Communications Res Lab | Handshake recognition device |
JP2010009311A (en) * | 2008-06-26 | 2010-01-14 | Panasonic Corp | User interface device |
-
2010
- 2010-11-09 JP JP2010250663A patent/JP5631700B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000040147A (en) * | 1998-07-24 | 2000-02-08 | Atr Media Integration & Communications Res Lab | Handshake recognition device |
JP2010009311A (en) * | 2008-06-26 | 2010-01-14 | Panasonic Corp | User interface device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014069018A1 (en) * | 2012-11-05 | 2014-05-08 | Kabushiki Kaisha Toshiba | Electronic device and information processing method |
JP2014092715A (en) * | 2012-11-05 | 2014-05-19 | Toshiba Corp | Electronic equipment, information processing method, and program |
JP2014197380A (en) * | 2013-03-05 | 2014-10-16 | 株式会社リコー | Image projector, system, image projection method and program |
Also Published As
Publication number | Publication date |
---|---|
JP5631700B2 (en) | 2014-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6221224B2 (en) | Robot system, program, production system and robot | |
JP5845830B2 (en) | Information processing apparatus, display control method, and program | |
US20170061696A1 (en) | Virtual reality display apparatus and display method thereof | |
US8976160B2 (en) | User interface and authentication for a virtual mirror | |
US10678329B2 (en) | Line-of-sight input device, and method of line-of-sight input | |
JP6766824B2 (en) | Information processing equipment, information processing methods, and programs | |
JP6801263B2 (en) | Display control program, display control method and display control device | |
KR20170026164A (en) | Virtual reality display apparatus and display method thereof | |
JP2013101529A (en) | Information processing apparatus, display control method, and program | |
KR102163742B1 (en) | Electronic apparatus and operation method thereof | |
JP6132719B2 (en) | Information processing device | |
JP2013101526A (en) | Information processing apparatus, display control method, and program | |
JP6000929B2 (en) | Information processing device | |
US10855925B2 (en) | Information processing device, information processing method, and program | |
KR20150116897A (en) | Detecting natural user-input engagement | |
CN111199583B (en) | Virtual content display method and device, terminal equipment and storage medium | |
US10668372B2 (en) | Information processing apparatus, information processing method, and program | |
US10446003B2 (en) | System and methods for monitoring and entrapment prevention for a person disposed in a bed | |
CN109558004B (en) | Control method and device for human body auxiliary robot | |
CN109154656A (en) | The audio devices of support posture with visual feedback | |
JP5631700B2 (en) | Shadow image display system, shadow image display method, and shadow image display program | |
JP2019079481A (en) | Biological information analyzer and method for simulating face pattern | |
US20170177073A1 (en) | Method of operating a control system and control system therefore | |
CN111279410B (en) | Display apparatus and display apparatus control method | |
JP6632298B2 (en) | Information processing apparatus, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5631700 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |