JP2007127536A - Posture detecting system, and light emitter - Google Patents

Posture detecting system, and light emitter Download PDF

Info

Publication number
JP2007127536A
JP2007127536A JP2005320752A JP2005320752A JP2007127536A JP 2007127536 A JP2007127536 A JP 2007127536A JP 2005320752 A JP2005320752 A JP 2005320752A JP 2005320752 A JP2005320752 A JP 2005320752A JP 2007127536 A JP2007127536 A JP 2007127536A
Authority
JP
Japan
Prior art keywords
light emitting
infrared
emitting means
light
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005320752A
Other languages
Japanese (ja)
Inventor
Sadanobu Ito
禎宣 伊藤
Shoichiro Iwazawa
昭一郎 岩澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005320752A priority Critical patent/JP2007127536A/en
Publication of JP2007127536A publication Critical patent/JP2007127536A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a posture detecting system capable of specifying an object and capable of detecting a posture of the object, by a simple configuration. <P>SOLUTION: A head sensor 4 provided with a plurality of infrared tags 6-1 to 6-4 is attached to a head part of a user, the infrared tags 6-1 to 6-4 are flashed in response to ID numbers allocated uniquely to the infrared tags 6-1 to 6-4, and are flashed in response to three-dimensional position information for expressing a three-dimensional position relationship of the infrared tags 6-1 to 6-4, and a detector 1 photographs a near-infrared image including the user, detects the infrared tags 6-1 to 6-4, using the photographed near-infrared image, detects the ID numbers and the three-dimensional position information, based on flashing conditions of the detected infrared tags 6-1 to 6-4, and detects the posture of the head part of the user, based on the the ID numbers of the detected respective infrared tags 6-1 to 6-4 and the three-dimensional position information thereof. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、検出装置により対象物の所定位置に装着された発光装置を検出して対象物の姿勢を検出する姿勢検出システム及び該姿勢検出システムに用いられる発光装置に関するものである。   The present invention relates to a posture detection system that detects a posture of an object by detecting a light-emitting device mounted on a predetermined position of the object by a detection device, and a light-emitting device used in the posture detection system.

近年、部屋の中での人の動きを認識するために、無線やウェアラブルな航行システムを使って個人の位置を知る技術が開発されている。また、赤外線を高速点滅させるIDタグを用いて、人が見ている対象物のID(識別情報)を自動認識させる技術が開発されている(例えば、非特許文献1,2参照)。   In recent years, in order to recognize the movement of a person in a room, a technique for knowing the position of an individual using a wireless or wearable navigation system has been developed. In addition, a technology for automatically recognizing an ID (identification information) of an object viewed by a person using an ID tag that rapidly blinks infrared rays has been developed (see, for example, Non-Patent Documents 1 and 2).

しかしながら、上記の赤外線を高速点滅させるIDタグを用いる方法では、通常のカメラを利用しているため、処理速度を充分に確保することができず、例えば、人の動き程度の低速なものでも捕らえることができなかった。また、特殊な高速カメラを用いて処理速度を向上するものもあるが、当該カメラが高価且つ大型なものとなり、人が身につけて使用する用途には適用できなかった。   However, in the method using the ID tag that blinks the infrared light at a high speed, since a normal camera is used, the processing speed cannot be ensured sufficiently, and for example, even a low-speed object such as a person's movement can be captured. I couldn't. In addition, there is a camera that uses a special high-speed camera to improve the processing speed. However, the camera is expensive and large-sized, and cannot be applied to a use worn by a person.

このため、本願発明者らは、ユーザの視線方向に位置する対象物を識別することができるとともに、処理速度が高速で且つ人が装着できるように小型化及び低コスト化が可能な対象物識別システムを開発している(特許文献1参照)。この対象物識別システムでは、ユーザの視線方向に略一致させた光軸を有し、対象物を含む所定の撮影領域の赤外線画像を撮影し、この赤外線画像の中から所定サイズの光点をIDタグとして検出することにより対象物の識別情報を取得している。
青木恒、カメラで読み取る赤外線タグとその応用、インタラクティブシステムとソフトウェアVIII(WISS 2000)、日本ソフトウェア科学会、近代科学社、2000年、pp.131−136 松下伸行、他4名、ID Cam:シーンとIDを同時に取得可能なイメージセンサ、インタラクション2002、情報処理学会、2002年、pp.9−16 特開2004−208229号公報
For this reason, the inventors of the present application can identify an object located in the direction of the user's line of sight, and can identify an object that can be reduced in size and cost so that the processing speed is high and a person can wear it. A system is being developed (see Patent Document 1). In this object identification system, an infrared image of a predetermined imaging region including an object is captured, and an optical spot having a predetermined size is identified from the infrared image. The identification information of the object is acquired by detecting it as a tag.
Tsuyoshi Aoki, infrared tag read by camera and its application, interactive system and software VIII (WISS 2000), Japan Society for Software Science, Modern Science, 2000, pp. 131-136 Nobuyuki Matsushita, 4 others, ID Cam: Image sensor capable of simultaneously acquiring scene and ID, Interaction 2002, Information Processing Society of Japan, 2002, pp. 9-16 JP 2004-208229 A

しかしながら、上記の対象物識別システムでは、ユーザには1つのIDタグのみが装着されるため、ユーザの全体的な動き(動線)を検出することはできても、ユーザの頭部の姿勢を検出することはできない。   However, in the above object identification system, since only one ID tag is attached to the user, the user's head posture can be detected even though the user's overall movement (flow line) can be detected. It cannot be detected.

本発明の目的は、簡略な構成により、対象物を特定することができるとともに、対象物の姿勢を検出することができる姿勢検出システム及び発光装置を提供することである。   The objective of this invention is providing the attitude | position detection system and light-emitting device which can identify a target object with a simple structure and can detect the attitude | position of a target object.

本発明に係る姿勢検出システムは、対象物の所定位置に装着される発光装置と、前記発光装置を検出する検出装置とを備え、前記発光装置は、対象物に対して所定位置に固定され、赤外線を発光する複数の発光手段と、各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段を点滅させるとともに、前記複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段を点滅させる発光制御手段とを備え、前記検出装置は、所定方向に設定された光軸を有し、前記対象物を含む所定の撮影領域の赤外線画像を撮影する撮影手段と、前記撮影手段により撮影された赤外線画像を用いて前記複数の発光手段を検出する発光検出手段と、前記検出手段により検出された前記複数の発光手段の点滅状態を検出して各発光手段の識別情報及び3次元位置情報を検出する情報検出手段と、前記情報検出手段によって検出された識別情報及び3次元位置情報に基づいて前記対象物の姿勢を検出する姿勢検出手段とを備えるものである。   An attitude detection system according to the present invention includes a light emitting device mounted at a predetermined position of an object and a detection device that detects the light emitting device, the light emitting device being fixed at a predetermined position with respect to the object, A plurality of light emitting means for emitting infrared light, and a three-dimensional position that blinks each light emitting means in accordance with identification information uniquely assigned to each light emitting means and represents a three-dimensional positional relationship among the plurality of light emitting means A light emission control unit that blinks at least one light emission unit according to information, and the detection device has an optical axis set in a predetermined direction, and takes an infrared image of a predetermined imaging region including the object An imaging unit that detects the plurality of light emitting units using an infrared image captured by the imaging unit, and detects a blinking state of the plurality of light emitting units detected by the detection unit Information detecting means for detecting identification information and three-dimensional position information of each light emitting means, and posture detecting means for detecting the posture of the object based on the identification information and three-dimensional position information detected by the information detecting means; Is provided.

本発明に係る姿勢検出システムにおいては、赤外線を発光する複数の発光手段が対象物に対して所定位置に固定され、各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段が点滅するとともに、複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段が点滅し、このとき、対象物を含む所定の撮影領域の赤外線画像が撮影され、撮影された赤外線画像を用いて複数の発光手段が検出され、検出された複数の発光手段の点滅状態を検出して各発光手段の識別情報及び3次元位置情報が検出され、検出された識別情報及び3次元位置情報に基づいて対象物の姿勢が検出されるので、簡略な構成により、対象物を特定することができるとともに、対象物の姿勢を検出することができる。   In the posture detection system according to the present invention, a plurality of light emitting means for emitting infrared light are fixed at predetermined positions with respect to an object, and each light emitting means is in accordance with identification information uniquely assigned to each light emitting means. Blinks, and at least one light emitting means blinks according to the three-dimensional position information representing the three-dimensional positional relationship of the plurality of light emitting means, and at this time, an infrared image of a predetermined photographing region including the object is taken, A plurality of light emitting means are detected using the captured infrared image, and the blinking state of the detected light emitting means is detected, and the identification information and three-dimensional position information of each light emitting means are detected, and the detected identification information Since the posture of the target is detected based on the three-dimensional position information, the target can be specified and the posture of the target can be detected with a simple configuration.

前記発光制御手段は、各発光手段を、前記識別情報に応じて点滅させるとともに、他の発光手段に対する自身の3次元位置関係を表す3次元位置情報に応じて点滅させることが好ましい。   The light emission control means preferably causes each light emission means to blink according to the identification information and blinks according to three-dimensional position information representing its own three-dimensional positional relationship with respect to the other light emission means.

この場合、各発光手段が自身の識別情報に応じて点滅するとともに、他の発光手段に対する自身の3次元位置関係を表す3次元位置情報に応じて点滅するので、撮影された赤外線画像を用いて検出された各発光手段の点滅状態を検出することにより、各発光手段から識別情報及び3次元位置情報を取得することができ、対象物の姿勢を確実に検出することができる。   In this case, each light-emitting means blinks according to its own identification information and also blinks according to three-dimensional position information representing its own three-dimensional positional relationship with respect to other light-emitting means, so that a captured infrared image is used. By detecting the blinking state of each detected light emitting means, identification information and three-dimensional position information can be acquired from each light emitting means, and the posture of the object can be reliably detected.

前記複数の発光手段は、剛体部材に固定され、前記剛体部材は、弾性部材に固定され、前記発光装置は、前記弾性部材を介して前記対象物に装着されることが好ましい。   Preferably, the plurality of light emitting means are fixed to a rigid member, the rigid member is fixed to an elastic member, and the light emitting device is attached to the object via the elastic member.

この場合、複数の発光手段が剛体部材に固定され、この剛体部材が弾性部材に固定され、発光装置が弾性部材を介して対象物に装着されるので、対象物に対する発光手段の3次元位置を固定しながら、発光装置を対象物に容易に装着することができる。   In this case, the plurality of light emitting means are fixed to the rigid member, the rigid member is fixed to the elastic member, and the light emitting device is attached to the object via the elastic member, so that the three-dimensional position of the light emitting means relative to the object is determined. The light emitting device can be easily attached to the object while being fixed.

前記発光装置は、ユーザの頭部に装着され、前記姿勢検出手段は、前記情報検出手段によって検出された識別情報及び3次元位置情報に基づいて前記ユーザの頭部の姿勢を検出することが好ましい。   Preferably, the light emitting device is mounted on a user's head, and the posture detection unit detects the posture of the user's head based on the identification information and three-dimensional position information detected by the information detection unit. .

この場合、発光装置がユーザの頭部に装着され、検出された識別情報及び3次元位置情報に基づいてユーザの頭部の姿勢が検出されるので、簡略な構成により、ユーザの頭部の姿勢を高精度に検出することができる。   In this case, the light emitting device is mounted on the user's head, and the posture of the user's head is detected based on the detected identification information and three-dimensional position information. Can be detected with high accuracy.

前記複数の発光手段は、3つ以上の発光手段を含み、前記姿勢検出手段は、前記情報検出手段によって検出された3つ以上の発光手段の識別情報及び3次元位置情報に基づいて前記ユーザの頭部の姿勢を検出することが好ましい。   The plurality of light emitting means include three or more light emitting means, and the posture detecting means is based on identification information and three-dimensional position information of the three or more light emitting means detected by the information detecting means. It is preferable to detect the posture of the head.

この場合、3つ以上の発光手段の識別情報及び3次元位置情報に基づいてユーザの頭部の姿勢が検出されるので、ユーザの頭部の姿勢をより高精度に検出することができる。   In this case, since the posture of the user's head is detected based on the identification information and three-dimensional position information of three or more light emitting means, the posture of the user's head can be detected with higher accuracy.

前記複数の発光手段は、ユーザの頭部の前方に赤外線を発光する第1の発光手段と、ユーザの頭部の右側方に赤外線を発光する第2の発光手段と、ユーザの頭部の左側方に赤外線を発光する第3の発光手段と、ユーザの頭部の後方に赤外線を発光する第4の発光手段とを含むことが好ましい。   The plurality of light emitting means includes a first light emitting means for emitting infrared light in front of the user's head, a second light emitting means for emitting infrared light on the right side of the user's head, and a left side of the user's head. It is preferable to include a third light emitting unit that emits infrared light and a fourth light emitting unit that emits infrared light behind the user's head.

この場合、ユーザの頭部の全周に亘って発光手段が装着され、ユーザがどの方向を向いている場合でも、少なくとも2つの発光手段から識別情報及び3次元位置情報を検出することができるので、ユーザの方向に拘らず、ユーザの頭部の姿勢を確実に検出することができる。   In this case, since the light emitting means is mounted over the entire circumference of the user's head, the identification information and the three-dimensional position information can be detected from at least two light emitting means no matter which direction the user is facing. Regardless of the direction of the user, the posture of the user's head can be reliably detected.

本発明に係る発光装置は、対象物の所定位置に装着される発光装置であって、対象物に対して所定位置に固定され、赤外線を発光する複数の発光手段と、各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段を点滅させるとともに、前記複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段を点滅させる発光制御手段とを備えるものである。   A light-emitting device according to the present invention is a light-emitting device mounted at a predetermined position of an object, and is fixed to the object at a predetermined position and emits infrared rays, and each light-emitting means. A light emission control means for causing each light emitting means to blink according to the uniquely assigned identification information, and for causing at least one light emitting means to blink according to three-dimensional position information representing a three-dimensional positional relationship among the plurality of light emitting means; Is provided.

本発明に係る発光装置においては、赤外線を発光する複数の発光手段が対象物に対して所定位置に固定され、各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段が点滅するとともに、複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段が点滅するので、発光手段の点滅状態を検出することにより、発光手段の識別情報及び3次元位置情報を検出することができる。この結果、検出された識別情報及び3次元位置情報に基づいて対象物の姿勢を検出することができるので、簡略な構成により、対象物を特定することができるとともに、対象物の姿勢を検出することができる。   In the light emitting device according to the present invention, a plurality of light emitting means for emitting infrared light is fixed at a predetermined position with respect to the object, and each light emitting means is in accordance with identification information uniquely assigned to each light emitting means. In addition to blinking, at least one light-emitting means blinks according to the three-dimensional position information representing the three-dimensional positional relationship between the plurality of light-emitting means. Dimensional position information can be detected. As a result, since the posture of the target can be detected based on the detected identification information and three-dimensional position information, the target can be specified and the posture of the target can be detected with a simple configuration. be able to.

本発明によれば、赤外線を発光する複数の発光手段が対象物に対して所定位置に固定され、各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段が点滅するとともに、複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段が点滅し、このとき、対象物を含む所定の撮影領域の赤外線画像が撮影され、撮影された赤外線画像を用いて複数の発光手段が検出され、検出された複数の発光手段の点滅状態を検出して各発光手段の識別情報及び3次元位置情報が検出され、検出された識別情報及び3次元位置情報に基づいて対象物の姿勢が検出されるので、簡略な構成により、対象物を特定することができるとともに、対象物の姿勢を検出することができる。   According to the present invention, a plurality of light emitting means for emitting infrared light are fixed at predetermined positions with respect to an object, and each light emitting means blinks according to identification information uniquely assigned to each light emitting means. The at least one light-emitting means blinks according to the three-dimensional position information representing the three-dimensional positional relationship among the plurality of light-emitting means, and at this time, an infrared image of a predetermined imaging region including the object is taken and the captured infrared A plurality of light emitting means are detected using an image, the blinking state of the detected light emitting means is detected, and identification information and three-dimensional position information of each light emitting means are detected, and the detected identification information and three-dimensional position are detected. Since the posture of the object is detected based on the information, the object can be specified and the posture of the object can be detected with a simple configuration.

以下、本発明による姿勢検出システムについて図面を参照しながら説明する。図1は、本発明の一実施の形態による姿勢検出システムの構成を示すブロック図である。なお、以下の説明では、対象物の姿勢の検出例としてユーザの頭部の姿勢を検出する場合について説明するが、本発明が適用可能な対象物は、ユーザの頭部に特に限定されず、姿勢が変化する事物であれば、種々のものを適用することができる。   Hereinafter, an attitude detection system according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an attitude detection system according to an embodiment of the present invention. In the following description, a case where the posture of the user's head is detected as an example of detecting the posture of the object will be described, but the object to which the present invention is applicable is not particularly limited to the user's head, Various things can be applied as long as the posture changes.

図1に示す姿勢検出システムは、検出装置1及びヘッドセット4を備える。ヘッドセット4は、ユーザに装着され、複数の赤外線タグ6−1〜6−4のそれぞれに対して一意的に割り付けられたID番号(識別情報)を赤外線の点滅により送信するとともに、各赤外線タグ6−1〜6−4の3次元位置関係を表す3次元位置情報を赤外線の点滅により送信する。   The posture detection system shown in FIG. 1 includes a detection device 1 and a headset 4. Headset 4 is attached to the user and transmits ID numbers (identification information) uniquely assigned to each of the plurality of infrared tags 6-1 to 6-4 by flashing infrared rays. The three-dimensional position information representing the three-dimensional positional relationship of 6-1 to 6-4 is transmitted by blinking infrared rays.

検出装置1は、ユーザが位置する空間内、例えば、天井の所定箇所に配置され、撮影範囲内に位置するユーザに装着されたヘッドセット4が備える赤外線タグ6−1〜6−4から送信される赤外線タグのID番号及び3次元位置情報を検出するとともに、ヘッドセット4を装着したユーザを含む可視光画像を撮影する。また、検出装置1は、検出した識別情報及び3次元位置情報に基づいてユーザの姿勢を検出し、検出したユーザの姿勢に関する情報及び撮影した可視光画像をサーバ11へ出力する。サーバ11は、入力される情報に対して時間情報の付加等の所定の処理を行う。   The detection device 1 is transmitted from infrared tags 6-1 to 6-4 provided in a headset 4 that is disposed in a space where the user is located, for example, a predetermined location on the ceiling, and is mounted on the user located in the imaging range. The infrared tag ID number and the three-dimensional position information are detected, and a visible light image including the user wearing the headset 4 is taken. Further, the detection device 1 detects the posture of the user based on the detected identification information and the three-dimensional position information, and outputs information regarding the detected posture of the user and a captured visible light image to the server 11. The server 11 performs predetermined processing such as addition of time information on the input information.

上記のようにして収集された情報は、サーバ11において種々の用途に使用され、例えば、人と人とのインタラクション等に関するインタラクションデータを蓄積した知識ベースとなるインタラクション・コーパスを作成するために使用される。   The information collected as described above is used for various purposes in the server 11, for example, used to create an interaction corpus serving as a knowledge base in which interaction data relating to human-to-human interaction is accumulated. The

図2は、図1に示すヘッドセット4をユーザが装着したときの外観を示す模式的斜視図であり、図3は、図2に示すヘッドセット4の構成を説明するための模式的上面図及び右側面図である。図2及び図3に示すように、ヘッドセット4は、ユーザの頭部に装着される眼鏡型ヘッドセットとして構成され、4個の赤外線タグ6−1〜6−4及びマイク部5が配設される本体部41と、その両端部が耳掛け部となり、その中央部に鼻当て部材7が配設される固定部42とを備える。本体部41は、赤外線タグ6−1〜6−4の相対位置関係が変化しないように剛体部材から構成され、固定部42は、ユーザが装着しやすいように弾性部材から構成され、本体部41は固定部42に固定されている。ヘッドセット4は、固定部42がユーザの頭部を額付近で前方から挟み込むことにより、ユーザの頭部に装着され略固定される。   FIG. 2 is a schematic perspective view showing an appearance when the user wears the headset 4 shown in FIG. 1, and FIG. 3 is a schematic top view for explaining the configuration of the headset 4 shown in FIG. It is a right side view. As shown in FIGS. 2 and 3, the headset 4 is configured as a glasses-type headset that is worn on the user's head, and includes four infrared tags 6-1 to 6-4 and a microphone unit 5. And a fixing portion 42 in which the nose pad member 7 is disposed at the center thereof. The main body 41 is composed of a rigid member so that the relative positional relationship between the infrared tags 6-1 to 6-4 does not change, and the fixing portion 42 is composed of an elastic member so that the user can easily wear it. Is fixed to the fixing portion 42. The headset 4 is attached and substantially fixed to the user's head when the fixing portion 42 sandwiches the user's head from the front near the forehead.

ヘッドセット4の本体部41の前面部分には、ユーザの正面方向(0度)に光軸を有する第1の赤外線タグ6−1が配置され、ヘッドセット4の本体部41の右前方部分には、ユーザの右斜め前方(右60度)に光軸を有する第2の赤外線タグ6−2が配置され、ヘッドセット4の本体部41の左前方部分には、ユーザの左斜め前方(左60度)に光軸を有する第3の赤外線タグ6−3が配置される。第1乃至第2の赤外線タグ6−1〜6−3には、2個のLEDが同一方向に併設されている。これは、第1乃至第2の赤外線タグ6−1〜6−3から充分な光量を得るために設けられたものであり、これら2つのLEDは同期して点滅される。   A first infrared tag 6-1 having an optical axis in the front direction (0 degree) of the user is disposed on the front surface portion of the main body portion 41 of the headset 4, and is disposed on the right front portion of the main body portion 41 of the headset 4. Is arranged with a second infrared tag 6-2 having an optical axis obliquely forward to the right (60 degrees to the right) of the user. A third infrared tag 6-3 having an optical axis at 60 degrees is disposed. The first to second infrared tags 6-1 to 6-3 are provided with two LEDs in the same direction. This is provided in order to obtain a sufficient amount of light from the first to second infrared tags 6-1 to 6-3, and these two LEDs blink in synchronization.

また、ヘッドセット4の本体部41は、その右側面部分から後方に向けて棒状の支持部43を有し、支持部43の先端にユーザの後方(180度)に光軸を有する第4の赤外線タグ6−4が配置され、第4の赤外線タグ6−4は、光軸間の角度が90度になるように2つのLED(Light Emitting Diode)が併設され、ユーザの後方約180度の範囲で検出可能なように構成され、2つのLEDは同期して点滅される。   Further, the main body 41 of the headset 4 has a rod-like support portion 43 from the right side surface portion toward the rear, and a fourth portion having an optical axis at the tip of the support portion 43 at the rear of the user (180 degrees). An infrared tag 6-4 is arranged, and the fourth infrared tag 6-4 is provided with two LEDs (Light Emitting Diodes) so that the angle between the optical axes is 90 degrees, and is about 180 degrees behind the user. Configured to be detectable in range, the two LEDs flash in sync.

なお、ヘッドセット4に配置される赤外線タグの数及び位置は、上記の例に特に限定されず、種々の変更が可能であり、また、一の赤外線タグに使用されるLEDの数及び位置も、上記の例に特に限定されず、種々の変更が可能である。   In addition, the number and position of the infrared tag arrange | positioned at the headset 4 are not specifically limited to said example, A various change is possible, and the number and position of LED used for one infrared tag are also the same. The present invention is not particularly limited to the above example, and various modifications are possible.

ヘッドセット4の本体部41の前面中央下部にはマイク部5が配置されており、ヘッドセット4をユーザが装着することによりマイク部5がユーザの眉間付近に配置される。このように、マイク部5がユーザの眉間部分に位置するようにヘッドセット4に対して固定して配置されることにより、一定の音質の音声を確実に録音することができる。そのため、ユーザの口元付近に配置される従来の可動式のマイク部に比べて、音質を向上させることができる。   A microphone unit 5 is disposed at the lower center of the front surface of the main body 41 of the headset 4. When the user wears the headset 4, the microphone unit 5 is disposed near the user's eyebrows. As described above, by arranging the microphone unit 5 so as to be positioned in the portion between the eyebrows of the user so as to be fixed to the headset 4, it is possible to reliably record a sound with a certain sound quality. Therefore, the sound quality can be improved as compared with a conventional movable microphone unit disposed near the user's mouth.

ヘッドセット4の固定部42の前面中央下部には鼻当て部材7が配置される。鼻当て部材7は、一般のメガネと同様に、ユーザの鼻に架けられることによりヘッドセット4をユーザの頭部に略固定するものである。   A nose pad member 7 is disposed at the lower center of the front surface of the fixing portion 42 of the headset 4. Similar to general glasses, the nose pad member 7 is configured to substantially fix the headset 4 to the user's head by being placed on the user's nose.

再び、図1を参照して、上記のように、ヘッドセット4は、複数の赤外線タグ6−1〜6−4及びマイク部5を備える。なお、以下の説明では、説明を容易にするために、第1乃至第4の赤外線タグ6−1〜6−4の2つのLEDを1つのLED61として説明する。   Referring to FIG. 1 again, as described above, the headset 4 includes the plurality of infrared tags 6-1 to 6-4 and the microphone unit 5. In the following description, two LEDs of the first to fourth infrared tags 6-1 to 6-4 will be described as one LED 61 for easy explanation.

赤外線タグ6−1〜6−4は、LED61及び駆動回路62をそれぞれ備える。LED61は、赤外線LED等から構成され、例えば、光通信用高出力発光ダイオード(スタンレイ社製DN311)等を用いることができ、指向性が弱く且つ可視光に近い800nm程度の赤外LEDを好適に用いることができる。   The infrared tags 6-1 to 6-4 include an LED 61 and a drive circuit 62, respectively. The LED 61 is composed of an infrared LED or the like. For example, a high-power light emitting diode for optical communication (DN311 manufactured by Stanley) or the like can be used, and an infrared LED having a weak directivity and about 800 nm that is close to visible light is preferably used. Can be used.

駆動回路62は、マイクロコンピュータ等から構成され、例えば、Atmel社製4MHz駆動マイコンAT90S2323等を用いることができ、赤外線タグ6−1〜6−4に対して一意的に割り付けられたID番号が識別可能なようにLED61を点滅制御する。また、駆動回路62は、各赤外線タグ6−1〜6−4のヘッドセット4上の3次元位置関係を表す3次元位置情報に応じて各LED61を点滅させる。なお、本実施の形態では、駆動回路を赤外線タグすなわちLED毎に設けたが、この例に特に限定されず、一の駆動回路によりすべて又は複数のLEDの点滅状態を制御するようにしてもよい。   The drive circuit 62 is composed of a microcomputer or the like. For example, an Atmel 4 MHz drive microcomputer AT90S2323 can be used, and the ID number uniquely assigned to the infrared tags 6-1 to 6-4 is identified. The LED 61 is controlled to blink as possible. In addition, the drive circuit 62 blinks each LED 61 according to the three-dimensional position information representing the three-dimensional positional relationship on the headset 4 of each infrared tag 6-1 to 6-4. In this embodiment, the drive circuit is provided for each infrared tag, that is, the LED. However, the drive circuit is not particularly limited to this example, and the blinking state of all or a plurality of LEDs may be controlled by one drive circuit. .

具体的には、駆動回路62は、マンチェスタ符号化方式を用い、データ間隔8ms/1bitで、スタートビット(2bit)、1番目(ID1番目)/続き(ID連続)符号(1bit)、ID番号(10bit)、3次元位置情報及びパリティビット(1bit)のデータフォーマットに従い、LED61を点滅させ、ID番号及び3次元位置情報を繰り返し送信する。   Specifically, the drive circuit 62 uses the Manchester encoding method, with a data interval of 8 ms / 1 bit, a start bit (2 bits), a first (ID1) / continue (ID continuous) code (1 bit), an ID number ( 10 bits) according to the data format of the three-dimensional position information and the parity bit (1 bit), the LED 61 is blinked, and the ID number and the three-dimensional position information are repeatedly transmitted.

例えば、3次元位置情報としては、ヘッドセット4上に規定された局所座標系において、赤外線タグ6−1が(x1,y1,z1)にあり、赤外線タグ6−2が(x2,y2,z2)にあり、赤外線タグ6−3が(x3,y3,z3)にあり、赤外線タグ6−4が(x4,y4,z4)にある場合、赤外線タグ6−1のLED61は(x1,y1,z1)を表す3次元位置情報を送信し、赤外線タグ6−2のLED61は(x2,y2,z2)を表す3次元位置情報を送信し、赤外線タグ6−3のLED61は(x3,y3,z3)を表す3次元位置情報を送信し、赤外線タグ6−4のLED61は(x4,y4,z4)を表す3次元位置情報を送信する。この場合、検出された各赤外線タグから当該赤外線タグのID番号及び3次元位置情報を取得することができ、ユーザの頭部の姿勢を確実に検出することができる。   For example, as the three-dimensional position information, in the local coordinate system defined on the headset 4, the infrared tag 6-1 is at (x1, y1, z1), and the infrared tag 6-2 is (x2, y2, z2). ), The infrared tag 6-3 is at (x3, y3, z3), and the infrared tag 6-4 is at (x4, y4, z4), the LED 61 of the infrared tag 6-1 is (x1, y1, The three-dimensional position information indicating z1) is transmitted, the LED 61 of the infrared tag 6-2 transmits three-dimensional position information indicating (x2, y2, z2), and the LED 61 of the infrared tag 6-3 is (x3, y3, The three-dimensional position information representing z3) is transmitted, and the LED 61 of the infrared tag 6-4 transmits the three-dimensional position information representing (x4, y4, z4). In this case, the ID number and three-dimensional position information of the infrared tag can be acquired from each detected infrared tag, and the posture of the user's head can be reliably detected.

なお、3次元位置情報は、上記の例に特に限定されず、種々の変更が可能である。例えば、赤外線タグ6−1の位置をヘッドセット4上に規定された局所座標系の原点に設定し、赤外線タグ6−1が、自身の識別情報及び原点に位置していることを示す3次元位置情報を送信し、他の赤外線タグ6−2〜6−4が、自身の識別情報及び原点からの相対位置を表す3次元位置情報を送信するようにしてもよい。この場合、赤外線タグ6−1から送信される3次元位置情報の情報量を削減することができる。   The three-dimensional position information is not particularly limited to the above example, and various changes can be made. For example, the position of the infrared tag 6-1 is set to the origin of the local coordinate system defined on the headset 4, and the infrared tag 6-1 is positioned at its own identification information and origin. The position information may be transmitted, and the other infrared tags 6-2 to 6-4 may transmit their own identification information and three-dimensional position information representing a relative position from the origin. In this case, the information amount of the three-dimensional position information transmitted from the infrared tag 6-1 can be reduced.

また、一の赤外線タグ、例えば、赤外線タグ6−1が、すべての赤外線タグ6−1〜6−4の3次元位置及び各3次元位置を有する赤外線タグのID番号を表す3次元位置情報を送信し、他の赤外線タグ6−2〜6−4は自身の識別情報のみを送信して3次元位置情報の送信を省略してもよい。この場合、赤外線タグ6−2〜6−4から送信される情報の情報量を削減することができる。   Also, one infrared tag, for example, the infrared tag 6-1 has three-dimensional position information indicating the three-dimensional positions of all the infrared tags 6-1 to 6-4 and the ID numbers of the infrared tags having the respective three-dimensional positions. The other infrared tags 6-2 to 6-4 may transmit only their own identification information and omit transmission of the three-dimensional position information. In this case, the amount of information transmitted from the infrared tags 6-2 to 6-4 can be reduced.

また、すべての赤外線タグ6−1〜6−4が、自身のID番号と、すべての赤外線タグ6−1〜6−4の3次元位置及び各3次元位置を有する赤外線タグのID番号を表す3次元位置情報とを送信するようにしてもよい。この場合、検出された赤外線タグからすべての赤外線タグの識別情報及び3次元位置情報を取得することができ、ユーザの頭部の姿勢をより確実に検出することができる。   Further, all the infrared tags 6-1 to 6-4 represent their own ID numbers, the three-dimensional positions of all the infrared tags 6-1 to 6-4, and the ID numbers of the infrared tags having the respective three-dimensional positions. You may make it transmit three-dimensional position information. In this case, identification information and three-dimensional position information of all infrared tags can be acquired from the detected infrared tag, and the posture of the user's head can be detected more reliably.

マイク部5は、音声処理回路51及びマイクロホン52を備える。マイクロホン52は、ユーザの発話又は周囲音を集音して音声処理回路51へ出力し、音声処理回路51は録音された音声信号を携帯型コンピュータ10へ出力する。なお、音声を録音しない場合は、マイク部5を省略してもよく、また、ユーザに音声等を伝達するためにスピーカ等をヘッドセットに一体に構成してもよい。   The microphone unit 5 includes an audio processing circuit 51 and a microphone 52. The microphone 52 collects the user's utterance or ambient sound and outputs it to the voice processing circuit 51, and the voice processing circuit 51 outputs the recorded voice signal to the portable computer 10. When not recording sound, the microphone unit 5 may be omitted, and a speaker or the like may be integrated with the headset in order to transmit the sound or the like to the user.

検出装置1は、赤外線検出部2及び画像撮影部3を備える。画像撮影部3は、レンズ31、光学素子32及びCCDカメラ33を備える。レンズ31は、ヘッドセット4を装着したユーザを含む所定撮影範囲の可視光及び近赤外光を光学素子32へ導く。光学素子32は、近赤外光を反射して赤外線検出部2へ導き、可視光を通過させて可視光画像をCCDカメラ33上に結像させる。CCDカメラ33は、可視光画像を撮影して映像信号をサーバ11へ出力する。   The detection device 1 includes an infrared detection unit 2 and an image capturing unit 3. The image photographing unit 3 includes a lens 31, an optical element 32, and a CCD camera 33. The lens 31 guides visible light and near-infrared light in a predetermined shooting range including the user wearing the headset 4 to the optical element 32. The optical element 32 reflects near-infrared light, guides it to the infrared detection unit 2, passes visible light, and forms a visible light image on the CCD camera 33. The CCD camera 33 captures a visible light image and outputs a video signal to the server 11.

このように、画像撮影部3及び赤外線検出部2は、光学素子32により分離された可視光及び近赤外光を用い、同一光軸上の可視光画像及び近赤外線画像を撮影することができるので、ユーザ(赤外線タグ6−1〜6−4)を撮影した可視光画像及び近赤外線画像上の位置が完全に一致し、ユーザを識別するだけでなく、ユーザの頭部の姿勢を高精度に検出することができる。   As described above, the image capturing unit 3 and the infrared detection unit 2 can capture a visible light image and a near infrared image on the same optical axis using the visible light and the near infrared light separated by the optical element 32. Therefore, the positions on the visible light image and near-infrared image obtained by photographing the user (infrared tags 6-1 to 6-4) are completely matched, and not only the user is identified but also the posture of the user's head is highly accurate. Can be detected.

赤外線検出部2は、反射素子21、CMOSイメージセンサ22、画像処理装置23及び姿勢検出部24を備える。反射素子21は、光学素子32からの近赤外光を反射してCMOSイメージセンサ22上に結像させる。CMOSイメージセンサ22は、結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置23へ出力する。CMOSイメージセンサ22としては、例えば、ナショナルセミコンダクター社製高感度モノクロCMOSイメージセンサLM9630等を用いることができ、この場合、解像度は128×98pixel、フレームレートは500fpsである。   The infrared detection unit 2 includes a reflective element 21, a CMOS image sensor 22, an image processing device 23, and a posture detection unit 24. The reflective element 21 reflects near-infrared light from the optical element 32 and forms an image on the CMOS image sensor 22. The CMOS image sensor 22 captures a near-infrared image composed of the formed near-infrared light and outputs it to the image processing device 23. As the CMOS image sensor 22, for example, a high-sensitivity monochrome CMOS image sensor LM9630 manufactured by National Semiconductor Co., Ltd. can be used. In this case, the resolution is 128 × 98 pixels and the frame rate is 500 fps.

画像処理装置23は、CMOSイメージセンサ22の制御及びデータ処理を行い、CMOSイメージセンサ22により撮影された近赤外線画像から赤外線タグ6−1〜6−4を検出し、検出した赤外線タグ6−1〜6−4の点滅状態からID番号及び3次元位置情報を検出し、ID番号及び3次元位置情報等のデータを姿勢検出部24へ出力する。このように、赤外線検出部2では、主に近赤外線のみから作成された近赤外線画像を用いて赤外線タグ6−1〜6−4のID番号及び3次元位置情報を検出することができるので、外乱となる可視光領域の波長を有する光による悪影響を充分に低減することができ、検出処理を高速化することができる。   The image processing device 23 controls the CMOS image sensor 22 and performs data processing, detects the infrared tags 6-1 to 6-4 from the near-infrared image photographed by the CMOS image sensor 22, and detects the detected infrared tag 6-1. The ID number and the three-dimensional position information are detected from the flashing state of ˜6-4, and data such as the ID number and the three-dimensional position information is output to the posture detection unit 24. As described above, the infrared detection unit 2 can detect the ID numbers and the three-dimensional position information of the infrared tags 6-1 to 6-4 using a near-infrared image created mainly from only the near-infrared rays. The adverse effect of light having a wavelength in the visible light region that causes disturbance can be sufficiently reduced, and the detection process can be speeded up.

姿勢検出部24は、画像処理装置23によって検出された赤外線タグのID番号及び3次元位置情報に基づいてユーザの頭部の姿勢を検出する。すなわち、姿勢検出部24は、赤外線画像上の各赤外線タグの2次元位置と各赤外線タグの3次元位置情報とを基に公知の姿勢算出方法を用いてユーザの頭部の姿勢すなわち3次元空間上の位置及び角度を検出する。姿勢検出部24は、検出したユーザの姿勢を表す姿勢情報をRS232C等のデータ伝送規格に従ってサーバ11へ出力する。   The posture detection unit 24 detects the posture of the user's head based on the ID number of the infrared tag detected by the image processing device 23 and the three-dimensional position information. That is, the posture detection unit 24 uses the known posture calculation method based on the two-dimensional position of each infrared tag on the infrared image and the three-dimensional position information of each infrared tag, that is, the three-dimensional space of the user's head. Detect upper position and angle. The posture detection unit 24 outputs posture information representing the detected posture of the user to the server 11 in accordance with a data transmission standard such as RS232C.

サーバ11は、検出装置1から出力されるユーザの姿勢情報等を受け、人と人とのインタラクション等に関するインタラクションデータを蓄積した知識ベースとなるインタラクション・コーパスを作成する処理を実行する。   The server 11 receives the user posture information and the like output from the detection device 1 and executes a process of creating an interaction corpus that is a knowledge base in which interaction data relating to human-human interaction and the like is accumulated.

次に、図1に示す画像処理装置23について詳細に説明する。図4は、図1に示す画像処理装置23の構成を示すブロック図である。図4に示すように、画像処理装置23は、2値化回路81、SRAM(Static Random Access Memory)82、明度変化検出回路83及びデコード回路84を備える。例えば、2値化回路81及び明度変化検出回路83は、CPLD(Complex Programmable Logic Device)等から構成され、デコード回路84は、CPU等から構成され、CPUで所定のデコードプログラムを実行することによりデコード処理を行う。なお、画像処理装置23の構成は、上記の例に特に限定されず、すべてを専用のハードウエア回路から構成する等の種々の変更が可能である。   Next, the image processing apparatus 23 shown in FIG. 1 will be described in detail. FIG. 4 is a block diagram showing a configuration of the image processing apparatus 23 shown in FIG. As shown in FIG. 4, the image processing device 23 includes a binarization circuit 81, an SRAM (Static Random Access Memory) 82, a brightness change detection circuit 83, and a decoding circuit 84. For example, the binarization circuit 81 and the brightness change detection circuit 83 are configured by a CPLD (Complex Programmable Logic Device) or the like, and the decode circuit 84 is configured by a CPU or the like, and is decoded by executing a predetermined decode program by the CPU. Process. Note that the configuration of the image processing device 23 is not particularly limited to the above example, and various modifications such as configuring all of them from dedicated hardware circuits are possible.

2値化回路81は、撮影された近赤外線画像を構成する各画素の明度データをCMOSイメージセンサ22から受け、各画素の明度値を予め記憶している基準明度値と比較して2値化し、2値化画素データをSRAM82に順次記憶させる。例えば、CMOSイメージセンサ22から256階調で明度データが出力される場合、128階調以上の明度を「1」に変換し、128階調未満の明度を「0」に変換する。多値化処理は、上記の例に特に限定されず、128階調以上の明度を「2」、128階調未満64階調以上を「1」、64階調未満を「0」に変換し、「2」の場合を「明」、「0」の場合を「滅」として点滅状態を判断する等の種々の変更が可能である。   The binarization circuit 81 receives the brightness data of each pixel constituting the photographed near-infrared image from the CMOS image sensor 22 and binarizes the brightness value of each pixel by comparing with a reference brightness value stored in advance. The binarized pixel data is sequentially stored in the SRAM 82. For example, when lightness data is output from the CMOS image sensor 22 with 256 gradations, the lightness of 128 gradations or more is converted to “1”, and the lightness of less than 128 gradations is converted to “0”. The multi-value processing is not particularly limited to the above example, and the brightness of 128 gradations or more is converted to “2”, less than 128 gradations of 64 gradations or more to “1”, and less than 64 gradations to “0”. , “2” can be changed to “bright”, and “0” can be changed to “blink” to determine the blinking state.

SRAM82は、CMOSイメージセンサ22により撮影された近赤外線画像を複数枚、例えば、672枚記憶可能な記憶容量を有し、2値化回路81から出力される2値化画素データを画像毎に記憶する。   The SRAM 82 has a storage capacity capable of storing a plurality of, for example, 672 near-infrared images taken by the CMOS image sensor 22, and stores the binarized pixel data output from the binarization circuit 81 for each image. To do.

明度変化検出回路83は、連続して撮影された複数枚、例えば、5枚の2値化画像の各画素データをSRAM82から読み出し、各2値化画像上で同一位置にある画素データが点滅すなわち時間的に「1」又は「0」を交互に繰り返している全ての点滅画素を光点(赤外線タグ6−1〜6−4)として検出し、検出した複数の光点の2値化画像上の位置及び当該画像の撮影フレーム数を特定するための光点位置情報、例えば、当該点滅画素データのSRAM82の記憶アドレスをデコード回路84へ出力する。   The brightness change detection circuit 83 reads out the pixel data of a plurality of, for example, five binarized images taken continuously, from the SRAM 82, and the pixel data at the same position on each binarized image blinks. All blinking pixels that alternately repeat “1” or “0” in time are detected as light spots (infrared tags 6-1 to 6-4), and the detected multiple light spots on the binarized image And the light spot position information for specifying the position of the image and the number of frames taken of the image, for example, the storage address of the blinking pixel data in the SRAM 82 are output to the decoding circuit 84.

また、明度変化検出回路83は、隣接する複数の画素が点滅している場合、これらの画素を一つの光点として検出する。この場合、同時に点滅している隣接する複数の画素を一つの光点として検出することができるので、CMOSイメージセンサ22の1画素の大きさに拘らず、種々の大きさのLED61を一つの光点として正確に検出することができる。   Further, when a plurality of adjacent pixels are blinking, the lightness change detection circuit 83 detects these pixels as one light spot. In this case, since a plurality of adjacent pixels blinking at the same time can be detected as one light spot, regardless of the size of one pixel of the CMOS image sensor 22, the LEDs 61 of various sizes can be used as one light spot. It can be accurately detected as a point.

デコード回路84は、点滅画素の光点位置情報を基に2値化画像内の点滅画素の2値化画素データをSRAM82から順次読み出してデコードし、複数の光点すなわち複数の赤外線タグ6−1〜6−4のID番号及び3次元位置情報をサーバ11へ出力する。   The decode circuit 84 sequentially reads and decodes the binarized pixel data of the blinking pixels in the binarized image from the SRAM 82 based on the light spot position information of the blinking pixels, and decodes the plurality of light spots, that is, the plurality of infrared tags 6-1. The ID number of ˜6-4 and the three-dimensional position information are output to the server 11.

また、デコード回路84は、明度変化検出回路83により検出された光点に対応する画素が点滅していない場合、当該画素の周辺に位置する画素の2値化画素データをSRAM82から読み出し、周辺の画素の時間的に前後する2値化画素データをも用いて光点の点滅状態を再度デコードして赤外線タグ6−1〜6−4のID番号及び3次元位置情報を検出する。この場合、光点として検出された画素だけでなく、当該画素の周辺に位置する画素の2値化値をも用いて光点の点滅状態をデコードすることができるので、ユーザが高速に移動する場合でも、ユーザの移動に伴って移動する複数の赤外線タグ6−1〜6−4を同時に且つ連続的に識別することができる。   In addition, when the pixel corresponding to the light spot detected by the brightness change detection circuit 83 is not blinking, the decoding circuit 84 reads the binarized pixel data of the pixel located around the pixel from the SRAM 82, and The blinking state of the light spot is decoded again using the binary pixel data of the pixel that changes in time, and the ID numbers and the three-dimensional position information of the infrared tags 6-1 to 6-4 are detected. In this case, since the blinking state of the light spot can be decoded using not only the pixel detected as the light spot but also the binarized values of the pixels located around the pixel, the user moves at high speed. Even in this case, it is possible to simultaneously and continuously identify the plurality of infrared tags 6-1 to 6-4 that move as the user moves.

本実施の形態では、ヘッドセット4が発光装置の一例に相当し、検出装置1が検出装置の一例に相当し、赤外線タグ6−1〜6−4(LED61)が発光手段の一例に相当し、駆動回路62が発光制御手段の一例に相当し、反射素子21、CMOSイメージセンサ22が撮影手段の一例に相当し、2値化回路81、SRAM82及び明度変化検出回路83が発光検出手段の一例に相当し、デコード回路84が情報検出手段の一例に相当し、姿勢検出部24が姿勢検出手段の一例に相当する。また、本体部41が剛体部材の一例に相当し、固定部42が弾性部材の一例に相当する。また、赤外線タグ6−1が第1の発光手段の一例に相当し、赤外線タグ6−2が第2の発光手段の一例に相当し、赤外線タグ6−3が第3の発光手段の一例に相当し、赤外線タグ6−4が第4の発光手段の一例に相当する。   In the present embodiment, the headset 4 corresponds to an example of a light emitting device, the detection device 1 corresponds to an example of a detection device, and the infrared tags 6-1 to 6-4 (LEDs 61) correspond to an example of light emitting means. The drive circuit 62 corresponds to an example of a light emission control unit, the reflective element 21 and the CMOS image sensor 22 correspond to an example of a photographing unit, and the binarization circuit 81, the SRAM 82, and the brightness change detection circuit 83 are an example of a light emission detection unit. The decoding circuit 84 corresponds to an example of an information detection unit, and the posture detection unit 24 corresponds to an example of a posture detection unit. The main body portion 41 corresponds to an example of a rigid member, and the fixing portion 42 corresponds to an example of an elastic member. The infrared tag 6-1 corresponds to an example of a first light emitting unit, the infrared tag 6-2 corresponds to an example of a second light emitting unit, and the infrared tag 6-3 is an example of a third light emitting unit. The infrared tag 6-4 corresponds to an example of a fourth light emitting unit.

次に、上記のように構成された検出装置1による赤外線タグ検出処理について説明する。図5は、図1に示す検出装置1による姿勢検出処理を説明するためのフローチャートである。   Next, an infrared tag detection process performed by the detection apparatus 1 configured as described above will be described. FIG. 5 is a flowchart for explaining posture detection processing by the detection apparatus 1 shown in FIG.

まず、画像処理装置23は、CMOSイメージセンサ22等を初期化し(ステップS11)、全画面(128×98pixel)の近赤外線画像を順次撮影して取得する(ステップS12)。次に、2値化回路81は、撮影された近赤外線画像を構成する各画素の明度データをCMOSイメージセンサ22から受け、各画素の明度値を所定の基準明度値と比較して2値化(「0」又は「1」)し、2値化画素データを近赤外線画像毎にSRAM82に記憶させる(ステップS13)。   First, the image processing device 23 initializes the CMOS image sensor 22 and the like (step S11), and sequentially captures and acquires near-infrared images of the full screen (128 × 98 pixels) (step S12). Next, the binarization circuit 81 receives brightness data of each pixel constituting the photographed near-infrared image from the CMOS image sensor 22 and compares the brightness value of each pixel with a predetermined reference brightness value to binarize. ("0" or "1"), and the binarized pixel data is stored in the SRAM 82 for each near-infrared image (step S13).

次に、明度変化検出回路83は、連続して撮影された複数枚の2値化画像の各画素の2値化画素データをSRAM82から読み出し、各2値化画像上で同一位置にある2値化画素データが「1」又は「0」を所定順序で交互に繰り返している全ての点滅画素を光点として検出し、検出した複数の光点の画像上の各位置及び当該画像の撮影フレーム数を特定するための光点位置情報をデコード回路84へ出力する(ステップS14)。   Next, the brightness change detection circuit 83 reads the binarized pixel data of each pixel of a plurality of binarized images taken continuously from the SRAM 82, and the binarity at the same position on each binarized image. All blinking pixels whose pixel data is alternately repeating “1” or “0” in a predetermined order are detected as light spots, and each position on the image of the detected light spots and the number of frames taken for the image are detected. Is output to the decoding circuit 84 (step S14).

次に、デコード回路84は、点滅画素の光点位置情報を基にSRAM82から複数の2値化画像の各光点の2値化画素データを順次読み出してデコードし(ステップS15)、デコード結果に対してパリティチェックを行い、読み込みデータの判定処理を行う(ステップS16)。   Next, the decoding circuit 84 sequentially reads and decodes the binarized pixel data of each light spot of the plurality of binarized images from the SRAM 82 based on the light spot position information of the blinking pixel (step S15), and outputs the decoded result. A parity check is performed on the read data, and read data determination processing is performed (step S16).

ここで、パリティチェックが正しければ(ステップS16でYES)、デコード回路84は、デコードした赤外線タグのID番号及び3次元位置情報と、当該赤外線タグの画像上の位置を表す2次元位置情報とを姿勢検出部24へ出力する(ステップS17)。   If the parity check is correct (YES in step S16), the decode circuit 84 obtains the decoded infrared tag ID number and three-dimensional position information, and two-dimensional position information representing the position of the infrared tag on the image. It outputs to the attitude | position detection part 24 (step S17).

一方、パリティチェックが正しくなければ(ステップS16でNO)、デコード回路84は、点滅画素の光点位置情報を基に当該画素の周辺に位置する画素、例えば、点滅画素の上下、左右及び斜めに位置する8画素の2値化画素データをSRAM82から読み出し、読み出した2値化画素データと点滅画素の2値化画素データとの論理和をデコードし(ステップS18)、デコード結果に対して再度パリティチェックを行い、読み込みデータの判定処理を行う(ステップS19)。   On the other hand, if the parity check is not correct (NO in step S16), the decoding circuit 84 sets the pixels located around the pixel based on the light spot position information of the blinking pixel, for example, the upper, lower, left, and right sides of the blinking pixel. The binarized pixel data of 8 pixels located is read from the SRAM 82, the logical sum of the read binarized pixel data and the binarized pixel data of the blinking pixel is decoded (step S18), and the parity is again obtained with respect to the decoded result. A check is performed and read data determination processing is performed (step S19).

ここで、パリティチェックが正しければ(ステップS19でYES)、デコード回路84は、デコードした赤外線タグのID番号及び3次元位置情報と、当該赤外線タグの画像上の位置を表す2次元位置情報とを姿勢検出部24へ出力する(ステップS17)。また、パリティチェックが正しくない場合はステップS12に戻って上記の処理を継続する。   If the parity check is correct (YES in step S19), the decoding circuit 84 obtains the decoded infrared tag ID number and three-dimensional position information, and two-dimensional position information indicating the position of the infrared tag on the image. It outputs to the attitude | position detection part 24 (step S17). If the parity check is not correct, the process returns to step S12 and the above processing is continued.

次に、姿勢検出部24は、デコード回路84によって出力された赤外線タグのID番号、3次元位置情報及び2次元位置情報からユーザの頭部の姿勢を検出し(ステップS20)、検出したユーザの姿勢情報をサーバ11へ送信し、サーバ11は、送信された姿勢情報を記憶する。その後、ステップS12に戻って上記の処理が継続される。なお、頭部の姿勢は、少なくとも2つの赤外線タグが検出されれば、ユーザの頭部がどの方向へ向いているかを検出することができ、3つの赤外線タグが検出された場合、頭部の回転方向も含めて検出することができる。   Next, the posture detection unit 24 detects the posture of the user's head from the ID number of the infrared tag output by the decoding circuit 84, the three-dimensional position information, and the two-dimensional position information (step S20), and the detected user's head is detected. Posture information is transmitted to the server 11, and the server 11 stores the transmitted posture information. Then, it returns to step S12 and said process is continued. Note that the posture of the head can be detected as to which direction the user's head is facing if at least two infrared tags are detected. If three infrared tags are detected, It can be detected including the direction of rotation.

上記のように、本実施の形態では、ユーザの頭部に装着されたヘッドセット4に固定された4つの赤外線タグ6−1〜6−4に対して一意的に割り付けられたID番号に応じて各赤外線タグ6−1〜6−4が点滅するとともに、各赤外線タグ6−1〜6−4の3次元位置情報に応じて各赤外線タグ6−1〜6−4が点滅し、赤外線タグ6−1〜6−4のうち少なくとも2つ以上の赤外線タグを含む赤外線画像が撮影され、撮影された赤外線画像を用いて少なくとも2つ以上の赤外線タグが検出され、検出された赤外線タグの点滅状態を検出して各赤外線タグのID番号及び3次元位置情報が検出され、検出された各赤外線タグのID番号及び3次元位置情報からユーザの頭部の姿勢を検出することができるので、複数の赤外線タグをユーザの頭部に装着するという簡略な構成により、ユーザの頭部の姿勢を高精度に検出することができる。   As described above, in the present embodiment, according to the ID number uniquely assigned to the four infrared tags 6-1 to 6-4 fixed to the headset 4 attached to the user's head. The infrared tags 6-1 to 6-4 blink, and the infrared tags 6-1 to 6-4 blink according to the three-dimensional position information of the infrared tags 6-1 to 6-4. 6-1 to 6-4, an infrared image including at least two or more infrared tags is taken, at least two or more infrared tags are detected using the taken infrared image, and the detected infrared tag blinks Since the state is detected and the ID number and three-dimensional position information of each infrared tag are detected, and the posture of the user's head can be detected from the detected ID number and three-dimensional position information of each infrared tag. User's infrared tag With a simple structure that is mounted on part, it is possible to detect the posture of the head of the user with high accuracy.

また、撮影された近赤外線画像を2値化した2値化画像が作成され、作成された2値化画像の各画素の時間的な明暗の変化を基に点滅する光点を検出しているので、一枚の画像に含まれる多数の光点を同時に且つ高速に検出することができ、ヘッドセット4が装着された複数のユーザの頭部の姿勢を同時に且つ連続的に検出することができる。また、所定の基準明度値と比較して2多値化画像を作成しているので、2値化処理にフレームバッファ等の特別なメモリを必要がなく、2値化画像を高速に作成することができるとともに、そのデータ容量を削減することができるので、SRAM82の記憶容量を低く抑えることができる。さらに、2値化回路81及び明度変化検出回路83をCPLDから構成しているので、複数の光点をより高速に検出することができる。   Also, a binarized image obtained by binarizing the photographed near-infrared image is created, and a flashing light spot is detected based on a temporal change in brightness of each pixel of the created binarized image. Therefore, a large number of light spots included in one image can be detected simultaneously and at high speed, and the postures of the heads of a plurality of users wearing the headset 4 can be detected simultaneously and continuously. . In addition, since a binary multi-valued image is created in comparison with a predetermined reference brightness value, a special memory such as a frame buffer is not required for the binarization process, and a binary image is created at high speed. In addition, since the data capacity can be reduced, the storage capacity of the SRAM 82 can be kept low. Furthermore, since the binarization circuit 81 and the lightness change detection circuit 83 are constituted by CPLD, a plurality of light spots can be detected at higher speed.

なお、本実施の形態では、赤外線タグ6−1〜6−4からID番号及び3次元位置情報を連続した発光パターンにより送信したが、この例に特に限定されず、まず赤外線タグ6−1〜6−4がID番号のみを送信し、複数の赤外線タグ6−1〜6−4のうち、検出装置1によりデータ送信が許可された赤外線タグのみがID番号及び3次元位置情報を送信するようにしてもよい。   In the present embodiment, ID numbers and three-dimensional position information are transmitted from the infrared tags 6-1 to 6-4 using a continuous light emission pattern. However, the present invention is not particularly limited to this example. 6-4 transmits only the ID number, and among the plurality of infrared tags 6-1 to 6-4, only the infrared tag whose data transmission is permitted by the detection device 1 transmits the ID number and the three-dimensional position information. It may be.

図6は、赤外線タグ6−1〜6−3と検出装置1との間の通信処理を説明するための通信シーケンス図である。なお、図6では、説明を容易にするために、赤外線タグ6−1〜6−3と検出装置1との通信処理について説明するが、さらに多くの赤外線タグと通信する場合も本例に同様に行うことができる。   FIG. 6 is a communication sequence diagram for explaining communication processing between the infrared tags 6-1 to 6-3 and the detection apparatus 1. In FIG. 6, for ease of explanation, communication processing between the infrared tags 6-1 to 6-3 and the detection apparatus 1 will be described. The same applies to the case of communicating with more infrared tags. Can be done.

まず、携帯型コンピュータ10は、赤外線タグ6−1,6−2,6−3に自身のID番号を送信させ、検出装置1は、発信中の赤外線タグ6−1,6−2,6−3のID番号を受信する(ステップS101〜S103)。   First, the portable computer 10 causes the infrared tags 6-1, 6-2, and 6-3 to transmit their ID numbers, and the detection device 1 causes the infrared tags 6-1, 6-2, and 6-6 that are transmitting to transmit. 3 is received (steps S101 to S103).

次に、検出装置1は、検知した複数の赤外線タグ6−1〜6−3のうちの一の赤外線タグ6−1にデータ送信を許可するスタート信号を当該赤外線タグ6−1のID番号とともにサーバ11を介して携帯型コンピュータ10へ送信する(ステップS104)。このとき、他の赤外線タグ6−2,6−3は、自身以外のID番号を持つ赤外線タグに対してスタート信号が発せられていることにより、データ送信が不許可であることを認識する(ステップS105,S106)。   Next, the detection apparatus 1 sends a start signal for permitting data transmission to one of the detected infrared tags 6-1 to 6-3 together with the ID number of the infrared tag 6-1. It transmits to the portable computer 10 via the server 11 (step S104). At this time, the other infrared tags 6-2 and 6-3 recognize that the data transmission is not permitted because the start signal is issued to the infrared tags having ID numbers other than the other infrared tags (6-2). Steps S105 and S106).

なお、本例では、データ送信を許可するスタート信号をサーバ11から携帯型コンピュータ10へ無線通信により送信したが、この例に特に限定されず、ヘッドセット4が赤外線検出部を備え、検出装置1が赤外線タグを備える場合、赤外線通信によりスタート信号を送信してもよい。後述するストップ信号も同様である。また、データ送信の許可順序は、最も早くID番号を検出した赤外線タグから順番にデータ送信の許可を与えてもよいし、所定の順番を予め決めておき、この順番に基づいてデータ送信の許可を与えてもよい。   In this example, the start signal for permitting data transmission is transmitted from the server 11 to the portable computer 10 by wireless communication. However, the present invention is not particularly limited to this example, and the headset 4 includes an infrared detector, and the detection device 1 When the is equipped with an infrared tag, the start signal may be transmitted by infrared communication. The same applies to a stop signal described later. The data transmission permission order may be the permission of data transmission in order from the infrared tag that has detected the ID number earliest, or a predetermined order is determined in advance, and the data transmission permission is determined based on this order. May be given.

次に、スタート信号を受信した携帯型コンピュータ10は、赤外線タグ6−1に自身の3次元位置情報をID番号とともに送信させる(ステップS107)。赤外線タグ6−1からの3次元位置情報の受信を完了した検出装置1は、赤外線タグ6−1に対するストップ信号を当該赤外線タグ6−1のID番号とともにサーバ11を介して携帯型コンピュータ10へ送信することにより、赤外線タグ6−1にデータ送信を停止させる(ステップS108)。そして、CMOSイメージセンサ22の撮影画像内の他の赤外線タグ6−2,6−3に対して順次上記の処理が繰り返し行われることにより、検出装置1は、全ての赤外線タグ6−1〜6−3からの3次元位置情報を取得する(ステップS109〜S114)。   Next, the portable computer 10 that has received the start signal causes the infrared tag 6-1 to transmit its three-dimensional position information together with the ID number (step S107). The detection apparatus 1 that has completed the reception of the three-dimensional position information from the infrared tag 6-1 sends a stop signal for the infrared tag 6-1 to the portable computer 10 via the server 11 together with the ID number of the infrared tag 6-1. By transmitting, the infrared tag 6-1 stops data transmission (step S108). Then, the detection apparatus 1 performs all of the infrared tags 6-1 to 6-6 by sequentially repeating the above processing on the other infrared tags 6-2 and 6-3 in the captured image of the CMOS image sensor 22. -3 position information from -3 is acquired (steps S109 to S114).

上記の場合、複数の赤外線タグからデータ(3次元位置情報)が同時に送信されないため、複数の赤外線タグからの信号を同時に受信することが無くなり、複数の赤外線タグによる各赤外線信号の点滅パターンの誤認識を防止することができる。   In the above case, since data (three-dimensional position information) is not simultaneously transmitted from a plurality of infrared tags, signals from the plurality of infrared tags are not received simultaneously, and the blinking pattern of each infrared signal by the plurality of infrared tags is incorrect. Recognition can be prevented.

次に、図1に示すCMOSイメージセンサ22及び画像処理装置23の他の例について詳細に説明する。図7は、図1に示すCMOSイメージセンサ及び画像処理装置の他の例の構成を示すブロック図である。   Next, another example of the CMOS image sensor 22 and the image processing device 23 shown in FIG. 1 will be described in detail. FIG. 7 is a block diagram showing a configuration of another example of the CMOS image sensor and the image processing apparatus shown in FIG.

図7に示すように、CMOSイメージセンサ22aは、反射素子21(図1参照)により反射された近赤外線から構成される近赤外線画像を撮影して画像処理装置23aへ出力する。CMOSイメージセンサ22aとしては、例えば、MICRON社製撮像エリアCMOS型撮像素子MT9M413等を用いることができ、この場合、解像度は1280×1024pixel、フレームレートは400fpsである。   As shown in FIG. 7, the CMOS image sensor 22a captures a near-infrared image composed of near-infrared rays reflected by the reflecting element 21 (see FIG. 1) and outputs it to the image processing device 23a. As the CMOS image sensor 22a, for example, an imaging area CMOS type imaging device MT9M413 manufactured by MICRON can be used. In this case, the resolution is 1280 × 1024 pixels and the frame rate is 400 fps.

なお、上記のような高解像度のCMOSイメージセンサを用いる場合、近赤外光及び可視光に対して感度を有していれば、CCDカメラ33を省略してCMOSイメージセンサ22aを可視光画像の撮影にも用いることができ、検出装置1の構成をより簡略化することができる。   In the case of using the high-resolution CMOS image sensor as described above, if it has sensitivity to near-infrared light and visible light, the CCD camera 33 is omitted and the CMOS image sensor 22a is used for the visible light image. It can also be used for photographing, and the configuration of the detection apparatus 1 can be further simplified.

画像処理装置23aは、CMOSイメージセンサ22aの制御及びデータ処理を行い、CMOSイメージセンサ22aにより撮影された近赤外線画像から赤外線タグ6−1〜6−4を検出し、検出した赤外線タグ6−1〜6−4の点滅状態からID番号及び3次元位置情報を検出し、ID番号及び3次元位置情報のデータを姿勢検出部24へ出力する。   The image processing device 23a performs control and data processing of the CMOS image sensor 22a, detects the infrared tags 6-1 to 6-4 from the near-infrared image photographed by the CMOS image sensor 22a, and detects the detected infrared tag 6-1. The ID number and the three-dimensional position information are detected from the flashing state of ˜6-4, and the data of the ID number and the three-dimensional position information is output to the posture detection unit 24.

画像処理装置23aは、4値化回路91、フレームバッファ92、SRAM93、明度変化検出回路94及びデコード回路95を備える。例えば、4値化回路91及び明度変化検出回路94は、FPGA(Field Programmable Gate Array)等から構成され、デコード回路95は、CPU等から構成され、CPUで所定のデコードプログラムを実行することにより下記のデコード処理を行う。なお、画像処理装置23aの構成は、上記の例に特に限定されず、すべてを専用のハードウエア回路から構成する等の種々の変更が可能である。   The image processing device 23 a includes a quaternization circuit 91, a frame buffer 92, an SRAM 93, a brightness change detection circuit 94, and a decoding circuit 95. For example, the quaternarization circuit 91 and the brightness change detection circuit 94 are configured by an FPGA (Field Programmable Gate Array) or the like, and the decoding circuit 95 is configured by a CPU or the like, and the CPU executes a predetermined decoding program as follows. Perform the decoding process. Note that the configuration of the image processing device 23a is not particularly limited to the above example, and various modifications such as configuring all from a dedicated hardware circuit are possible.

4値化回路91は、複数フレーム、例えば、20フレームを比較処理単位として近赤外線画像を処理し、1フレーム目の赤外線画像をフレームバッファ92に記憶させ、2フレーム目の赤外線画像を構成する各画素の明度データとフレームバッファ92に記憶している1フレーム目の赤外線画像を構成する各画素の明度データとを比較し、比較結果として4値化した4値化画素データをSRAM93に記憶させるとともに、2フレーム目の赤外線画像をフレームバッファ92に記憶させる。   The quaternarization circuit 91 processes a near infrared image using a plurality of frames, for example, 20 frames as a comparison processing unit, stores the infrared image of the first frame in the frame buffer 92, and configures each infrared image of the second frame. The pixel brightness data is compared with the brightness data of each pixel constituting the infrared image of the first frame stored in the frame buffer 92, and the four-valued pixel data is stored in the SRAM 93 as a comparison result. The infrared image of the second frame is stored in the frame buffer 92.

以降、上記と同様に、4値化回路91は、現フレームの赤外線画像を構成する各画素の明度データとフレームバッファ92に記憶している直前フレームの赤外線画像を構成する各画素の明度データとを比較し、比較結果から4値化した4値化画素データをSRAM93に記憶させるとともに、現フレーム(比較処理単位の最終フレームを除く)の赤外線画像をフレームバッファ92に記憶させる処理を繰り返す。SRAM93は、4値化回路91から出力される4値化画像の4値化画素データを比較処理単位、例えば、20フレーム単位で記憶する。   Thereafter, in the same manner as described above, the quaternary circuit 91 performs the brightness data of each pixel constituting the infrared image of the current frame and the brightness data of each pixel constituting the infrared image of the immediately previous frame stored in the frame buffer 92. The four-valued pixel data obtained by the four-value comparison are stored in the SRAM 93, and the process of storing the infrared image of the current frame (excluding the last frame of the comparison processing unit) in the frame buffer 92 is repeated. The SRAM 93 stores the quaternary pixel data of the quaternary image output from the quaternary circuit 91 in units of comparison processing, for example, 20 frames.

例えば、現フレームの判定対象画素の明度値をp、直前フレームの該当画素の明度値をP、予め定めた閾値をTとすると、4値化回路91は、SRAM93に、P≦p<P+Tのときは「0」を記憶させ、P+T≦pのときは「1」を記憶させ、P−T<p<Pのときは「2」を記憶させ、p≦P−Tのときは「3」を記憶させ、画素毎に直前フレームと明度を比較して4段階に分類する。   For example, if the lightness value of the determination target pixel in the current frame is p, the lightness value of the corresponding pixel in the previous frame is P, and a predetermined threshold value is T, the quaternary circuit 91 stores P ≦ p <P + T in the SRAM 93. “0” is stored, “1” is stored when P + T ≦ p, “2” is stored when P−T <p <P, and “3” is stored when p ≦ P−T. And the brightness is compared with the immediately preceding frame for each pixel and classified into four stages.

明度変化検出回路94は、比較処理単位の最終フレームがSRAM93に記憶されたときに、比較処理単位となる複数フレーム、例えば、20フレームの4値化画素データをSRAM93から読み出し、読み出した4値化画像の4値化画素データを基に各画素の明滅状態を判定し、判定結果から光点(赤外線タグ6−1〜6−4)として判断した複数の光点の4値化画像上の位置及び当該画像の撮影フレーム数を特定するための光点位置特定情報、例えば、当該点滅画素データのSRAM93の記憶アドレスをデコード回路95へ出力する。また、明度変化検出回路94は、隣接する複数の画素が点滅していると判断した場合、これらの画素を一つの光点として検出する。   When the final frame of the comparison processing unit is stored in the SRAM 93, the lightness change detection circuit 94 reads out the four-valued pixel data of a plurality of frames, for example, 20 frames as the comparison processing unit from the SRAM 93, and reads out the four-value quantization. The blinking state of each pixel is determined based on the quaternary pixel data of the image, and the positions on the quaternary image of a plurality of light spots determined as light spots (infrared tags 6-1 to 6-4) from the determination result Then, the light spot position specifying information for specifying the number of frames taken of the image, for example, the storage address of the blinking pixel data in the SRAM 93 is output to the decoding circuit 95. Further, when it is determined that a plurality of adjacent pixels are blinking, the brightness change detection circuit 94 detects these pixels as one light spot.

例えば、比較処理単位が20フレーム単位のとき、明度変化検出回路94は、各画素の明滅状態として、全19フレーム中に「1」か「3」の4値化画素データが合計4回以上出る場合は当該画素を「0」と判定し、連続する10フレーム以内に「1」の4値化画素データと「3」の4値化画素データとが両方出る場合は当該画素を「1」と判定し、全19フレーム中に「1」か「3」の4値化画素データが合計2回以上3回以下出る場合は当該画素を「2」と判定し、全19フレーム中に「1」か「3」の4値化画素データが合計1回以下しか出ない場合は当該画素を「3」と判定し、判定結果が「0」又は「1」の画素を光点として検出する。   For example, when the comparison processing unit is 20 frame units, the brightness change detection circuit 94 outputs a total of four or more quaternary pixel data of “1” or “3” in all 19 frames as the blinking state of each pixel. In this case, the pixel is determined to be “0”, and when both the four-valued pixel data “1” and the four-valued pixel data “3” appear within 10 consecutive frames, the pixel is set to “1”. If the total of four-valued pixel data “1” or “3” appears 2 times or more and 3 times or less in all 19 frames, the pixel is determined as “2” and “1” in all 19 frames. Or if the total of four-valued pixel data of “3” appears only once or less in total, the pixel is determined as “3”, and a pixel whose determination result is “0” or “1” is detected as a light spot.

デコード回路95は、点滅画素の光点位置特定情報を基に4値化画像内の点滅画素の4値化画素データをSRAM93から順次読み出し、4値化画素データが「1」の場合を「1」(明状態)、4値化画素データが「3」の場合を「0」(滅状態)としてデコードし、複数の光点すなわち赤外線タグ6−1〜6−4のID番号及び3次元位置情報を姿勢検出部24へ出力する。   The decoding circuit 95 sequentially reads the quaternary pixel data of the blinking pixels in the quaternary image from the SRAM 93 based on the light spot position specifying information of the blinking pixels, and sets the case where the quaternary pixel data is “1” to “1”. "(Bright state)" When the quaternary pixel data is "3", it is decoded as "0" (bright state), and the ID numbers and three-dimensional positions of a plurality of light spots, that is, infrared tags 6-1 to 6-4 Information is output to the posture detection unit 24.

また、比較処理単位の複数フレーム中に赤外線タグ6−1〜6−4が画素を跨いで移動した場合に対処するため、明度変化検出回路94は、判定結果が「1」又は「2」の画素の位置特定情報をデコード回路95へ出力するようにしてもよい。この場合、デコード回路95は、当該画素の周辺に位置する画素の明度判定結果データをSRAM93から読み出し、周辺の画素の時間的に前後する4値化画素データをも用いて光点の点滅状態を再度デコードして赤外線タグ6−1〜6−4のID番号及び3次元位置情報を検出する。また、フレーム毎に近赤外線画像を濃淡でラベリングし、ラベリングされた各領域の重心座標、面積、円形度、フィレ径、平均明度等を記録し、その形状のLEDらしさを判定して光点を検出するようにしてもよい。   Further, in order to cope with the case where the infrared tags 6-1 to 6-4 move across the pixels in a plurality of frames of the comparison processing unit, the brightness change detection circuit 94 has a determination result of “1” or “2”. Pixel position specifying information may be output to the decoding circuit 95. In this case, the decode circuit 95 reads the brightness determination result data of the pixels located around the pixel from the SRAM 93, and also uses the quaternary pixel data that changes in time around the surrounding pixels to change the blinking state of the light spot. Decoding is performed again to detect the ID numbers and three-dimensional position information of the infrared tags 6-1 to 6-4. Also, the near-infrared image is labeled in shades for each frame, and the barycentric coordinates, area, circularity, fillet diameter, average brightness, etc. of each labeled area are recorded, and the LED spot of the shape is judged to determine the light spot. You may make it detect.

本例では、CMOSイメージセンサ22aが撮影手段の一例に相当し、4値化回路91、フレームバッファ92、SRAM93及び明度変化検出回路94が発光検出手段の一例に相当し、デコード回路95が情報検出手段の一例に相当する。   In this example, the CMOS image sensor 22a corresponds to an example of a photographing unit, the quaternary circuit 91, the frame buffer 92, the SRAM 93, and the brightness change detection circuit 94 correspond to an example of a light emission detection unit, and the decoding circuit 95 detects information. It corresponds to an example of means.

次に、図7に示すCMOSイメージセンサ22a及び画像処理装置23aを用いた姿勢検出処理について説明する。図8は、図7に示すCMOSイメージセンサ22a及び画像処理装置23aを用いた姿勢検出処理を説明するためのフローチャートである。   Next, posture detection processing using the CMOS image sensor 22a and the image processing device 23a shown in FIG. 7 will be described. FIG. 8 is a flowchart for explaining a posture detection process using the CMOS image sensor 22a and the image processing device 23a shown in FIG.

まず、画像処理装置23aは、CMOSイメージセンサ22a等を初期化し(ステップS21)、全画面(1280×1024pixel)の近赤外線画像を順次撮影して取得する(ステップS22)。次に、4値化回路91は、直前フレームの近赤外線画像を構成する各画素の明度データをフレームバッファ92に記憶させ、現フレームの近赤外線画像を構成する各画素の明度データとフレームバッファ92に記憶している直前フレームの近赤外線画像を構成する各画素の明度データとを比較し、比較結果を4値化して比較処理単位で4値化画素データをSRAM93に記憶させる(ステップS23)。   First, the image processing device 23a initializes the CMOS image sensor 22a and the like (step S21), and sequentially captures and acquires near-infrared images of the full screen (1280 × 1024 pixels) (step S22). Next, the quaternary circuit 91 stores the brightness data of each pixel constituting the near-infrared image of the previous frame in the frame buffer 92, and the brightness data of each pixel constituting the near-infrared image of the current frame and the frame buffer 92. Are compared with the brightness data of each pixel constituting the near-infrared image of the immediately preceding frame stored in, and the comparison result is quaternized, and the quaternary pixel data is stored in the SRAM 93 in comparison processing units (step S23).

次に、明度変化検出回路94は、比較処理単位の最終フレームがSRAM93に記憶されたときに、比較処理単位となる19フレームの4値化画素データをSRAM93から読み出し、読み出した4値化画素データを基に各画素の明滅状態を上記の「0」〜「3」に4値化して判定する(ステップS24)。   Next, when the final frame of the comparison processing unit is stored in the SRAM 93, the lightness change detection circuit 94 reads out 19 frames of quaternary pixel data as a comparison processing unit from the SRAM 93, and reads out the quaternary pixel data thus read out. Based on the above, the blinking state of each pixel is quaternized to the above “0” to “3” and determined (step S24).

ここで、明滅状態が「0」又は「1」の場合(ステップS25でYES)、明度変化検出回路94は、当該画素を光点(赤外線タグ6−1〜6−4)として判定し、判定した複数の光点の画像上の各位置及び当該画像の撮影フレーム数を特定するための光点位置特定情報をデコード回路95へ出力する。   Here, when the blinking state is “0” or “1” (YES in step S25), the brightness change detection circuit 94 determines the pixel as a light spot (infrared tags 6-1 to 6-4) and determines The light spot position specifying information for specifying each position of the plurality of light spots on the image and the number of frames taken of the image is output to the decoding circuit 95.

次に、デコード回路95は、点滅画素の光点位置特定情報を基にSRAM93から複数の4値化画像の各光点の4値化画素データを順次読み出し、4値化画素データが「1」の場合を「1」、4値化画素データが「3」の場合を「0」としてデコードし(ステップS26)、デコード結果に対してパリティチェックを行い、読み込みデータの判定処理を行う(ステップS27)。   Next, the decode circuit 95 sequentially reads out the quaternary pixel data of each light spot of the plurality of quaternary images from the SRAM 93 based on the light spot position specifying information of the blinking pixel, and the quaternary pixel data is “1”. Is decoded as “1” and the case where the quaternary pixel data is “3” is set to “0” (step S26), a parity check is performed on the decoding result, and a determination process of read data is performed (step S27). ).

ここで、パリティチェックが正しければ(ステップS27でYES)、デコード回路95は、デコードした赤外線タグのID番号及び3次元位置情報と、当該赤外線タグの画像上の位置を表す2次元位置情報とを姿勢検出部24へ出力する(ステップS28)。   If the parity check is correct (YES in step S27), the decoding circuit 95 obtains the decoded infrared tag ID number and three-dimensional position information, and two-dimensional position information indicating the position of the infrared tag on the image. It outputs to the attitude | position detection part 24 (step S28).

一方、明滅状態が「0」又は「1」でない場合(ステップS25でNO)、又は、パリティチェックが正しくなければ(ステップS26でNO)、デコード回路95は、点滅画素の位置特定情報を基に当該画素の周辺に位置する画素、例えば、点滅画素の上下、左右及び斜めに位置する8画素の明度変化判定結果データをSRAM93から読み出し、読み出した4値化画素データと点滅画素の4値化画素データとを用いてデコードし(ステップS29)、デコード結果に対して再度パリティチェックを行い、読み込みデータの判定処理を行う(ステップS30)。   On the other hand, if the blinking state is not “0” or “1” (NO in step S25), or if the parity check is not correct (NO in step S26), the decoding circuit 95 is based on the position specifying information of the blinking pixel. The brightness change determination result data of pixels located in the periphery of the pixel, for example, 8 pixels located above, below, left, and right of the blinking pixel are read from the SRAM 93, and the read quaternary pixel data and the quaternary pixel of the blinking pixel are read. The data is decoded using the data (step S29), the parity check is performed again on the decoding result, and the read data determination process is performed (step S30).

ここで、パリティチェックが正しければ(ステップS30でYES)、デコード回路95は、デコードした赤外線タグのID番号及び3次元位置情報と、当該赤外線タグの画像上の位置を表す2次元位置情報とを姿勢検出部24へ出力する(ステップS28)。また、パリティチェックが正しくない場合はステップS22に戻って上記の処理を継続する。   If the parity check is correct (YES in step S30), the decoding circuit 95 obtains the decoded infrared tag ID number and three-dimensional position information, and two-dimensional position information representing the position of the infrared tag on the image. It outputs to the attitude | position detection part 24 (step S28). If the parity check is not correct, the process returns to step S22 and the above processing is continued.

次に、姿勢検出部24は、デコード回路95によって出力された赤外線タグのID番号、3次元位置情報及び2次元位置情報からユーザの頭部の姿勢を検出し(ステップS31)、その後、ステップS22に戻って上記の処理を継続する。   Next, the posture detection unit 24 detects the posture of the user's head from the ID number of the infrared tag output by the decoding circuit 95, the three-dimensional position information, and the two-dimensional position information (step S31), and then step S22. The above processing is continued after returning to step S2.

上記のように、本例でも、一枚の画像に含まれる多数の光点を同時に且つ高速に検出することができ、ヘッドセット4が装着された複数のユーザの頭部の姿勢を同時に且つ連続的に検出することができる。また、直前に撮影された近赤外線画像の明度と比較して4値化画像を作成しているので、撮影環境が変化した場合でも、明度の変化を正確に反映した4値化画像を作成することができる。さらに、4値化回路91及び明度変化検出回路94をFPGAから構成しているので、複数の光点をより高速に検出することができる。   As described above, also in this example, a large number of light spots included in one image can be detected simultaneously and at high speed, and the postures of the heads of a plurality of users wearing the headsets 4 can be simultaneously and continuously. Can be detected automatically. Further, since the quaternary image is created in comparison with the brightness of the near-infrared image captured immediately before, a quaternary image that accurately reflects the change in brightness is created even when the shooting environment changes. be able to. Furthermore, since the quaternarization circuit 91 and the brightness change detection circuit 94 are made of FPGA, a plurality of light spots can be detected at higher speed.

なお、本実施の形態では、赤外線タグ6−1〜6−4を検出してユーザの頭部の姿勢を検出しているが、検出対象はこの例に特に限定されず、ユーザが位置する空間内に配置された種々の対象物に赤外線タグを取り付け、検出装置1により対象物に取り付けられた赤外線タグをも検出するようにしてもよい。この場合、ユーザの頭部の姿勢が検出されるとともに、対象物の位置が検出されるので、ユーザの頭部の姿勢と対象物の位置とに基づいてユーザが興味を持った対象物を特定することができ、さらに詳細なインタラクションデータを蓄積することができる。   In the present embodiment, the infrared tags 6-1 to 6-4 are detected to detect the posture of the user's head, but the detection target is not particularly limited to this example, and the space in which the user is located An infrared tag may be attached to various objects arranged inside, and the infrared tag attached to the object may be detected by the detection device 1. In this case, since the posture of the user's head is detected and the position of the target object is detected, the target object that the user is interested in is identified based on the posture of the user's head and the position of the target object. More detailed interaction data can be accumulated.

次に、上記のように構成された対象物識別システムの応用例について説明する。図9は、図1に示す姿勢検出システムを用いた展示場におけるインタラクション・コーパスの収集例を説明するための模式図である。   Next, an application example of the object identification system configured as described above will be described. FIG. 9 is a schematic diagram for explaining an example of collecting interaction corpora in the exhibition hall using the posture detection system shown in FIG.

図9に示すように、訪問者P2等がヘッドセット4(赤外線タグ6−1〜6−4)を頭部に装着するとともに、携帯型コンピュータ10を背負っている。対象物に取り付けられる赤外線タグ6は、説明員P1の胸部に装着されるとともに、環境側の対象物として展示説明用のコンピュータM1及びロボットM2、展示用のぬいぐるみM3、展示説明用ボードB1等に取り付けられ、それぞれ個別のID番号を送信する。また、展示場の天井又は壁には、検出装置1が取り付けられている。   As shown in FIG. 9, a visitor P2 or the like wears a portable computer 10 while wearing a headset 4 (infrared tags 6-1 to 6-4) on the head. The infrared tag 6 attached to the object is attached to the chest of the instructor P1, and as an environment-side object, the computer M1 and the robot M2 for explaining the exhibition, the stuffed toy M3 for exhibition, the board B1 for explaining the exhibition, etc. Attach and send each individual ID number. Moreover, the detection apparatus 1 is attached to the ceiling or wall of the exhibition hall.

上記のように各装置が配置されることにより、例えば、検出装置1により訪問者P2が識別されるとともに、訪問者P2の頭部の姿勢が検出され、検出装置1により訪問者P2の周囲の対象物として説明員P1、ロボットM2等が識別される。このようにして、展示場における人と人とのインタラクション等に関するインタラクションデータを収集することができ、収集したデータから知識ベースとなるインタラクション・コーパスを作成することが可能となる。   By arranging each device as described above, for example, the visitor P2 is identified by the detection device 1, and the posture of the head of the visitor P2 is detected. As an object, the instructor P1, the robot M2, and the like are identified. In this way, it is possible to collect interaction data relating to the interaction between people in the exhibition hall, and it is possible to create an interaction corpus as a knowledge base from the collected data.

上記の説明では、インタラクション・コーパスの収集を例に説明したが、本発明が適用可能な用途は、上記の例に特に限定されず、種々の用途に適用することができる。また、一つの対象物に一つの赤外線タグを取り付けたが、一つの対象物に同一のID番号を送信する複数の赤外線タグを設けるようにしてもよい。また、本実施の形態では、撮影した画像を2値化又は4値化したが、多値化の例はこれらの例に特に限定されず、3値化等の他の数を用いてもよい。   In the above description, interaction corpus collection has been described as an example. However, the application to which the present invention can be applied is not particularly limited to the above example, and can be applied to various applications. Further, although one infrared tag is attached to one object, a plurality of infrared tags that transmit the same ID number to one object may be provided. Further, in the present embodiment, the captured image is binarized or quaternarized, but examples of multilevel binarization are not particularly limited to these examples, and other numbers such as ternarization may be used. .

また、本実施の形態では、ユーザの頭部に装着されるヘッドセット4に複数の赤外線タグ6−1〜6−4を設けたが、この例に特に限定されず、ユーザの身体の他の部位、例えば手や足等に赤外線タグを装着してもよい。また、本実施の形態では、ヘッドセット4に赤外線タグ6−1〜6−4を設けたが、ヘッドセットの構成はこの例に特に限定されず、検出装置1と同様に赤外線検出部2及び画像撮影部3をヘッドセット4に取り付け、ユーザの視線方向の対象物の赤外線タグを検出するようにしてもよい。   Moreover, in this Embodiment, although the some infrared tag 6-1 to 6-4 was provided in the headset 4 with which a user's head is mounted | worn, it is not specifically limited to this example, Other of a user's body An infrared tag may be attached to a part such as a hand or a foot. In the present embodiment, the infrared tag 6-1 to 6-4 is provided in the headset 4, but the configuration of the headset is not particularly limited to this example. The image capturing unit 3 may be attached to the headset 4 to detect an infrared tag of an object in the direction of the user's line of sight.

本発明の一実施の形態による姿勢検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the attitude | position detection system by one embodiment of this invention. 図1に示すヘッドセットをユーザが装着したときの外観を示す模式的斜視図である。It is a typical perspective view which shows an external appearance when a user wears the headset shown in FIG. 図2に示すヘッドセットの構成を説明するための模式的上面図及び右側面図である。FIG. 3 is a schematic top view and a right side view for explaining the configuration of the headset shown in FIG. 2. 図1に示す画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus shown in FIG. 図1に示す検出装置による姿勢検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the attitude | position detection process by the detection apparatus shown in FIG. 図1に示す赤外線タグと検出装置との間の通信処理を説明するための通信シーケンス図である。It is a communication sequence diagram for demonstrating the communication process between the infrared tag shown in FIG. 1, and a detection apparatus. 図1に示すCMOSイメージセンサ及び画像処理装置の他の例の構成を示すブロック図である。It is a block diagram which shows the structure of the other example of the CMOS image sensor and image processing apparatus which are shown in FIG. 図7に示すCMOSイメージセンサ及び画像処理装置を用いた姿勢検出処理を説明するためのフローチャートである。It is a flowchart for demonstrating the attitude | position detection process using the CMOS image sensor and image processing apparatus which are shown in FIG. 図1に示す姿勢検出システムを用いた展示場におけるインタラクション・コーパスの収集例を説明するための模式図である。It is a schematic diagram for demonstrating the collection example of the interaction corpus in the exhibition hall using the attitude | position detection system shown in FIG.

符号の説明Explanation of symbols

1 検出装置
2 赤外線検出部
3 画像撮影部
4 ヘッドセット
5 マイク部
6−1〜6−4 赤外線タグ
10 携帯型コンピュータ
11 サーバ
21 反射素子
22 CMOSイメージセンサ
23 画像処理装置
24 姿勢検出部
31 レンズ
32 光学素子
33 CCDカメラ
51 音声処理回路
52 マイクロホン
61 LED
62 駆動回路
81 2値化回路
82 SRAM
83 明度変化検出回路
84 デコード回路
91 4値化回路
92 フレームバッファ
93 SRAM
94 明度変化検出回路
95 デコード回路
DESCRIPTION OF SYMBOLS 1 Detection apparatus 2 Infrared detection part 3 Image photographing part 4 Headset 5 Microphone part 6-1 to 6-4 Infrared tag 10 Portable computer 11 Server 21 Reflective element 22 CMOS image sensor 23 Image processing apparatus 24 Attitude detection part 31 Lens 32 Optical element 33 CCD camera 51 Audio processing circuit 52 Microphone 61 LED
62 drive circuit 81 binarization circuit 82 SRAM
83 Lightness Change Detection Circuit 84 Decode Circuit 91 Quadrature Circuit 92 Frame Buffer 93 SRAM
94 brightness change detection circuit 95 decoding circuit

Claims (7)

対象物の所定位置に装着される発光装置と、前記発光装置を検出する検出装置とを備え、
前記発光装置は、
対象物に対して所定位置に固定され、赤外線を発光する複数の発光手段と、
各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段を点滅させるとともに、前記複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段を点滅させる発光制御手段とを備え、
前記検出装置は、
前記対象物を含む所定の撮影領域の赤外線画像を撮影する撮影手段と、
前記撮影手段により撮影された赤外線画像を用いて前記複数の発光手段を検出する発光検出手段と、
前記検出手段により検出された前記複数の発光手段の点滅状態を検出して各発光手段の識別情報及び3次元位置情報を検出する情報検出手段と、
前記情報検出手段によって検出された識別情報及び3次元位置情報に基づいて前記対象物の姿勢を検出する姿勢検出手段とを備えることを特徴とする姿勢検出システム。
A light emitting device mounted at a predetermined position of the object, and a detection device for detecting the light emitting device,
The light emitting device
A plurality of light emitting means that are fixed in place with respect to the object and emit infrared rays;
Each light emitting means blinks according to the identification information uniquely assigned to each light emitting means, and at least one light emitting means is provided according to the three-dimensional position information representing the three-dimensional positional relationship of the plurality of light emitting means. Light emission control means for flashing,
The detection device includes:
Photographing means for photographing an infrared image of a predetermined photographing region including the object;
A light emission detecting means for detecting the plurality of light emitting means using an infrared image photographed by the photographing means;
Information detecting means for detecting blinking states of the plurality of light emitting means detected by the detecting means to detect identification information and three-dimensional position information of each light emitting means;
A posture detection system comprising: posture detection means for detecting the posture of the object based on identification information and three-dimensional position information detected by the information detection means.
前記発光制御手段は、各発光手段を、前記識別情報に応じて点滅させるとともに、他の発光手段に対する自身の3次元位置関係を表す3次元位置情報に応じて点滅させることを特徴とする請求項1記載の姿勢検出システム。   The light emission control means causes each light emission means to blink according to the identification information and blinks according to three-dimensional position information representing its own three-dimensional positional relationship with respect to other light emission means. The posture detection system according to 1. 前記複数の発光手段は、剛体部材に固定され、前記剛体部材は、弾性部材に固定され、前記発光装置は、前記弾性部材を介して前記対象物に装着されることを特徴とする請求項1又は2記載の姿勢検出システム。   The plurality of light emitting means are fixed to a rigid member, the rigid member is fixed to an elastic member, and the light emitting device is attached to the object via the elastic member. Or the attitude | position detection system of 2 description. 前記発光装置は、ユーザの頭部に装着され、
前記姿勢検出手段は、前記情報検出手段によって検出された識別情報及び3次元位置情報に基づいて前記ユーザの頭部の姿勢を検出することを特徴とする請求項1〜3のいずれかに記載の姿勢検出システム。
The light emitting device is mounted on a user's head,
The said attitude | position detection means detects the attitude | position of the said user's head based on the identification information and the three-dimensional position information which were detected by the said information detection means. Attitude detection system.
前記複数の発光手段は、3つ以上の発光手段を含み、
前記姿勢検出手段は、前記情報検出手段によって検出された3つ以上の発光手段の識別情報及び3次元位置情報に基づいて前記ユーザの頭部の姿勢を検出することを特徴とする請求項4記載の姿勢検出システム。
The plurality of light emitting means includes three or more light emitting means,
5. The posture detecting means detects the posture of the user's head based on identification information and three-dimensional position information of three or more light emitting means detected by the information detecting means. Attitude detection system.
前記複数の発光手段は、
ユーザの頭部の前方に赤外線を発光する第1の発光手段と、
ユーザの頭部の右側方に赤外線を発光する第2の発光手段と、
ユーザの頭部の左側方に赤外線を発光する第3の発光手段と、
ユーザの頭部の後方に赤外線を発光する第4の発光手段とを含むことを特徴とする請求項4又は5記載の姿勢検出システム。
The plurality of light emitting means includes
First light emitting means for emitting infrared light in front of the user's head;
Second light emitting means for emitting infrared light to the right side of the user's head;
A third light emitting means for emitting infrared light to the left side of the user's head;
6. The posture detection system according to claim 4, further comprising fourth light emitting means for emitting infrared light behind the user's head.
対象物の所定位置に装着される発光装置であって、
対象物に対して所定位置に固定され、赤外線を発光する複数の発光手段と、
各発光手段に対して一意的に割り付けられた識別情報に応じて各発光手段を点滅させるとともに、前記複数の発光手段の3次元位置関係を表す3次元位置情報に応じて少なくとも一の発光手段を点滅させる発光制御手段とを備えることを特徴とする発光装置。
A light emitting device mounted at a predetermined position of an object,
A plurality of light emitting means that are fixed in place with respect to the object and emit infrared rays;
Each light emitting means blinks according to the identification information uniquely assigned to each light emitting means, and at least one light emitting means is provided according to the three-dimensional position information representing the three-dimensional positional relationship of the plurality of light emitting means. A light emitting device comprising: a light emission control means for blinking.
JP2005320752A 2005-11-04 2005-11-04 Posture detecting system, and light emitter Pending JP2007127536A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005320752A JP2007127536A (en) 2005-11-04 2005-11-04 Posture detecting system, and light emitter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005320752A JP2007127536A (en) 2005-11-04 2005-11-04 Posture detecting system, and light emitter

Publications (1)

Publication Number Publication Date
JP2007127536A true JP2007127536A (en) 2007-05-24

Family

ID=38150310

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005320752A Pending JP2007127536A (en) 2005-11-04 2005-11-04 Posture detecting system, and light emitter

Country Status (1)

Country Link
JP (1) JP2007127536A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10311273B2 (en) 2016-10-18 2019-06-04 International Business Machines Corporation Thermal tags for real-time activity monitoring and methods for detecting the same
US10376186B2 (en) 2016-10-18 2019-08-13 International Business Machines Corporation Thermal tags for real-time activity monitoring and methods for fabricating the same
US10522251B2 (en) 2016-07-08 2019-12-31 International Business Machines Corporation Infrared detectors and thermal tags for real-time activity monitoring
CN114596511A (en) * 2022-02-10 2022-06-07 深圳市瑞立视多媒体科技有限公司 Active optical rigid body identification method, device, equipment and storage medium
WO2023074852A1 (en) * 2021-10-29 2023-05-04 株式会社Nttドコモ Information processing apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0942929A (en) * 1995-08-01 1997-02-14 Ono Sokki Co Ltd Method and device for measuring position of light spot
JPH0942921A (en) * 1995-08-01 1997-02-14 Ono Sokki Co Ltd Head frame
JP2000180120A (en) * 1998-12-17 2000-06-30 Sony Corp Device and method for image processing, provision medium, and measurement system
JP2003254716A (en) * 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
JP2004056343A (en) * 2002-07-18 2004-02-19 Sony Corp Data communication system, device and method for transmitting data, and device and method for receiving data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0942929A (en) * 1995-08-01 1997-02-14 Ono Sokki Co Ltd Method and device for measuring position of light spot
JPH0942921A (en) * 1995-08-01 1997-02-14 Ono Sokki Co Ltd Head frame
JP2000180120A (en) * 1998-12-17 2000-06-30 Sony Corp Device and method for image processing, provision medium, and measurement system
JP2003254716A (en) * 2002-03-04 2003-09-10 Sony Corp Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
JP2004056343A (en) * 2002-07-18 2004-02-19 Sony Corp Data communication system, device and method for transmitting data, and device and method for receiving data

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10522251B2 (en) 2016-07-08 2019-12-31 International Business Machines Corporation Infrared detectors and thermal tags for real-time activity monitoring
US11043301B2 (en) 2016-07-08 2021-06-22 International Business Machines Corporation Infrared detectors and thermal tags for real-time activity monitoring
US10311273B2 (en) 2016-10-18 2019-06-04 International Business Machines Corporation Thermal tags for real-time activity monitoring and methods for detecting the same
CN109863469A (en) * 2016-10-18 2019-06-07 国际商业机器公司 Real-time activity monitoring is carried out using thermal label
US10376186B2 (en) 2016-10-18 2019-08-13 International Business Machines Corporation Thermal tags for real-time activity monitoring and methods for fabricating the same
JP2020500350A (en) * 2016-10-18 2020-01-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Real-time activity monitoring using thermal tags
CN109863469B (en) * 2016-10-18 2021-11-05 国际商业机器公司 Real-time activity monitoring using thermal tags
WO2023074852A1 (en) * 2021-10-29 2023-05-04 株式会社Nttドコモ Information processing apparatus
CN114596511A (en) * 2022-02-10 2022-06-07 深圳市瑞立视多媒体科技有限公司 Active optical rigid body identification method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP5218168B2 (en) Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system
US20020140822A1 (en) Camera with visible and infra-red imaging
WO2003092291A1 (en) Object detection device, object detection server, and object detection method
US8921752B2 (en) Information acquisition device, information acquisition method, recording medium, and information acquisition system
JP2007043579A (en) Object identification system and detection apparatus
JP2014023159A (en) Photographing apparatus, photographing control method therefor and eyeball recognition apparatus
KR101574361B1 (en) Optically readable tag
JP2015092646A (en) Information processing device, control method, and program
JP7192764B2 (en) Information processing device, information processing method, and program
JP2010050757A (en) Information providing method and information providing system
JP2007127536A (en) Posture detecting system, and light emitter
US11132567B2 (en) Method for authenticating user and electronic device thereof
JP4418935B2 (en) Optical marker system
KR20190119212A (en) System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method
US20220086482A1 (en) Automated film-making using image-based object tracking
US11610375B2 (en) Modulated display AR tracking systems and methods
JP2003348424A (en) Motion tracking apparatus and method thereof
US20040001074A1 (en) Image display apparatus and method, transmitting apparatus and method, image display system, recording medium, and program
JP2010271978A (en) Behavior estimating device
JP4964833B2 (en) Information presentation control apparatus and information presentation control method
JP4345741B2 (en) Personal identification device
JP2004056343A (en) Data communication system, device and method for transmitting data, and device and method for receiving data
JP3762745B2 (en) Object identification system, light emitting device, and detection device
US11902737B2 (en) Directional sound capture using image-based object tracking
CN112822411A (en) Information processing apparatus, system and method thereof, lighting apparatus, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110208