JP6283620B2 - Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space - Google Patents

Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space Download PDF

Info

Publication number
JP6283620B2
JP6283620B2 JP2015026560A JP2015026560A JP6283620B2 JP 6283620 B2 JP6283620 B2 JP 6283620B2 JP 2015026560 A JP2015026560 A JP 2015026560A JP 2015026560 A JP2015026560 A JP 2015026560A JP 6283620 B2 JP6283620 B2 JP 6283620B2
Authority
JP
Japan
Prior art keywords
information
life forms
visible light
light signal
physiological
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015026560A
Other languages
Japanese (ja)
Other versions
JP2016147011A (en
Inventor
佐藤 尚
尚 佐藤
淳司 渡邊
淳司 渡邊
信吾 塚田
信吾 塚田
牧夫 柏野
牧夫 柏野
眞也 西田
眞也 西田
弘二 住友
弘二 住友
奈保子 河西
奈保子 河西
守谷 健弘
健弘 守谷
優 鎌本
優 鎌本
パブロ ナバ ガブリエル
パブロ ナバ ガブリエル
善史 白木
善史 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015026560A priority Critical patent/JP6283620B2/en
Publication of JP2016147011A publication Critical patent/JP2016147011A/en
Application granted granted Critical
Publication of JP6283620B2 publication Critical patent/JP6283620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、所定の空間における生体情報の取得装置、取得方法及び取得プログラムに関する。   The present invention relates to a biological information acquisition apparatus, acquisition method, and acquisition program in a predetermined space.

スポーツやエンタテイメント産業では、観客の観覧内容に対する満足度を知ることがサービスの質を評価する上で重要となる。通常は、観客に対するアンケート調査などで満足度評価を行なうが、そのような方法では多数の観客から一度に情報を取得するのは難しく、多くの人手や費用が必要となる。   In the sports and entertainment industries, it is important to evaluate the quality of service to know the level of satisfaction with the audience's viewing contents. Usually, a satisfaction evaluation is performed by a questionnaire survey or the like for the audience. However, it is difficult to obtain information from a large number of audiences at once, and a lot of manpower and costs are required.

そのため、近年、顔画像認識技術によって観客の表情や顔の向きなどの情報を自動的に取得し、それらに基づいて観客の満足度を機械的に推定するシステムが開発されている(非特許文献1)。   Therefore, in recent years, a system has been developed that automatically acquires information such as the spectator's facial expressions and face orientations using face image recognition technology, and mechanically estimates the degree of spectator satisfaction based on the information (non-patent literature). 1).

また、近年、近赤外光通信を含む可視光を利用した通信技術が広く知られている可視光通信技術の一例として、例えば、LED照明の速い応答速度、及び電気的に制御できることに着目し、LED照明に信号伝送機能を持たせる技術が開発されている(非特許文献2)。このLED照明を使用した信号伝送(照明光信号伝送)は、信号伝送媒体として可視光(照明光)を用いるものである。そして、LEDを送信信号に応じ、光の強度を変化させ、受信側ではその光の強弱により信号を判別することで信号を伝送する。この可視光通信と生理情報計測の技術を組み合わせることによって、生理情報を可視光通信で送信することは可能である。   In recent years, as an example of visible light communication technology in which communication technology using visible light including near-infrared light communication is widely known, for example, attention is paid to the fast response speed of LED lighting and the ability to be electrically controlled. A technique for providing a signal transmission function to LED lighting has been developed (Non-Patent Document 2). In this signal transmission using LED illumination (illumination light signal transmission), visible light (illumination light) is used as a signal transmission medium. Then, the LED transmits the signal by changing the intensity of the light according to the transmission signal and discriminating the signal based on the intensity of the light on the receiving side. By combining this visible light communication and physiological information measurement technology, it is possible to transmit physiological information by visible light communication.

松川 徹、 日高 章理、 栗田 多喜男 ”複数人物の顔方向・表情認識に基づく映像中の観客の満足度の自動定量評価” 情報処理学会論文誌 vol. 50 No.12 3222-3232 (Dec. 2009)Toru Matsukawa, Akira Hidaka, Takio Kurita “Automatic Quantitative Evaluation of Audience Satisfaction in Video Based on Face Direction / Expression Recognition of Multiple People” IPSJ Journal vol. 50 No.12 3222-3232 (Dec. 2009) 小峰 俊彦、 田中 裕一、 中川 正雄 ”白色LED照明信号伝送と電力線信号伝送の融合システム” 信学技法, IT2001-91, ISEC2001-129, SST2001-207, ITS2001-145(2002-03)Toshihiko Komine, Yuichi Tanaka, Masao Nakagawa “Fusion system of white LED illumination signal transmission and power line signal transmission” IEICE Tech., IT2001-91, ISEC2001-129, SST2001-207, ITS2001-145 (2002-03)

しかしながら、従来の可視光通信技術と生理情報計測を組み合わせるだけでは、通常の撮像手段を持っても計測可能であるという可視光信号の特徴を有効に活用しているとはいえなかった。 However, simply combining conventional visible light communication technology and physiological information measurement, it cannot be said that the feature of the visible light signal that measurement is possible even with a normal imaging means is effectively utilized.

本発明は、上記実情に鑑みてなされたものであり、所定の空間における複数の生命体に取り付けられた装置から出力される生理情報を伝送する可視光信号を有効に利用して、複数の生命体の生体情報及び位置情報を関連付けて特定することができる生体情報取得装置、生体情報取得方法及び生体情報取得プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and effectively utilizes a visible light signal that transmits physiological information output from devices attached to a plurality of living bodies in a predetermined space, thereby enabling a plurality of lives. It is an object of the present invention to provide a biological information acquisition apparatus, a biological information acquisition method, and a biological information acquisition program that can specify the biological information and position information of a body in association with each other.

本発明の第1の観点の発明によれば、複数の生命体が存在する所定の空間を撮像する撮像手段と、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、前記撮像手段が撮像した映像中の前記可視光信号の位置情報もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定する位置特定手段と、前記撮像手段が撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得する生理情報取得手段と、前記位置特定手段により特定された前記複数の生命体それぞれの位置情報と、前記生理情報取得手段により取得された前記複数の生命体それぞれの生理情報とを関連付けて特定する生体情報特定手段と、前記撮像手段が撮像した映像中の前記複数の生命体の画像から、前記複数の生命体のそれぞれの顔画像を認識し、前記認識した顔画像の表情情報及び個人識別情報のうちの少なくとも1つを有する顔画像認識情報を取得する顔画像認識情報取得手段とを具備し、前記生体情報特定手段は、前記撮像手段が撮像した映像中の前記可視光信号の位置と、前記各生命体の映像の位置の最も近いもの同士を関連付けることによって、前記顔画像認識情報取得手段により取得された前記複数の生命体それぞれの顔画像認識情報を、前記複数の生命体それぞれの位置情報、生理情報に関連付けて特定する生体情報取得装置、である。 According to the first aspect of the present invention, imaging means for imaging a predetermined space in which a plurality of life forms exist, and a visible light signal representing physiological information of the life form for each of the plurality of life forms. A biological information output device is attached, and the position specifying unit specifies the position information of each of the plurality of life forms from the position information of the visible light signal in the image picked up by the image pickup unit or the image of each life form. Means, physiological information acquisition means for acquiring physiological information of each of the plurality of life forms from the visible light signal in the image captured by the imaging means, and each of the plurality of life forms specified by the position specifying means and position information, and biological information specifying means for specifying in association with the physiological information has been of the plurality of organisms are acquired by acquisition means the physiological information, wherein in a video image said imaging means has captured A face for recognizing face images of each of the plurality of life forms from a plurality of life form images and acquiring face image recognition information having at least one of facial expression information and personal identification information of the recognized face images An image recognition information acquisition unit , wherein the biological information specifying unit associates the position of the visible light signal in the image captured by the imaging unit with the closest one of the image of each life object. The biological information acquisition device that specifies the facial image recognition information of each of the plurality of life forms acquired by the face image recognition information acquisition unit in association with the position information and physiological information of each of the plurality of life forms. .

本発明によれば、所定の空間における複数の生命体に取り付けられた装置から出力される生理情報を伝送する可視光信号を有効に利用して、複数の生命体の生体情報及び位置情報を関連付けて特定することができる。   According to the present invention, the visible light signal that transmits physiological information output from devices attached to a plurality of organisms in a predetermined space is effectively used to associate biological information and position information of a plurality of organisms. Can be specified.

本実施の形態に係る所定の空間における複数の観客の生体情報取得装置を示す図である。It is a figure which shows the biometric information acquisition apparatus of the several audience in the predetermined space which concerns on this Embodiment. 顔画像認識部14の機能ブロック図を示す図である。It is a figure which shows the functional block diagram of the face image recognition part. 生体情報特定部16により特定される情報を示す図である。It is a figure which shows the information specified by the biometric information specific | specification part 16. FIG. 本実施の形態に係る生体情報取得装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the biometric information acquisition apparatus which concerns on this Embodiment. イベント判定装置の学習部を示す図である。It is a figure which shows the learning part of an event determination apparatus. イベント判定装置のカテゴリ判定部を示す図である。It is a figure which shows the category determination part of an event determination apparatus. 判定器51における判定の際に使用され、判定器生成部42により生成される判定ベースを説明するための図である。It is a figure for demonstrating the determination base used in the case of the determination in the determination device 51, and the determination device production | generation part 42 produces | generates. 本発明の実施の形態に係るイベント判定装置の動作を説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating operation | movement of the event determination apparatus which concerns on embodiment of this invention. 本発明の他の実施の形態に係る可視光通信システム600を示す図である。It is a figure which shows the visible light communication system 600 which concerns on other embodiment of this invention. 同他の実施の形態に係る送信装置110の構成を示す図である。It is a figure which shows the structure of the transmitter 110 which concerns on the other embodiment.

以下、実施の形態について、図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、本実施の形態に係る所定の空間における生体情報取得装置を示す図である。   FIG. 1 is a diagram showing a biological information acquisition apparatus in a predetermined space according to the present embodiment.

同図において、所定の空間には複数の観客(生命体)M−1〜M−4が存在しており、各観客には、生理情報を可視光により送信する生理情報出力装置1−1〜1−4が取り付けられている。   In the figure, there are a plurality of spectators (life forms) M-1 to M-4 in a predetermined space, and physiological information output devices 1-1 to 1-1 that transmit physiological information by visible light to each spectator. 1-4 is attached.

なお、所定の情報(本実施の形態では、生理情報)を可視光通信を使用して送信する技術については、公知の技術であるのでここでは詳述しない(例えば、非特許文献2の「白色LED照明信号伝送と電力線信号伝送の融合システム」 小峰他 電子情報通信学会技術研究報告 SST, スペクトル拡散 101(730), 99-104, 2002-03-12)。   Note that a technique for transmitting predetermined information (physiological information in this embodiment) using visible light communication is a known technique and will not be described in detail here (for example, “White” in Non-Patent Document 2). LED lighting signal transmission and power line signal transmission system "Komine et al. IEICE Technical Report SST, Spread Spectrum 101 (730), 99-104, 2002-03-12).

ここで、本実施の形態において「生理情報」とは、心電図、筋電図、発汗、心拍数、心音強度、血圧、呼吸(数、深さ)、声(高さ)、発汗、皮膚温度などであり、可視光通信により送られる情報である。なお、本実施の形態においては、生理情報は、複数の観客M−1〜M−4の外観からは取得できない情報を意図するが、外観から取得できる情報であって、観客に関する情報を可視光通信により送信しても良い。   Here, in the present embodiment, “physiological information” means electrocardiogram, electromyogram, sweating, heart rate, heart sound intensity, blood pressure, respiration (number, depth), voice (height), sweating, skin temperature, etc. It is information sent by visible light communication. In the present embodiment, the physiological information is intended to be information that cannot be acquired from the appearances of the plurality of spectators M-1 to M-4. You may transmit by communication.

撮像部(例えば、ビデオカメラ)11は、複数の観客M−1〜M−4が存在する所定の空間を撮像する。従って、この撮像部11により撮像される映像には、複数の観客M−1〜M−4と、各観客M−1〜M−4に取り付けられた生理情報出力装置1−1〜1−4から出力された生理情報を表わす可視光とが含まれる。   The imaging unit (for example, a video camera) 11 images a predetermined space where a plurality of spectators M-1 to M-4 are present. Therefore, the video imaged by the imaging unit 11 includes a plurality of spectators M-1 to M-4 and physiological information output devices 1-1 to 1-4 attached to the spectators M-1 to M-4. And visible light representing physiological information output from.

位置情報取得部12は、撮像部11が撮像した映像中の可視光信号の位置から複数の観客M−1〜M−4の位置を特定し、その特定された位置を示す位置情報を取得する。位置の特定は、例えば、映像を構成する画像から生理情報出力装置1−1〜1−4から出力された生理情報を表わす可視光が映っている領域を検出し、その検出された領域に対応付られた位置を特定するなど種々の方法が考えられる。また、位置情報は、所定の空間に存在する複数の観客M−1〜M−4の位置をx−y座標で表わすものとするが、これに限られるものではない。   The position information acquisition unit 12 specifies the positions of the plurality of spectators M-1 to M-4 from the positions of the visible light signals in the video imaged by the imaging unit 11, and acquires the position information indicating the specified positions. . The position is identified by, for example, detecting an area in which visible light representing physiological information output from the physiological information output apparatuses 1-1 to 1-4 is reflected from an image constituting the video and corresponding to the detected area. Various methods such as specifying the attached position can be considered. The position information represents the positions of a plurality of spectators M-1 to M-4 existing in a predetermined space by xy coordinates, but is not limited to this.

生理情報取得部13は、撮像部11が撮像した映像中における各観客M−1〜M−4に取り付けられた生理情報出力装置1−1〜1−4から出力された生理情報を表わす可視光を復号して、各観客M−1〜M−4の生理情報を取得して出力する。   The physiological information acquisition unit 13 is visible light representing physiological information output from the physiological information output devices 1-1 to 1-4 attached to the spectators M-1 to M-4 in the image captured by the imaging unit 11. Is acquired, and physiological information of each audience M-1 to M-4 is acquired and output.

顔画像認識部14は、撮像部11が撮像した映像中における各観客M−1〜M−4の顔画像を認識し、その認識した顔画像の表情情報、個人識別(顔画像)情報を出力する。図2は、顔画像認識部14の機能ブロック図を示す図である。   The face image recognition unit 14 recognizes the face images of the spectators M-1 to M-4 in the video imaged by the imaging unit 11, and outputs facial expression information and personal identification (face image) information of the recognized face images. To do. FIG. 2 is a functional block diagram of the face image recognition unit 14.

同図に示すように、顔画像認識部14は、顔画像抽出部21、表情情報抽出部22及び個人識別(顔認識)情報取得部23及び顔認識データベース24を具備する。   As shown in the figure, the face image recognition unit 14 includes a face image extraction unit 21, a facial expression information extraction unit 22, a personal identification (face recognition) information acquisition unit 23, and a face recognition database 24.

顔画像抽出部21は、撮像部11が撮像した映像中における各観客M−1〜M−4の顔画像を抽出する。   The face image extraction unit 21 extracts the face images of the spectators M-1 to M-4 in the video imaged by the imaging unit 11.

表情情報抽出部22は、顔画像抽出部21により抽出された各観客M−1〜M−4の顔画像から表情情報を抽出する。なお、顔画像から観客の表情情報を取得する手法は公知の技術であり、例えば、非特許文献1の「松川 徹、 日高 章理、 栗田 多喜夫 ”複数人物の顔方向・表情認識に基づく映像中の観客の満足度の自動定量評価” 情報処理学会論文 vol 50 No.12 3222−3232(Dec. 2009)」などに開示されている。   The facial expression information extraction unit 22 extracts facial expression information from the facial images of the spectators M-1 to M-4 extracted by the facial image extraction unit 21. Note that the technique for acquiring the facial expression information of the audience from the face image is a known technique. For example, Non-Patent Document 1 “Toru Matsukawa, Akira Hidaka, Takio Kurita” video based on facial recognition of multiple persons. "Automatic Quantitative Evaluation of Audience Satisfaction" in Information Processing Society of Japan Vol. 50 No. 12 3222-3232 (Dec. 2009) ".

また、顔の特徴量に基づいて顔の表情を得る手法としては、例えば、「宮原 正憲、 滝口 哲也、 有木 康雄 ”顔特徴点移動量・点間距離変化量の組み合わせに基づく顔表情認識” 2007年電子情報通信学会総合大会 D−12−80 p.196」、「野宮 浩揮、 宝珍 輝尚 ”顔特徴点を用いた特徴選択と特徴抽出による表情認識に基づく映像中の表情表出シーン検出” DEIM Forum 2011 C1−5」などに開示されている。   For example, “Masori Miyahara, Tetsuya Takiguchi, Yasuo Ariki” “Facial expression recognition based on the combination of facial feature point movement and inter-point distance change” is a method for obtaining facial expressions based on facial features. 2007 IEICE General Conference D-12-80 p.196 "," Hiroki Nomiya, Teruho Takara "Facial expression expression scene in video based on facial expression recognition by feature selection and feature extraction using facial feature points Detection “DEIM Forum 2011 C1-5” and the like.

ここで、表情情報とは、例えば、”喜んでいる”、”喜んでいない”、”真剣に観戦している”、”真剣に観戦していない”、”悲しんでいる”、”悲しんでいない”、嫌悪”、”恐怖”、”幸福”、”悲しみ”、”驚き”、”無表情”などの情報である。   Here, facial expression information is, for example, “I am glad”, “I am not glad”, “I am seriously watching”, “I am not seriously watching”, “I am sad”, “I am not sad Information such as “, disgust”, “fear”, “happiness”, “sadness”, “surprise”, “no expression”.

個人識別(顔認識)情報取得部23は、顔画像抽出部21により抽出された各観客M−1〜M−4の顔画像から個人識別(顔認識)情報を取得して出力する。この個人識別情報の取得は、例えば、顔画像と個人識別情報とが関連付けて記憶された顔認識データベース24を使用して、顔画像抽出部21により抽出された各観客M−1〜M−4の顔画像と、顔認識データベース24に格納された顔画像との照合処理を行ない、一致した顔画像に対応する個人識別情報を顔認識データベース24から取得することにより行なわれる。   The personal identification (face recognition) information acquisition unit 23 acquires personal identification (face recognition) information from the face images of the spectators M-1 to M-4 extracted by the face image extraction unit 21 and outputs them. The acquisition of the personal identification information is performed by, for example, using each of the spectators M-1 to M-4 extracted by the face image extraction unit 21 using the face recognition database 24 in which the face image and the personal identification information are stored in association with each other. The face image stored in the face recognition database 24 is collated, and personal identification information corresponding to the matched face image is obtained from the face recognition database 24.

なお、位置情報取得部12により取得された複数の観客M−1〜M−4の位置を示す位置情報に代えて、顔画像抽出部21により抽出された各観客M−1〜M−4の顔画像の位置を観客の位置情報としても良い。   Instead of the position information indicating the positions of the plurality of spectators M-1 to M-4 acquired by the position information acquisition unit 12, each of the spectators M-1 to M-4 extracted by the face image extraction unit 21 is used. The position of the face image may be used as the position information of the audience.

姿勢認識部15は、撮像部11が撮像した映像中における各観客M−1〜M−4の姿勢を認識し、その認識した各観客M−1〜M−4の姿勢を示す姿勢情報を出力する。なお、このような画像から人物の姿勢を推定する技術は広く知られている技術である(例えば、「安藤 慎吾 他 ”映像モニタリングのための人物姿勢推定技術” NTT技術ジャーナル 2007.8」)。また、本実施の形態においては、姿勢認識部15を用いる場合について説明したが、姿勢認識部15は必ずしも必要ではなく省略しても良い。   The posture recognition unit 15 recognizes the postures of the spectators M-1 to M-4 in the image captured by the imaging unit 11, and outputs posture information indicating the postures of the recognized spectators M-1 to M-4. To do. A technique for estimating the posture of a person from such an image is a well-known technique (for example, “Shingo Ando et al.,“ Person Posture Estimation Technology for Video Monitoring ”NTT Technology Journal 20077.8”). In the present embodiment, the case where the posture recognition unit 15 is used has been described. However, the posture recognition unit 15 is not necessarily required and may be omitted.

生体情報特定部16は、位置情報取得部12により特定された複数の観客M−1〜M−4の位置情報と、生理情報取得部13により取得された複数の観客M−1〜M−4の生理情報、顔画像認識部14により認識された顔画像の表情情報及び個人識別(顔認証)情報、姿勢認識部15により認識された複数の観客M−1〜M−4の姿勢情報を取得し、互いに関連付けて特定し、記憶する。   The biometric information specifying unit 16 includes the position information of the plurality of spectators M-1 to M-4 specified by the position information acquiring unit 12 and the plurality of spectators M-1 to M-4 acquired by the physiological information acquiring unit 13. Physiology information, facial image expression information and personal identification (face authentication) information recognized by the face image recognition unit 14, and posture information of a plurality of audiences M-1 to M-4 recognized by the posture recognition unit 15. And identify and store them in association with each other.

この関連付けは、図3に示すように、撮像部11により撮像された映像の複数の観客M−1〜M−4の位置情報31に、生理情報32、表情情報33、個人識別情報34及び姿勢情報35が関連付けられる。撮像部11により撮像された映像には、複数の観客M−1〜M−4及び各観客M−1〜M−4に取り付けられた生理情報出力装置1−1〜1−4から出力された生理情報を表わす可視光が含まれていることから、この可視光の位置を位置情報に関連付けることにより、生理情報32、表情情報33、個人識別情報34及び姿勢情報35を関連付けることができる。   As shown in FIG. 3, this association is performed by adding position information 31 of a plurality of spectators M-1 to M-4 of a video imaged by the imaging unit 11 to physiological information 32, facial expression information 33, personal identification information 34, and posture. Information 35 is associated. The video imaged by the imaging unit 11 is output from a plurality of spectators M-1 to M-4 and physiological information output devices 1-1 to 1-4 attached to the spectators M-1 to M-4. Since visible light representing physiological information is included, the physiological information 32, facial expression information 33, personal identification information 34, and posture information 35 can be associated by associating the position of this visible light with the positional information.

この関連付けは、例えば、各観客M−1〜M−4(顔、姿勢)の位置と、可視光の位置とが最も近いもの同士が関連付けられる。その結果、可視光の位置情報31と、可視光の位置に最も近い観客の生理情報32、表情情報33、個人識別情報34及び姿勢情報35が関連付けられる。   In this association, for example, the positions of the audiences M-1 to M-4 (faces, postures) and the positions of the visible light are associated with each other. As a result, the position information 31 of visible light is associated with the physiological information 32, facial expression information 33, personal identification information 34, and posture information 35 of the audience closest to the position of visible light.

本実施の形態においては、位置情報31に、生理情報32、表情情報33、個人識別情報34及び姿勢情報35を関連付ける場合については説明したが、表情情報33、個人識別情報34及び姿勢情報35は必ずしも必須ではない。また、他の生体情報を位置情報31及び生理情報32に関連付けても良い。   In the present embodiment, the case where physiological information 32, facial expression information 33, personal identification information 34, and posture information 35 are associated with position information 31 has been described, but facial expression information 33, personal identification information 34, and posture information 35 are Not necessarily required. Other biological information may be associated with the position information 31 and the physiological information 32.

表情情報33、個人識別情報34を用いない場合には、顔画像認識部14はなくても良い。また、姿勢情報35を用いない場合には、姿勢認識部15はなくても良い。この場合、生体情報特定部16により、位置情報取得部12により特定された複数の観客M−1〜M−4の位置情報と、生理情報取得部13により取得された複数の観客M−1〜M−4の生理情報とが関連付けられることになる。   When the facial expression information 33 and the personal identification information 34 are not used, the face image recognition unit 14 may be omitted. Further, when the posture information 35 is not used, the posture recognition unit 15 may be omitted. In this case, the biometric information specifying unit 16 uses the positional information of the plurality of spectators M-1 to M-4 specified by the position information acquiring unit 12 and the spectators M-1 to M-1 acquired by the physiological information acquiring unit 13. The physiological information of M-4 is associated.

図4は、本実施の形態に係る生体情報取得装置の動作を説明するためのフローチャートである。   FIG. 4 is a flowchart for explaining the operation of the biometric information acquisition apparatus according to this embodiment.

まず、撮像部11により、複数の観客M−1〜M−4が存在する所定の空間を撮像する(S1)。次に、位置情報取得部12が複数の観客M−1〜M−4の位置情報、生理情報取得部13が複数の観客M−1〜M−4の生理情報、顔画像認識部14が複数の観客M−1〜M−4の顔画像の表情情報及び個人識別(顔画像)情報を含む顔画像認識情報及び姿勢認識部15が複数の観客M−1〜M−4の姿勢情報を取得する(S2)。   First, the imaging unit 11 images a predetermined space where a plurality of spectators M-1 to M-4 are present (S1). Next, the position information acquisition unit 12 includes position information of a plurality of audiences M-1 to M-4, the physiological information acquisition unit 13 includes a plurality of physiological information of the audiences M-1 to M-4, and a plurality of face image recognition units 14 exist. Face recognition information including facial expression information and personal identification (face image) information of the spectators M-1 to M-4 and the posture recognition unit 15 obtain posture information of a plurality of spectators M-1 to M-4 (S2).

次に、S2において取得された複数の観客M−1〜M−4の位置情報、生理情報、顔画像認識情報及び姿勢情報を関連付けて特定する(S3)。   Next, the positional information, physiological information, face image recognition information, and posture information of the plurality of spectators M-1 to M-4 acquired in S2 are specified in association with each other (S3).

したがって、本実施の形態によれば、撮像部11により撮像された映像に基づいて、生体情報特定部16により、図3に示すように、位置情報31、生理情報32、表情情報33、個人識別情報34及び姿勢情報35を関連付けることにより、大量に存在する計測点からのデータを一箇所で収集することができる。   Therefore, according to the present embodiment, based on the video imaged by the imaging unit 11, the biological information specifying unit 16 performs position information 31, physiological information 32, facial expression information 33, personal identification as shown in FIG. By associating the information 34 and the posture information 35, data from a large number of measurement points can be collected at one place.

また、単に、生理情報32を取得する場合に比較して、位置情報31及び生理情報32に関連する他の情報(表情情報33、個人識別情報34及び姿勢情報35)をも取得することができることから、生体情報を使用した所定の空間におけるイベントに関する情報の推定精度を向上することができる。
<応用例>
上述の実施の形態では、撮像部11により撮像された映像に基づいて、生体情報特定部16から位置情報31、生理情報32、表情情報33、個人識別情報34及び姿勢情報35を関連付けて出力する場合について説明した。
Further, as compared with the case where the physiological information 32 is simply acquired, other information related to the position information 31 and the physiological information 32 (expression information 33, personal identification information 34, and posture information 35) can also be acquired. Therefore, it is possible to improve the estimation accuracy of information related to events in a predetermined space using biological information.
<Application example>
In the above-described embodiment, the position information 31, the physiological information 32, the facial expression information 33, the personal identification information 34, and the posture information 35 are output in association with each other from the biological information identification unit 16 based on the video imaged by the imaging unit 11. Explained the case.

ここでは、これら情報を、所定の空間におけるイベントを判定するためのイベント判定装置において使用する場合について説明する。なお、これらデータは本応用例に限らず、他の用途においても使用することができる。   Here, a case where these pieces of information are used in an event determination apparatus for determining an event in a predetermined space will be described. These data are not limited to this application example, but can be used for other purposes.

本応用例では、コンサートホールにおける観客の位置情報及び生体情報を取得し、これら取得された位置情報及び生体情報から判定器を使用して、コンサートホールにおいて行われているロック、クラシック、演歌などのイベントカテゴリを判定する場合について説明するが、これに限られるものではない。   In this application example, the location information and biometric information of the audience in the concert hall are acquired, and using the determiner from the acquired location information and biometric information, such as rock, classic, enka, etc. performed in the concert hall Although the case where the event category is determined will be described, the present invention is not limited to this.

イベント判定装置は、判定器を生成するための学習部及びカテゴリ判定部を有する。図5は、イベント判定装置の学習部を示す図である。   The event determination device includes a learning unit and a category determination unit for generating a determiner. FIG. 5 is a diagram illustrating a learning unit of the event determination device.

同図に示すように、学習部は、撮像部11、位置情報取得部12、生理情報取得部13、顔画像認識部14、姿勢認識部15、生体情報特定部16、イベントカテゴリ入力部41、判定器生成部42を有している。   As shown in the figure, the learning unit includes an imaging unit 11, a position information acquisition unit 12, a physiological information acquisition unit 13, a face image recognition unit 14, a posture recognition unit 15, a biological information identification unit 16, an event category input unit 41, It has a determiner generator 42.

撮像部11、位置情報取得部12、生理情報取得部13、顔画像認識部14、姿勢認識部15、生体情報特定部16は、上述の実施の形態において説明したので、ここでは説明を省略する。   Since the imaging unit 11, the position information acquisition unit 12, the physiological information acquisition unit 13, the face image recognition unit 14, the posture recognition unit 15, and the biological information identification unit 16 have been described in the above-described embodiment, description thereof is omitted here. .

イベントカテゴリ入力部41は、コンサートホールにおいて行なわれている(正解となる)イベントカテゴリ(ロック、クラシック、演歌など)を入力する。   The event category input unit 41 inputs an event category (rock, classic, enka, etc.) being performed in the concert hall (being correct).

判定器生成部42は、生体情報特定部16により特定された複数の観客M−1〜M−4の位置情報、生理情報、表情情報、個人識別情報、姿勢情報と、イベントカテゴリ入力部41に入力された(正解となる)イベントカテゴリ(ロック、クラシック、演歌など)とを関連付けて判定器51の判定ベースを生成する。   The determiner generation unit 42 includes position information, physiological information, facial expression information, personal identification information, posture information, and event category input unit 41 of the plurality of spectators M-1 to M-4 specified by the biometric information specification unit 16. The determination base of the determination unit 51 is generated by associating the input event category (being correct) (rock, classic, enka, etc.).

図7は、判定器51における判定の際に使用され、判定器生成部42により生成される判定ベースを説明するための図である。   FIG. 7 is a diagram for explaining a determination base that is used in determination by the determiner 51 and is generated by the determiner generator 42.

同図に示すように、判定のために使用される判定ベースは、位置情報31、生理情報32、表情情報33、個人識別情報34、姿勢情報35及びイベントカテゴリ61を含む。   As shown in the figure, the determination base used for determination includes position information 31, physiological information 32, facial expression information 33, personal identification information 34, posture information 35, and event category 61.

判定ベースは、イベントカテゴリ毎に作成される。なお、学習の方法については、同一のイベントカテゴリについて1回に限らず、同一のイベントカテゴリについて複数回、位置情報及び生体情報を取得し、これら取得した複数の位置情報及び生体情報の平均値を使用してもよく、また、他の学習方法を採用しても良い。   A judgment base is created for each event category. Note that the learning method is not limited to once for the same event category, but the position information and the biological information are acquired a plurality of times for the same event category, and the average value of the acquired plurality of position information and biological information is obtained. You may use, and you may employ | adopt another learning method.

図6は、イベント判定装置のカテゴリ判定部を示す図である。   FIG. 6 is a diagram illustrating a category determination unit of the event determination apparatus.

同図に示すように、カテゴリ判定部は、撮像部11、位置情報取得部12、生理情報取得部13、顔画像認識部14、姿勢認識部15、生体情報特定部16、判定器51を有している。   As shown in the figure, the category determination unit includes an imaging unit 11, a position information acquisition unit 12, a physiological information acquisition unit 13, a face image recognition unit 14, a posture recognition unit 15, a biological information identification unit 16, and a determination unit 51. doing.

撮像部11、位置情報取得部12、生理情報取得部13、顔画像認識部14、姿勢認識部15、生体情報特定部16は、上述の実施の形態において説明したので、ここでは説明を省略する。   Since the imaging unit 11, the position information acquisition unit 12, the physiological information acquisition unit 13, the face image recognition unit 14, the posture recognition unit 15, and the biological information identification unit 16 have been described in the above-described embodiment, description thereof is omitted here. .

判定器51は、学習時に判定器生成部42によってカテゴリ毎に生成された判定ベースに基づいて、生体情報特定部16により特定され、判定の対象となる複数の観客M−1〜M−4の位置情報31、生理情報32、表情情報33、個人識別情報34及び姿勢情報35の情報からイベントのカテゴリの判定を行なう。   The determiner 51 is specified by the biological information specifying unit 16 based on the determination base generated for each category by the determiner generating unit 42 at the time of learning, and includes a plurality of audiences M-1 to M-4 to be determined. The event category is determined from the position information 31, physiological information 32, facial expression information 33, personal identification information 34, and posture information 35.

この判定は、判定時に取得された位置情報及び生体情報(生理情報32、表情情報33、個人識別情報34及び姿勢情報35)と、学習により生成された判定ベースとを比較し、その比較の結果、最も一致率の高い判定ベースのカテゴリをイベントのカテゴリとして判定して出力する。なお、判定器51による判定方法はこれに限られるものではない。   This determination is performed by comparing the position information and biological information (physiological information 32, facial expression information 33, personal identification information 34, and posture information 35) acquired at the time of determination with the determination base generated by learning. The determination base category with the highest match rate is determined as the event category and output. In addition, the determination method by the determination device 51 is not limited to this.

図8は、本発明の実施の形態に係るイベント判定装置の動作を説明するためのフローチャートを示す図である。   FIG. 8 is a diagram illustrating a flowchart for explaining the operation of the event determination apparatus according to the embodiment of the present invention.

最初に、学習により判定器51の生成が行われる(学習モード)。   First, the determination unit 51 is generated by learning (learning mode).

まず、撮像部11により、複数の観客M−1〜M−4が存在する所定の空間を撮像する(S11)。次に、位置情報取得部12が複数の観客M−1〜M−4の位置情報、生理情報取得部13が複数の観客M−1〜M−4の生理情報、顔画像認識部14が複数の観客M−1〜M−4の顔画像の表情情報及び個人識別(顔画像)情報を含む顔画像認識情報及び姿勢認識部15が複数の観客M−1〜M−4の姿勢情報を取得する(S12)。   First, the imaging unit 11 images a predetermined space where a plurality of spectators M-1 to M-4 exist (S11). Next, the position information acquisition unit 12 includes position information of a plurality of audiences M-1 to M-4, the physiological information acquisition unit 13 includes a plurality of physiological information of the audiences M-1 to M-4, and a plurality of face image recognition units 14 exist. Face recognition information including facial expression information and personal identification (face image) information of the spectators M-1 to M-4 and the posture recognition unit 15 obtain posture information of a plurality of spectators M-1 to M-4 (S12).

次に、S12において取得された複数の観客M−1〜M−4の位置情報、生理情報、顔画像認識情報及び姿勢情報を関連付けて特定する(S13)。   Next, the positional information, physiological information, face image recognition information, and posture information of the plurality of audiences M-1 to M-4 acquired in S12 are specified in association with each other (S13).

そして、判定器生成部42は、複数の観客M−1〜M−4それぞれの生体情報及び位置情報と、取得されたイベントのカテゴリとを関連付けて判定器51の判定ベースを生成する(S14)。   Then, the determiner generator 42 generates a determination base of the determiner 51 by associating the biological information and position information of each of the spectators M-1 to M-4 with the acquired event category (S14). .

次に、予め定められた基準(例えば、カテゴリの数、学習の回数など)に従って、判定器生成部42により学習が終了したか否かの判定が行なわれる(S15)。学習が終了していないとされた場合には、S11の処理に戻り、学習モードを継続する。   Next, in accordance with predetermined criteria (for example, the number of categories, the number of times of learning, etc.), it is determined whether or not learning has been completed by the determiner generation unit 42 (S15). If learning is not finished, the process returns to S11 and the learning mode is continued.

一方、学習が終了したと判定された場合には、生成された判定ベースを使用した判定器51によるイベント判定モードが実行可能になる。   On the other hand, when it is determined that the learning has been completed, the event determination mode by the determiner 51 using the generated determination base can be executed.

イベント判定モードにおいては、判定の対象となる位置情報31及び生体情報(生理情報32、表情情報33、個人識別情報34、姿勢情報35)が取得され(S16)、これら情報が生体情報特定部16により特定されて、判定器51に入力される。   In the event determination mode, position information 31 and biological information (physiological information 32, facial expression information 33, personal identification information 34, posture information 35) to be determined are acquired (S16), and these pieces of information are stored in the biological information specifying unit 16. And is input to the determiner 51.

判定器51は、学習時に判定器生成部42によってカテゴリ毎に生成された判定ベースに基づいて、生体情報特定部16により特定され、判定の対象となる複数の観客M−1〜M−4の位置情報31、生理情報32、表情情報33、個人識別情報34及び姿勢情報35のイベントのカテゴリの判定を行なう(S17)。   The determiner 51 is specified by the biological information specifying unit 16 based on the determination base generated for each category by the determiner generating unit 42 at the time of learning, and includes a plurality of audiences M-1 to M-4 to be determined. The event category of position information 31, physiological information 32, facial expression information 33, personal identification information 34, and posture information 35 is determined (S17).

そして、判定器51は、S17において判定された結果であるイベントのカテゴリを出力する(S18)。   Then, the determiner 51 outputs the event category that is the result determined in S17 (S18).

したがって、本実施の形態のイベント判定装置によれば、所定の空間に存在する複数の生命体の位置情報及び生体情報を基に、その空間で行なわれている音楽の種類などのイベントの判定を行なうことができ、いままでにない用途において生体情報を有効活用することができる。   Therefore, according to the event determination device of the present embodiment, based on the position information and biological information of a plurality of living organisms existing in a predetermined space, an event such as the type of music performed in the space is determined. The biometric information can be effectively used in an unprecedented application.

なお、上述の実施の形態では、コンサートホールにて行われる歌のカテゴリ(ロック、クラシック、演歌など)を例に説明したが、これに限られるものではない。例えば、本実施の形態は、講演や演説会場(内容、シリアスさ)、落語(人)、演劇・映画(アクション、ホラー、コメディ、恋愛)にも適用することができる。
<他の実施の形態>
上述の実施の形態においては、複数の観客複数の観客M−1〜M−4の位置情報と生体情報(生理情報32、表情情報33、個人識別情報34及び姿勢情報35)とを関連付けて特定する場合について説明した。
In the above-described embodiment, the category of songs performed in the concert hall (rock, classic, enka, etc.) has been described as an example. However, the present invention is not limited to this. For example, this embodiment can also be applied to lectures and speech venues (contents, seriousness), rakugo (people), and theater / movies (action, horror, comedy, love).
<Other embodiments>
In the above-described embodiment, the positional information and biological information (physiological information 32, facial expression information 33, personal identification information 34, and posture information 35) of a plurality of spectators M-1 to M-4 are specified in association with each other. Explained when to do.

他の実施の形態においては、位置情報と、生体情報の一例としてのタイミング情報とを関連付けて特定する場合について説明する。なお、位置情報とタイミング情報との関連付けは、上述の実施の形態と組み合わせて、他の生体情報(生理情報32、表情情報33、個人識別情報34及び姿勢情報35など)とともに関連付けて特定されても良いことはいうまでもない。   In another embodiment, a case will be described in which position information and timing information as an example of biological information are specified in association with each other. The association between the position information and the timing information is specified in association with other biological information (physiological information 32, facial expression information 33, personal identification information 34, posture information 35, etc.) in combination with the above-described embodiment. It goes without saying that it is also good.

図9は、本発明の他の実施の形態における可視光通信システム600を示す図である。以下、可視光通信システム600について説明する。<可視光通信システム600>
本実施形態では、可視光通信システム600は、P台の送信装置110と1台の受信装置620とを含む。ただし、図9では、送信装置自体ではなく、その発光部114の配置を示す。P台の送信装置100と1台の受信装置620との間で可視光通信を行う。Pを1以上の何れかの整数とし、P=1,2,…,Pとする。
<送信装置110>
図10は、送信装置110の構成を示す図である。
FIG. 9 is a diagram showing a visible light communication system 600 according to another embodiment of the present invention. Hereinafter, the visible light communication system 600 will be described. <Visible Light Communication System 600>
In the present embodiment, the visible light communication system 600 includes P transmission devices 110 and one reception device 620. However, FIG. 9 shows the arrangement of the light emitting unit 114, not the transmission device itself. Visible light communication is performed between P transmitting apparatuses 100 and one receiving apparatus 620. P is any integer greater than or equal to 1, and P = 1, 2,.
<Transmitter 110>
FIG. 10 is a diagram illustrating a configuration of the transmission device 110.

同図に示すように、送信装置110は、情報取得部111とイベント検出部112と符号化部113と発光部114とを含む。例えば、送信装置110は、各部が一体化されたユニットからなる。例えば、送信装置110は、心拍計からなる情報取得部111と、マイコンからなるイベント検出部112及び符号化部113と、LEDからなる発光部114とが一体化された装置である。   As shown in the figure, the transmission apparatus 110 includes an information acquisition unit 111, an event detection unit 112, an encoding unit 113, and a light emitting unit 114. For example, the transmission device 110 includes a unit in which each unit is integrated. For example, the transmission apparatus 110 is an apparatus in which an information acquisition unit 111 including a heart rate monitor, an event detection unit 112 and encoding unit 113 including a microcomputer, and a light emitting unit 114 including an LED are integrated.

情報取得部111は、伝送レートよりも時間間隔が小さいサンプリングレートで、所定の情報をサンプリングし、出力する。ここで、伝送レートの時間間隔とは点滅情報を一回送るのに使う時間間隔(=1/f)であり、サンプリングレートの時間間隔とはサンプルを1個取得するのに使う時間間隔(=1/fs)である。例えば、情報取得部111は、心電図の電気的な波形や、腕や足につけた加速度計の波形を所定のサンプリングレート(例えば、500Hz)でサンプリングし、サンプル値をイベント検出部112に出力する。なお、心電図の波形や、加速度計の波形の元となる情報を測定する心電計や加速度計自体を情報取得部として用い、波形となる前のサンプル値を出力してもよい。   The information acquisition unit 111 samples and outputs predetermined information at a sampling rate whose time interval is smaller than the transmission rate. Here, the transmission rate time interval is the time interval used to send flashing information once (= 1 / f), and the sampling rate time interval is the time interval used to acquire one sample (= 1 / fs). For example, the information acquisition unit 111 samples an electrical waveform of an electrocardiogram or a waveform of an accelerometer attached to an arm or a leg at a predetermined sampling rate (for example, 500 Hz), and outputs a sample value to the event detection unit 112. Note that an electrocardiograph or an accelerometer that measures information that is a source of an electrocardiogram waveform or an accelerometer waveform may be used as an information acquisition unit, and a sample value before the waveform may be output.

イベント検出部112は、情報取得部111でサンプリングした情報を受け取り、この情報から所定のイベントを検出し、所定のイベントを検出したタイミングを示すタイミング情報を出力する。   The event detection unit 112 receives the information sampled by the information acquisition unit 111, detects a predetermined event from this information, and outputs timing information indicating the timing at which the predetermined event is detected.

例えば、心電図計測の場合、心臓の拍動タイミングとしてR波の発生イベントを検出し、その発生時刻を符号化部113に送る。Rの発生タイミングは、例えば心電図波形のピークを検出することによって行われる(参考文献1参照)。同様に、「腕が振られた」、あるいは、「歩く」といったイベントを腕、足、腰などにつけられた加速度計の加速度の方向の変化点として検出し、そのタイミング情報を符号化部113に送る。   For example, in the case of electrocardiogram measurement, an R wave generation event is detected as the heart beat timing, and the generation time is sent to the encoding unit 113. The generation timing of R is performed, for example, by detecting the peak of the electrocardiogram waveform (see Reference 1). Similarly, an event such as “arm is swung” or “walking” is detected as a change point in the direction of acceleration of an accelerometer attached to an arm, a leg, a waist, and the like, and timing information thereof is transmitted to the encoding unit 113. send.

(参考文献1) B.-U. Kohler, C. Hennig, and R. Orlgmeister, “The principles of software QRS detection”, IEEE Engineering in Medicine and Biology Magazine, 2002, vol. 21, no. 1, pp. 42-57.
符号化部113は、タイミング情報を受け取り、タイミング情報を符号化し、送信信号を生成し、出力する。
(Reference 1) B.-U. Kohler, C. Hennig, and R. Orlgmeister, “The principles of software QRS detection”, IEEE Engineering in Medicine and Biology Magazine, 2002, vol. 21, no. 1, pp. 42-57.
The encoding unit 113 receives timing information, encodes the timing information, generates a transmission signal, and outputs it.

本実施形態では、符号化部113は、タイミング情報をLEDの点滅パターン信号に変換し、発光部114に送る。本実施形態ではタイミング情報を受け取ってから、人間が視覚的に認知可能で、かつ、次のイベントと十分な間隔をあけられるような時間の長さだけLEDを点灯させる信号を出力する。例えば、拍動イベント発生のタイミングは300ms〜1100ms程度の間隔を持っている。このとき、50msの間点灯する信号を発光部114に送る。そうすると、発光部114は、点灯状態と点灯状態との間に250ms〜1050ms程度の消灯状態を持つこととなる。人間の目の時間分解能は約50ms〜100ms程度であり、この時間よりも短い光の点滅は、連続点灯しているように知覚される。そのため、あるイベントの発生を示す点灯状態とその次のイベントの発生を示す点灯状態との間に、人間が視覚的に二つの点灯状態を区別することができる程度の消灯状態(例えば、100ms以上の消灯状態)を設けて、点滅パターン信号を生成すればよい。例えば、あるイベントの発生を知らせる信号と少なくとも1/4以上の間隔をあけることにより、視覚的に次のイベントの発生を区別できるようにする。拍動イベント発生のタイミングは、短くとも300ms程度の間隔を持っているので、1/4以上の間隔をあける場合には、300/4=75ms以上の消灯時間を設ければいいため、50msの間点灯する信号であれば、少なくとも250msの消灯時間を持つ点滅パターン信号を生成することができるため十分である。   In the present embodiment, the encoding unit 113 converts the timing information into an LED blinking pattern signal and sends it to the light emitting unit 114. In this embodiment, after receiving the timing information, a signal for turning on the LED is output for a length of time that can be visually recognized by a human and can be sufficiently spaced from the next event. For example, the timing of occurrence of a pulsation event has an interval of about 300 ms to 1100 ms. At this time, a signal that is lit for 50 ms is sent to the light emitting unit 114. If it does so, the light emission part 114 will have a light extinction state of about 250 ms-1050 ms between a lighting state and a lighting state. The temporal resolution of the human eye is about 50 ms to 100 ms, and blinking of light shorter than this time is perceived as being continuously lit. Therefore, between the lighting state indicating the occurrence of a certain event and the lighting state indicating the occurrence of the next event, a light-off state that allows humans to visually distinguish the two lighting states (for example, 100 ms or more And a blinking pattern signal may be generated. For example, the occurrence of the next event can be visually distinguished by providing at least a quarter or more interval from the signal informing the occurrence of the certain event. The timing of occurrence of pulsation events has an interval of about 300 ms at the shortest, so if you want to have an interval of 1/4 or more, it is sufficient to provide an extinguishing time of 300/4 = 75 ms or more. A signal that is turned on for a short time is sufficient because a blinking pattern signal having a turn-off time of at least 250 ms can be generated.

発光部114は、送信信号を受け取り、この信号に基づき点滅する。なお、送信装置110は、発光部114の点滅により光信号を送信する。例えば、発光部114は、一個のLEDからなり、点滅パターン信号に基づき点滅する。また、例えば、発光部114は、情報取得部111のサンプリングの対象となるものに取り付けてもよい。例えば、心電図の波形をサンプリングする場合には、心電計を取り付けられた人間に発光部114を取り付ける。このような構成とすることで、発光部114の示す点滅パターン信号が何に対する情報かを視覚的に分かりやすく表現することができる。   The light emitting unit 114 receives the transmission signal and blinks based on this signal. The transmission device 110 transmits an optical signal when the light emitting unit 114 blinks. For example, the light emitting unit 114 is composed of one LED and blinks based on the blink pattern signal. Further, for example, the light emitting unit 114 may be attached to a target to be sampled by the information acquiring unit 111. For example, when sampling the waveform of an electrocardiogram, the light emitting unit 114 is attached to a person who is attached with an electrocardiograph. By adopting such a configuration, it is possible to easily express visually what the blinking pattern signal indicated by the light emitting unit 114 is.

送信装置110は、生命体(例えば、人間)に、その生体情報(例えば心電図、心拍数、血圧、体温等)を取得するためのセンサが取り付けられ、センサの出力値を送信装置の情報取得部の入力とする。   The transmission device 110 is attached to a living body (for example, a human) with a sensor for acquiring biological information (for example, an electrocardiogram, heart rate, blood pressure, body temperature, etc.), and outputs an output value of the sensor to an information acquisition unit of the transmission device. Input.

P台の送信装置の発光部114は全てが、所定の空間内に存在するように配置される。各送信装置の発光部114は、生命体の生体情報から得られるタイミング情報を受信装置620が検知可能な光信号で送信する。   All the light emitting units 114 of the P transmitting apparatuses are arranged so as to exist in a predetermined space. The light emitting unit 114 of each transmission device transmits timing information obtained from living body biological information as an optical signal that can be detected by the reception device 620.

なお、生体情報を取得するためのセンサは、生命体に取り付けられる必要があり、P個の発光部114はそれぞれサンプリングの対象であるP体の生命体に取り付けられる。図9では、各生命体の頭部に発光部114を設け、発光部114の発光が、その発光部114を取り付けている人間の生体情報であることを視覚的に分かりやすく表現している。なお、各送信装置本体はどこに配置されてもよい。   A sensor for acquiring biological information needs to be attached to a living body, and the P light emitting units 114 are each attached to a P living body that is a sampling target. In FIG. 9, a light-emitting unit 114 is provided on the head of each living organism, and the light emission of the light-emitting unit 114 is expressed in an easy-to-understand manner visually indicating that it is the biological information of the person attached with the light-emitting unit 114. Each transmission device main body may be arranged anywhere.

<受信装置620>
受信装置620は、受光部621と位置特定部625と復号部622と特定生体情報取得部626とを含む。受信装置620は、複数の光信号を受信し、発光部114毎の位置とタイミング情報とを出力する。
<Receiving device 620>
The receiving device 620 includes a light receiving unit 621, a position specifying unit 625, a decoding unit 622, and a specific biological information acquisition unit 626. The receiving device 620 receives a plurality of optical signals and outputs the position and timing information for each light emitting unit 114.

<受光部621>
受光部621は、P台の送信装置の発光部114全てが存在する所定の空間を撮影し、P台の送信装置がそれぞれ生成したP個の送信信号に基づき点滅するP個の光信号を撮影し、出力する。受光部621は、光信号を受信するとともに、光の発せられた位置を特定するために、画像として、光信号を受信する必要があり、例えば、イメージセンサ等からなる。
<Light receiving unit 621>
The light receiving unit 621 captures a predetermined space in which all of the light emitting units 114 of the P transmission devices are present, and captures P optical signals that flash on the basis of the P transmission signals generated by the P transmission devices. And output. The light receiving unit 621 needs to receive an optical signal as an image in order to receive the optical signal and to specify the position where the light is emitted, and includes, for example, an image sensor.

<位置特定部625>
位置特定部625は、受光部621で撮影した映像を受け取り、映像中のP個の光信号の位置(発光位置)から対応する発光部114を取り付けられた生命体の位置を特定し、位置情報を出力する。例えば、映像を構成する画像から発光部114が写っている領域を抜き出してその位置を特定し、発光部114の位置から生命体の位置を特定する。
<Position identifying unit 625>
The position specifying unit 625 receives the image captured by the light receiving unit 621, specifies the position of the living body to which the corresponding light emitting unit 114 is attached, from the positions (light emitting positions) of the P optical signals in the image, and receives position information. Is output. For example, an area in which the light emitting unit 114 is captured is extracted from the image constituting the video, the position thereof is specified, and the position of the living organism is specified from the position of the light emitting unit 114.

<復号部622>
復号部622は、受光部621で撮影した映像を受け取り、映像中のP個の光信号から各生命体に関するタイミング情報を復号し、出力する。
<Decoding unit 622>
The decoding unit 622 receives the video imaged by the light receiving unit 621, decodes timing information regarding each life form from P optical signals in the video image, and outputs the decoded timing information.

<特定生体情報取得部626>
特定生体情報取得部626は、復号部622が復号したタイミング情報と、位置特定部が特定した位置情報とを受け取り、これらの情報から、少なくとも1つの生命体のタイミング情報と位置情報を取得し、紐付けて出力する。さらに、本実施形態では、位置情報と、生命体の識別子とを予め紐付けておき、生命体の識別子(例えば名前)と位置情報とを紐付けて出力する。
<Specific biological information acquisition unit 626>
The specific biometric information acquisition unit 626 receives the timing information decoded by the decoding unit 622 and the position information specified by the position specification unit, acquires timing information and position information of at least one organism from these information, Link and output. Further, in the present embodiment, the position information and the identifier of the life form are linked in advance, and the identifier (for example, name) of the life form and the position information are linked and output.

<効果>
このような構成により、大量に存在する計測点からのデータを一箇所に簡単に収集でき、収集と同時に計測点の位置情報も比較的容易に復元できる。
<Effect>
With such a configuration, data from a large number of measurement points can be easily collected at one place, and the position information of the measurement points can be relatively easily restored simultaneously with the collection.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1−1〜1−4 生理情報出力装置 11 撮像部 12 位置情報取得部 13 生理情報取得部 14 顔画像認識部 15 姿勢認識部 16 生体情報特定部 31 位置情報 32 生理情報 33 表情情報 34 個人識別情報 35 姿勢情報   1-1 to 1-4 Physiological information output device 11 Imaging unit 12 Position information acquisition unit 13 Physiological information acquisition unit 14 Face image recognition unit 15 Posture recognition unit 16 Biometric information identification unit 31 Position information 32 Physiological information 33 Facial information 34 Personal identification Information 35 Posture information

Claims (12)

複数の生命体が存在する所定の空間を撮像する撮像手段と、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、
前記撮像手段が撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定する位置特定手段と、
前記撮像手段が撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得する生理情報取得手段と、
前記位置特定手段により特定された前記複数の生命体それぞれの位置情報と、前記生理情報取得手段により取得された前記複数の生命体それぞれの生理情報とを関連付けて特定する生体情報特定手段と
前記撮像手段が撮像した映像中の前記複数の生命体の画像から、前記複数の生命体のそれぞれの顔画像を認識し、前記認識した顔画像の表情情報及び個人識別情報のうちの少なくとも1つを有する顔画像認識情報を取得する顔画像認識情報取得手段と
を具備し、
前記生体情報特定手段は、
前記撮像手段が撮像した映像中の前記可視光信号の位置と、前記各生命体の映像の位置の最も近いもの同士を関連付けることによって、前記顔画像認識情報取得手段により取得された前記複数の生命体それぞれの顔画像認識情報を、前記複数の生命体それぞれの位置情報及び生理情報に関連付けて特定する、
生体情報取得装置。
Imaging means for imaging a predetermined space in which a plurality of living organisms exist, and a living body information output device that outputs a visible light signal representing physiological information of the living organism is attached to each of the plurality of living organisms,
Position specifying means for specifying position information of each of the plurality of life forms from the position of the visible light signal in the image taken by the image pickup means or the image of each life form;
Physiological information acquisition means for acquiring physiological information of each of the plurality of life forms from the visible light signal in the video imaged by the imaging means;
Biological information specifying means for specifying the positional information of each of the plurality of life forms specified by the position specifying means in association with the physiological information of each of the plurality of life forms acquired by the physiological information acquisition means ;
Recognizing each face image of the plurality of life forms from the images of the plurality of life forms in the video imaged by the imaging means, and at least one of facial expression information and personal identification information of the recognized face images comprising the the <br/> face recognition information acquisition means for acquiring a face image recognition information having,
The biological information specifying means includes
The plurality of lives acquired by the face image recognition information acquiring unit by associating the position of the visible light signal in the image captured by the imaging unit with the closest position of the image of each life object. Identifying face image recognition information of each body in association with position information and physiological information of each of the plurality of life forms,
Biological information acquisition device.
複数の生命体が存在する所定の空間を撮像する撮像手段と、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  Imaging means for imaging a predetermined space in which a plurality of living organisms exist, and a living body information output device that outputs a visible light signal representing physiological information of the living organism is attached to each of the plurality of living organisms,
前記撮像手段が撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定する位置特定手段と、  Position specifying means for specifying position information of each of the plurality of life forms from the position of the visible light signal in the image taken by the image pickup means or the image of each life form;
前記撮像手段が撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得する生理情報取得手段と、  Physiological information acquisition means for acquiring physiological information of each of the plurality of life forms from the visible light signal in the video imaged by the imaging means;
前記位置特定手段により特定された前記複数の生命体それぞれの位置情報と、前記生理情報取得手段により取得された前記複数の生命体それぞれの生理情報とを関連付けて特定する生体情報特定手段と、  Biological information specifying means for specifying the positional information of each of the plurality of life forms specified by the position specifying means in association with the physiological information of each of the plurality of life forms acquired by the physiological information acquisition means;
前記撮像手段が撮像した映像中の前記複数の生命体の画像から、前記複数の生命体の姿勢情報を認識する姿勢情報認識手段と  Posture information recognizing means for recognizing posture information of the plurality of life forms from images of the plurality of life forms in the video imaged by the image pickup means;
を具備し、Comprising
前記生体情報特定手段は、  The biological information specifying means includes
前記撮像手段が撮像した映像中の前記可視光信号の位置と、前記各生命体の映像の位置の最も近いもの同士を関連付けることによって、前記姿勢情報認識手段により認識された前記複数の生命体それぞれの姿勢情報を、前記複数の生命体それぞれの位置情報及び生理情報に関連付けて特定する、  Each of the plurality of life forms recognized by the posture information recognition means by associating the position of the visible light signal in the image picked up by the image pickup means with the closest position of the image of each life form. Identifying the posture information in association with the position information and physiological information of each of the plurality of life forms,
生体情報取得装置。Biological information acquisition device.
前記撮像手段が撮像した映像中の前記複数の生命体の画像から、前記複数の生命体のそれぞれの顔画像を認識し、前記認識した顔画像の表情情報及び個人識別情報のうちの少なくとも1つを有する顔画像認識情報を取得する顔画像認識情報取得手段をさらに具備し、  Recognizing each face image of the plurality of life forms from the images of the plurality of life forms in the video imaged by the imaging means, and at least one of facial expression information and personal identification information of the recognized face images Further comprising face image recognition information acquisition means for acquiring face image recognition information having
前記生体情報特定手段は、  The biological information specifying means includes
前記顔画像認識情報取得手段により取得された前記複数の生命体それぞれの顔画像認識情報を、前記複数の生命体それぞれの位置情報及び生理情報に関連付けて特定する請求項2に記載の生体情報取得装置。  The biometric information acquisition according to claim 2, wherein the face image recognition information of each of the plurality of life forms acquired by the face image recognition information acquisition unit is specified in association with the position information and physiological information of each of the plurality of life forms. apparatus.
前記撮像手段が撮像した映像中の前記複数の生命体の画像から、前記複数の生命体の姿勢情報を認識する姿勢情報認識手段をさらに具備し、  Posture information recognition means for recognizing posture information of the plurality of life forms from images of the plurality of life forms in the video imaged by the image pickup means;
前記生体情報特定手段は、  The biological information specifying means includes
前記姿勢情報認識手段により認識された前記複数の生命体それぞれの姿勢情報を、前記複数の生命体それぞれの位置情報及び生理情報に関連付けて特定する請求項1に記載の生体情報取得装置。  The biological information acquisition apparatus according to claim 1, wherein posture information of each of the plurality of life forms recognized by the posture information recognition unit is specified in association with position information and physiological information of each of the plurality of life forms.
前記生理情報は、心電図、筋電図、発汗、心拍数、心音強度、血圧、呼吸、声、発汗、皮膚温度の情報のうち、少なくとも1つを含む情報である請求項1又は請求項2に記載の生体情報取得装置。  3. The physiological information is information including at least one of electrocardiogram, electromyogram, sweating, heart rate, heart sound intensity, blood pressure, breathing, voice, sweating, and skin temperature information. The biological information acquisition device described. 複数の生命体が存在する所定の空間を撮像する撮像手段と、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  Imaging means for imaging a predetermined space in which a plurality of living organisms exist, and a living body information output device that outputs a visible light signal representing physiological information of the living organism is attached to each of the plurality of living organisms,
前記撮像手段が撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定する位置特定手段と、  Position specifying means for specifying position information of each of the plurality of life forms from the position of the visible light signal in the image taken by the image pickup means or the image of each life form;
前記撮像手段が撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得する生理情報取得手段と、  Physiological information acquisition means for acquiring physiological information of each of the plurality of life forms from the visible light signal in the video imaged by the imaging means;
前記位置特定手段により特定された前記複数の生命体それぞれの位置情報と、前記生理情報取得手段により取得された前記複数の生命体それぞれの生理情報とを関連付けて特定する生体情報特定手段と  Biometric information specifying means for specifying the position information of each of the plurality of life forms specified by the position specifying means in association with the physiological information of each of the plurality of life forms acquired by the physiological information acquisition means;
を具備し、Comprising
前記複数の各生命体に取り付けられた生体情報出力装置から出力されるその生命体の生理情報を表わす可視光信号の少なくとも1つは、その生命体の所定のイベントを検出したタイミングを示すタイミング情報を含み、  Timing information indicating the timing at which at least one visible light signal representing the physiological information of the living organism output from the biological information output device attached to each of the plurality of living organisms detects a predetermined event of the living organism Including
前記生理情報取得手段は、さらに、  The physiological information acquisition means further includes
前記撮像手段が撮像した映像中の前記可視光信号のうち前記少なくとも1つの可視光信号からタイミング情報を取得し、  Obtaining timing information from the at least one visible light signal among the visible light signals in the image captured by the imaging means;
前記生体情報特定手段は、さらに、  The biological information specifying means further includes:
前記生理情報取得手段が取得した前記少なくとも1つの可視光信号から取得したタイミング情報を前記少なくとも1つの可視光信号に対応する位置情報及び生理情報に関連付けて特定する、  Timing information acquired from the at least one visible light signal acquired by the physiological information acquisition means is specified in association with position information and physiological information corresponding to the at least one visible light signal;
生体情報取得装置。Biological information acquisition device.
複数の生命体が存在する所定の空間を撮像する撮像手段と、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  Imaging means for imaging a predetermined space in which a plurality of living organisms exist, and a living body information output device that outputs a visible light signal representing physiological information of the living organism is attached to each of the plurality of living organisms,
前記撮像手段が撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定する位置特定手段と、  Position specifying means for specifying position information of each of the plurality of life forms from the position of the visible light signal in the image taken by the image pickup means or the image of each life form;
前記撮像手段が撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得する生理情報取得手段と、  Physiological information acquisition means for acquiring physiological information of each of the plurality of life forms from the visible light signal in the video imaged by the imaging means;
前記位置特定手段により特定された前記複数の生命体それぞれの位置情報と、前記生理情報取得手段により取得された前記複数の生命体それぞれの生理情報とを関連付けて特定する生体情報特定手段と  Biometric information specifying means for specifying the position information of each of the plurality of life forms specified by the position specifying means in association with the physiological information of each of the plurality of life forms acquired by the physiological information acquisition means;
を具備する生体情報取得装置と、A biometric information acquisition device comprising:
前記生体情報取得装置の前記生体情報特定手段により特定された前記複数の生命体の位置情報及び生理情報に基づいて、前記所定の空間のイベントに関する情報を判定する判定手段と  Determining means for determining information related to the event in the predetermined space based on position information and physiological information of the plurality of living organisms specified by the biological information specifying means of the biological information acquisition device;
を具備するイベント判定装置。An event determination device comprising:
複数の生命体が存在する所定の空間を撮像し、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  A biological information output device that captures a predetermined space in which a plurality of life forms exist and outputs a visible light signal representing physiological information of the life forms is attached to each of the plurality of life forms,
前記撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定し、  Identifying the position information of each of the plurality of life forms from the position of the visible light signal in the captured image or the image of each life form,
前記撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得し、  Obtaining physiological information of each of the plurality of life forms from the visible light signal in the captured image;
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定し、  Specifying the positional information of each of the identified plurality of life forms in association with the acquired physiological information of each of the plurality of life forms,
前記撮像した映像中の前記複数の生命体の画像から、前記複数の生命体のそれぞれの顔画像を認識し、前記認識した顔画像の表情情報及び個人識別情報のうちの少なくとも1つを有する顔画像認識情報を取得し、  A face having at least one of facial expression information and personal identification information of the recognized face image is recognized from images of the plurality of life forms in the captured video. Get image recognition information,
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定することは、  The positional information of each of the plurality of specified life forms and the physiological information of each of the acquired plurality of life forms are associated and specified,
前記撮像した映像中の前記可視光信号の位置と、前記各生命体の映像の位置の最も近いもの同士を関連付けることによって、前記取得された前記複数の生命体それぞれの顔画像認識情報を、前記複数の生命体それぞれの位置情報及び生理情報に関連付けて特定する、  By associating the position of the visible light signal in the captured image with the closest position of the image of each life object, the facial image recognition information of each of the acquired life forms is obtained as described above. Specify in association with the position information and physiological information of each of multiple life forms,
生体情報取得方法。Biological information acquisition method.
複数の生命体が存在する所定の空間を撮像し、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  A biological information output device that captures a predetermined space in which a plurality of life forms exist and outputs a visible light signal representing physiological information of the life forms is attached to each of the plurality of life forms,
前記撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定し、  Identifying the position information of each of the plurality of life forms from the position of the visible light signal in the captured image or the image of each life form,
前記撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得し、  Obtaining physiological information of each of the plurality of life forms from the visible light signal in the captured image;
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定し、  Specifying the positional information of each of the identified plurality of life forms in association with the acquired physiological information of each of the plurality of life forms,
前記撮像した映像中の前記複数の生命体の画像から、前記複数の生命体の姿勢情報を認識し、  Recognizing posture information of the plurality of life forms from the images of the plurality of life forms in the captured video,
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定することは、  The positional information of each of the plurality of specified life forms and the physiological information of each of the acquired plurality of life forms are associated and specified,
前記撮像した映像中の前記可視光信号の位置と、前記各生命体の映像の位置の最も近いもの同士を関連付けることによって、前記認識された前記複数の生命体それぞれの姿勢情報を、前記複数の生命体それぞれの位置情報及び生理情報に関連付けて特定する、  By associating the position of the visible light signal in the captured image with the closest position of the image of each life object, the posture information of each of the recognized life objects is obtained as the plurality of life information. Specify in association with the position information and physiological information of each organism.
生体情報取得方法。Biological information acquisition method.
複数の生命体が存在する所定の空間を撮像し、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  A biological information output device that captures a predetermined space in which a plurality of life forms exist and outputs a visible light signal representing physiological information of the life forms is attached to each of the plurality of life forms,
前記撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定し、  Identifying the position information of each of the plurality of life forms from the position of the visible light signal in the captured image or the image of each life form,
前記撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得し、  Obtaining physiological information of each of the plurality of life forms from the visible light signal in the captured image;
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定し、  Specifying the positional information of each of the identified plurality of life forms in association with the acquired physiological information of each of the plurality of life forms,
前記複数の各生命体に取り付けられた生体情報出力装置から出力されるその生命体の生理情報を表わす可視光信号の少なくとも1つは、その生命体の所定のイベントを検出したタイミングを示すタイミング情報を含み、  Timing information indicating the timing at which at least one visible light signal representing the physiological information of the living organism output from the biological information output device attached to each of the plurality of living organisms detects a predetermined event of the living organism Including
前記生理情報を取得することは、さらに、  Obtaining the physiological information further includes:
前記撮像した映像中の前記可視光信号から前記少なくとも1つの可視光信号からタイミング情報を取得し、  Obtaining timing information from the at least one visible light signal from the visible light signal in the captured image;
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定することは、さらに、  The positional information of each of the plurality of specified life forms and the physiological information of each of the acquired plurality of life forms are associated and specified,
前記取得した前記少なくとも1つの可視光信号から取得したタイミング情報を前記少なくとも1つの可視光信号に対応する位置情報及び生理情報に関連付けて特定する、  Timing information acquired from the acquired at least one visible light signal is specified in association with position information and physiological information corresponding to the at least one visible light signal;
生体情報取得方法。Biological information acquisition method.
複数の生命体が存在する所定の空間を撮像し、前記複数の各生命体には、その生命体の生理情報を表わす可視光信号を出力する生体情報出力装置が取り付けられており、  A biological information output device that captures a predetermined space in which a plurality of life forms exist and outputs a visible light signal representing physiological information of the life forms is attached to each of the plurality of life forms,
前記撮像した映像中の前記可視光信号の位置もしくは各生命体の映像から前記複数の生命体それぞれの位置情報を特定し、  Identifying the position information of each of the plurality of life forms from the position of the visible light signal in the captured image or the image of each life form,
前記撮像した映像中の前記可視光信号から前記複数の生命体それぞれの生理情報を取得し、  Obtaining physiological information of each of the plurality of life forms from the visible light signal in the captured image;
前記特定された前記複数の生命体それぞれの位置情報と、前記取得された前記複数の生命体それぞれの生理情報とを関連付けて特定し、  Specifying the positional information of each of the identified plurality of life forms in association with the acquired physiological information of each of the plurality of life forms,
前記特定された前記複数の生命体の位置情報及び生理情報に基づいて、前記所定の空間のイベントに関する情報を判定する  Information related to the event in the predetermined space is determined based on the positional information and physiological information of the plurality of specified life forms.
イベント判定方法。Event judgment method.
請求項1乃至7いずれか1項に記載の装置を機能させるプログラム。  The program which functions the apparatus of any one of Claims 1 thru | or 7.
JP2015026560A 2015-02-13 2015-02-13 Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space Active JP6283620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015026560A JP6283620B2 (en) 2015-02-13 2015-02-13 Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015026560A JP6283620B2 (en) 2015-02-13 2015-02-13 Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space

Publications (2)

Publication Number Publication Date
JP2016147011A JP2016147011A (en) 2016-08-18
JP6283620B2 true JP6283620B2 (en) 2018-02-21

Family

ID=56687455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015026560A Active JP6283620B2 (en) 2015-02-13 2015-02-13 Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space

Country Status (1)

Country Link
JP (1) JP6283620B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388199B2 (en) * 2020-01-14 2023-11-29 コニカミノルタ株式会社 Biological information collection system, biological information collection method and program
JP7377971B2 (en) 2020-05-22 2023-11-10 富士フイルム株式会社 Image data processing device and image data processing system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4432246B2 (en) * 2000-09-29 2010-03-17 ソニー株式会社 Audience status determination device, playback output control system, audience status determination method, playback output control method, recording medium
US20060133651A1 (en) * 2002-12-31 2006-06-22 Polcha Andrew J Recoverable biometric identity system and method
GB0512869D0 (en) * 2005-06-24 2005-08-03 Ibm Method and system for facial recognition in groups
JP2007164506A (en) * 2005-12-14 2007-06-28 Toshiba Corp Light transmission type sensor and environment monitoring system using the same
JP2007213282A (en) * 2006-02-09 2007-08-23 Seiko Epson Corp Lecturer support device and lecturer support method
JP5663423B2 (en) * 2011-07-13 2015-02-04 株式会社日立製作所 Biological measurement system

Also Published As

Publication number Publication date
JP2016147011A (en) 2016-08-18

Similar Documents

Publication Publication Date Title
CN103561652B (en) Method and system for assisting patients
CN108289613B (en) System, method and computer program product for physiological monitoring
JP6525496B2 (en) Display device, remote control device for controlling display device, control method for display device, control method for server, and control method for remote control device
JP4481682B2 (en) Information processing apparatus and control method thereof
US20090058611A1 (en) Wearable device
WO2015186447A1 (en) Information processing device, photographing device, image sharing system, information processing method, and program
CN107077214A (en) For the method and system of the communication used within the hospital
JP7192764B2 (en) Information processing device, information processing method, and program
JP6815104B2 (en) Video display device and video display method
JP2015092646A (en) Information processing device, control method, and program
JP6283620B2 (en) Biological information acquisition apparatus, biological information acquisition method, and biological information acquisition program in a predetermined space
CN106202976A (en) A kind of learning quality and the assessment assay method of time
KR20140115153A (en) Apparatus and Method for Analysing Audience Reaction And System for Analysing Audience Reaction Using the Same
US9465981B2 (en) System and method for communication
US11210381B2 (en) Individualized control system and detection device thereof with high security
JP2010003264A (en) Information presentation control device and information presentation control method
JP2017219934A (en) Identity determination system
US11748464B2 (en) Virtual reality system with high security
JP2005199373A (en) Communication device and communication method
JP4095537B2 (en) Experience display device, experience display method, and experience display program
US20210063978A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
WO2017115740A1 (en) Image display device and image display method
JP3762745B2 (en) Object identification system, light emitting device, and detection device
JP4012872B2 (en) Information management apparatus, information management method, and information management program
JP3936295B2 (en) Database creation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180129

R150 Certificate of patent or registration of utility model

Ref document number: 6283620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150