JP2018120644A - Identification apparatus, identification method, and program - Google Patents

Identification apparatus, identification method, and program Download PDF

Info

Publication number
JP2018120644A
JP2018120644A JP2018091740A JP2018091740A JP2018120644A JP 2018120644 A JP2018120644 A JP 2018120644A JP 2018091740 A JP2018091740 A JP 2018091740A JP 2018091740 A JP2018091740 A JP 2018091740A JP 2018120644 A JP2018120644 A JP 2018120644A
Authority
JP
Japan
Prior art keywords
identification
person
information
face
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018091740A
Other languages
Japanese (ja)
Inventor
紫村 智哉
Tomoya Shimura
智哉 紫村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018091740A priority Critical patent/JP2018120644A/en
Publication of JP2018120644A publication Critical patent/JP2018120644A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To identify an object accurately without reducing convenience.SOLUTION: A target detection section detects at least one target from among a person, an animal, and an object represented by a video from the video captured by at least one imaging section. An information detection section detects a state of the target, on the basis of at least one feature quantity calculated from the video, identifies the target on the basis of the feature quantity and a feature quantity registered in advance in a first identification database, and registers the feature quantity on a second identification database when target identification is successful. This invention can be implemented as an identification apparatus, an identification method, or a program.SELECTED DRAWING: Figure 3

Description

本発明は、識別装置、識別方法およびプログラムに関する。   The present invention relates to an identification device, an identification method, and a program.

人物の在室状況や室内への入退出管理、遠隔地からの見守り等を行うために、各種センサや会員証等のIDカードを用いて人物を認識(識別)する機器や手法が提案されている。
例えば、特許文献1には、顔認証装置を用いた顔認証において、特定のユーザの認証の都度、顔画像データを顔画像データベースに蓄積していき、新たな顔認証の場合は、カメラにより撮像された新たな顔画像データが顔データベースに蓄積されているいずれかの顔画像データに対応する否かを判定し、判定の結果、対応していると認証されたときは、この新たな画像データを顔画像データベースに登録することが記載されている。
また、特許文献2には、ユーザが入場用ゲートに近づくまでにカメラにより撮像されたN枚のユーザの顔画像の複数の特徴量を合成して顔認証に用いる特徴量を生成し、顔認証処理を行うことが記載されている。
Devices and methods for recognizing (identifying) people using ID cards such as various sensors and membership cards have been proposed in order to manage the person's occupancy status, indoor entry / exit management, monitoring from a remote location, etc. Yes.
For example, in Patent Document 1, in face authentication using a face authentication device, face image data is accumulated in a face image database each time a specific user is authenticated. It is determined whether or not the new face image data thus obtained corresponds to any one of the face image data stored in the face database, and if it is determined that the new face image data is supported, the new image data Is registered in the face image database.
Further, Patent Document 2 generates a feature amount used for face authentication by combining a plurality of feature amounts of N user face images captured by the camera before the user approaches the entrance gate. Processing is described.

特開2013−77068号公報JP 2013-77068 A 特開2009−104599号公報JP 2009-104599 A

しかしながら、特許文献1に記載の顔認証データベース管理装置では、撮像装置の設置場所、向き、等の設置状態や、撮影範囲内の照度の変動、等の設置環境の変動により、顔画像の認識精度が低下することがあった。また、設置状態、撮影範囲内の照度に応じた顔画像データを取得し、更新するまでに多くの時間を要するために、即座に運用を開始できないことがあった。
特許文献2に記載の顔認証装置も、カメラの設置状態や設置環境が変化する場合には、顔画像の認識精度が低下することがあった。また、カメラの設置場所を変更する場合には、ユーザの操作入力を受け付ける操作入力装置の移設を要するため、設置場所の変更には適さない。また、認証を行う際にユーザの操作入力が要求されるため、ユーザに対する利便性が損なわれていた。
However, in the face authentication database management device described in Patent Document 1, the recognition accuracy of the face image depends on the installation state such as the installation location and orientation of the imaging device and the change in the installation environment such as the illuminance fluctuation in the shooting range. May decrease. Further, since it takes a lot of time to acquire and update face image data according to the installation state and the illuminance within the shooting range, the operation may not be started immediately.
Also in the face authentication device described in Patent Document 2, when the installation state or installation environment of the camera changes, the recognition accuracy of the face image may be lowered. Further, when changing the installation location of the camera, it is necessary to move the operation input device that accepts the user's operation input. Further, since user operation input is required when performing authentication, convenience for the user is impaired.

本発明は、上記の点を鑑みてなされたもので、利便性を損なわずに精度よく人物を識別することができる識別装置、識別方法およびプログラムを提供する。   The present invention has been made in view of the above points, and provides an identification device, an identification method, and a program capable of accurately identifying a person without impairing convenience.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、少なくとも1つの撮像部が撮像した映像から前記映像が表す人物、動物および物体のうち少なくとも1つの対象を検出する対象検出部と、前記映像から算出した少なくとも1つの特徴量に基づいて前記対象の状態を検出する情報検出部と、を備え、前記情報検出部は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて対象を識別し、対象の識別に成功したとき、前記特徴量を第2の識別データベースに登録する識別装置である。   SUMMARY An advantage of some aspects of the invention is that at least one target among a person, an animal, and an object represented by the video is picked up from a video captured by at least one imaging unit. A target detection unit for detecting, and an information detection unit for detecting the state of the target based on at least one feature amount calculated from the video, wherein the information detection unit first identifies the feature amount in advance. An identification device that identifies a target based on a feature amount registered in a database and registers the feature amount in a second identification database when the target is successfully identified.

本発明によれば、利便性を損なわずに精度よく人物を識別することができる。   According to the present invention, a person can be accurately identified without impairing convenience.

本発明の第1の実施形態に係る人物識別装置を用いた見守りシステムの一例の概念図である。It is a conceptual diagram of an example of the watching system using the person identification device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る人物識別システムの構成を示すブロック図である。It is a block diagram which shows the structure of the person identification system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る人物識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the person identification device which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る映像解析部の構成を示すブロック図を示す。1 is a block diagram illustrating a configuration of a video analysis unit according to a first embodiment of the present invention. 基本顔識別データベースの一構成例を示す概念図である。It is a conceptual diagram which shows one structural example of a basic face identification database. 設置状態に応じた顔識別データベースの一構成例を示す概念図である。It is a conceptual diagram which shows one structural example of the face identification database according to an installation state. 設置状態に応じた顔識別データベースの他の構成例を示す概念図である。It is a conceptual diagram which shows the other structural example of the face identification database according to an installation state. 本発明の第1の実施形態に係る人物識別処理を示すフローチャートである。It is a flowchart which shows the person identification process which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る統合顔識別データベースの一構成例を示す概念図である。It is a conceptual diagram which shows the example of 1 structure of the integrated face identification database which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る顔識別データベース情報の一構成例を示す概念図である。It is a conceptual diagram which shows the example of 1 structure of the face identification database information which concerns on the 2nd Embodiment of this invention. 顔識別データ管理情報の一例を示す図である。It is a figure which shows an example of face identification data management information. 顔の向き、カメラの向き、撮影環境の例を示す図である。It is a figure which shows the example of direction of a face, direction of a camera, and a photography environment. 本発明の第2の実施形態に係る人物識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the person identification apparatus which concerns on the 2nd Embodiment of this invention. ダウンロードされた顔識別データベースの一例を示す概念図である。It is a conceptual diagram which shows an example of the downloaded face identification database. 本発明の第2の実施形態に係る人物識別処理を示すフローチャートである。It is a flowchart which shows the person identification process which concerns on the 2nd Embodiment of this invention.

(第1の実施形態)
以下、図面を参照しながら本発明の第1の実施形態について詳しく説明する。
本実施形態に係る人物識別装置11は、内蔵された撮像装置が撮像した画像から検出した人物の位置、行動の情報を認識し、認識した情報を撮像装置が設置された宅内又は遠隔地に設置された情報表示端末装置21に送信する。送信された情報は、見守り、子守り、侵入者の監視、防犯、その他のセキュリティ管理、宅内における電子機器の監視、制御、等、様々な用途に用いることができる。しかし、本発明の実施形態は、これらの用途を必ずしも必須の構成とするものではない。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
The person identification device 11 according to the present embodiment recognizes information on the position and behavior of a person detected from an image captured by a built-in imaging device, and installs the recognized information in a home or a remote place where the imaging device is installed. Is transmitted to the information display terminal device 21. The transmitted information can be used for various purposes such as watching, babysitting, intruder monitoring, crime prevention, other security management, and monitoring and control of electronic devices in the home. However, the embodiments of the present invention do not necessarily have these uses as an essential configuration.

〔見守りシステム〕
次に、本実施形態に係る人物識別装置11を応用した見守りシステムについて説明する。
図1は、本発明の第1の実施形態に係る人物識別装置11を用いた見守りシステムの一例の概念図である。この見守りシステムは、人物識別システム1(後述)の一形態であり、4台の人物識別装置11と2台の情報表示端末装置21を含んで構成される。4台の人物識別装置11は、それぞれ人物識別装置11−1〜11−4と呼ぶことにより区別され、2台の情報表示端末装置21は、それぞれ情報表示端末装置21−1、21−2と呼ぶことにより区別することがある。
[Monitoring system]
Next, a monitoring system to which the person identification device 11 according to this embodiment is applied will be described.
FIG. 1 is a conceptual diagram of an example of a watching system using the person identification device 11 according to the first embodiment of the present invention. This watching system is a form of a person identification system 1 (described later), and includes four person identification devices 11 and two information display terminal devices 21. The four person identification devices 11 are distinguished by being called person identification devices 11-1 to 11-4, respectively, and the two information display terminal devices 21 are information display terminal devices 21-1 and 21-2, respectively. May be distinguished by calling.

人物識別装置11(11−1〜11−4)は、それぞれ被写範囲内の被写体を表す映像を撮像し、撮影された映像から人物の有無を検出し、検出された人物が誰であるか、どの位置にいるか、どのような行動をしているか、等、人物の状態に関する情報(以下、「認識情報」と呼ぶ)を認識(取得)する。
人物識別装置11(11−1〜11−4)は、それぞれ撮像した映像を表す映像データと、認識した認識情報を情報表示端末装置21に送信する。人物識別装置11が送信するデータは、認識情報のみでもよいし、映像データのみでもよいし、その両方でもよい。
情報表示端末装置21は、人物識別装置11から映像データ及び認識情報を受信し、受信した映像データが表す映像や認識情報を表示する表示部を備える。これにより、ユーザは、人物の検出の有無、検出された人物である在室者の状態を把握することができる。
Each of the person identification devices 11 (11-1 to 11-4) captures a video representing a subject in the captured range, detects the presence or absence of a person from the captured video, and who is the detected person. It recognizes (acquires) information relating to the state of the person (hereinafter referred to as “recognition information”) such as in which position and what action it is taking.
The person identification device 11 (11-1 to 11-4) transmits video data representing each captured video and the recognized recognition information to the information display terminal device 21. The data transmitted by the person identification device 11 may be only recognition information, only video data, or both.
The information display terminal device 21 includes a display unit that receives video data and recognition information from the person identification device 11 and displays video and recognition information represented by the received video data. Thereby, the user can grasp | ascertain the presence or absence of the detection of a person, and the state of the occupant who is the detected person.

図1は、4台の人物識別装置11−1〜11−4が設置された家屋の宅内の平面図と、宅内で用いられている情報表示端末装置21−1と、家屋から離れた遠隔地に設置された情報表示端末装置21−2を示す。その家屋は、玄関、廊下、階段、洗面所、ダイニングルーム、居間、及び和室を有する。図1に示す例では、廊下、和室、居間、ダイニングルームの一角(コーナー)に、それぞれ人物識別装置11−1、11−2、11−3、11−4が設置されている。人物識別装置11−1〜11−4にそれぞれ内蔵された撮像装置の水平画角の中線である光学軸の方向が、人物識別装置11−1〜11−4のそれぞれが設置された角で交差された部屋の2つの壁面の間の二等分線の方向であってもよい。従って、撮像装置の水平画角が90°以上である場合に、各撮像装置は、それぞれの部屋の水平方向の全体を撮像できる。
なお、各撮像装置の垂直方向の位置及び向きについては、人物識別装置11−1〜11−4が天井に接するように設置された場合、光学軸が水平方向から所定角度(例えば、30°または真下を示す90°)だけ下向きであればよい。また、人物識別装置11−1〜11−4が床に接するように設置された場合、光学軸が水平方向から所定角度(例えば、30°)だけ上向きであればよい。さらに、人物識別装置11−1〜11−4がテーブルや棚などの設置物上等、人の身長程度の高さに設置された場合、光学軸が水平となるように設置されてもよい。なお、人物識別装置11−1が、廊下の角のうち、玄関の対角に設置されているのは、玄関から入室する入室者を確実に撮影するためである。
FIG. 1 shows a plan view of a house in which four person identification devices 11-1 to 11-4 are installed, an information display terminal device 21-1 used in the house, and a remote place away from the house. The information display terminal device 21-2 installed in is shown. The house has an entrance, hallway, stairs, washroom, dining room, living room, and Japanese-style room. In the example shown in FIG. 1, person identification devices 11-1, 11-2, 11-3, and 11-4 are installed in corners of the hallway, Japanese-style room, living room, and dining room, respectively. The direction of the optical axis, which is the middle line of the horizontal angle of view of the imaging device incorporated in each of the person identification devices 11-1 to 11-4, is the angle at which each of the person identification devices 11-1 to 11-4 is installed. It may be the direction of the bisector between the two wall surfaces of the intersected room. Therefore, when the horizontal angle of view of the imaging device is 90 ° or more, each imaging device can capture the entire horizontal direction of each room.
As for the vertical position and orientation of each imaging device, when the person identification devices 11-1 to 11-4 are installed in contact with the ceiling, the optical axis is set at a predetermined angle (for example, 30 ° or It only needs to be downward by 90 °). Further, when the person identification devices 11-1 to 11-4 are installed so as to be in contact with the floor, the optical axis only has to be upward by a predetermined angle (for example, 30 °) from the horizontal direction. Furthermore, when the person identification devices 11-1 to 11-4 are installed at a height similar to the height of a person, such as on an installation such as a table or a shelf, the optical axes may be installed so as to be horizontal. The reason why the person identification device 11-1 is installed at the opposite corner of the hallway among the corners of the hallway is to surely photograph a person entering the room through the entrance.

図1に示す例では、人物識別装置11−2、11−4によって、和室にいる在室者1の認識情報とダイニングルームにいる在室者2の認識情報が、情報表示端末装置21−1、21−2に伝送される。これにより、情報表示端末装置21−1、21−2のユーザである見守り者1、2は、在室者1の状態と在室者2の状態を把握することができる。また、人物識別装置11−3によって、居間にいる見守り者1の認識情報が情報表示端末装置21−2に伝送されることで、遠隔地にいる見守り者2は、見守り者1の状態も把握することができる。
その他、人物識別装置11−1は、玄関からの入室者を検出し、検出した入室者が予め登録した登録者であるか否かを判定し、入退出の時刻や登録者であるか否かを示す情報を検出した入室者の認識情報に含めてもよい。これにより、見守り者1、2は、予め登録した登録者の外出、帰宅の有無、それらの時刻を把握することができる。また、人物識別装置11−1は、未登録者である不審者の入室が検出された場合、直ちにその旨を示す認識情報を情報表示端末装置21−2に伝送してもよい。人物識別装置11−1は、さらに、認識情報に追加して不審者の入室を検出した前後の時間に収録された映像を示す映像データを伝送してもよい。
また、人物識別装置11−1は、人物識別装置11−1〜11−4でそれぞれ取得された認識情報を組合せ、見守り者や不審者がいつどの部屋をどのような順序で移動したかを示す情報(入退出の時刻や、どの登録者であるかまたは登録者であるか否かを示す情報など)を検出した入室者の認識情報に含めてもよい。
In the example shown in FIG. 1, the identification information of the occupant 1 in the Japanese room and the identification information of the occupant 2 in the dining room are converted into the information display terminal device 21-1 by the person identification devices 11-2 and 11-4. , 21-2. Thereby, the watchers 1 and 2 who are users of the information display terminal devices 21-1 and 21-2 can grasp the state of the occupant 1 and the state of the occupant 2. In addition, the person identification device 11-3 transmits the recognition information of the watcher 1 in the living room to the information display terminal device 21-2, so that the watcher 2 in the remote location also knows the state of the watcher 1. can do.
In addition, the person identification device 11-1 detects a person entering the room from the entrance, determines whether or not the detected person who entered the room is a registrant registered in advance, and whether or not it is a time of entry / exit or a registrant. May be included in the recognition information of the detected occupant. Thereby, the watchers 1 and 2 can grasp the registrant who has registered in advance, whether or not to go home, and their time. In addition, when the entry of a suspicious person who is an unregistered person is detected, the person identification device 11-1 may immediately transmit recognition information indicating that fact to the information display terminal device 21-2. The person identification device 11-1 may further transmit video data indicating video recorded before and after the suspicious person's entry is detected in addition to the recognition information.
Further, the person identification device 11-1 combines the recognition information respectively acquired by the person identification devices 11-1 to 11-4 to indicate when and in what order the watcher and the suspicious person have moved. Information (such as the time of entry / exit, information indicating which registrant is or whether or not a registrant, etc.) may be included in the recognition information of the detected occupant.

なお、人物識別装置11(11−1〜11−4)の位置、方向は、内蔵する撮影部により撮影される映像が室内の全体を網羅することで、各部屋の在室者がその画角内に極力含まれる位置であれば、いかなる位置、方向であってもよい。例えば、天井、壁面に設置されてもよいし、それらに設置される照明器具や空調装置に内蔵されてもよい。
また、人物識別装置11の個数は、4台に限られず、3台以下であってもよいし、5台以上であってもよい。人物識別装置11の位置は、これに限られたものではなく、洗面所や浴室、屋外の車庫、庭園、等、見守りが必要と考えられる場所であれば、屋内、屋外を問わず、いかなる位置であってもよい。
Note that the position and direction of the person identification device 11 (11-1 to 11-4) are determined so that the image captured by the built-in imaging unit covers the entire room, so that the occupants in each room have their angle of view. Any position and direction may be used as long as the position is included as much as possible. For example, you may install in a ceiling and a wall surface, and may be incorporated in the lighting fixture and air conditioner which are installed in them.
Further, the number of person identification devices 11 is not limited to four, but may be three or less, or may be five or more. The position of the person identification device 11 is not limited to this, and any position can be used indoors or outdoors as long as it is necessary to watch over, such as a washroom, bathroom, outdoor garage, garden, etc. It may be.

また、情報表示端末装置21(21−1、21−2)は、ユーザによる操作入力を受け付ける操作入力部とユーザを被写体として撮像する撮像部を備えていてもよい。操作入力部は、撮像されたユーザの動作(ジェスチャ)に基づいて非接触で操作入力を受け付けるジェスチャ入力が可能であってもよい。その場合、情報表示端末装置21には、その位置を基準とする予め設定された領域であって、ユーザによる操作を受け付ける操作可能領域が予め設定されている。操作可能領域は、例えば、情報表示端末装置21の中心部からユーザの手の位置までの手前方向の距離である操作可能距離の上限(例えば、3m)である。従って、操作入力部は、操作可能距離の上限よりも遠くに離れたユーザによる操作を受け付けない。但し、操作可能領域の左右方向は、例えば、撮像部の画角内に設定されてもよい。この場合には、左右方向の設定は不要となる。   Moreover, the information display terminal device 21 (21-1, 21-2) may include an operation input unit that receives an operation input by the user and an imaging unit that images the user as a subject. The operation input unit may be capable of performing a gesture input that accepts an operation input in a non-contact manner based on a captured user action (gesture). In this case, the information display terminal device 21 is set in advance with an area that is set in advance with reference to the position and that can be operated by the user. The operable area is, for example, the upper limit (for example, 3 m) of the operable distance that is the distance in the front direction from the center of the information display terminal device 21 to the position of the user's hand. Therefore, the operation input unit does not accept an operation by a user far away from the upper limit of the operable distance. However, the left-right direction of the operable region may be set within the angle of view of the imaging unit, for example. In this case, setting in the left-right direction is not necessary.

〔人物識別システム〕
次に、本実施形態に係る人物識別システム1の構成について説明する。
図2は、本実施形態に係る人物識別システム1の構成を示すブロック図である。
人物識別システム1は、人物識別装置11−1〜11−4、情報表示端末装置21−1、21−2、及びサーバー装置31を含んで構成される。人物識別装置11−1〜11−4、情報表示端末装置21−1、21−2、及びサーバー装置31は、ネットワーク41に接続され互いにデータを送信及び受信することができる。
[Person identification system]
Next, the configuration of the person identification system 1 according to the present embodiment will be described.
FIG. 2 is a block diagram showing a configuration of the person identification system 1 according to the present embodiment.
The person identification system 1 includes person identification devices 11-1 to 11-4, information display terminal devices 21-1 and 21-2, and a server device 31. The person identification devices 11-1 to 11-4, the information display terminal devices 21-1, 21-2, and the server device 31 are connected to the network 41 and can transmit and receive data to and from each other.

ネットワーク41は、ローカルエリアネットワーク(LAN:Local Area Network)、広域ネットワーク(WAN:Wide Area Network)のいずれか、又は両者を含んで構成されることができるが、これに限定されない。例えば、情報表示端末装置21−1が、人物識別装置11−1〜11−4と同一の建造物内(宅内)にあり、情報表示端末装置21−2が、その建造物から予め定めた距離内にある場合には、LANを用いて接続されるようにしてもよい。
LANは、例えば、IEEE(Institute of Electrical and Electronics Engineers)802.3、IEEE802.11、IEEE802.15.1等、いずれの通信規格で規定された方式でもよい。
サーバー装置31は、統合顔識別DB(DB:Database)を記憶した記憶部を備える。統合顔識別DBについては、後述する。
The network 41 can be configured to include either a local area network (LAN), a wide area network (WAN), or both, but is not limited thereto. For example, the information display terminal device 21-1 is in the same building (home) as the person identification devices 11-1 to 11-4, and the information display terminal device 21-2 has a predetermined distance from the building. If it is within the network, it may be connected using a LAN.
The LAN may be a system defined by any communication standard, such as IEEE (Institut of Electrical and Electronics Engineers) 802.3, IEEE 802.11, IEEE 802.15.1, or the like.
The server device 31 includes a storage unit that stores an integrated face identification DB (DB: Database). The integrated face identification DB will be described later.

情報表示端末装置21−1、21−2は、人物識別装置11−1〜11−4から受信した認識情報に基づく表示用データを生成し、生成した表示用データを表示部(図示せず)に出力するデータ処理部(図示せず)を備えてもよい。このデータ処理部は、認識情報を文字で表示するための表示用データを生成してもよいし、イラストで表示するための表示用データを生成してもよい。また、データ処理部は、認識情報に含まれるテキストデータについてテキスト音声合成処理を行って音声データに変換し、変換した音声データを音声再生部(例えば、スピーカ)に出力してもよい。また、データ処理部は、認識情報に所定の緊急情報が含まれているか否かを判定し、含まれていると判定したとき、さらにユーザの注意を促す情報を表すデータを表示部、音声再生部、又は刺激提示部(例えば、バイブレータ)に出力してもよい。その場合、ユーザの注意を促す情報として、フラッシュ、警告音、又はバイブレーションが、認識情報とともに表示又は提示される。また、データ処理部は、認識情報に所定の緊急情報(在室者の所定の状態、等)が含まれているか否かを判定し、含まれていると判定したとき、その認識情報の送信元の人物識別装置11−1〜11−4のいずれかから受信した映像データを表示部に出力してもよい。これにより、ユーザである見守り者は、在室者の容態や安否等の状態を、映像を視ることによって確認することができる。   The information display terminal devices 21-1 and 21-2 generate display data based on the recognition information received from the person identification devices 11-1 to 11-4, and display the generated display data on a display unit (not shown). A data processing unit (not shown) for outputting to the computer may be provided. The data processing unit may generate display data for displaying the recognition information with characters, or display data for displaying with the illustration. In addition, the data processing unit may perform text-to-speech synthesis processing on the text data included in the recognition information to convert it into speech data, and output the converted speech data to a speech reproduction unit (for example, a speaker). Further, the data processing unit determines whether or not the predetermined emergency information is included in the recognition information. When it is determined that the recognition information is included, the data processing unit further displays data representing information for prompting the user's attention. Or a stimulus presentation unit (for example, a vibrator). In that case, flash, warning sound, or vibration is displayed or presented together with the recognition information as information for prompting the user's attention. In addition, the data processing unit determines whether or not the emergency information (predetermined state of the occupant) is included in the recognition information. Video data received from any of the original person identification devices 11-1 to 11-4 may be output to the display unit. Thereby, the watcher who is a user can confirm conditions, such as a condition of a resident, safety, by seeing an image | video.

また、情報表示端末装置21−1、21−2は、人物識別装置11−1〜11−4とWANを用いて接続されるようにしてもよい。情報表示端末装置21−1、21−2は、人物識別装置11−1〜11−4から認識情報や映像データを受信し、受信した認識情報や、映像データが示す映像を上述したように表示する。
WANは、公衆通信網、インターネット、あるいはそれらの組み合わせであってもよい。公衆通信網は、光回線、ADSL(Asymmetric Digital Subscriber Line)などの固定網でもよいし、IMT−2000(International Mobile Telecommunication 2000)、LTE−Advanced(Long Term Evolution Advanced)などの移動網でもよい。
これにより、いずれかの情報表示端末装置、例えば、情報表示端末装置21−2のユーザである見守り者2には、人物識別装置11−1〜11−4から離れた遠隔地に所在する場合であっても、認識情報や映像が伝達される。
Further, the information display terminal devices 21-1 and 21-2 may be connected to the person identification devices 11-1 to 11-4 using a WAN. The information display terminal devices 21-1 and 21-2 receive the recognition information and video data from the person identification devices 11-1 to 11-4 and display the received recognition information and the video indicated by the video data as described above. To do.
The WAN may be a public communication network, the Internet, or a combination thereof. The public communication network may be an optical line, a fixed network such as ADSL (Asymmetric Digital Subscriber Line), IMT-2000 (International Mobile Telecommunication 2000), or LTE-Advanced (Long Advanced Mobile Network).
As a result, the watcher 2 who is a user of one of the information display terminal devices, for example, the information display terminal device 21-2, is located in a remote place away from the person identification devices 11-1 to 11-4. Even if there is, recognition information and video are transmitted.

なお、情報表示端末装置21は、映像を撮像する撮像部を備え、撮像部が撮像した映像を示す映像データを人物識別装置11に送信してもよい。
また、人物識別装置11は、映像を表示する表示部に接続され、情報表示端末装置21から受信した映像データを表示部に出力してもよい。これにより、人物識別装置11と情報表示端末装置21との間で双方向の映像通信(いわゆる、テレビ電話)が可能になる。
人物識別装置11に接続される表示部は、ディスプレイ単体でもよいし、ディスプレイが組み込まれた電子機器、例えば、テレビジョン受信装置、携帯電話機(スマートフォンを含む)、タブレット端末装置、パーソナルコンピュータ、などでもよい。
Note that the information display terminal device 21 may include an imaging unit that captures video, and may transmit video data indicating the video captured by the imaging unit to the person identification device 11.
The person identification device 11 may be connected to a display unit that displays video, and may output video data received from the information display terminal device 21 to the display unit. As a result, bidirectional video communication (so-called videophone) is possible between the person identification device 11 and the information display terminal device 21.
The display unit connected to the person identification device 11 may be a display alone or an electronic device in which the display is incorporated, such as a television receiver, a mobile phone (including a smartphone), a tablet terminal device, a personal computer, or the like. Good.

人物識別装置11−1〜11−4が備える顔識別DB1〜4のそれぞれは、予め識別対象の人物を登録者として、各登録者の身体の一部である顔面の特徴を示す特徴データから形成されるデータ群が体系的に構成されたものである。登録者数は、1名であってもよいが、通例、2名以上である。これらの顔識別DB1〜4を合わせて基本顔識別DBと呼ぶことがある。
人物識別装置11は、撮像された映像から、画像処理によって人物の顔の特徴量を抽出し、人物の顔を識別する。人物識別装置11は、顔映像から算出した両目や鼻、口の位置情報、顔の輪郭情報などの特徴量を算出し、基本顔識別DBに予め登録しておいた、これらの特徴量と比較して、算出した特徴量と高い類似度を示す特徴量を検索することにより、撮像した人物がどの登録者であるか識別することができる。人物識別装置11は、例えば、基本顔識別DBの特徴量と算出した特徴量の類似度として、同一の顔の部位を表す特徴量(例えば目の位置)間の差分を特徴量毎に算出し、それらの差分が最小となる基本顔識別DB上の人物を撮影映像上の人物であると判定する。人物識別装置11は、識別した人物を示す情報を含む認識情報を、情報表示端末装置21−1、21−2に送信する。なお、人物の顔を識別する方法は、上述した方法に限定されず、人の顔を識別できる方法であれば、特徴量または類似度の算出方法はどのような方法が用いられてもよい。
Each of the face identification DBs 1 to 4 included in the person identification devices 11-1 to 11-4 is formed from feature data indicating facial features that are part of the body of each registrant, with the person to be identified as a registrant in advance. The data group to be processed is structured systematically. The number of registrants may be one, but usually two or more. These face identification DBs 1 to 4 may be collectively referred to as a basic face identification DB.
The person identification device 11 extracts the feature amount of the person's face from the captured image by image processing, and identifies the person's face. The person identification device 11 calculates feature amounts such as position information of both eyes, nose and mouth and face contour information calculated from the face image, and compares them with these feature amounts registered in advance in the basic face identification DB. Then, by searching for a feature quantity that shows a high degree of similarity with the calculated feature quantity, it is possible to identify which registrant is the person who has taken the image. For example, the person identification device 11 calculates, for each feature amount, a difference between feature amounts (for example, eye positions) representing the same facial part as the similarity between the feature amount of the basic face identification DB and the calculated feature amount. The person on the basic face identification DB that minimizes the difference between them is determined to be a person on the captured video. The person identification device 11 transmits recognition information including information indicating the identified person to the information display terminal devices 21-1 and 21-2. Note that the method for identifying a person's face is not limited to the above-described method, and any method may be used for calculating the feature amount or the similarity as long as the method can identify the person's face.

また、人物識別装置11−1〜11−4の記憶部には、基本顔識別DBとは別に設置状態に応じた顔識別DBを記憶している。設置状態に応じた顔識別DBとは、人物識別装置11−1〜11−4の空間的状態(設置位置、向き、等)、撮影環境(明るさ、等)の設置状態毎の各登録者の登録データから形成されるデータ群が体系的に構成されたものである。そのため、人物識別装置11−1〜11−4の設置状態に応じた顔識別DBは、同一の登録者についても人物識別装置11−1〜11−4の設置状態によって登録データの詳細が異なる。そのため、一旦設置された人物識別装置11が撤去され、再度設置する場合には、設置状態に応じた顔識別DBを復元し、再利用することになる。また、人物識別装置11は、必ずしも元の位置や向きに設置されるとは限らず、別個の位置や向きや、新たな位置や向きに設置されることがある。また、その都度、撮影環境が異なることがある。
そこで、サーバー装置31が、各人物識別装置11で記憶されている設置状態に応じた顔識別DBを一括して記憶する。
In addition to the basic face identification DB, a face identification DB corresponding to the installation state is stored in the storage unit of the person identification devices 11-1 to 11-4. The face identification DB corresponding to the installation state means each registrant for each installation state of the spatial state (installation position, orientation, etc.) and photographing environment (brightness, etc.) of the person identification devices 11-1 to 11-4. The data group formed from the registered data is systematically structured. Therefore, the details of the registration data of the face identification DB corresponding to the installation state of the person identification devices 11-1 to 11-4 differ depending on the installation state of the person identification devices 11-1 to 11-4 for the same registrant. Therefore, when the person identification device 11 once installed is removed and installed again, the face identification DB corresponding to the installation state is restored and reused. In addition, the person identification device 11 is not necessarily installed at the original position or orientation, and may be installed at a separate position or orientation or a new position or orientation. In addition, the shooting environment may be different each time.
Therefore, the server device 31 collectively stores a face identification DB corresponding to the installation state stored in each person identification device 11.

サーバー装置31の統合顔識別DBは、基本顔識別DBと各人物識別装置11で記憶されている設置状態に応じた顔識別DBによって形成される。人物識別装置11は、自装置の設置状態に応じた顔識別DBをサーバー装置31に要求し、要求した顔識別DBをサーバー装置31からダウンロードする。なお、初めて人物識別装置11が設置された場合など、人物識別装置11に顔識別DBが登録されていない場合は、人物識別装置11は、基本顔識別DBについても、サーバー装置31からダウンロードしてもよい。人物識別装置11が、自装置の設置状態に応じた顔識別DBを要求するタイミングは、例えば、撤去後再度設置される場合や、保守管理等に伴う交換により使用開始される場合、等である。一般に、設置状態に応じた顔識別DBの情報量は多量であるが、サーバー装置31からダウンロードすることで、新たに設置状態に応じた顔識別DBをその都度生成する必要がなくなり、容易に復旧することができる。また、復旧にかかる時間を短縮することができる。   The integrated face identification DB of the server device 31 is formed by a basic face identification DB and a face identification DB corresponding to the installation state stored in each person identification device 11. The person identification device 11 requests the server device 31 for a face identification DB corresponding to the installation state of the own device, and downloads the requested face identification DB from the server device 31. If the face identification DB is not registered in the person identification device 11 such as when the person identification device 11 is installed for the first time, the person identification device 11 also downloads the basic face identification DB from the server device 31. Also good. The timing at which the person identification device 11 requests the face identification DB according to the installation state of the own device is, for example, when it is installed again after removal, or when it is started to be used by replacement accompanying maintenance management, etc. . In general, the amount of information in the face identification DB corresponding to the installation state is large, but downloading from the server device 31 eliminates the need to newly generate a face identification DB corresponding to the installation state each time, so it can be easily restored. can do. In addition, the time required for recovery can be shortened.

なお、ネットワーク41の構成は、上述した例に限られない。サーバー装置31は、人物識別装置11−1〜11−4と同一の建造物内のLANに接続されていてもよい。また、人物識別装置11−1〜11−4、情報表示端末装置21−1、21−2及びサーバー装置31は、個別にWANに接続されてもよい。装置間でデータを送受信することができれば、ネットワーク41は、いかなる構成を有してもよい。また、人物識別装置11−1〜11−4のいずれかは、サーバー装置31と一体化して構成されてもよい。   Note that the configuration of the network 41 is not limited to the above-described example. The server device 31 may be connected to a LAN in the same building as the person identification devices 11-1 to 11-4. In addition, the person identification devices 11-1 to 11-4, the information display terminal devices 21-1, 21-2, and the server device 31 may be individually connected to the WAN. The network 41 may have any configuration as long as data can be transmitted and received between devices. In addition, any one of the person identification devices 11-1 to 11-4 may be integrated with the server device 31.

〔人物識別装置〕
次に、本実施形態に係る人物識別装置11の構成について説明する。
図3は、本実施形態に係る人物識別装置11の構成を示すブロック図である。
人物識別装置11は、撮像部110、映像解析部111、情報DB120、データ変換部130、伝送制御部140、及び設置情報取得部150を含んで構成される。
[Person identification device]
Next, the configuration of the person identification device 11 according to the present embodiment will be described.
FIG. 3 is a block diagram illustrating a configuration of the person identification device 11 according to the present embodiment.
The person identification device 11 includes an imaging unit 110, a video analysis unit 111, an information DB 120, a data conversion unit 130, a transmission control unit 140, and an installation information acquisition unit 150.

撮像部110は、映像を撮像し、撮像した映像を表す映像データを映像解析部111に出力する。撮像部110は、例えば、被写体から入射された光を焦点に集光するレンズを備えた光学系とレンズの焦点に位置して集光された光を電気信号に変換する撮像素子を備える撮像ユニットを含むカメラである。撮像素子は、例えば、CCD(Charge Coupled Device)素子、CMOS(Complementary Metal Oxide Semiconductor)素子である。撮像部110が備える撮像ユニットは、1個であってもよいし、2個以上であってもよい。2個以上の撮像ユニット間で、それぞれの撮像領域(画角)を分担することで、より広い領域を撮像することや、ある被写体(例えば、家具)によって遮られる領域(オクルージョン領域)を減少することが可能となる。   The imaging unit 110 captures a video and outputs video data representing the captured video to the video analysis unit 111. The imaging unit 110 includes, for example, an optical system including a lens that focuses light incident from a subject on a focal point, and an imaging unit that converts the light collected at the focal point of the lens into an electric signal. It is a camera including The imaging device is, for example, a CCD (Charge Coupled Device) element or a CMOS (Complementary Metal Oxide Semiconductor) element. The imaging unit 110 may include one imaging unit or two or more imaging units. By sharing each imaging area (view angle) between two or more imaging units, it is possible to capture a wider area or reduce an area (occlusion area) obstructed by a certain subject (for example, furniture). It becomes possible.

映像解析部111は、撮像部110から入力された映像データを解析することにより、映像データが表す映像から被写体である人物やその人物の顔を検出し、検出した人物を識別し、また、その人物がとる行動を検知する。映像解析部111は、映像データを解析する際、情報DB120に記憶された各種のデータを参照する。各種のデータには、映像解析部111における人物、顔の検出に用いられる人物、顔、等のテンプレート、人物の識別に用いられる特徴量データ(つまり、基本顔識別DB、設置状態に応じた顔識別DB)、行動の検出に用いるためのモーション情報、等がある。映像解析部111は、人物や顔の検出の有無、検出した人物、顔、識別した人物、検知した行動、のいずれか又はそれらの組み合わせを表す認識情報を生成し、生成した認識情報をデータ変換部130に出力する。映像解析部111は、認識情報の生成に用いた映像データを、その認識情報とともにデータ変換部130に出力してもよい。
また、映像解析部111は、映像データを解析する際、さらに、設置情報取得部150から入力された設置情報を参照してもよい。映像解析部111は、設置情報を認識情報に付加してデータ変換部130に出力してもよい。
The video analysis unit 111 analyzes the video data input from the imaging unit 110 to detect the person who is the subject and the face of the person from the video represented by the video data, and identifies the detected person. Detect actions taken by a person. When analyzing the video data, the video analysis unit 111 refers to various data stored in the information DB 120. Various types of data include a person in the video analysis unit 111, a template such as a person and a face used for face detection, and feature amount data used for identifying the person (that is, a basic face identification DB, a face corresponding to the installation state) Identification DB), motion information for use in action detection, and the like. The video analysis unit 111 generates recognition information representing presence or absence of a person or face, a detected person, a face, an identified person, a detected action, or a combination thereof, and converts the generated recognition information into data To the unit 130. The video analysis unit 111 may output the video data used for generating the recognition information to the data conversion unit 130 together with the recognition information.
The video analysis unit 111 may further refer to the installation information input from the installation information acquisition unit 150 when analyzing the video data. The video analysis unit 111 may add the installation information to the recognition information and output it to the data conversion unit 130.

情報DB120は、映像解析部111で用いられる各種のデータを記憶する記憶媒体(メモリ)を含んで構成される記憶部である。また、情報DB120には、映像解析部111で生成された中間データ、参照された過去の映像データを一時的に記憶されてもよい。
また、映像解析部111が生成した認識情報を情報表示端末装置21で表示するための情報、例えば、表示用フォーマット、等が記憶され、その情報が認識情報とともに情報表示端末装置21に送信されてもよい。表示用フォーマットには、例えば、認識された人物について検知された行動を情報表示端末装置21の表示部に表示する際の態様、位置、文字、等を指定する情報が含まれてもよい。
The information DB 120 is a storage unit that includes a storage medium (memory) that stores various data used by the video analysis unit 111. The information DB 120 may temporarily store the intermediate data generated by the video analysis unit 111 and the past video data referred to.
In addition, information for displaying the recognition information generated by the video analysis unit 111 on the information display terminal device 21, for example, a display format, is stored, and the information is transmitted to the information display terminal device 21 together with the recognition information. Also good. The display format may include, for example, information specifying an aspect, a position, a character, and the like when displaying an action detected for a recognized person on the display unit of the information display terminal device 21.

データ変換部130は、映像解析部111から入力された認識情報、映像データを所定のブロック単位のデータブロックに変換する。データブロックの形式は、情報表示端末装置21との間の通信方式に適合した形式であればよい。データ変換部130は、変換したデータブロックを伝送制御部140に出力する。
伝送制御部140は、データ変換部130から入力されたデータブロックを、ネットワーク41を介して情報表示端末装置21に送信する。なお、伝送制御部140は、データブロックを、人物識別装置11に内蔵又は人物識別装置11に接続された記憶媒体(図示せず)に記憶してもよい。この記憶媒体は、光学ディスク、HDD(Hard−Disk
Drive)、半導体メモリ、等のいずれでもよい。伝送制御部140は、例えば、通信インタフェース、データ入出力インタフェースである。
The data conversion unit 130 converts the recognition information and video data input from the video analysis unit 111 into data blocks in a predetermined block unit. The format of the data block may be any format that is compatible with the communication method with the information display terminal device 21. The data conversion unit 130 outputs the converted data block to the transmission control unit 140.
The transmission control unit 140 transmits the data block input from the data conversion unit 130 to the information display terminal device 21 via the network 41. Note that the transmission control unit 140 may store the data block in a storage medium (not shown) built in the person identification device 11 or connected to the person identification device 11. This storage medium is an optical disk, HDD (Hard-Disk).
Drive), a semiconductor memory, or the like. The transmission control unit 140 is, for example, a communication interface or a data input / output interface.

設置情報取得部150は、撮像部110の設置状態を示す設置情報を取得し、取得した設置情報を映像解析部111に出力する。設置情報取得部150は、例えば、撮像部110の高さ、向きを検知する、赤外線センサ、測距センサ、加速度センサ、ジャイロセンサ、電子コンパス等を備え、撮像部110の位置や向きを検出してもよい。
また、設置情報取得部150は、撮像部110の周囲、例えば被写範囲の明るさを検知する輝度センサを備えてもよいし、撮像部110から入力された映像データに基づいて明るさを検知してもよい。設置情報取得部150は、撮像部110の周囲の天候を検知する気象センサ、気温を計測する温度センサ、湿度を計測する湿度センサ、等を備えてもよい。これらのセンサで検出された信号は、設置情報を示す。
なお、設置情報取得部150は、これらの設置情報を他の機器から入力されてもよいし、ユーザによる操作入力に応じて入力されてもよい。
The installation information acquisition unit 150 acquires installation information indicating the installation state of the imaging unit 110 and outputs the acquired installation information to the video analysis unit 111. The installation information acquisition unit 150 includes, for example, an infrared sensor, a distance measurement sensor, an acceleration sensor, a gyro sensor, and an electronic compass that detect the height and orientation of the imaging unit 110, and detects the position and orientation of the imaging unit 110. May be.
In addition, the installation information acquisition unit 150 may include a luminance sensor that detects the brightness of the periphery of the imaging unit 110, for example, the subject range, or detects brightness based on video data input from the imaging unit 110. May be. The installation information acquisition unit 150 may include a weather sensor that detects the weather around the imaging unit 110, a temperature sensor that measures temperature, a humidity sensor that measures humidity, and the like. Signals detected by these sensors indicate installation information.
The installation information acquisition unit 150 may receive the installation information from another device or may be input according to an operation input by the user.

〔映像解析部〕
次に、本実施形態に係る映像解析部111の構成について説明する。
図4は、本実施形態に係る映像解析部111の構成を示すブロック図である。
映像解析部111は、ユーザ情報検出部112、モーション検出部113、行動認識部114、人物検出部115、及び動きベクトル検出部116を含んで構成される。
[Video Analysis Department]
Next, the configuration of the video analysis unit 111 according to the present embodiment will be described.
FIG. 4 is a block diagram illustrating a configuration of the video analysis unit 111 according to the present embodiment.
The video analysis unit 111 includes a user information detection unit 112, a motion detection unit 113, an action recognition unit 114, a person detection unit 115, and a motion vector detection unit 116.

映像解析部111は、情報DB120に記憶された顔識別DBを参照して、撮像部110から入力された映像データが示す映像から、後述する画像処理方法を用いて人物の顔を検出する。顔の検出に成功した場合、被写体として人物を検出したと判定する。映像解析部111は、異なる撮像時刻間で映像に変化があった領域を人物の領域であると判定してもよい。映像解析部111は、人物の顔の検出結果と、撮像時刻が互いに異なる複数の映像から検出した被写体の動きを示す動き情報とから、その人物の顔の位置を追跡する。映像解析部111は、人物の有無を示す情報を認識情報の一部としてデータ変換部130に出力し、情報DB120に記憶する。また、映像解析部111は、撮像部110から入力された映像データに基づいて、及び追跡した人物の位置、動き量の検出、人物の性別や年齢等の属性の推定、人物が誰であるかの識別、人物の顔が向いている方向や表情の推定、を行う。映像解析部111が、検出、推定した情報を認識情報の一部としてデータ変換部130に出力し、情報DB120に記憶する。
また、映像解析部111は、検出した人物が行っている行動、例えば、ジェスチャ等のモーションを検出し、検出した行動を表す情報を認識情報の一部としてデータ変換部130に出力し、情報DB120に記憶する。映像解析部111の機能構成については、後述する。
The video analysis unit 111 refers to the face identification DB stored in the information DB 120 and detects the face of a person from the video indicated by the video data input from the imaging unit 110 using an image processing method described later. If the face is successfully detected, it is determined that a person is detected as the subject. The video analysis unit 111 may determine that a region where the video has changed between different imaging times is a human region. The video analysis unit 111 tracks the position of the person's face from the detection result of the person's face and the motion information indicating the motion of the subject detected from a plurality of images having different imaging times. The video analysis unit 111 outputs information indicating the presence or absence of a person to the data conversion unit 130 as part of the recognition information, and stores the information in the information DB 120. Further, the video analysis unit 111 detects the position of the tracked person, the amount of motion, the estimation of attributes such as the gender and age of the person, and the person based on the video data input from the imaging unit 110. And estimation of the direction and facial expression of the person's face. The video analysis unit 111 outputs the detected and estimated information as part of the recognition information to the data conversion unit 130 and stores it in the information DB 120.
In addition, the video analysis unit 111 detects an action performed by the detected person, for example, a motion such as a gesture, and outputs information representing the detected action to the data conversion unit 130 as part of the recognition information. To remember. The functional configuration of the video analysis unit 111 will be described later.

〔動きベクトル検出部〕
次に、動きベクトル検出部116が行う処理について説明する。
動きベクトル検出部116は、撮像部110から入力された現在の映像データが示す映像と、情報DB120から読み取った所定のフレーム数の過去の映像データが示す映像から、被写体が動いた領域を検出する。動きベクトル検出部116は、撮像ユニット毎に現在のフレームの画素毎の画素値と、過去のフレームの対応する画素の画素値との差分値が予め定めた閾値よりも大きい領域を、動いた領域として検出する。動きベクトル検出部116は、検出した動いた領域と、その領域の重心座標、移動量ならびに移動方向(動きベクトル)を追跡情報(動きベクトル情報)として、人物検出部115及びモーション検出部113に出力する。また、動きベクトル検出部116は、これらの情報を認識情報としてデータ変換部130に出力してもよいし、情報DB120に記憶してもよい。
[Motion vector detector]
Next, processing performed by the motion vector detection unit 116 will be described.
The motion vector detection unit 116 detects an area where the subject has moved from the video indicated by the current video data input from the imaging unit 110 and the video indicated by the past video data of a predetermined number of frames read from the information DB 120. . The motion vector detection unit 116 moves an area where the difference value between the pixel value of each pixel of the current frame and the pixel value of the corresponding pixel of the past frame is larger than a predetermined threshold for each imaging unit. Detect as. The motion vector detection unit 116 outputs the detected moved region, the barycentric coordinates of the region, the movement amount, and the movement direction (motion vector) as tracking information (motion vector information) to the person detection unit 115 and the motion detection unit 113. To do. In addition, the motion vector detection unit 116 may output these pieces of information as recognition information to the data conversion unit 130 or may store them in the information DB 120.

動きベクトル検出部116は、映像データの他、後述の人物検出部115から入力される人物情報を参照して映像内で動いた領域を検出してもよい(図示せず)。動きベクトル検出部116は、映像データを用いて検出した動いた領域が、人物情報に含まれる位置情報を基準に予め定めた閾値の範囲(領域)内にある場合に、人物が動いたと判定する。動きベクトル検出部116は、人物が動いたと判定した領域、その領域の重心座標、移動量ならびに移動方向(動きベクトル)を追跡情報(動きベクトル情報)として、モーション検出部113に入力する。また、動きベクトル検出部116は、これらの情報を検出情報としてデータ変換部130に出力し、情報DB120に記憶してもよい。このように、映像データから検出した領域と人物が検出されたことを示す人物情報を参照することで、人物以外の被写体の動きを検出することを避けることができ、例えば、見守り対象の人物の動きベクトル情報を抽出して、情報表示端末装置21に送信することができる。   The motion vector detection unit 116 may detect a region moved in the video by referring to the person information input from the person detection unit 115 described later in addition to the video data (not shown). The motion vector detection unit 116 determines that the person has moved when the moved area detected using the video data is within a predetermined threshold range (area) based on position information included in the person information. . The motion vector detection unit 116 inputs, to the motion detection unit 113, tracking information (motion vector information) as an area in which it is determined that the person has moved, the barycentric coordinates of the area, the movement amount, and the movement direction (motion vector). The motion vector detection unit 116 may output these pieces of information as detection information to the data conversion unit 130 and store them in the information DB 120. In this way, it is possible to avoid detecting the movement of a subject other than a person by referring to the area detected from the video data and the person information indicating that the person has been detected. Motion vector information can be extracted and transmitted to the information display terminal device 21.

なお、動きベクトル検出部116が動いた領域を検出する方法は、上述した方法に限定されない。動きベクトル検出部116は、例えば、縦と横の画素数が8×8や16×16などの所定の大きさの領域(マクロブロック)の単位で現在のフレームのマクロブロックに対応する領域が過去のフレームのどこにあるかを探索してもよい。対応する領域を探索する際、例えば、SAD(Sum of Absolute Differences)等の類似度を示す指標を用いることができる。そして、動きベクトル検出部116は、過去のフレームで探索した領域から、現在のフレームの対応する領域までの移動量と移動方向を定める。   Note that the method of detecting the region in which the motion vector detection unit 116 has moved is not limited to the method described above. For example, the motion vector detection unit 116 may store the region corresponding to the macroblock of the current frame in the unit of a region (macroblock) having a predetermined size such as 8 × 8 or 16 × 16. You may search for where in the frame. When searching for a corresponding region, for example, an index indicating the degree of similarity such as SAD (Sum of Absolute Differences) can be used. Then, the motion vector detection unit 116 determines a movement amount and a movement direction from the area searched in the past frame to the corresponding area of the current frame.

〔人物検出部〕
次に、人物検出部115が行う処理について説明する。
人物検出部115は、撮像部110から入力された映像データと、動きベクトル検出部116から入力された動きベクトル情報とに基づいて検出された人物の顔面の画像を表す領域を検出する。顔の検出に成功した場合に、人物検出部115は、人物が室内に入室したと判定する。
人物検出部115は、検出した領域における代表点(例えば、重心点)の2次元座標や、その領域の上端、下端、左端、右端の2次元座標を表す2次元顔面領域情報を生成する。なお、撮像部110が複数の撮像ユニットを備える場合には、撮像ユニット毎に2次元顔面領域情報を生成し、生成した2次元顔面領域情報が示す2次元座標を組合せ、室内の3次元空間座標系の3次元座標に変換して、3次元の顔位置情報を生成してもよい。顔面の領域を検出するために、人物検出部115は、例えば予め設定した顔面の色彩(例えば、肌色)を表す色信号値の範囲にある画素を、入力された画像信号から抽出する。
(Person detection unit)
Next, processing performed by the person detection unit 115 will be described.
The person detection unit 115 detects an area representing an image of a human face detected based on the video data input from the imaging unit 110 and the motion vector information input from the motion vector detection unit 116. When the face detection is successful, the person detection unit 115 determines that the person has entered the room.
The person detection unit 115 generates two-dimensional face area information representing the two-dimensional coordinates of the representative point (for example, the center of gravity) in the detected area and the two-dimensional coordinates of the upper end, the lower end, the left end, and the right end of the area. When the imaging unit 110 includes a plurality of imaging units, two-dimensional facial area information is generated for each imaging unit, the two-dimensional coordinates indicated by the generated two-dimensional facial area information are combined, and the indoor three-dimensional spatial coordinates are combined. Three-dimensional face position information may be generated by converting into three-dimensional coordinates of the system. In order to detect the face area, the person detection unit 115 extracts, for example, pixels in a range of color signal values representing a preset face color (for example, skin color) from the input image signal.

なお、人物検出部115は、予め人間の顔面を表す濃淡(モノクロ)画像信号を記憶した記憶部を備えるようにしてもよい。そこで、人物検出部115は、記憶部から読み出した濃淡画像信号と入力された画像信号との相関値を複数の画素を含む画像ブロック毎に算出し、算出した相関値が予め定めた閾値よりも大きい画像ブロックを顔面の領域と検出する。
その他、人物検出部115は、入力された画像信号に基づいて顔の特徴量(例えば、Haar−Like特徴量)を算出し、算出した特徴量に基づいて機械学習(例えば、Adaboostアルゴリズム)を行い、学習したデータベースと入力映像の特徴量から顔面の領域を検出してもよい。人物検出部115が顔面の領域を検出する方法は、上述の方法に限られず、入力された映像データから顔面の領域を検出する方法であれば、いかなる方法を用いてもよい。また、映像中に人物がいる場合でも、必ずしも顔が撮影されるとは限らないため、動きベクトル検出部116から入力される動きベクトル情報を用いて、動いた領域に人物がいると判定してもよい。さらに、顔面の領域情報と動きベクトルを組み合わせて人物を検出してもよい。動きベクトル情報と顔面の領域情報とを照合しながら、検出した人物を追跡し、次のフレームでの人物検出精度の向上や顔検出範囲を特定することにより計算量の削減が可能となる。
また、人物を検出する方法は、顔を検出する方法だけに限られない。人物検出部115は、HOG(Histograms of Oriented Gradients)を用いて、人物の身体のシルエットを特徴量として抽出し、抽出した特徴量を学習(例えばAdaboostアルゴリズムやSVMなど)することによって、人物を識別してもよい。
The person detection unit 115 may include a storage unit that stores in advance a grayscale (monochrome) image signal representing a human face. Therefore, the person detection unit 115 calculates a correlation value between the grayscale image signal read from the storage unit and the input image signal for each image block including a plurality of pixels, and the calculated correlation value is greater than a predetermined threshold value. A large image block is detected as a facial region.
In addition, the person detection unit 115 calculates a facial feature amount (for example, Haar-Like feature amount) based on the input image signal, and performs machine learning (for example, an Adaboost algorithm) based on the calculated feature amount. The facial region may be detected from the learned database and the feature amount of the input video. The method of detecting the face area by the person detection unit 115 is not limited to the above-described method, and any method may be used as long as it detects the face area from the input video data. Further, even when a person is present in the video, a face is not necessarily photographed. Therefore, it is determined that there is a person in the moved area using the motion vector information input from the motion vector detection unit 116. Also good. Furthermore, a person may be detected by combining facial area information and a motion vector. It is possible to reduce the amount of calculation by tracking the detected person while collating the motion vector information and the facial area information, improving the person detection accuracy in the next frame, and specifying the face detection range.
Further, the method for detecting a person is not limited to the method for detecting a face. The person detection unit 115 uses HOG (Histograms of Oriented Gradients) to extract the silhouette of a person's body as a feature quantity, and learns the extracted feature quantity (for example, the Adaboost algorithm or SVM) to identify the person. May be.

人物検出部115が画像上の顔を検出する方法はこれには限られない。人物検出部115は、入力された映像データから、顔の特性に関する特徴量、例えば、性別や年齢を表す特徴量や、顔の向いている向き、笑い、怒り、泣き、等の表情に係る特徴量(例えば、特徴点の座標、長さ、方向)など、を算出し、情報DB120に予め記憶した特徴量データを参照して、顔と類似していると判定された領域を顔領域として検出してもよい。
また、人物検出部115は、情報DB120に予め記憶した特徴量データを参照して、入力された映像データから、顔が表されている顔領域と、その顔の向いている向きを検出してもよい。ここで、情報DB120には、各方向(上、下、横、等)を向いた顔を表す映像から算出した特徴量を示す特徴量データを記憶しておく。
人物検出部115は、検出又は識別した人物の顔に関する情報を人物情報として、ユーザ情報検出部112およびモーション検出部113に出力する。また、人物検出部115は、映像データが示す映像から顔が検出された領域を抽出し、この抽出した領域の映像を示す切出映像データをユーザ情報検出部112およびモーション検出部113に出力する。
なお、上述の切出映像データとなる映像を抽出した領域は、その映像に検出された顔領域が含まれるように抽出されていればよく、抽出した領域の大きさは、例えば、人物の身体全体が含まれる大きさのように、どのような大きさであってもよい。人物検出部115は、人物情報及び切出映像データを検出情報としてデータ変換部130、行動認識部114に出力し、情報DB120に記憶してもよい。また、人物検出部115は、人物情報に、算出した特徴量を人物情報に含めて出力することにより、ユーザ情報検出部112での処理に利用できるようにしてもよい。
The method by which the person detection unit 115 detects the face on the image is not limited to this. From the input video data, the person detection unit 115 includes feature amounts related to facial characteristics, for example, feature amounts representing gender and age, and features related to facial expressions such as face orientation, laughter, anger, and crying. The amount (for example, the coordinates, length, direction, etc. of the feature point) is calculated, and the region determined to be similar to the face is detected as a face region by referring to the feature amount data stored in advance in the information DB 120 May be.
In addition, the person detection unit 115 refers to the feature amount data stored in advance in the information DB 120 and detects the face area where the face is represented and the direction in which the face is facing from the input video data. Also good. Here, the information DB 120 stores feature amount data indicating feature amounts calculated from an image representing a face facing each direction (up, down, side, etc.).
The person detection unit 115 outputs information about the detected or identified person's face as person information to the user information detection unit 112 and the motion detection unit 113. In addition, the person detection unit 115 extracts a region where a face is detected from the video indicated by the video data, and outputs clipped video data indicating the video of the extracted region to the user information detection unit 112 and the motion detection unit 113. .
It should be noted that the area from which the video to be the cutout video data is extracted may be extracted so that the detected face area is included in the video, and the size of the extracted area is, for example, the body of a person It may be any size, such as a size that includes the whole. The person detection unit 115 may output the person information and the extracted video data as detection information to the data conversion unit 130 and the action recognition unit 114 and store them in the information DB 120. In addition, the person detection unit 115 may include the calculated feature amount in the person information and output the person information so that the person information can be used for processing in the user information detection unit 112.

〔ユーザ情報検出部〕
次に、ユーザ情報検出部112の構成について説明する。
ユーザ情報検出部112は、属性推定部1120、表情推定部1121、人物識別部1122、位置検出部1123、及び人体部位検出部1124を含んで構成される。この構成により、ユーザ情報検出部112は、ユーザである撮像された人物の状態を検出し、検出した人物の状態を示す検出情報として後述する情報を行動認識部114に出力する。検出情報には、後述するように人体の特徴量を示す特徴量情報が含まれることがある。
[User information detector]
Next, the configuration of the user information detection unit 112 will be described.
The user information detection unit 112 includes an attribute estimation unit 1120, a facial expression estimation unit 1121, a person identification unit 1122, a position detection unit 1123, and a human body part detection unit 1124. With this configuration, the user information detection unit 112 detects the state of a person who is captured as a user, and outputs information described later as detection information indicating the state of the detected person to the action recognition unit 114. The detection information may include feature amount information indicating the feature amount of the human body as will be described later.

属性推定部1120は、人物検出部115から入力された切出映像データから情報DB120に予め記憶された特徴量データを参照し、人物情報が示す人物の属性、例えば、年齢、性別を推定する。属性の推定に先立ち、前述の顔の特徴量を学習する際、年齢別や性別毎に特徴量を予め分類して学習データベースを生成しておく。属性推定部1120は、映像から抽出した特徴量とこれら学習データベースに含まれる特徴量との類似度を算出することによって、属性を推定する。属性推定部1120は、推定した属性を示す属性情報を行動認識部114に出力する。
表情推定部1121は、人物検出部115から入力された切出映像データから情報DB120に予め記憶された特徴量データを参照し、人物情報が示す人物の表情、例えば、笑い、泣き、怒り、等を推定する。表情の推定に先立ち、前述の属性推定部1120と同様に、表情毎に顔の特徴量を予め分類して学習データベースを生成しておく。表情推定部1121は、映像から抽出した特徴量とこれら学習データベースに含まれる特徴量との類似度を算出することによって、表情を推定する。表情推定部1121は、推定した表情を示す表情情報を行動認識部114に出力する。
The attribute estimation unit 1120 refers to the feature amount data stored in advance in the information DB 120 from the clipped video data input from the person detection unit 115, and estimates the attributes of the person indicated by the person information, such as age and gender. Prior to attribute estimation, when learning the above-described facial feature quantity, the feature quantity is classified in advance for each age and sex, and a learning database is generated. The attribute estimation unit 1120 estimates the attribute by calculating the similarity between the feature quantity extracted from the video and the feature quantity included in the learning database. The attribute estimation unit 1120 outputs attribute information indicating the estimated attribute to the action recognition unit 114.
The facial expression estimation unit 1121 refers to the feature amount data stored in advance in the information DB 120 from the clipped video data input from the person detection unit 115, and the facial expression of the person indicated by the personal information, such as laughter, crying, anger, etc. Is estimated. Prior to facial expression estimation, a learning database is generated by classifying facial feature quantities in advance for each facial expression in the same manner as the attribute estimation unit 1120 described above. The facial expression estimation unit 1121 estimates the facial expression by calculating the similarity between the feature amount extracted from the video and the feature amount included in these learning databases. The facial expression estimation unit 1121 outputs facial expression information indicating the estimated facial expression to the action recognition unit 114.

人物識別部1122は、前述の方法を用いて、人物検出部115から入力された切出映像データが示す映像から顔器官(口、目、等)の表示領域を特定し、特定した顔器官の表示領域毎の特徴量を算出する。人物識別部1122は、算出した特徴量と情報DB120に予め記憶された人物(登録者)毎の特徴量データが示す特徴量とを比較し、算出した特徴量との類似性を示す指標値が予め定めた指標値の閾値よりも類似性が高く、類似性が最も高いことを示す特徴量に係る人物を定める。そのような人物の特定に失敗した場合には、人物識別部1122は、映像が示す人物が未知の人物であると定める。人物識別部1122は、定めた人物を示す人物識別情報を行動認識部114に出力する。   Using the above-described method, the person identification unit 1122 identifies the display area of the facial organ (mouth, eyes, etc.) from the video indicated by the cut video data input from the human detection unit 115, and the identified facial organ. The feature amount for each display area is calculated. The person identifying unit 1122 compares the calculated feature amount with the feature amount indicated by the feature amount data for each person (registrant) stored in the information DB 120 in advance, and an index value indicating similarity to the calculated feature amount is obtained. A person who has a similarity higher than a predetermined index value threshold and has a highest similarity is determined. If such person identification fails, the person identification unit 1122 determines that the person shown in the video is an unknown person. The person identification unit 1122 outputs person identification information indicating the determined person to the action recognition unit 114.

位置検出部1123は、撮像部110から入力された映像データが示す映像のうち、人物検出部115から入力された切出映像データが示す顔領域と照合して、顔領域が表されている表示位置を検出する。位置検出部1123は、検出した表示位置と、人物識別部1122で検出した顔器官の表示領域とに基づいて撮像部110の向きを算出する。位置検出部1123は、表示位置と算出した顔の向きとを示す位置情報を行動認識部114に出力する。
人体部位検出部1124は、撮像部110から入力された映像データが示す映像から人体の部位(頭、腕、手、足、胴体、等)の表示領域を検出する。人体部位検出部1124は、検出した部位毎の表示領域に基づいて、部位毎の代表点(例えば、重心点)を位置として算出し、大きさ(長さ、幅、等)を算出する。人体の部位の検出を行う際、人体部位検出部1124は、前述の人物検出部115と同様に、人体の各部位毎に前述のHOG特徴量を算出し、各部位毎に学習を行うことで、入力映像が表す人体の一部分が人体のどの部位に属するかの推定を行う。人体部位検出部1124は、定めた部位毎の位置と大きさを示す人体部位情報を行動認識部114に出力する。
The position detection unit 1123 compares the face area indicated by the clipped video data input from the person detection unit 115 in the video indicated by the video data input from the imaging unit 110 and displays the face area. Detect position. The position detection unit 1123 calculates the orientation of the imaging unit 110 based on the detected display position and the face organ display area detected by the person identification unit 1122. The position detection unit 1123 outputs position information indicating the display position and the calculated face orientation to the action recognition unit 114.
The human body part detection unit 1124 detects a display region of a human body part (head, arm, hand, foot, torso, etc.) from the video indicated by the video data input from the imaging unit 110. The human body part detection unit 1124 calculates a representative point (for example, a center of gravity) for each part as a position based on the detected display area for each part, and calculates a size (length, width, etc.). When detecting a human body part, the human body part detection unit 1124 calculates the above-described HOG feature amount for each part of the human body and performs learning for each part in the same manner as the person detection unit 115 described above. Then, it is estimated which part of the human body a part of the human body represented by the input video belongs to. The human body part detection unit 1124 outputs human body part information indicating the position and size of each determined part to the action recognition unit 114.

〔モーション検出部〕
次に、モーション検出部113が行う処理について説明する。
モーション検出部113は、撮像部110から入力される複数の映像データと、人物検出部115から入力される人物情報と、動きベクトル検出部116から入力される動きベクトル情報から、検出した人のモーション(動作、行動)を検出する。例えば、モーション検出部113は、人物情報から求めた顔の3次元位置情報が示す鉛直方向の座標が、予め定めた閾値の座標よりも高い位置を示す場合、その人物が立っていると判定する。
また、情報DB120に人物毎に特徴量データと身長を示す身長情報を対応付けて予め記憶しておき、モーション検出部113は、識別情報が示す人物の身長情報を情報DB120から読み取り、読み取った身長情報が示す身長と撮像部110の位置に基づいて、立っていると判断するための顔の3次元座標の範囲を設定してもよい。モーション検出部113は、設定した範囲内に顔の位置が含まれるか否かにより、その人物が立っているか否かを判定することができる。
[Motion detector]
Next, processing performed by the motion detection unit 113 will be described.
The motion detection unit 113 detects the motion of the detected person from the plurality of video data input from the imaging unit 110, the person information input from the person detection unit 115, and the motion vector information input from the motion vector detection unit 116. (Motion, action) is detected. For example, the motion detection unit 113 determines that the person is standing when the vertical coordinate indicated by the three-dimensional position information of the face obtained from the person information indicates a position higher than the coordinates of a predetermined threshold. .
Further, the feature data and the height information indicating the height are stored in advance in the information DB 120 in association with each person, and the motion detection unit 113 reads the height information of the person indicated by the identification information from the information DB 120 and reads the height. Based on the height indicated by the information and the position of the imaging unit 110, a range of the three-dimensional coordinate of the face for determining that the user is standing may be set. The motion detection unit 113 can determine whether or not the person is standing based on whether or not the face position is included in the set range.

また、モーション検出部113は、人物情報から求めた顔の3次元位置情報が示す鉛直方向の座標が、床の高さよりも高い位置であって、予め定めた閾値の座標よりも低い位置を示す場合、その人物が寝ている(又は倒れている)と判定する。なお、被写範囲内にベッド、ソファー、等の家具が設置されている場合には、床に代えて、それらの家具の表面の高さに基づいて閾値を設定してもよい。また、モーション検出部113は、立っている状態でも、寝ている状態でもない場合、その人物が座っていると判定する。モーション検出部113は、判定したモーションを示すモーション情報を行動認識部114に出力する。   In addition, the motion detection unit 113 indicates a position in which the vertical coordinate indicated by the three-dimensional position information of the face obtained from the person information is higher than the floor height and lower than the predetermined threshold coordinate. In this case, it is determined that the person is sleeping (or lying down). In the case where furniture such as a bed, sofa, etc. is installed in the subject area, the threshold value may be set based on the height of the surface of the furniture instead of the floor. In addition, the motion detection unit 113 determines that the person is sitting when the person is not standing or sleeping. The motion detection unit 113 outputs motion information indicating the determined motion to the action recognition unit 114.

また、モーション検出部113は、人物検出部115から入力された人物情報、動きベクトル検出部116から入力された動きベクトル、位置検出部1123から入力された位置情報、人体部位検出部1124から入力された人体部位情報に基づき、検出された人物が室内に在室しているか否か、動いているか否かを判定してもよい。モーション検出部113は、室内に在室し、かつ、動いていると判定した場合、検出し人物が起きていると判定してもよい。また、モーション検出部113は、起きていると判定した人物が、寝ていると判定された場合、もしくは、寝ていると判定された時間が予め定めた時間の閾値よりも長い時間継続した場合、倒れていると判定してもよい。このような場合には、体調の急変が予想されるため、モーション検出部113は、判定した情報をモーション情報として行動認識部114に出力する。   In addition, the motion detection unit 113 receives the person information input from the person detection unit 115, the motion vector input from the motion vector detection unit 116, the position information input from the position detection unit 1123, and the human body part detection unit 1124. Whether the detected person is in the room or moving may be determined based on the human body part information. When it is determined that the motion detection unit 113 is present in the room and is moving, the motion detection unit 113 may detect and determine that a person is waking up. Also, the motion detection unit 113 determines that the person who is determined to be awake is determined to be sleeping, or the time determined to be sleeping continues for a time longer than a predetermined time threshold. It may be determined that it has fallen. In such a case, since a sudden change in physical condition is expected, the motion detection unit 113 outputs the determined information to the action recognition unit 114 as motion information.

また、モーション検出部113は、人物検出部115から入力された人物情報、動きベクトル検出部116から入力された動きベクトル情報、位置検出部1123から入力された位置情報、人体部位検出部1124から入力された人体部位情報に基づき、検出された人物の部位、例えば、手、足、顔の位置の変動を検出する。モーション検出部113は、検出した変動に基づき、ジャンプ等の行動や、予め定めた身体の形や動きのパターンであるジェスチャを検出してもよい。モーション検出部113は、検出した行動やジェスチャを示すモーション情報を行動認識部114に出力する。
なお、モーション検出部113は、上述したモーションに限られず、その他のモーションを検出してもよいし、これらのモーションの組み合わせを検出してもよい。
Also, the motion detection unit 113 receives the person information input from the person detection unit 115, the motion vector information input from the motion vector detection unit 116, the position information input from the position detection unit 1123, and the input from the human body part detection unit 1124. Based on the human body part information thus detected, a change in the position of the detected person, for example, a hand, a foot, or a face is detected. The motion detection unit 113 may detect an action such as a jump or a gesture that is a predetermined body shape or movement pattern based on the detected fluctuation. The motion detection unit 113 outputs motion information indicating the detected behavior or gesture to the behavior recognition unit 114.
The motion detection unit 113 is not limited to the motion described above, and may detect other motions or a combination of these motions.

〔行動認識部〕
次に、行動認識部114が行う処理について説明する。
行動認識部114は、撮像部110から入力された映像データ、ユーザ情報検出部112もしくは人物検出部115から入力された検出情報、モーション検出部113から入力されたモーション情報に基づいて、検出された人物の行動を認識する。行動認識部114は、認識した行動を示す認識情報を情報DB120に記憶し、認識情報にユーザ情報検出部112から入力された検出情報を付加して認識情報としてデータ変換部130に出力する。また、行動認識部114は、撮像部110から入力された映像データをデータ変換部130に出力する。
[Behavior Recognition Department]
Next, processing performed by the action recognition unit 114 will be described.
The action recognition unit 114 is detected based on the video data input from the imaging unit 110, the detection information input from the user information detection unit 112 or the person detection unit 115, and the motion information input from the motion detection unit 113. Recognize human behavior. The behavior recognition unit 114 stores the recognition information indicating the recognized behavior in the information DB 120, adds the detection information input from the user information detection unit 112 to the recognition information, and outputs the recognition information to the data conversion unit 130. In addition, the behavior recognition unit 114 outputs the video data input from the imaging unit 110 to the data conversion unit 130.

行動認識部114は、例えば、人物が被写範囲である部屋に入室したか否か、入室した入室者が立っているか、座っているか、寝ているか、部屋のどこに位置し、どの方向を向いているか、等を判定する。また、行動認識部114は、入室者の位置と向いている方向と、室内に設置されている設置物の位置と範囲に基づいて、入室者の行動を判定してもよい。例えば、行動認識部114は、入室者がテレビジョン放送を視聴している、調理をしている、食事をしている、等の行動を判定することができる。   For example, the action recognition unit 114 determines whether or not a person has entered a room that is a subject area, whether the person entering the room is standing, sitting, sleeping, where in the room, and in what direction. It is determined whether or not. Further, the behavior recognition unit 114 may determine the behavior of the occupant based on the direction facing the occupant's position and the position and range of the installed object installed in the room. For example, the behavior recognizing unit 114 can determine a behavior such as a person watching a television broadcast, cooking, or eating.

人物識別装置11が表示部(図示せず)に接続されている場合には、行動認識部114は、判定した行動を示す認識情報を表示部に出力して、表示させるようにしてもよい。また、行動認識部114は、現在判定した行動を示す認識情報を表示部にリアルタイムに出力してもよいし、情報DB120に記憶した過去の認識情報のうち、ユーザによる操作入力に応じて指示された行動情報を出力してもよい。
また、情報表示端末装置21に、行動認識部114が判定した行動を示す認識情報が送信されることで、情報表示端末装置21の表示部にその行動が表示される。これにより、例えば、見守り者が、室内の人物の有無やその行動を把握することができる。
また、行動認識部114は、判定した行動を示す認識情報を、ネットワーク41に接続された所定のサーバー装置31に記憶してもよい。そして、情報表示端末装置21は、サーバー装置31から、任意の時点で入力された操作入力に応じてサーバー装置31から認識情報を読み取り、読みとった認識情報を表示部に出力してもよい。
例えば、行動認識部114が、見守り者が関心を有する領域として、浴室や洗濯機設置室を被写範囲に含む映像データに基づいて判定した、小児の行動が情報表示端末装置21に表示される。見守り者である保護者は、その行動を把握することで閉じ込めや溺れ事故を予防することができる。また、保護者は、調理台でのコンロやストーブのいたずらの有無を把握することで、火災を未然に防ぐことができる。
When the person identification device 11 is connected to a display unit (not shown), the behavior recognition unit 114 may output recognition information indicating the determined behavior to the display unit for display. Further, the behavior recognition unit 114 may output the recognition information indicating the currently determined behavior to the display unit in real time, or is instructed according to the operation input by the user among the past recognition information stored in the information DB 120. The action information may be output.
In addition, the recognition information indicating the action determined by the action recognition unit 114 is transmitted to the information display terminal device 21, so that the action is displayed on the display unit of the information display terminal device 21. Thereby, for example, a watcher can grasp the presence / absence of a person in the room and the behavior thereof.
Further, the behavior recognition unit 114 may store recognition information indicating the determined behavior in a predetermined server device 31 connected to the network 41. Then, the information display terminal device 21 may read the recognition information from the server device 31 in accordance with the operation input input from the server device 31 at an arbitrary time, and output the read recognition information to the display unit.
For example, the action recognition unit 114 displays the child's action, which is determined based on the video data including the bathroom or the washing machine installation room as the area that the watcher is interested in, on the information display terminal device 21. . A guardian who is a watcher can prevent confinement and drowning accidents by grasping the behavior. Moreover, the guardian can prevent a fire beforehand by grasping the presence or absence of a stove or stove mischief on the cooking table.

その他、行動認識部114は、セキュリティの監視にも応用することができる。例えば、行動認識部114は、人物識別部1122から入力された人物識別情報が未知の人物であって、その人物が所定の人物の入室ではないと判定してもよい。その場合、情報表示端末装置21において、表示部が未知の人物の入室を示す情報(警告文字や情報、警告音、未知の人物画像など)を表示することによって、見守り者は、窃盗犯、その他の不法侵入者を検出することができる。   In addition, the action recognition unit 114 can be applied to security monitoring. For example, the action recognition unit 114 may determine that the person identification information input from the person identification unit 1122 is an unknown person and that the person is not a predetermined person. In that case, the information display terminal device 21 displays information indicating that the unknown person has entered the room (warning characters and information, warning sound, unknown person image, etc.), so that the watcher can be the thief or others. Of illegal intruders can be detected.

また、行動認識部114は、予め定めたジェスチャ、予め定めた人物の行動を認識し、情報DB120に予め記憶した制御コマンドデータを参照して、認識したジェスチャや行動に対応した制御コマンドを特定してもよい。制御コマンドデータは、予め定めた人物の行動もしくはジェスチャと、制御コマンドとが対応付けて形成される。制御コマンドは、制御対象となる対象機器に対して所定の動作を行うことを指示する信号である。そして、行動認識部114は、特定した制御コマンドを、対象機器に送信する。これにより、制御コマンドで指示される対象機器の動作を制御するようにしてもよい。さらに、行動認識部114は、予め定めたジェスチャや、予め定めた人物の行動を認識し、緊急を要する状態を検出した場合は、情報表示端末装置21に対し、緊急情報を送信してもよい。これにより、在室者は、体調が悪くなった場合や怪我をした場合などの緊急を要する場合に、予め定めたジェスチャを示すことで、見守り者に対し救護を求めることが可能になる。また、前述の緊急を要する場合の行動を人物識別装置11が認識することで、在室者が意識不明の場合のように、在室者からの緊急通報操作がない場合でも、人物識別装置11が見守り者に対し救護を求めることを示す情報を提供することが可能となる。   In addition, the action recognition unit 114 recognizes a predetermined gesture and a predetermined person's action, and refers to control command data stored in advance in the information DB 120 to identify a control command corresponding to the recognized gesture or action. May be. The control command data is formed by associating a predetermined person action or gesture with a control command. The control command is a signal for instructing a target device to be controlled to perform a predetermined operation. Then, the action recognition unit 114 transmits the specified control command to the target device. Thus, the operation of the target device indicated by the control command may be controlled. Furthermore, the action recognition unit 114 may transmit emergency information to the information display terminal device 21 when it recognizes a predetermined gesture or a predetermined person's action and detects an emergency state. . Thus, the occupant can ask the watcher for help by showing a predetermined gesture when an emergency is required, such as when the patient's physical condition deteriorates or when the person is injured. Further, the person identification device 11 recognizes the behavior in the case of requiring the above-mentioned emergency, so that the person identification device 11 can be operated even when there is no emergency call operation from the room occupant as in the case where the occupant is unconscious. It is possible to provide information indicating that the watcher asks the watcher for help.

〔基本顔識別DB〕
次に、情報DB120に記憶される基本顔識別DBについて説明する。
図5は、基本顔識別DBの一構成例を示す概念図である。
図5に示す基本顔識別DBは、1人の人物(登録者ID1)の基本顔識別DBである。基本顔識別DBには、各人物について撮像部110の方向を基準とした顔の向き毎の特徴量を示すデータから形成されている。ユーザ情報検出部112は、例えば、前述の画像処理を用いて撮像部110が撮像した映像から顔の特徴量を算出し、算出した特徴量を情報DB120に記憶する。特徴量として、例えば、検出された人物の顔から特定された目、鼻、口等の器官の領域について、それらの領域間もしくは特徴点の位置関係等を示すデータが含まれる。撮像部110の撮影方向が固定されている場合であっても、撮像部110と被写体である人物の向きとの関係は、必ずしも一定しておらず、常に変化する可能性がある。そのため、これらの位置関係を表す特徴量を予め登録しておき、人物識別部1122は、人物を識別する際、登録した特徴量に基づいて位置関係による類似度を判定してもよい。これにより、人物識別装置11をいかなる場所に設置されても一定の認識精度が保たれる。
[Basic face identification DB]
Next, the basic face identification DB stored in the information DB 120 will be described.
FIG. 5 is a conceptual diagram illustrating a configuration example of the basic face identification DB.
The basic face identification DB shown in FIG. 5 is a basic face identification DB of one person (registrant ID 1). The basic face identification DB is formed from data indicating the feature amount for each face direction with respect to the direction of the imaging unit 110 for each person. For example, the user information detection unit 112 calculates the facial feature amount from the video imaged by the imaging unit 110 using the above-described image processing, and stores the calculated feature amount in the information DB 120. The feature amount includes, for example, data indicating the positional relationship between the regions or the feature points of organ regions such as eyes, nose, and mouth identified from the detected human face. Even when the shooting direction of the imaging unit 110 is fixed, the relationship between the imaging unit 110 and the orientation of the person who is the subject is not necessarily constant and may always change. Therefore, feature quantities representing these positional relationships may be registered in advance, and the person identifying unit 1122 may determine the similarity based on the positional relationships based on the registered feature amounts when identifying a person. Thereby, a fixed recognition accuracy is maintained regardless of where the person identification device 11 is installed.

図5に示す例では、人物の顔の正面から、その正面、上向き、下向き、左向き、右向き、左斜めに首をかしげた方向である左傾き、右斜めに首をかしげた方向である右傾きの各方向について撮像された映像に基づく特徴量から基本顔識別DBが形成されていることを示す。顔の向きは、これには限定されず、顔の各器官が表れる方向であれば、いかなる方向について得られた映像データから算出された特徴量が用いられてもよい。また、顔の向きは、各人物について少なくとも1つあればよく、いくつあってもよい。また、特徴量を算出するために用いる映像データは、他の撮像装置で撮像された映像データであってもよい。   In the example shown in FIG. 5, from the front of the person's face, the front, upward, downward, leftward, rightward, left tilt which is the direction where the neck is slanted to the left, and right tilt which is the direction where the neck is slanted to the right The basic face identification DB is formed from the feature amount based on the video imaged in each direction. The direction of the face is not limited to this, and a feature amount calculated from video data obtained in any direction may be used as long as each face organ appears. Moreover, the direction of the face may be at least one for each person, and may be any number. The video data used for calculating the feature amount may be video data captured by another imaging device.

なお、ユーザ情報検出部112は、上述したように、撮像部110から入力された映像データを用いて、複数の方向、位置のそれぞれについて人物の顔について算出した特徴量を体系的に情報DB120に記憶して基本顔識別DBを生成する他、情報DB120に予め生成した基本顔識別DBに記憶してもよい。また、ユーザ情報検出部112は、サーバー装置31に記憶しておいた統合顔識別DBから、設置した人物識別装置11に対応する基本顔識別DBをダウンロードしてもよい。人物識別装置11を運用開始する前に、基本顔識別DBを取得することができれば、いかなる登録方法でもよい。   As described above, the user information detection unit 112 uses the video data input from the imaging unit 110 to systematically store the feature amounts calculated for the person's face in each of a plurality of directions and positions in the information DB 120. In addition to storing and generating the basic face identification DB, the basic face identification DB generated in advance in the information DB 120 may be stored. Further, the user information detection unit 112 may download the basic face identification DB corresponding to the installed person identification device 11 from the integrated face identification DB stored in the server device 31. Any registration method may be used as long as the basic face identification DB can be acquired before the person identification device 11 starts operation.

〔設置状態に応じた顔識別DB〕
なお、図1に示すように、宅内において人物識別装置11を各部屋に固定して設置することは、室内の美観、設置のための労力、家具等の設置物の移動による撮像環境の変化を鑑みると、不都合なことがある。人物識別装置11は、必ずしも恒常的に利用されるのではなく、一時的に利用されることがある。例えば、訪問介護において、介護士が介護者宅において、介護者を直接目視で介護できない場合(例えば、清掃中)に、人物識別装置11を応用することが考えられる。例えば、図1の和室にいる在室者1の映像を人物識別装置11−2が取得し、見守り者1が、情報表示端末装置21−1が表示する認識情報、映像を確認しながら清掃をする場合などである。かかる利用状況を想定すると、人物識別装置11は簡便に設置でき、一時的な移動や、手足やその他の物体が接触することにより設置位置が変わっても問題なく利用できる方が、利用者の利便性が向上することがある。
[Face identification DB according to installation status]
As shown in FIG. 1, the installation of the person identification device 11 fixed in each room in the house means that the aesthetics of the room, the labor for installation, and the change in the imaging environment due to the movement of installation objects such as furniture. In view of this, it can be inconvenient. The person identification device 11 is not necessarily used constantly but may be used temporarily. For example, it is conceivable to apply the person identification device 11 when visiting a caregiver cannot directly care for the caregiver at the caregiver's home (for example, during cleaning). For example, the person identification device 11-2 acquires an image of the occupant 1 in the Japanese-style room in FIG. 1, and the watcher 1 performs cleaning while checking the recognition information and the image displayed on the information display terminal device 21-1. This is the case. Assuming such a usage situation, the person identification device 11 can be easily installed, and it is convenient for the user to be able to use it without any problems even if the installation position changes due to temporary movement or contact with limbs or other objects. May be improved.

これらを実現するため、前述の基本顔識別DBを利用することで、人物識別装置11がいかなる設置状態・撮影環境においても、一定の識別精度を得ることができる。しかし、人物識別装置11の設置状態、撮影環境は、様々であるため、基本顔識別DBに頼った人物の識別では識別精度に限界がある。そのため、人物識別装置の設置状況、環境、等の設置状態に応じた顔識別DBを情報DB120に記憶し、該設置状態に応じた顔識別DBを人物の識別に用いることで、識別精度をさらに向上させることができる。   In order to realize these, by using the basic face identification DB described above, the person identification device 11 can obtain a certain identification accuracy in any installation state / shooting environment. However, since the installation state and photographing environment of the person identification device 11 are various, there is a limit to the identification accuracy in identifying a person who relies on the basic face identification DB. For this reason, the face identification DB corresponding to the installation state of the person identification device, the environment, etc. is stored in the information DB 120, and the face identification DB corresponding to the installation state is used for person identification, thereby further improving the identification accuracy. Can be improved.

図6は、設置状態に応じた顔識別DBの一構成例を示す概念図である。
設置状態に応じた顔識別DBは、人物毎に基本顔識別DBと対応付けて形成されている。図6に示す例は、それぞれの登録者IDに対応付けて、左方に基本顔識別DB、右方に設置位置に応じた顔識別DBを並べて示すものである。右方に示す顔識別DBは、所定の鉛直方向の位置よりも高い位置(例えば、天井)に撮像部110が設置され、上方から斜め下方に撮像した在室者を表す映像を用いて生成した設置状態に応じた顔識別DBである。顔の向きは、それぞれ上方からの正面、少し左向き(弱左)、少し右向き(弱右)、大きく左向き(強左)、大きく右向き(強右)である。ユーザ情報検出部112は、顔の向き毎に撮影された映像から顔の特徴量を算出し、算出した特徴量を情報DB120に記憶することで、設置状態に応じた顔識別DBが形成される。また、顔の向きは、これには限定されず、顔の器官が表される方向であれば、いかなる方向について得られた映像データから算出された特徴量が用いられてもよい。また、顔の向きは、各人物について少なくとも1つあればよく、いくつあってもよい。また、特徴量を算出するために用いる映像データは、他の撮像装置で撮像された映像データであってもよい。また、右方に示す設置状態に応じた顔識別DBの特徴量は、左方に示す基本顔識別DBに基づいて生成されうる。
FIG. 6 is a conceptual diagram showing a configuration example of the face identification DB according to the installation state.
The face identification DB corresponding to the installation state is formed in association with the basic face identification DB for each person. The example shown in FIG. 6 shows the basic face identification DB on the left side and the face identification DB corresponding to the installation position side by side in association with each registrant ID. The face identification DB shown on the right side is generated by using an image representing an occupant imaged at an upper position (for example, a ceiling) higher than a predetermined vertical position (for example, the ceiling) and imaged obliquely downward from above. It is a face identification DB according to the installation state. The face orientations are front from above, slightly left (weak left), slightly right (weak right), largely left (strong left), and greatly right (strong right). The user information detection unit 112 calculates a facial feature amount from video captured for each face orientation, and stores the calculated feature amount in the information DB 120, thereby forming a face identification DB corresponding to the installation state. . Further, the face orientation is not limited to this, and a feature amount calculated from video data obtained in any direction may be used as long as it is a direction in which a facial organ is represented. Moreover, the direction of the face may be at least one for each person, and may be any number. The video data used for calculating the feature amount may be video data captured by another imaging device. Further, the feature amount of the face identification DB corresponding to the installation state shown on the right side can be generated based on the basic face identification DB shown on the left side.

ユーザ情報検出部112の人物識別部1122は、設置状態に応じた顔識別DBも参照して、撮像部110から入力された映像データが示す映像から上述したように顔の特徴量を算出する。ユーザ情報検出部112は、算出した特徴量と、情報DB120に記憶した設置状態に応じた顔識別DBを形成する人物毎の特徴量との類似性を示す指標値を算出し、算出した指標値に基づいて人物を識別する。これにより、基本顔識別DBを用いる場合よりも識別率を向上させることができる。   The person identification unit 1122 of the user information detection unit 112 also refers to the face identification DB corresponding to the installation state, and calculates the facial feature amount from the video indicated by the video data input from the imaging unit 110 as described above. The user information detection unit 112 calculates an index value indicating the similarity between the calculated feature quantity and the feature quantity for each person forming the face identification DB according to the installation state stored in the information DB 120, and the calculated index value Identify people based on Thereby, a discrimination rate can be improved rather than the case where basic face discrimination DB is used.

設置状態に応じた顔識別DBを登録する際、ユーザ情報検出部112の人物識別部1122は、基本顔識別DBを用いて人物の識別に成功した場合、算出した特徴量のうち、位置検出部1123が検出した顔の位置、向き、表情推定部1121が推定した表情、等によって指示される設置状態に応じた顔識別DBに含まれていない特徴量を特定する。人物識別部1122は、特定した特徴量を、その設置状態に応じた顔識別DBに記憶する。この処理を、以下の説明では「自動登録」と呼ぶことがある。位置検出部1123が検出した顔の位置、向きも撮像部110の設置状態を示す設置情報の一種である。また、人物識別部1122は、設置情報取得部150から入力された撮像部110の向き及び位置を示す設置情報と対応付けて特定した特徴量を、その設置状態に応じた顔識別DBに記憶してもよい。
なお、人物の識別の成否は、算出した特徴量に対応する特徴量が、基本顔識別DBまたは設置状態に応じた顔識別DBに記憶されている特徴量に存在するか否かによって判定される。算出した特徴量に対応する特徴量とは、例えば、算出した特徴量と記憶されている特徴量との類似性を示す指標値が、予め定めた指標値の閾値よりも類似性が高いことを示す特徴量である。
When registering the face identification DB according to the installation state, the person identification unit 1122 of the user information detection unit 112, when the person identification using the basic face identification DB is successful, out of the calculated feature amounts, the position detection unit A feature amount that is not included in the face identification DB according to the installation state indicated by the face position and orientation detected by 1123, the facial expression estimated by the facial expression estimation unit 1121, and the like is specified. The person identification unit 1122 stores the identified feature amount in the face identification DB corresponding to the installation state. This process may be referred to as “automatic registration” in the following description. The position and orientation of the face detected by the position detection unit 1123 are also a kind of installation information indicating the installation state of the imaging unit 110. In addition, the person identification unit 1122 stores the feature amount specified in association with the installation information indicating the orientation and position of the imaging unit 110 input from the installation information acquisition unit 150 in the face identification DB corresponding to the installation state. May be.
The success or failure of person identification is determined based on whether or not the feature quantity corresponding to the calculated feature quantity exists in the feature quantity stored in the basic face identification DB or the face identification DB corresponding to the installation state. . The feature value corresponding to the calculated feature value is, for example, that the index value indicating the similarity between the calculated feature value and the stored feature value is higher in similarity than the threshold value of a predetermined index value. This is a feature amount.

また、顔の向き、位置の他、表情が異なる特徴量を、設置位置に応じた顔識別DBに含めて登録するのは、異常な状況のもとで、表情が変化する場合でも確実に人物を識別するためである。異常な状況での表情には、例えば、検出された人物が転倒して痛みを訴える表情、泣いている表情、睡眠中の表情、等がある。
このように、撮像部110と人物との位置関係の例として、上方から見た顔の向き、位置、表情、等の設置状態に応じた特徴量から形成された設置状態に応じた顔識別DBが形成される。この設置状態に応じた顔識別DBを用いることで、設置状態に応じた顔画像に係る特徴量を用いて人物の識別が行えるため、人物識別率が向上する。
In addition to facial orientation and position, features with different facial expressions are registered and included in the face identification DB according to the installation position, even if the facial expression changes under abnormal circumstances. It is for identifying. Expressions in an abnormal situation include, for example, an expression in which a detected person falls and complains of pain, a crying expression, a sleeping expression, and the like.
As described above, as an example of the positional relationship between the imaging unit 110 and the person, the face identification DB corresponding to the installation state formed from the feature amounts corresponding to the installation state such as the orientation, position, expression, etc. of the face viewed from above. Is formed. By using the face identification DB corresponding to the installation state, the person can be identified using the feature amount related to the face image corresponding to the installation state, so that the person identification rate is improved.

なお、人物識別部1122は、記憶された特徴量の数(登録数)が予め定めた最大登録数に達した時に、特徴量の記憶を終了してもよいし、予め定めた顔の向き、位置等について全て登録された場合に特徴量の記憶を終了してもよい。また、登録された時刻から、所定の時間よりも時間が経過した場合に、記憶された特徴量は消去されてもよいし、新しい特徴量の値で更新されてもよい。   The person identifying unit 1122 may end the storage of the feature amount when the number of stored feature amounts (the number of registrations) reaches a predetermined maximum registration number, If all the positions and the like are registered, the feature amount storage may be terminated. In addition, when the time has elapsed from the registered time, a stored feature value may be deleted or updated with a new feature value.

このように、人物識別部1122は、自装置(人物識別装置11)の設置状況や環境に応じて、基本顔識別DBと設置位置に応じた顔識別DBを、人物毎に情報DB120に記憶する。これに対し、人物識別装置11を設置する設置状態毎に、様々な顔の方向や大きさ、位置の特徴量や、照度や人物の位置に応じて影などの影響により明るさが変動する等の撮影環境で撮影した映像から算出した特徴量などを全て登録して顔識別DBを形成することができる。したがって、様々な設置状態で設置される人物識別装置11の顔識別DBを全て1つの共通のデータベースに集積する場合と比較して、顔識別DBのサイズを大幅に削減できるという効果がある。これは、搭載メモリ量削減につながるため、人物識別装置11をできるだけ小さく、経済的に提供することが可能となる。また、人物識別装置11の設置状態に合わせ最適化された顔識別DBを人物の識別に用いることで、人物識別精度の低下が抑制される。   As described above, the person identification unit 1122 stores the basic face identification DB and the face identification DB according to the installation position in the information DB 120 for each person according to the installation status and environment of the own apparatus (person identification apparatus 11). . On the other hand, for each installation state in which the person identification device 11 is installed, the brightness varies due to the influence of shadows or the like according to the feature amounts of various face directions, sizes, positions, illuminance, and person positions, etc. It is possible to form the face identification DB by registering all the feature amounts calculated from the video shot in the shooting environment. Therefore, there is an effect that the size of the face identification DB can be greatly reduced as compared with the case where all the face identification DBs of the person identification devices 11 installed in various installation states are accumulated in one common database. This leads to a reduction in the amount of installed memory, so that the person identification device 11 can be provided as small and economical as possible. Further, the use of the face identification DB optimized for the installation state of the person identification device 11 for person identification suppresses a decrease in person identification accuracy.

また、人物識別部1122は、基本顔識別DBを用いて人物の識別に成功した場合に、その映像データから算出した特徴量を設置状態に応じた顔識別DBに記憶する。人物識別部1122は、次回の人物の識別より、設置状態に応じた顔識別DBに登録した特徴量を、基本顔識別DBの特徴量より優先して人物の識別処理に用いることにより、人物の識別率が向上する。また、人物識別部1122は、算出した特徴量と顔識別DBを形成する各特徴量とのマッチングを行う際、人物の識別に成功した段階で処理を打ち切ってもよい。
その場合には、人物識別の処理量を削減することができる。これにより、人物の識別率向上と処理量削減を両立することができる。なお、上述では設置状態に応じた顔識別DBに登録した特徴量が次回の人物の識別に用いられる場合を例としているが、これには限られない。所定の数の特徴量が設置状態に応じた顔識別DBに登録された段階で、次回の人物の識別処理から、設置状態に応じた顔識別DBに登録した特徴量を優先して人物識別処理に用いてもよい。
In addition, when the person identification unit 1122 succeeds in identifying a person using the basic face identification DB, the person identification unit 1122 stores the feature amount calculated from the video data in the face identification DB according to the installation state. The person identification unit 1122 uses the feature amount registered in the face identification DB corresponding to the installation state over the feature amount of the basic face identification DB in the person identification process over the next person identification. The identification rate is improved. The person identifying unit 1122 may abort the process when the person is successfully identified when matching the calculated feature quantity with each feature quantity forming the face identification DB.
In that case, the processing amount of person identification can be reduced. Thereby, it is possible to achieve both improvement of the person identification rate and reduction of the processing amount. In the above description, the feature amount registered in the face identification DB corresponding to the installation state is used as an example for the next person identification, but is not limited thereto. At a stage where a predetermined number of feature quantities are registered in the face identification DB corresponding to the installation state, the person identification process is given priority over the feature quantity registered in the face identification DB corresponding to the installation state from the next person identification process. You may use for.

〔複数人登録者の顔識別DBへの登録〕
上述では、在室者が1人の場合の基本顔識別DBと設置状態に応じた顔識別DBの登録について説明したが、在室者は1人とは限らず、複数人の場合もある。
図7は、設置状態に応じた顔識別DBの他の構成例を示す概念図である。
図7は、在室者の登録者数が複数人(n0人、n0は1よりも大きい整数)の場合の顔識別DBを示している。1行目の登録者ID1については、前述と同様である。2行目に示す2人目の登録者(登録者ID2)は、登録者ID1の顔識別DBに続けて登録者ID2の基本顔識別DBと、設置状態に応じた顔識別DBとが対応付けて登録されている。同様に3人目以降の登録者IDのそれぞれについて順次、基本顔識別DBと、設置状態に応じた顔識別DBとが対応付けて登録される。
図7に示すように、設置状態に応じた顔識別DBが、どの登録者IDの在室者についても上方と表されているは、撮像部110が天井等、床面よりも十分に高い位置に設置され、在室者の映像を見下ろすように撮影したためである。また、登録者ID毎に顔の向きが異なるのは、登録者毎に自動登録される顔の向きや位置、タイミングが様々となるためである。
[Registration in face identification DB of multiple registrants]
In the above description, the registration of the basic face identification DB when the number of people in the room is one and the face identification DB according to the installation state has been described. However, the number of people in the room is not limited to one, and there may be a plurality of people.
FIG. 7 is a conceptual diagram illustrating another configuration example of the face identification DB according to the installation state.
FIG. 7 shows the face identification DB when the number of registered occupants is plural (n0 people, where n0 is an integer larger than 1). The registrant ID1 in the first line is the same as described above. The second registrant (registrant ID 2) shown in the second row associates the face identification DB of registrant ID1 with the basic face identification DB of registrant ID2 and the face identification DB corresponding to the installation state. It is registered. Similarly, the basic face identification DB and the face identification DB corresponding to the installation state are sequentially registered in association with each of the third and subsequent registrant IDs.
As shown in FIG. 7, the face identification DB corresponding to the installation state is shown as being upward for any resident of any registrant ID, but the imaging unit 110 is sufficiently higher than the floor, such as the ceiling. This is because it was installed in the room and was taken to look down on the images of the people in the room. The reason why the face orientation differs for each registrant ID is that the face orientation, position, and timing that are automatically registered for each registrant vary.

〔処理フロー〕
次に、本実施形態に係る人物識別処理について説明する。人物識別処理には、認識情報伝送処理と顔識別DB登録処理が含まれる。
図8は、本実施形態に係る人物識別処理を示すフローチャートである。
[Processing flow]
Next, the person identification process according to the present embodiment will be described. The person identification processing includes recognition information transmission processing and face identification DB registration processing.
FIG. 8 is a flowchart showing person identification processing according to the present embodiment.

(ステップS101)ユーザ情報検出部112は、上述したように、人物及びその向き毎に、撮像部110が撮像した映像から算出した特徴量から形成される基本顔識別DBを情報DB120に記録する。その後、ステップS102に進む。
(ステップS102)撮像部110は、映像を撮影し、映像解析部111は、撮像部110から現在の映像を表す映像データと、情報DB120から過去の映像を表す映像データを取得する。その後、ステップS103に進む。
(Step S101) As described above, the user information detection unit 112 records, in the information DB 120, the basic face identification DB formed from the feature amount calculated from the video captured by the imaging unit 110 for each person and their orientation. Thereafter, the process proceeds to step S102.
(Step S <b> 102) The imaging unit 110 captures a video, and the video analysis unit 111 acquires video data representing a current video from the imaging unit 110 and video data representing a past video from the information DB 120. Thereafter, the process proceeds to step S103.

(ステップS103)動きベクトル検出部116は、撮像部110、情報DB120から取得した映像データが示す時刻の異なるフレーム映像間で、画素値に変化があった領域を動いた領域として検出し、検出した領域の移動量を算出する。動きベクトル検出部116は、算出した移動量ならびに移動方向(移動ベクトル)、動いた領域の重心座標を示す動きベクトル情報を人物検出部115及びモーション検出部113に出力する。また、動きベクトル検出部116は現在のフレーム映像を示す映像信号を情報DB120に記憶する。
人物検出部115は、撮像部110から取得された映像データと動きベクトル検出部116から入力された動きベクトルを用いて、映像データが表す映像から人物の画像を表す領域を検出する。人物検出部115は、検出した人物の顔に関する情報を人物情報として、ユーザ情報検出部112及びモーション検出部113に出力する。
なお、人物検出部115が行う処理が動きベクトル検出部116が行う処理よりも先に行われてもよいし、両処理が同時に行われてもよい。その後、ステップS104に進む。
(Step S103) The motion vector detection unit 116 detects and detects a region where the pixel value has changed between the frame images having different times indicated by the image data acquired from the imaging unit 110 and the information DB 120 as a moved region. The amount of movement of the area is calculated. The motion vector detection unit 116 outputs motion vector information indicating the calculated movement amount, movement direction (movement vector), and barycentric coordinates of the moved area to the person detection unit 115 and the motion detection unit 113. In addition, the motion vector detection unit 116 stores a video signal indicating the current frame video in the information DB 120.
The person detection unit 115 uses the video data acquired from the imaging unit 110 and the motion vector input from the motion vector detection unit 116 to detect a region representing a person image from the video represented by the video data. The person detection unit 115 outputs information about the detected human face to the user information detection unit 112 and the motion detection unit 113 as person information.
Note that the process performed by the person detection unit 115 may be performed before the process performed by the motion vector detection unit 116, or both processes may be performed simultaneously. Thereafter, the process proceeds to step S104.

(ステップS104)ユーザ情報検出部112は、撮像部110から入力された映像データと、人物検出部115が生成した人物情報とに基づき、情報DB120に記憶した情報DBのデータを参照して、その人物の状態を検出し、検出した状態を示す検出情報を生成する。例えば、ユーザ情報検出部112は、その人物の属性、表情を推定し、それぞれ属性情報、表情情報を生成する。また、ユーザ情報検出部112は、その人物の位置を示す位置情報を生成する。また、ユーザ情報検出部112は、撮像部110から入力された映像データと、人物検出部115が生成した人物情報とに基づき、情報DB120に記憶した情報DBのデータを参照して、その人物の人体の部位を検出し、検出した部位毎の位置や大きさを示す人体部位情報を生成する。また、ユーザ情報検出部112は、情報DB120に記憶した顔識別DB(基本顔識別DBと、情報DB120に形成されている場合は設置状態に応じた顔識別DB)を参照して入力された映像データが示す人物が登録者のだれであるかを識別し、識別した人物を示す人物識別情報を生成する。ユーザ情報検出部112は、これらの生成した情報を検出情報として行動認識部114に出力する。その後、ステップS105に進む。 (Step S104) The user information detection unit 112 refers to the data in the information DB stored in the information DB 120 based on the video data input from the imaging unit 110 and the person information generated by the person detection unit 115. A person's state is detected, and detection information indicating the detected state is generated. For example, the user information detection unit 112 estimates the attribute and facial expression of the person, and generates attribute information and facial expression information, respectively. Further, the user information detection unit 112 generates position information indicating the position of the person. Further, the user information detection unit 112 refers to the data in the information DB stored in the information DB 120 based on the video data input from the imaging unit 110 and the person information generated by the person detection unit 115, and stores the person's information. A human body part is detected, and human body part information indicating the position and size of each detected part is generated. In addition, the user information detection unit 112 inputs an image that is input with reference to the face identification DB (the basic face identification DB and the face identification DB according to the installation state in the information DB 120) stored in the information DB 120. The person indicated by the data is identified as the registrant, and person identification information indicating the identified person is generated. The user information detection unit 112 outputs the generated information to the action recognition unit 114 as detection information. Thereafter, the process proceeds to step S105.

(ステップS105)モーション検出部113は、撮像部110から入力される映像データ、人物検出部115から入力される人物情報、及び動きベクトル検出部116から入力された動きベクトル情報に基づき、検出された人物の動作を検出し、検出した動作を示すモーション情報を行動認識部114に出力する。その後、ステップS106に進む。
(ステップS106)行動認識部114は、撮像部110から入力された映像データ、ユーザ情報検出部から入力された検出情報、モーション検出部113から入力されたモーション情報に基づいて、検出された人物の行動に関する行動情報を認識する。行動認識部114は、認識した行動情報と入力された検出情報を認識情報としてデータ変換部130に出力する。その後、ステップS107に進む。
(ステップ107)ユーザ情報検出部112の人物識別部1122は、識別した人物と同じ人物を示す登録者IDに対応付けられた顔識別DBを情報DB120から検索し、検索した顔識別DBから設置状態に応じた顔識別DBを読み出す。次に、ステップS108に進む。
(Step S105) The motion detection unit 113 is detected based on the video data input from the imaging unit 110, the person information input from the person detection unit 115, and the motion vector information input from the motion vector detection unit 116. The motion of the person is detected and motion information indicating the detected motion is output to the action recognition unit 114. Thereafter, the process proceeds to step S106.
(Step S106) The action recognition unit 114 detects the detected person based on the video data input from the imaging unit 110, the detection information input from the user information detection unit, and the motion information input from the motion detection unit 113. Recognize behavior information related to behavior. The behavior recognition unit 114 outputs the recognized behavior information and the input detection information to the data conversion unit 130 as recognition information. Thereafter, the process proceeds to step S107.
(Step 107) The person identification unit 1122 of the user information detection unit 112 searches the information DB 120 for the face identification DB associated with the registrant ID indicating the same person as the identified person, and sets the installation status from the searched face identification DB. The face identification DB corresponding to is read. Next, the process proceeds to step S108.

(ステップ108)人物識別部1122は、人物の識別のために顔の特徴量を算出し、人物識別に成功した顔の特徴量に対応する特徴量を、ステップS107で読み出した設置状態に応じた顔識別DBにおいて特定する。人物識別部1122は、位置検出部1123が算出した顔の向き、位置が、特定した特徴量に対応する顔の向き、位置と照合し、それぞれ対応するか否かを判定する。対応するとは、一致する場合と、予め定めた範囲内にある場合とを含む。対応すると判定された場合(ステップS108 NO)、ステップS110に進み、対応していないと判定された場合(ステップS108 YES)、ステップS109に進む。 (Step 108) The person identification unit 1122 calculates a facial feature quantity for identifying a person, and the feature quantity corresponding to the facial feature quantity that has been successfully identified in accordance with the installation state read in step S107. It is specified in the face identification DB. The person identification unit 1122 compares the face direction and position calculated by the position detection unit 1123 with the face direction and position corresponding to the specified feature amount, and determines whether or not each corresponds. “Corresponding” includes the case of matching and the case of being in a predetermined range. When it is determined that it corresponds (NO in step S108), the process proceeds to step S110, and when it is determined that it does not correspond (YES in step S108), the process proceeds to step S109.

(ステップS109)人物識別部1122は、識別に成功した顔の特徴量が、ステップS107で検索した登録者IDの設置状態に応じた顔識別DB内に登録されていないと判定された場合、その特徴量を設置状態に応じた顔識別DBに新たに登録する。その後、ステップS110に進む。 (Step S109) When it is determined that the feature amount of the face that has been successfully identified is not registered in the face identification DB corresponding to the installation state of the registrant ID searched in Step S107, The feature amount is newly registered in the face identification DB corresponding to the installation state. Then, it progresses to step S110.

(ステップS110)人物識別部1122は、上述したステップS103−S108において生成した検出情報、設置位置に応じた顔識別DB(登録された顔の特徴量を含む)を情報DB120に保存する。これらの情報は、繰り返されるステップS103−S108において使用されることがある。その後、ステップS111に進む。 (Step S110) The person identification unit 1122 stores the detection information generated in steps S103 to S108 described above and a face identification DB (including registered facial feature amounts) according to the installation position in the information DB 120. These pieces of information may be used in repeated steps S103-S108. Then, it progresses to step S111.

(ステップS111)データ変換部130は、映像解析部111から入力された認識情報を伝送可能な単位のブロックデータに変換し、変換したブロックデータを伝送制御部140に出力する。ブロックデータはバイナリ形式のデータフォーマットでもよいし、アスキー形式のテキストデータであってもよい。そして、ステップS112に進む。
(ステップS112)伝送制御部140は、データ変換部130から入力されたブロックデータを、ネットワーク41を介して情報表示端末装置21に送信する。伝送制御部140が現在の映像データから検出された認識情報の全てを伝送し終えた後、ステップS113に進む。
(Step S <b> 111) The data conversion unit 130 converts the recognition information input from the video analysis unit 111 into block data in units that can be transmitted, and outputs the converted block data to the transmission control unit 140. The block data may be a binary data format or ASCII text data. Then, the process proceeds to step S112.
(Step S <b> 112) The transmission control unit 140 transmits the block data input from the data conversion unit 130 to the information display terminal device 21 via the network 41. After the transmission control unit 140 finishes transmitting all the recognition information detected from the current video data, the process proceeds to step S113.

(ステップS113)人物識別装置11は、本処理を終了するか否かを判定する。例えば、電源OFF、見守り終了、等が操作入力に応じて指示された場合、人物識別装置11は、本処理を終了すると判定し、指示されない場合、本処理を継続すると判定する。継続すると判定された場合(ステップS113 NO)、ステップS102に進み、次の時刻の映像データを取得する。終了すると判定された場合(ステップS113 YES)、本処理を終了する。   (Step S113) The person identification device 11 determines whether or not to end this process. For example, when an instruction to turn off the power, end of watching, or the like is instructed in response to an operation input, the person identification device 11 determines to end the process, and determines to continue the process if not instructed. If it is determined to continue (NO in step S113), the process proceeds to step S102, and video data at the next time is acquired. If it is determined to end (YES in step S113), the process ends.

なお、ステップS104において、ユーザ情報検出部112の人物識別部1122は、上述したように人物検出部115で検出された領域の映像から特徴量を算出し、情報DB120に記憶された人物毎の基本顔識別DBに含まれる特徴量のそれぞれ、及び設置状態に対応した顔識別DB(形成されている場合)に含まれる特徴量のそれぞれと照合する。
人物識別部1122は、算出した特徴量とこれら顔識別DBに含まれる特徴量との類似度を示す指標値を算出し、算出した指標値が最も小さい特徴量を対応する特徴量として特定する。人物識別部1122は、特定した特徴量が予め定めた特徴量の最低値よりも低い特徴量が発見されたとき、識別に成功したと判定し、発見できなかったとき、識別に失敗したと判定してもよい。人物識別部1122は、特定した特徴量を含む顔識別DBに対応する登録者IDを特定することにより、人物を識別する。
また、ステップS108における設置位置に応じた顔識別DB内に登録されている顔の特徴量と対応するか否かの判定には、顔の位置や向きの他、顔の大きさや撮影映像の明るさ、顔の色合い、解像度など、異なる撮影状況や環境の要素が考慮されてもよい。
In step S104, the person identification unit 1122 of the user information detection unit 112 calculates the feature amount from the video of the area detected by the person detection unit 115 as described above, and the basic unit for each person stored in the information DB 120. Each of the feature quantities included in the face identification DB and each of the feature quantities included in the face identification DB (if formed) corresponding to the installation state are collated.
The person identifying unit 1122 calculates an index value indicating the degree of similarity between the calculated feature quantity and the feature quantity included in the face identification DB, and specifies the feature quantity having the smallest calculated index value as the corresponding feature quantity. The person identifying unit 1122 determines that the identification has succeeded when a feature quantity whose specified feature quantity is lower than a predetermined minimum feature value is found, and determines that the identification has failed when the feature quantity has not been found. May be. The person identification unit 1122 identifies a person by identifying a registrant ID corresponding to the face identification DB including the identified feature amount.
In addition, in step S108, in determining whether or not it corresponds to the facial feature amount registered in the face identification DB according to the installation position, in addition to the position and orientation of the face, the size of the face and the brightness of the captured video are included. In addition, different shooting conditions and environmental factors such as facial color and resolution may be considered.

以上、説明したように、本実施形態に係る人物識別装置11によれば、予め登録した基本顔識別DBを備え、識別した人物の状態に対応した特徴量から形成される設置状態に応じた顔識別DBを人物識別装置に記憶し、撮像された映像から算出した特徴量に基づいて、基本顔識別DB及び設置状態に応じた顔識別DBを参照して人物を識別する。これにより、人物識別装置11の設置位置や撮影環境が使用の都度、変わる場合でも顔識別精度の低下を抑制することができるので、撮像装置の設置や利用者の認証方法との利便性と両立することができる。また、人物識別装置11は、人物の識別において用いられる、設置状態に応じた顔識別DBが、人物の識別に最小限かつ最適化されるので、その情報量を減少することができる。さらに、顔識別DBの情報量が減少することから、検出した人物の顔の特徴量と対応するか否かを判定するための処理量が削減されるため、処理速度が向上するという効果がある。処理量を削減することにより、より経済的(安価)なプロセッサの導入や消費電力の低下に貢献することが可能である。   As described above, according to the person identification device 11 according to the present embodiment, the face according to the installation state, which includes the basic face identification DB registered in advance and is formed from the feature amount corresponding to the state of the identified person. The identification DB is stored in the person identification device, and the person is identified with reference to the basic face identification DB and the face identification DB according to the installation state based on the feature amount calculated from the captured image. Accordingly, even when the installation position and the shooting environment of the person identification device 11 change each time it is used, it is possible to suppress a decrease in face identification accuracy, so that compatibility with the installation of the imaging device and the user authentication method is compatible. can do. Further, the person identification device 11 can reduce the amount of information because the face identification DB corresponding to the installation state used for person identification is minimized and optimized for person identification. Furthermore, since the amount of information in the face identification DB is reduced, the amount of processing for determining whether or not it corresponds to the feature amount of the detected person's face is reduced, so that the processing speed is improved. . By reducing the amount of processing, it is possible to contribute to the introduction of a more economical (inexpensive) processor and the reduction in power consumption.

(第2の実施形態)
次に、本発明の第2の実施形態に係る人物識別システム1a(図示せず)について説明する。上述した実施形態と同一の構成については、同一の符号を付して説明を援用する。
人物識別システム1aは、人物識別システム1(図2)において、人物識別装置11に代えて人物識別装置11aを備え、サーバー装置31は、次に説明する統合顔識別DBを記憶している。
(Second Embodiment)
Next, a person identification system 1a (not shown) according to the second embodiment of the present invention will be described. About the same structure as embodiment mentioned above, the same code | symbol is attached | subjected and description is used.
The person identification system 1a includes a person identification apparatus 11a in place of the person identification apparatus 11 in the person identification system 1 (FIG. 2), and the server apparatus 31 stores an integrated face identification DB described below.

〔統合顔識別DB〕
図9は、本実施形態に係る統合顔識別DBの一構成例を示す概念図である。
本実施形態に係る統合顔識別DBも、図2に示す統合顔識別DBと同様に登録者IDと対応付けた基本顔識別DBと、設置状態に応じた顔識別DBの組を含んで形成される。但し、図9に示す設置状態に応じた顔識別DBは、個々の人物識別装置11aの設置状態に応じた顔識別DBを含んで形成される。個々の人物識別装置11aには、カメラIDが割り当てられ、それぞれの人物識別装置11aの設置状態に応じた顔識別DBは、そのカメラIDと対応付けられている。
カメラIDは、それぞれの人物識別装置11aに接続された撮像部110の識別情報である。なお、以下の説明では、それぞれの人物識別装置11aの設置状態に応じた顔識別DBを個別顔識別DBと呼ぶことがある。また、個別顔識別DBから形成される設置状態に応じた顔識別DBを全体顔識別DBと呼ぶことがある。図9に示す全体顔識別DBは、それぞれのカメラIDと対応付けられた個別顔識別DBを含む点で、図7に示す設置位置に応じた顔識別DBとは異なる。
[Integrated face identification DB]
FIG. 9 is a conceptual diagram illustrating a configuration example of the integrated face identification DB according to the present embodiment.
Similarly to the integrated face identification DB shown in FIG. 2, the integrated face identification DB according to the present embodiment is formed including a set of a basic face identification DB associated with a registrant ID and a face identification DB corresponding to the installation state. The However, the face identification DB corresponding to the installation state shown in FIG. 9 is formed including the face identification DB corresponding to the installation state of each person identification device 11a. A camera ID is assigned to each person identification device 11a, and a face identification DB corresponding to the installation state of each person identification device 11a is associated with the camera ID.
The camera ID is identification information of the imaging unit 110 connected to each person identification device 11a. In the following description, the face identification DB corresponding to the installation state of each person identification device 11a may be referred to as an individual face identification DB. Further, the face identification DB corresponding to the installation state formed from the individual face identification DB may be referred to as an entire face identification DB. The whole face identification DB shown in FIG. 9 is different from the face identification DB corresponding to the installation position shown in FIG. 7 in that it includes an individual face identification DB associated with each camera ID.

図9に示す例では、統合顔識別DBは、n1人の登録者の基本顔識別DBと全体顔識別DBを含む。登録者ID1、ID2にそれぞれ対応する全体顔識別DBは、それぞれカメラID1、ID2、ID3にそれぞれ対応する個別顔識別DBを含んで形成される。登録者ID3に対応する全体顔識別DBは、カメラID4に対応する個別顔識別DBを含んで構成される。登録者IDn1に対応する全体顔識別DBは、カメラID10、11からxまでのそれぞれについて個別顔識別DBを含んで構成される。個別顔識別DB間で、同一のカメラIDは、同一の撮像部110を意味し、撮像部110の位置、向きが固定されていれば、その位置、向きが同一であることを意味する。例えば、登録者ID1、ID2の個別顔識別DBには、その向きが上方である共通のカメラID1を用いて取得した映像に基づいて算出された特徴量を含む。また、カメラIDが同一でも、登録者IDが異なる場合は、顔の特徴量を算出するために用いられる映像の撮影タイミングや顔の位置などが異なるため、顔の向きが一致するとは限らない。このように、統合顔識別DBは、登録者ID毎に、基本顔識別DBと、カメラID毎の個別顔識別DBを含んで形成される全体顔識別DBとが対応付けて形成される。カメラIDの数は、人物識別が必要となる登録者に対応する人物識別装置11aに接続された撮像部110の数であればよい。
また、同一のカメラIDで指定される撮像部110であっても、設置位置や向きが異なる場合は、それぞれ個別顔識別DBも異なることになる。そのため、同一の登録者ID及び同一のカメラIDについて、設置位置や向き等の設置状態がそれぞれ異なる個別顔識別DBが含まれるように全体顔識別データが形成されてもよい。
In the example shown in FIG. 9, the integrated face identification DB includes a basic face identification DB and an entire face identification DB of n1 registrants. The whole face identification DB corresponding to each of the registrant IDs 1 and ID2 is formed including individual face identification DBs corresponding to the camera ID1, ID2 and ID3, respectively. The entire face identification DB corresponding to the registrant ID3 includes an individual face identification DB corresponding to the camera ID4. The entire face identification DB corresponding to the registrant ID n1 includes the individual face identification DB for each of the camera IDs 10 and 11 to x. The same camera ID between the individual face identification DBs means the same imaging unit 110, and if the position and orientation of the imaging unit 110 are fixed, it means that the position and orientation are the same. For example, the individual face identification DBs of the registrant IDs 1 and 2 include feature amounts calculated based on the video acquired using the common camera ID 1 whose direction is upward. Even if the camera ID is the same, but the registrant ID is different, the shooting timing of the video used to calculate the facial feature amount, the face position, and the like are different, so the face orientations do not always match. As described above, the integrated face identification DB is formed by associating the basic face identification DB and the entire face identification DB formed including the individual face identification DB for each camera ID for each registrant ID. The number of camera IDs should just be the number of the imaging parts 110 connected to the person identification device 11a corresponding to the registrant who needs person identification.
Even in the case of the imaging units 110 designated by the same camera ID, the individual face identification DBs are different when the installation position and orientation are different. Therefore, for the same registrant ID and the same camera ID, the entire face identification data may be formed so that individual face identification DBs having different installation states such as installation positions and orientations are included.

以上に説明したように、登録者ID毎に、基本顔識別DBと、カメラID毎の個別顔識別DBから形成される全体顔識別DBとの組を含んで、統合顔識別DBが形成される。他方、人物識別装置11aは、情報DB120において更新され、設置状態に応じた顔識別DBを、識別した人物の登録者IDならびに撮像部110のカメラIDを対応付けてサーバー装置31に送信する顔識別DB処理部121a(後述)を備える。なお、基本顔識別DBと設置状態に応じた顔識別DBの総称に限らず、これらの組も、単に顔識別DBと呼ぶことがある。   As described above, an integrated face identification DB is formed for each registrant ID including a set of a basic face identification DB and an entire face identification DB formed from the individual face identification DB for each camera ID. . On the other hand, the person identification device 11a is updated in the information DB 120, and the face identification DB corresponding to the installation state is transmitted to the server device 31 in association with the registrant ID of the identified person and the camera ID of the imaging unit 110. A DB processing unit 121a (described later) is provided. In addition, not only the general name of the basic face identification DB and the face identification DB according to the installation state, but also a set of these may be simply called a face identification DB.

サーバー装置31は、人物識別装置11aから受信した登録者IDと基本顔識別DBを対応付け、さらにカメラIDと設置状態に応じた顔識別DB(個別顔識別DB)を記憶することにより統合顔識別DBを形成する。そして、顔識別DB処理部121aは、サーバー装置31に記憶された統合顔識別DBから、自装置に対応する顔識別DBをダウンロードし、ダウンロードした顔識別DBを情報DB120に記憶する。そのため、人物識別装置11aや撮像部110を一時的に取り外す場合や移設する場合、故障等により交換、修理する場合などにおいても、迅速に自装置にとり最適化された顔識別DBを取得することにより初期化することができる。取得した顔識別DBを人物の識別処理に用いることにより、人物の識別率低下を抑制し、かつ利便性が向上することが可能になる。   The server device 31 associates the registrant ID received from the person identification device 11a with the basic face identification DB, and further stores the face identification DB (individual face identification DB) corresponding to the camera ID and the installation state, thereby integrating face identification. DB is formed. Then, the face identification DB processing unit 121a downloads the face identification DB corresponding to the own device from the integrated face identification DB stored in the server device 31, and stores the downloaded face identification DB in the information DB 120. Therefore, even when the person identification device 11a or the imaging unit 110 is temporarily removed or moved, or when it is replaced or repaired due to a failure or the like, by quickly acquiring the face identification DB optimized for the own device, It can be initialized. By using the acquired face identification DB for the person identification process, it is possible to suppress a decrease in the person identification rate and improve convenience.

〔顔識別DB情報〕
次に、サーバー装置31に記憶される顔識別DB情報について説明する。顔識別DB情報は、人物識別装置11aに対応する顔識別DBを形成する顔識別DBを検索する際に、統合顔識別DBに含まれる個々の顔識別DBにアクセスするための管理情報である。
[Face identification DB information]
Next, the face identification DB information stored in the server device 31 will be described. The face identification DB information is management information for accessing each face identification DB included in the integrated face identification DB when searching the face identification DB that forms the face identification DB corresponding to the person identification device 11a.

図10は、本実施形態に係る顔識別DB情報の一構成例を示す概念図である。
図10の左欄は、顔識別DB情報の先頭から格納されるデータの順序と内容を示す。格納される情報は、いずれもバイナリ形式のデータである。格納する各情報(以下、フィールド)には、先頭から順に登録者エントリ数、1人目の登録者(0)の顔識別DB情報、2人目の登録者(1)の顔識別DB情報の順に記録され、登録者エントリ数(n+1人)分の情報が記録される。また、各行について、フィールド名、サイズ、内容は、それぞれデータの名称、そのデータの情報量(単位:Byte)、内容は、そのデータが表す事物を示す。
FIG. 10 is a conceptual diagram illustrating a configuration example of face identification DB information according to the present embodiment.
The left column of FIG. 10 shows the order and contents of data stored from the top of the face identification DB information. The stored information is all binary format data. In each stored information (hereinafter referred to as a field), the number of registrant entries, the face identification DB information of the first registrant (0), and the face identification DB information of the second registrant (1) are recorded in order from the top. Then, information for the number of registrant entries (n + 1) is recorded. For each row, the field name, size, and content indicate the name of the data, the information amount (unit: Byte) of the data, and the content indicates the thing represented by the data.

(登録者エントリ数)
図10の左欄第2行のフィールドに格納された登録者エントリ数は、統合顔識別DBに登録された顔識別DBのエントリ数(登録者数を表す)を示す。エントリ数の記録領域は1Byteの固定長であり、0から255までのいずれかの値が格納される。
(登録者ID)
1人目の登録者エントリの第1行のフィールドに格納された登録者IDは、登録者毎にユニーク(一意)に割り当てたIDを示す。この登録者IDによって人物が区別される。
登録者IDの記録領域は1Byteの固定長であり、0から255までのいずれかの値が格納される。
(オフセットエントリ数)
1人目の登録者エントリの第2行のフィールドに格納されたオフセットエントリ数は、後述する顔識別DB情報オフセットのエントリ数である。オフセットエントリ数の記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。図10に示す例では、オフセットエントリ数は、m0+1個である。
(Number of registrant entries)
The number of registrant entries stored in the second column field in the left column of FIG. 10 indicates the number of entries in the face identification DB registered in the integrated face identification DB (representing the number of registrants). The recording area for the number of entries has a fixed length of 1 byte, and any value from 0 to 255 is stored.
(Registrant ID)
The registrant ID stored in the first row field of the first registrant entry indicates an ID uniquely assigned to each registrant. A person is distinguished by this registrant ID.
The recording area of the registrant ID has a fixed length of 1 byte, and any value from 0 to 255 is stored.
(Number of offset entries)
The number of offset entries stored in the second row field of the first registrant entry is the number of entries in the face identification DB information offset described later. The storage area for the number of offset entries has a fixed length of 1 byte, and stores any value from 0 to 255. In the example shown in FIG. 10, the number of offset entries is m0 + 1.

(顔識別DB情報オフセット)
1人目の登録者エントリの第3行のフィールドに格納された顔識別DB情報オフセットは、登録者IDの顔識別DBにアクセスするための情報や付加情報が格納されている各顔識別DB情報へアクセスするための情報である。顔識別DB情報オフセットのエントリである各オフセット情報は、顔識別DB情報の先頭(登録者エントリ数フィールドの先頭)からアクセス先の各顔識別DB情報へのオフセット値が格納され、登録者IDに基づきアクセス先の各顔識別DB情報を特定することが可能になる。顔識別DB情報オフセットにおいて、オフセットを算出する基準の位置は、顔識別DB情報の先頭に限定されるものではなく、顔識別DB情報の末尾など予め定めた基準位置であれば、いかなる位置であってもよい。顔識別DB情報オフセットの記憶領域は、1エントリ当たり2Byteであり、オフセットエントリ数分の領域からなる可変長領域である。1エントリには、0から65535までのいずれかの値が格納される。
(Face identification DB information offset)
The face identification DB information offset stored in the field of the third row of the first registrant entry is transferred to each face identification DB information storing information for accessing the face identification DB of the registrant ID and additional information. This is information for access. Each offset information that is an entry of the face identification DB information offset stores an offset value from the head of the face identification DB information (the head of the registrant entry number field) to each face identification DB information of the access destination, and the registrant ID. Based on this, it becomes possible to specify each face identification DB information of the access destination. In the face identification DB information offset, the reference position for calculating the offset is not limited to the top of the face identification DB information, and any position can be used as long as it is a predetermined reference position such as the end of the face identification DB information. May be. The face identification DB information offset storage area is 2 bytes per entry, and is a variable-length area composed of areas corresponding to the number of offset entries. One entry stores any value from 0 to 65535.

図10の右欄は、それぞれのオフセット情報で指定される登録者ID毎の顔識別DBにアクセスするための情報や付加情報が格納されている各顔識別データ管理情報にアクセスするための情報を示す。
(カメラID)
オフセット情報が指している第1行のフィールドに格納されたカメラIDは、人物識別装置又は撮像部110にユニークに割り当てられた固有のIDである。例えば、カメラIDが0とは基本顔識別DBに関する情報であることを示し、カメラIDが1以上の値とは、設置状態に応じた顔識別DBに関する情報であることを示す。カメラIDの記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。
The right column in FIG. 10 shows information for accessing the face identification DB for each registrant ID specified by each offset information and information for accessing each face identification data management information in which additional information is stored. Show.
(Camera ID)
The camera ID stored in the first row field pointed to by the offset information is a unique ID uniquely assigned to the person identification device or the imaging unit 110. For example, a camera ID of 0 indicates information related to the basic face identification DB, and a camera ID of 1 or more indicates information related to the face identification DB corresponding to the installation state. The storage area of the camera ID has a fixed length of 1 byte and stores any value from 0 to 255.

(付加情報エントリ数)
オフセット情報が指している第2行のフィールドに格納された付加情報エントリ数は、顔識別DBにアクセスするための付加情報である後述する顔識別データ管理情報のエントリ数である。付加情報エントリ数の記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。
(顔識別データ付加情報)
オフセット情報が指している第3行のフィールドに格納された顔識別データ付加情報は、個々の顔識別DBに付加される付加情報である顔識別データ管理情報である。顔識別データ付加情報の記憶領域は、1エントリ当たり26Byteであり、付加情報エントリ数分の領域からなる可変長領域である。
(Number of additional information entries)
The number of additional information entries stored in the field of the second row pointed to by the offset information is the number of entries of face identification data management information to be described later, which is additional information for accessing the face identification DB. The storage area for the number of additional information entries has a fixed length of 1 byte, and stores any value from 0 to 255.
(Face identification data additional information)
The face identification data additional information stored in the field of the third row pointed to by the offset information is face identification data management information which is additional information added to each face identification DB. The storage area for the face identification data additional information is 26 bytes per entry, and is a variable-length area composed of areas corresponding to the number of additional information entries.

〔顔識別データ管理情報〕
次に、顔識別データ管理情報の一例について説明する。
図11は、顔識別データ管理情報の一例を示す図である。
また、図12は、顔の向き、カメラの向き、撮影環境の例を示す図である。
顔識別データ管理情報は、顔の向き、顔位置x、y、顔サイズ横、顔サイズ縦、顔の大きさ横、顔の大きさ縦、顔との距離、顔の明るさ、カメラの向き、カメラ位置、撮影環境、顔識別データアドレス、及び顔識別データサイズを含んで形成される。
[Face identification data management information]
Next, an example of face identification data management information will be described.
FIG. 11 is a diagram illustrating an example of face identification data management information.
FIG. 12 is a diagram illustrating an example of face orientation, camera orientation, and shooting environment.
The face identification data management information includes face orientation, face position x, y, face size horizontal, face size vertical, face size horizontal, face size vertical, face distance, face brightness, camera orientation , Camera position, shooting environment, face identification data address, and face identification data size.

(顔の向き)
第2行のフィールドに格納された顔の向きは、人物識別装置11aの撮像部110であるカメラに対する人物の顔の向きを表すIDである。顔の向きの記憶領域は、1Byteの固定長であり、0から255までの値が格納される。格納されるIDは、図12(a)に示すIDのいずれかである。例えば、IDが0とは正面、IDが1とは右向きを示す。
なお、顔の向きの種類はこれに限定されるものではなく、カメラと顔の関係を表すものであればどのようなものであってもよい。
(Face orientation)
The face orientation stored in the field of the second row is an ID representing the face orientation of the person relative to the camera that is the imaging unit 110 of the person identification device 11a. The face orientation storage area has a fixed length of 1 byte, and stores values from 0 to 255. The stored ID is one of the IDs shown in FIG. For example, an ID of 0 indicates the front, and an ID of 1 indicates the right direction.
Note that the type of face orientation is not limited to this, and any type may be used as long as it represents the relationship between the camera and the face.

(顔位置x)
第3行のフィールドに格納された顔位置xは、撮像部110から入力された映像データ(撮影画像)から算出された顔の位置を示す水平方向の座標(x座標)である。顔位置xの記憶領域は、2Byteの固定長であり、0から65535までの値が格納される。
(顔位置y)
第4行のフィールドに格納された顔位置yは、撮像部110から入力された映像データ(撮影画像)から算出された顔の位置を示す垂直方向の座標(y座標)である。顔位置yの記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。
(Face position x)
The face position x stored in the field of the third row is a horizontal coordinate (x coordinate) indicating the position of the face calculated from the video data (captured image) input from the imaging unit 110. The storage area of the face position x has a fixed length of 2 bytes and stores values from 0 to 65535.
(Face position y)
The face position y stored in the field of the fourth row is a vertical coordinate (y coordinate) indicating the face position calculated from the video data (captured image) input from the imaging unit 110. The storage area of the face position y has a fixed length of 2 bytes and stores any value from 0 to 65535.

(顔サイズ横)
第5行のフィールドに格納された顔サイズ横は、撮像部110から入力された映像データ(撮影画像)における顔領域の水平方向(横方向)の大きさ(幅)をピクセル数で表した値である。顔サイズ横の記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。
(顔サイズ縦)
第6行のフィールドに格納された顔サイズ縦は、撮像部110から入力された映像データ(撮影画像)における顔領域の垂直方向(縦方向)の大きさ(高さ)をピクセル数で表したものである。顔サイズ縦の記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。
(Next to face size)
The face size horizontal stored in the field of the fifth row is a value representing the size (width) of the face area in the horizontal direction (horizontal direction) in the video data (captured image) input from the imaging unit 110 in the number of pixels. It is. The storage area next to the face size has a fixed length of 2 bytes and stores any value from 0 to 65535.
(Face size length)
The face size length stored in the field of the sixth row represents the size (height) of the face area in the vertical direction (vertical direction) in the video data (captured image) input from the imaging unit 110 in the number of pixels. Is. The face size vertical storage area has a fixed length of 2 bytes and stores any value from 0 to 65535.

(顔の大きさ横)
第7行のフィールドに格納された顔の大きさ横は、撮像部110から入力された映像データ(撮影画像)が表す人物の顔の水平方向(横方向)の大きさ(幅)を表す値(例えば、単位はcm)である。顔の大きさ横の記憶領域は、1Byte固定長であり、0から255までのいずれかの値が格納される。
(顔の大きさ縦)
第8行のフィールドに格納された顔の大きさ縦は、撮像部110から入力された映像データ(撮影画像)が表す人物の顔の垂直方向(縦方向)の大きさ(高さ)を表す値(例えば、単位はcm)である。顔の大きさ縦の記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。
(Beside face size)
The horizontal size of the face stored in the field of the seventh row is a value representing the horizontal size (width) of the human face represented by the video data (captured image) input from the imaging unit 110. (For example, the unit is cm). The storage area next to the size of the face has a fixed length of 1 byte and stores any value from 0 to 255.
(Face size length)
The vertical size of the face stored in the field of the eighth row represents the vertical size (height) of the human face represented by the video data (captured image) input from the imaging unit 110. Value (for example, the unit is cm). The face size vertical storage area has a fixed length of 1 byte, and stores any value from 0 to 255.

(顔との距離)
第9行のフィールドに格納された顔との距離は、撮像部110(カメラ)と被写体である人物の顔との距離を表す値(例えば、単位はcm)である。顔との距離の記憶領域は、2Byte固定長であり、0から65535までのいずれかの値が格納される。
(顔の明るさ)
第10行のフィールドに格納された顔の明るさは、撮像部110から入力された映像データが示す撮像画像上の顔領域の平均輝度値である。撮像画像を形成するピクセル毎の輝度値が1Byteで表現されている場合、顔の明るさの記憶領域は、1Byte固定長であり、0から255までのいずれかの値が格納される。なお、顔の明るさの記憶領域の大きさは、必ずしも1Byteに限られず、ピクセル毎の輝度値の情報量に応じて定められてもよい。また、撮像画像がカラー画像である場合には、色信号値の種類毎に顔の明るさの記憶領域が設けられてもよい。
(Distance from face)
The distance from the face stored in the field of the ninth row is a value (for example, the unit is cm) representing the distance between the imaging unit 110 (camera) and the face of the person who is the subject. The storage area for the distance to the face has a fixed length of 2 bytes, and stores any value from 0 to 65535.
(Face brightness)
The brightness of the face stored in the field of the 10th row is an average luminance value of the face area on the captured image indicated by the video data input from the imaging unit 110. When the luminance value for each pixel forming the captured image is expressed by 1 byte, the face brightness storage area has a fixed length of 1 byte, and any value from 0 to 255 is stored. Note that the size of the face brightness storage area is not necessarily limited to 1 byte, and may be determined according to the information amount of the luminance value for each pixel. When the captured image is a color image, a face brightness storage area may be provided for each type of color signal value.

(カメラの向き)
第11行のフィールドに格納されたカメラの向きは、水平方向に対する人物識別装置11aの撮像部110であるカメラの向きを示すIDである。カメラの向きの記憶領域は、1Byteの固定長であり、0から255までのいずれかの値が格納される。格納されるIDは、図12(b)に示すIDのいずれかである。例えば、IDが0とは、水平方向に対し平行(水平)を表し、IDが1とは、水平方向に対し下向きなど、水平方向に対するカメラの向きを表す。なお、カメラの向きの種類はこれに限定されるものではなく、カメラの向きを表すものであればどのようなものであってもよい。さらに、カメラの向きの基準方向は水平方向に限られず、垂直方向や斜め方向など、カメラの向きが一意に特定できれば、どのような向きが基準であってもよい。
なお、人物識別装置11aは、加速度センサやジャイロセンサなどの水平方向に対するカメラの向きを検出するセンサを備え、センサが検出した向きを示す情報が格納されてもよい。また、ユーザの操作入力により指示されたカメラの向きが格納されてもよい。
(Camera direction)
The orientation of the camera stored in the field of the eleventh row is an ID indicating the orientation of the camera that is the imaging unit 110 of the person identification device 11a with respect to the horizontal direction. The storage area of the camera orientation has a fixed length of 1 byte, and any value from 0 to 255 is stored. The stored ID is one of the IDs shown in FIG. For example, ID of 0 represents parallel (horizontal) with respect to the horizontal direction, and ID of 1 represents camera orientation with respect to the horizontal direction, such as downward with respect to the horizontal direction. The type of camera orientation is not limited to this, and any camera orientation may be used as long as it represents the camera orientation. Furthermore, the reference direction of the camera orientation is not limited to the horizontal direction, and any orientation may be used as long as the camera orientation can be uniquely specified, such as a vertical direction or an oblique direction.
Note that the person identification device 11a may include a sensor that detects the orientation of the camera with respect to the horizontal direction, such as an acceleration sensor or a gyro sensor, and may store information indicating the orientation detected by the sensor. Further, the orientation of the camera instructed by the user's operation input may be stored.

(カメラ位置)
第12行のフィールドに格納されたカメラ位置は、人物識別装置を設置した床面からの高さを示すカメラの設置情報(例えば、単位はcm)を示す。カメラ位置の記憶領域は、2Byteの固定長であり、0から65535までのいずれかの値が格納される。なお、カメラ位置の基準は床に限定されるものではなく、天井や台など、人物識別装置11aの設置位置が一意に特定できれば、どのような位置が基準であってもよい。
なお、人物識別装置11aは、GPSなどの3次元のカメラ位置を検出するセンサを備え、センサが検出した位置を示す情報が格納されてもよい。また、人物識別装置11aは、ユーザの操作入力により指示されたカメラ位置を格納してもよい。
(Camera position)
The camera position stored in the field of the twelfth row indicates camera installation information (for example, the unit is cm) indicating the height from the floor on which the person identification device is installed. The camera position storage area has a fixed length of 2 bytes, and stores any value from 0 to 65535. The camera position reference is not limited to the floor, and any position may be used as long as the installation position of the person identification device 11a, such as a ceiling or a stand, can be uniquely identified.
Note that the person identification device 11a may include a sensor that detects a three-dimensional camera position, such as GPS, and may store information indicating the position detected by the sensor. The person identification device 11a may store the camera position instructed by the user's operation input.

(撮影環境)
第13行のフィールドに格納された撮影環境は、人物識別装置が撮影する周囲の状態を示すフラグを示す。撮影環境の記憶領域は、1Byteの固定長であり、ビットごとに、異なる撮影環境の要素が示される。例えば、0ビット目のビット値0が屋内、ビット値1が屋外であることを示す。1ビット目のビット値0が明るい状態、ビット値1が暗い状態であることを示す。2ビット目のビット値0が降雨なし、ビット値1が降雨ありを示す。
格納されるフラグは、図12(c)に示すビット位置毎の値のいずれかである。フラグはビットごとに設定できるため、2種類以上の撮影環境の要素を同時に設定することが可能である。なお、撮影環境の種類はこれに限定されるものではなく、気温、湿度、気圧、天気などであってもよい。
なお、撮影環境の検出は、人物識別装置11aは、映像データから撮影環境を判定する処理部、明るさセンサ、降雨センサなどの周囲の環境をセンシングする各種センサを備え、取得された情報が格納されてもよい。また、ユーザの操作入力により指示された情報が格納されてもよい。
(Shooting environment)
The shooting environment stored in the field of the thirteenth row indicates a flag indicating the surrounding state of shooting by the person identification device. The storage area of the shooting environment has a fixed length of 1 byte, and a different shooting environment element is indicated for each bit. For example, the bit value 0 of the 0th bit indicates indoor and the bit value 1 indicates outdoor. The bit value 0 of the first bit indicates a bright state and the bit value 1 indicates a dark state. The bit value 0 of the second bit indicates no rain, and the bit value 1 indicates rain.
The stored flag is one of the values for each bit position shown in FIG. Since the flag can be set for each bit, two or more types of shooting environment elements can be set simultaneously. Note that the type of shooting environment is not limited to this, and may be temperature, humidity, atmospheric pressure, weather, or the like.
For detecting the shooting environment, the person identification device 11a includes a processing unit that determines the shooting environment from the video data, various sensors for sensing the surrounding environment such as a brightness sensor, a rain sensor, and the acquired information is stored. May be. Information instructed by a user operation input may be stored.

(顔識別データアドレス)
第14行のフィールドに格納された顔識別データアドレスは、基本顔識別DBや、特定のカメラIDに対応した設置状態に応じた顔識別DBに記録されている1つの顔の特徴量へアクセスするためのアドレスまたはオフセット値を示す。顔識別データアドレスの記憶領域は、4Byteの固定長であり、0から0xFFFFFFFFまでのいずれかの値が格納される。
(顔識別データサイズ)
第15行のフィールドに格納された顔識別データサイズは、基本顔識別DBや、特定のカメラIDに対応する設置状態に応じた顔識別DBに記録されている1つの顔の特徴量のサイズを示す。顔識別データサイズの記憶領域は、4Byteの固定長であり、0から0xFFFFFFFFまでのいずれかの値を格納する。
なお、これら付加情報である顔識別データ管理情報の一部又は全部として、人物識別装置11aのユーザ情報検出部112において検出された検出情報、設置情報取得部150において取得された設置情報が充てられてもよい。
(Face identification data address)
The face identification data address stored in the field of the 14th row accesses the feature quantity of one face recorded in the basic face identification DB or the face identification DB corresponding to the installation state corresponding to a specific camera ID. Indicates the address or offset value for The storage area of the face identification data address has a fixed length of 4 bytes and stores any value from 0 to 0xFFFFFFFF.
(Face identification data size)
The size of the face identification data stored in the field of the fifteenth row is the size of the feature quantity of one face recorded in the basic face identification DB or the face identification DB corresponding to the installation state corresponding to a specific camera ID. Show. The face identification data size storage area has a fixed length of 4 bytes, and stores any value from 0 to 0xFFFFFFFF.
Note that the detection information detected by the user information detection unit 112 of the person identification device 11a and the installation information acquired by the installation information acquisition unit 150 are used as part or all of the face identification data management information as additional information. May be.

以上に説明した、顔識別DB情報を統合顔識別DBとともにサーバー装置31に記録しておくことにより、登録者ID毎の顔識別DBへのアクセスや顔識別DBの更新が容易に行えるようになる。そのため、データ処理速度が向上し、利便性が向上する。   By recording the face identification DB information described above together with the integrated face identification DB in the server device 31, access to the face identification DB for each registrant ID and updating of the face identification DB can be easily performed. . Therefore, the data processing speed is improved and convenience is improved.

〔人物識別装置の構成〕
次に、人物識別装置11aの構成について説明する。
図13は、本実施形態に係る人物識別装置11aの構成を示すブロック図である。
人物識別装置11aは、撮像部110、映像解析部111、情報DB120、データ変換部130、伝送制御部140、設置情報取得部150及び顔識別DB処理部121aを含んで構成される。
[Configuration of person identification device]
Next, the configuration of the person identification device 11a will be described.
FIG. 13 is a block diagram showing the configuration of the person identification device 11a according to this embodiment.
The person identification device 11a includes an imaging unit 110, a video analysis unit 111, an information DB 120, a data conversion unit 130, a transmission control unit 140, an installation information acquisition unit 150, and a face identification DB processing unit 121a.

顔識別DB処理部121aは、更新された設置状態に対応した顔識別DBを情報DB120から読み出し、読み出した設置状態に対応した顔識別DBを、カメラID、識別された人物の登録者ID、検出された検出情報とともに、伝送制御部140を介してサーバー装置31に送信する。検出情報は、付加情報として顔識別DBに対応付けられる。
サーバー装置31は、顔識別DB処理部121aから受信した設置状態に対応した顔識別DBを、カメラID、登録者IDと対応付けて、上述した領域に格納することにより統合顔認識DBを更新する。
上述したように、設置状態に対応した顔識別DBは、映像解析部111の人物識別部1122が人物の識別に成功した場合、識別に用いられた特徴量が算出されたその人物の特徴量に置き換えられることにより、更新される。顔識別DB処理部121aにより、情報DB120に格納された顔識別DBと、統合顔認識DBに含まれる顔識別DBとが整合する。
The face identification DB processing unit 121a reads the face identification DB corresponding to the updated installation state from the information DB 120, and detects the face identification DB corresponding to the read installation state with the camera ID, the registrant ID of the identified person, and the detection The detected information is transmitted to the server device 31 via the transmission control unit 140. The detection information is associated with the face identification DB as additional information.
The server device 31 updates the integrated face recognition DB by storing the face identification DB corresponding to the installation state received from the face identification DB processing unit 121a in the above-described area in association with the camera ID and the registrant ID. .
As described above, the face identification DB corresponding to the installation state is stored in the feature amount of the person whose feature amount used for the identification is calculated when the person identification unit 1122 of the video analysis unit 111 succeeds in identifying the person. It is updated by being replaced. The face identification DB processing unit 121a matches the face identification DB stored in the information DB 120 with the face identification DB included in the integrated face recognition DB.

なお、顔識別DB処理部121aは、人物識別装置11aで行われる、その他の処理(例えば、人物検出、人物識別処理等)への影響を与えない時間帯や、それらの処理の負荷量が所定の負荷量よりも低い場合に、サーバー装置31への送信を行ってもよい。その他の処理に影響を与えない時間帯とは、撮像部110が撮像した映像から人物が検出されないときである。例えば、次のような場合がある。夜間において照明が用いられていない場合など、撮像部110が撮像された映像の明るさが所定の明るさよりも暗い場合、人物検出部115が撮像された映像から人物を検出しないとき、動きベクトル検出部116が撮像された映像から動いている領域(物体)を検出しないとき、などがある。   Note that the face identification DB processing unit 121a has a predetermined time zone that does not affect other processes (for example, person detection, person identification process, etc.) performed by the person identification device 11a, and the load amount of these processes. When the load amount is lower than the load amount, transmission to the server device 31 may be performed. The time zone that does not affect other processing is when a person is not detected from the video captured by the imaging unit 110. For example, there are the following cases. When the brightness of an image captured by the imaging unit 110 is darker than a predetermined brightness, such as when illumination is not used at night, the motion vector detection is performed when the person detection unit 115 does not detect a person from the captured image. There are times when the unit 116 does not detect a moving region (object) from the captured image.

これにより、情報DB120に登録された顔識別DBをもって、人物識別処理に支障をきたさず、サーバー装置31に形成された統合顔識別DB内の対応する顔識別DBが更新される。
なお、送信対象の顔識別DBは、情報DB120に登録された顔識別DBの全体でもよいし、設置状態に応じた顔識別DB内の更新された特徴量のみであってもよい。これにより、更新に必要なデータ量と更新時間とを削減することができる。
As a result, the face identification DB registered in the information DB 120 is used, and the corresponding face identification DB in the integrated face identification DB formed in the server device 31 is updated without affecting the person identification process.
Note that the face identification DB to be transmitted may be the entire face identification DB registered in the information DB 120, or only the updated feature amount in the face identification DB according to the installation state. As a result, the amount of data required for updating and the update time can be reduced.

〔統合顔識別DBからの顔識別DBの抽出〕
自装置の顔識別DBを更新又は再構築する場合、顔識別DB処理部121aは、カメラIDを付加した顔識別DB要求信号をサーバー装置31に送信する。サーバー装置31は、人物識別装置11aから受信した顔識別DB要求信号に付加されたカメラIDに対応した顔識別DBを統合顔識別DBから抽出し、抽出した顔識別DBを人物識別装置11aに送信する。これにより、顔識別DB処理部121aは、自装置の顔識別DBをダウンロードすることができる。
[Extraction of face identification DB from integrated face identification DB]
When updating or reconstructing the face identification DB of the own device, the face identification DB processing unit 121a transmits a face identification DB request signal to which the camera ID is added to the server device 31. The server device 31 extracts the face identification DB corresponding to the camera ID added to the face identification DB request signal received from the person identification device 11a from the integrated face identification DB, and transmits the extracted face identification DB to the person identification device 11a. To do. Accordingly, the face identification DB processing unit 121a can download the face identification DB of the own device.

図14は、ダウンロードされた顔識別DBの一例を示す概念図である。
図14が示す顔識別DBは、図9に示す統合顔識別DBのうち、カメラIDが1である人物識別装置11aのカメラID1に対応する部分から形成される。登録者数は、n2名であり、各登録者IDに基本顔識別DBと設置位置に応じた顔識別DBとが対応付けられている。
設置位置に応じた顔識別DBを形成する特徴量に対応する向きは、全て上方である。これは、カメラIDの向きが人物に対して上方であることによる。
ここで、サーバー装置31は、統合顔識別DB(図9)からカメラID1に対応する設置位置に対応した顔識別DBが存在する登録者IDを検索する。サーバー装置31は、発見された登録者IDに対応する基本顔識別DBと設置位置に応じた顔識別DBを抽出する。登録者ID毎に基本顔識別DBと設置位置に応じた顔識別DBの組を対応付けることで、人物識別装置11aに記憶された顔識別DBが再現される。
これにより、人物識別装置11aは、一旦取り外された場合や移設(移動)などの後、再度設置された場合でも、取り外しや移設(移動)前の顔識別DBを利用できるため、即座に、取り外しや移設(移動)前と同じ認識精度にて人物識別処理を開始することが可能となる。また、前述の統合顔識別DBから人物識別装置11aにダウンロードされた顔識別DBは、カメラID1を例にしたが、別のカメラIDに係る人物識別装置11aにおいても同様に形成される。さらに、人物識別装置11aにダウンロードされた顔識別DBは、複数の人物識別装置11a間で共通の基本顔識別DBと、それぞれの人物識別装置11aの撮像部110の設置状態に応じた顔識別DBから形成される。
FIG. 14 is a conceptual diagram illustrating an example of a downloaded face identification DB.
The face identification DB shown in FIG. 14 is formed from a portion corresponding to the camera ID 1 of the person identification device 11 a whose camera ID is 1 in the integrated face identification DB shown in FIG. The number of registrants is n2, and a basic face identification DB and a face identification DB corresponding to the installation position are associated with each registrant ID.
The orientations corresponding to the feature amounts forming the face identification DB corresponding to the installation position are all upward. This is because the direction of the camera ID is upward with respect to the person.
Here, the server device 31 searches the integrated face identification DB (FIG. 9) for the registrant ID in which the face identification DB corresponding to the installation position corresponding to the camera ID1 exists. The server device 31 extracts a basic face identification DB corresponding to the found registrant ID and a face identification DB corresponding to the installation position. The face identification DB stored in the person identification device 11a is reproduced by associating a set of the basic face identification DB and the face identification DB corresponding to the installation position for each registrant ID.
As a result, the person identification device 11a can use the face identification DB before being removed or moved (moved) even after being removed or moved (moved) or the like again, so that it can be removed immediately. It is possible to start the person identification process with the same recognition accuracy as before the relocation (movement). Further, the face identification DB downloaded from the aforementioned integrated face identification DB to the person identification device 11a is exemplified by the camera ID1, but is similarly formed in the person identification device 11a related to another camera ID. Furthermore, the face identification DB downloaded to the person identification device 11a includes a basic face identification DB common to the plurality of person identification devices 11a and a face identification DB corresponding to the installation state of the imaging unit 110 of each person identification device 11a. Formed from.

なお、顔識別DB処理部121aは、さらに特定の登録者IDを付加した顔識別DB要求信号をサーバー装置31に送信してもよい。サーバー装置31は、受信した顔識別DB要求信号に付加されたカメラID及び登録者IDに対応した顔識別DBを統合顔識別DBから抽出し、抽出した顔識別DBを人物識別装置11aに送信する。これにより、顔識別DB処理部121aは、自装置及び特定の登録者の顔識別DBをダウンロードし、更新することができる。
顔識別DBは、更新されたものであっても、登録者IDが同一であれば、複数の人物識別装置11a間で共通の基本顔識別DBと、それぞれの人物識別装置11aの撮像部110の設置状態に応じた顔識別DBから形成される。
Note that the face identification DB processing unit 121a may further transmit a face identification DB request signal to which a specific registrant ID is added to the server device 31. The server device 31 extracts the face identification DB corresponding to the camera ID and registrant ID added to the received face identification DB request signal from the integrated face identification DB, and transmits the extracted face identification DB to the person identification device 11a. . Thereby, the face identification DB processing unit 121a can download and update the face identification DB of the own device and the specific registrant.
Even if the face identification DB is updated, if the registrant ID is the same, the basic face identification DB common to the plurality of person identification devices 11a and the imaging unit 110 of each person identification device 11a are used. It is formed from the face identification DB according to the installation state.

なお、顔識別DB処理部121aは、さらに差分情報を付加した顔識別DB要求信号をサーバー装置31に送信してもよい。差分情報は、情報DB120に記憶された顔識別DBを形成する特徴量のうち、統合顔識別DBの対応する顔識別DBを形成する特徴量との差分を示す情報である。サーバー装置31は、受信した顔識別DB要求信号に付加された差分情報に対応した特徴量を統合顔識別DBから抽出し、抽出した特徴量を人物識別装置11aに送信する。これにより、顔識別DB処理部121aは、差分情報で指定される特徴量をダウンロードし、この特徴量をもって情報DB120に記憶した顔識別DBを更新することができる。これにより、更新に要するデータ量と更新時間を削減することができる。   The face identification DB processing unit 121a may transmit a face identification DB request signal to which the difference information is further added to the server device 31. The difference information is information indicating a difference between the feature amount forming the face identification DB stored in the information DB 120 and the feature amount forming the corresponding face identification DB of the integrated face identification DB. The server device 31 extracts a feature amount corresponding to the difference information added to the received face identification DB request signal from the integrated face identification DB, and transmits the extracted feature amount to the person identification device 11a. Thereby, the face identification DB processing unit 121a can download the feature amount specified by the difference information and update the face identification DB stored in the information DB 120 with the feature amount. As a result, the amount of data required for the update and the update time can be reduced.

〔処理フロー〕
次に、本実施形態に係る人物識別装置11aが行う人物識別処理について説明する。
図15は、本実施形態に係る人物識別処理を示すフローチャートである。
図15に示す処理は、ステップS102からS113と、ステップS201−S203を有する。
[Processing flow]
Next, a person identification process performed by the person identification device 11a according to the present embodiment will be described.
FIG. 15 is a flowchart showing person identification processing according to the present embodiment.
The process illustrated in FIG. 15 includes steps S102 to S113 and steps S201 to S203.

(ステップS201)顔識別DB処理部121aは、カメラIDを付加した顔識別DB要求信号をサーバー装置31に送信し、サーバー装置31から自装置の顔識別DBをダウンロードする。顔識別DB要求信号を送信するタイミングは、例えば、取り外し、移設、保守点検等により再設置した後に人物識別装置11aが起動するときである。その後、ステップS102に進む。
そして、ステップS102からステップS112までの処理を実行し、ステップS112の処理が終了した後、ステップS202に進む。
(Step S <b> 201) The face identification DB processing unit 121 a transmits a face identification DB request signal to which the camera ID is added to the server device 31, and downloads the face identification DB of the own device from the server device 31. The timing for transmitting the face identification DB request signal is, for example, when the person identification device 11a is activated after being re-installed by removal, relocation, maintenance, or the like. Thereafter, the process proceeds to step S102.
Then, the processes from step S102 to step S112 are executed, and after the process of step S112 is completed, the process proceeds to step S202.

(ステップS202)顔識別DB処理部121aは、撮像部110から入力された映像データ、人物検出部115から入力された人物情報、動きベクトル検出部116から入力された動きベクトル情報のいずれか又はそれらの組み合わせに基づいて人物が検出されたか否かを判定する。人物が検出されていないと判定された場合には(ステップS202 NO)、ステップS203に進む。人物が検出されたと判定された場合には(ステップS202 YES)、ステップS113に進む。 (Step S202) The face identification DB processing unit 121a is one of the video data input from the imaging unit 110, the person information input from the person detection unit 115, the motion vector information input from the motion vector detection unit 116, or those It is determined whether or not a person is detected based on the combination. If it is determined that no person is detected (NO in step S202), the process proceeds to step S203. If it is determined that a person has been detected (YES in step S202), the process proceeds to step S113.

(ステップS203)顔識別DB処理部121aは、更新された設置状態に対応した顔識別DBを情報DB120から読み出し、読み出した設置状態に対応した顔識別DBを、カメラID、識別された人物の登録者IDとともに、伝送制御部140を介してサーバー装置31に送信する。サーバー装置31は、受信したカメラID、登録者ID、及び設置状態に対応した顔識別DBに基づいて統合顔識別DBを更新する。その後、ステップS113に進む。 (Step S203) The face identification DB processing unit 121a reads the face identification DB corresponding to the updated installation state from the information DB 120, registers the face identification DB corresponding to the read installation state, the camera ID, and the identified person. It is transmitted to the server device 31 via the transmission control unit 140 together with the user ID. The server device 31 updates the integrated face identification DB based on the received camera ID, registrant ID, and face identification DB corresponding to the installation state. Thereafter, the process proceeds to step S113.

以上、説明したように、本実施形態によれば、人物識別装置11aの設置状況や撮影環境に応じて最適化された顔識別DBが人物識別装置11a内で更新され、更新した顔識別DBを人物識別装置11aで行われる他の処理に支障をきたさない時にサーバー装置31に送信することができる。種々の原因により、人物識別装置11aを再設置した後に動作するときに、サーバー装置31の統合顔識別DBから自装置の顔識別DBをダウンロードすることができる。そのため、即座に人物識別装置を使用することができ、再設置後の人物識別処理における識別率が再設置前と同等に保たれる。   As described above, according to the present embodiment, the face identification DB optimized in accordance with the installation state of the person identification device 11a and the shooting environment is updated in the person identification device 11a. This can be transmitted to the server device 31 when other processing performed by the person identification device 11a is not hindered. Due to various causes, the face identification DB of the own device can be downloaded from the integrated face identification DB of the server device 31 when operating after the person identification device 11a is reinstalled. Therefore, the person identification device can be used immediately, and the identification rate in the person identification process after re-installation is kept equal to that before re-installation.

(第3の実施形態)
次に、本実施形態の第3の実施形態に係る人物識別システム1b(図示せず)について説明する。上述した実施形態と同一の構成について同一の符号を付することにより、説明を援用する。
人物識別システム1bは、人物識別システム1aと同様に、人物識別装置11a、情報表示端末装置21、及びサーバー装置31を含んで構成される。サーバー装置31は、上述した統合顔識別DBを記憶している。
(Third embodiment)
Next, a person identification system 1b (not shown) according to a third embodiment of the present embodiment will be described. The description is incorporated by giving the same reference numerals to the same configurations as those in the above-described embodiment.
Similar to the person identification system 1a, the person identification system 1b includes a person identification device 11a, an information display terminal device 21, and a server device 31. The server device 31 stores the above-described integrated face identification DB.

本実施形態では、サーバー装置31は、人物識別装置11aから受信した付加情報を参照して、撮像部110の設置状態、例えば、登録者の顔の向き又はカメラの設置位置を特定し、特定した設置状態に対応する特徴量を有する設置状態に応じた顔識別DBを検索する。サーバー装置31は、検索した顔識別DBを人物識別装置11aに送信する。
人物識別装置11aの顔識別DB処理部121aは、サーバー装置31から受信した顔識別DBを、その登録者IDと対応付けて設置状態に応じた顔識別DBとして情報DB120に記憶する。
In the present embodiment, the server device 31 refers to the additional information received from the person identification device 11a, and specifies and specifies the installation state of the imaging unit 110, for example, the orientation of the registrant's face or the camera installation position. A face identification DB corresponding to the installation state having a feature amount corresponding to the installation state is searched. The server device 31 transmits the searched face identification DB to the person identification device 11a.
The face identification DB processing unit 121a of the person identification device 11a stores the face identification DB received from the server device 31 in the information DB 120 as the face identification DB corresponding to the installation state in association with the registrant ID.

図9を参照してサーバー装置31の処理の具体例を説明する。但し、撮像部110のカメラIDが5(図示せず)であり、天井付近に設置され、人物が撮影される顔の向きが上方である場合を仮定する。
その場合、サーバー装置31は、人物識別装置11aから受信した付加情報が示す顔の向きが上方であることを特定する。サーバー装置31は、上方に対応する特徴量を有する設置状態に応じた顔識別DBとして、登録者ID1及びカメラID1及びカメラID3、登録者ID2及びカメラID1及びカメラID3に対応付けられたものを選択し、人物識別装置11aに送信する。これにより、選択した設置状態に応じた顔識別DBとして、登録者ID1及びカメラID1及びカメラID3、登録者ID2及びカメラID1及びカメラID3に対応付けられたものが人物識別装置11aにダウンロードされる。なお、サーバー装置31は、前記選択した設置状態に応じた顔識別DBのうち、登録者ID1、ID2のいずれか一方に対応するものを送信してもよいし、人物識別装置11aから受信した登録者IDと一致する登録者IDに対応するもののみを送信してもよい。さらに、サーバー装置31は、前記選択した設置状態に応じた顔識別DBのうち、カメラID1、ID3のいずれか一方に対応するものを送信してもよい。
これにより、人物識別装置11aの情報DB120には、撮像部110の向きに応じた顔識別DBが再現される。
A specific example of the processing of the server device 31 will be described with reference to FIG. However, it is assumed that the camera ID of the imaging unit 110 is 5 (not shown), is installed near the ceiling, and the direction of the face where the person is photographed is upward.
In this case, the server device 31 specifies that the face direction indicated by the additional information received from the person identification device 11a is upward. The server device 31 selects those corresponding to the registrant ID1, the camera ID1, and the camera ID3, the registrant ID2, the camera ID1, and the camera ID3 as the face identification DB corresponding to the installation state having the feature amount corresponding to the upper side. And transmitted to the person identification device 11a. As a result, the face identification DB corresponding to the selected installation state is downloaded to the person identification device 11a in association with the registrant ID1, camera ID1, and camera ID3, registrant ID2, camera ID1, and camera ID3. The server device 31 may transmit the face identification DB corresponding to one of the registrant ID 1 and ID 2 among the face identification DBs according to the selected installation state, or the registration received from the person identification device 11a. Only those corresponding to the registrant ID that matches the registrant ID may be transmitted. Further, the server device 31 may transmit the face identification DB corresponding to one of the camera ID 1 and ID 3 among the face identification DBs according to the selected installation state.
As a result, the face identification DB corresponding to the orientation of the imaging unit 110 is reproduced in the information DB 120 of the person identification device 11a.

なお、人物識別装置11aがサーバー装置31に記録されている統合顔識別DBから、そのカメラIDに対応する設置状態に応じた顔識別DBをダウンロードするためには、第2の実施形態に係るサーバー装置31には、カメラIDと対応付けた設置状態に応じた顔識別DBが存在していなければならない。そのため、設置状態に応じた顔識別DBをダウンロードするには、少なくとも1回は、事前にカメラIDに対応する設置状態に応じた顔識別DBを統合顔識別DBに記録されていなければならない。または、サーバー装置31に、カメラIDと対応付けた設置状態に応じた顔識別DBが存在していない場合は、人物識別装置11aがサーバー装置31から基本顔識別DBをダウンロードし、人物識別装置11aは、設置状態に応じた顔識別DBを初めから登録し直す必要がある。
さらに、人物識別装置11aは、設置中であっても他の物体と接触した場合、脱落した場合等、撮像部110の位置や向きが変化することがあり、人物識別における識別率が低下することがある。
In order to download the face identification DB corresponding to the installation state corresponding to the camera ID from the integrated face identification DB recorded in the server device 31 by the person identification device 11a, the server according to the second embodiment. The device 31 must have a face identification DB corresponding to the installation state associated with the camera ID. Therefore, in order to download the face identification DB corresponding to the installation state, the face identification DB corresponding to the installation state corresponding to the camera ID must be recorded in the integrated face identification DB at least once. Alternatively, when the face identification DB corresponding to the installation state associated with the camera ID does not exist in the server device 31, the person identification device 11a downloads the basic face identification DB from the server device 31, and the person identification device 11a. Needs to re-register the face identification DB corresponding to the installation state from the beginning.
Furthermore, the position and orientation of the imaging unit 110 may change when the person identification device 11a is in contact with another object even when it is installed, or when the person identification apparatus 11a is dropped, resulting in a decrease in the identification rate in person identification. There is.

これに対し、本実施形態では、撮像部110の設置状態、例えば、向きが変化した場合や、自装置のカメラIDに対応する設置状態に応じた顔識別DBが存在しない場合でも、人物識別装置11aは、その向きの設置状態に応じた顔識別DBを取得することができる。そのため、人物識別装置11aは、この設置状態に応じた顔識別DBを人物識別に用いることで、識別率の低下を防ぐことができる。   On the other hand, in this embodiment, even when the installation state of the imaging unit 110, for example, the orientation has changed, or when the face identification DB corresponding to the installation state corresponding to the camera ID of the own device does not exist, the person identification device 11a can acquire the face identification DB according to the installation state of the direction. Therefore, the person identification device 11a can prevent a decrease in the identification rate by using the face identification DB corresponding to the installation state for person identification.

なお、上述ではサーバー装置31は、人物識別装置11aの撮像部110と人物との位置関係が全て対応する特徴量を有する顔識別DBを送信すべきものとして選択する場合を例にとったが、これには限られない。例えば、その位置関係のうち少なくとも1つが対応する特徴量を有する顔識別DBを選択してもよい。
また、上述ではサーバー装置31が、人物識別装置11aの撮像部110と人物との位置関係に対応する顔識別DBの全てを送信すべきものとして選択する場合を例にとったが、これには限られない。例えば、サーバー装置31は、上述により選択された顔識別DBにおいて、人物識別装置11aから受信した差分情報で指定される特徴量に対応した特徴量のみを人物識別装置11aに送信してもよい。そして、顔識別DB処理部121aは、差分情報で指定された特徴量をサーバー装置31から受信した特徴量に置き換えることにより、情報DB120に記憶した顔識別DBを更新する。これにより、更新に必要なデータ量と更新時間とを削減することができる。
In the above description, the server device 31 has taken as an example a case where the face identification DB having the feature quantity corresponding to all the positional relationships between the imaging unit 110 of the person identification device 11a and the person is selected as the transmission target. It is not limited to. For example, a face identification DB having a feature value corresponding to at least one of the positional relationships may be selected.
In the above description, the server device 31 selects the face identification DB corresponding to the positional relationship between the imaging unit 110 of the person identification device 11a and the person as an example to be transmitted. I can't. For example, the server device 31 may transmit only the feature amount corresponding to the feature amount specified by the difference information received from the person identification device 11a to the person identification device 11a in the face identification DB selected as described above. Then, the face identification DB processing unit 121a updates the face identification DB stored in the information DB 120 by replacing the feature amount specified by the difference information with the feature amount received from the server device 31. As a result, the amount of data required for updating and the update time can be reduced.

上述したように、人物識別装置11、11aは、撮影された映像を示す映像データから、人物を識別するとともに、その人物の顔や行動を検出し、検出された認識情報を情報表示端末装置21に送信する。そのため、小児や高齢者等の見守り、不審者の侵入の検出、家電機器の操作等、様々なアプリケーションに適用することが可能になる。また、本実施形態では人物の識別対象とする場合を例にして説明したが、動物、その他の物体を識別対象としてもよい。   As described above, the person identification devices 11 and 11a identify a person from the video data indicating the captured video, detect the person's face and behavior, and detect the detected recognition information as the information display terminal device 21. Send to. Therefore, it can be applied to various applications such as watching over children and elderly people, detecting intrusion of suspicious persons, and operating household electrical appliances. Further, in the present embodiment, the case where a person is identified as an example has been described, but an animal or other object may be identified.

なお、撮像部110は、映像データを映像解析部111に送信することができれば、人物識別装置11、11aと別体であってもよい。送信方法は、いかなる伝送方式を用いることができ、有線であっても、無線であってもよい。
なお、映像解析部111は、撮像部110から入力された映像データに代え、記憶媒体に記憶された映像データや、ネットワーク41に接続された任意のサーバー装置に記憶された映像データを用いてもよい。
The imaging unit 110 may be separate from the person identification devices 11 and 11a as long as the video data can be transmitted to the video analysis unit 111. The transmission method can use any transmission method, and may be wired or wireless.
Note that the video analysis unit 111 may use video data stored in a storage medium or video data stored in an arbitrary server device connected to the network 41 instead of the video data input from the imaging unit 110. Good.

なお、本発明は次の態様で実施することができる。
(1)少なくとも1つの撮像部が撮像した映像から前記映像が表す人物を検出する人物検出部と、前記映像から算出した特徴量に基づいて前記人物の状態を検出する情報検出部と、を備え、前記情報検出部は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて人物を識別し、人物の識別に成功したとき、前記特徴量を第2の識別データベースに登録する人物識別装置。
In addition, this invention can be implemented with the following aspect.
(1) A person detection unit that detects a person represented by the video from a video captured by at least one imaging unit, and an information detection unit that detects the state of the person based on a feature amount calculated from the video. The information detection unit identifies a person based on the feature quantity and the feature quantity registered in the first identification database in advance, and when the person identification is successful, the feature quantity is stored in the second identification database. Person identification device to be registered.

(2)前記情報検出部は、さらに前記第2の識別データベースに登録された特徴量を用いて人物を識別する(1)の人物識別装置。 (2) The person identification device according to (1), wherein the information detection unit further identifies a person using a feature amount registered in the second identification database.

(3)前記情報検出部は、前記第1の識別データベースに登録された特徴量よりも前記第2の識別データベースに登録された特徴量を優先して用いて人物を識別する(2)の人物識別装置。 (3) The information detection unit identifies the person by using the feature quantity registered in the second identification database with priority over the feature quantity registered in the first identification database. Identification device.

(4)前記情報検出部は、前記撮像部の設置状態を示す設置情報を取得し、人物の識別に成功し、かつ、前記算出した特徴量との間で前記第2の識別データベースに登録された前記人物の特徴量のうち、顔に関する特徴量の少なくとも1つが対応していない場合、前記算出した特徴量と前記設置情報とを前記第2の識別データベースに対応づけて登録する(1)から(3)のいずれかの人物識別装置。 (4) The information detection unit acquires installation information indicating an installation state of the imaging unit, succeeds in identifying a person, and is registered in the second identification database with the calculated feature amount. If at least one of the feature quantities of the person does not correspond to the face, the calculated feature quantity and the installation information are registered in association with the second identification database (1). The person identification device according to any one of (3).

(5)前記設置情報は、前記撮像部の高さ、向き、明るさ、天候、気温、湿度のうち少なくとの1つを表す情報である(4)の人物識別装置。 (5) The person identification device according to (4), wherein the installation information is information representing at least one of height, direction, brightness, weather, temperature, and humidity of the imaging unit.

(6)前記第1の識別データベースと前記第2の識別データベースの少なくとも一方の識別データベースと、前記撮像部の識別情報とを対応付けてサーバー装置に送信する識別データベース処理部、を備える(1)から(5)のいずれかの人物識別装置。 (6) An identification database processing unit that associates at least one of the first identification database and the second identification database with the identification information of the imaging unit and transmits the identification information to the server device (1). To (5).

(7)前記識別データベース処理部は、前記人物検出部が人物を検出しないとき、前記少なくとも一方の識別データベースを前記サーバー装置に送信する(6)の人物識別装置。 (7) The person identification device according to (6), wherein the identification database processing unit transmits the at least one identification database to the server device when the person detection unit does not detect a person.

(8)前記識別データベース処理部は、前記撮像部の識別情報に対応する少なくとも一方の識別データベースを、前記サーバー装置から受信する(6)または(7)の人物識別装置。 (8) The person identification device according to (6) or (7), wherein the identification database processing unit receives at least one identification database corresponding to the identification information of the imaging unit from the server device.

(9)前記識別データベース処理部は、前記撮像部と前記人物との位置関係が対応する特徴量を含む少なくとも一方の識別データベースを前記サーバー装置から受信する(6)または(7)の人物識別装置。 (9) The person identification device according to (6) or (7), wherein the identification database processing unit receives at least one identification database including a feature amount corresponding to a positional relationship between the imaging unit and the person from the server device. .

(10)人物識別装置における人物識別方法において、少なくとも1つの撮像部が撮像した映像から前記映像が表す人物を検出する人物検出過程と、前記映像から算出した特徴量に基づいて前記人物の状態を検出するユーザ情報検出過程と、を有し、前記ユーザ情報検出過程は前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて人物を識別し、人物の識別に成功したとき、前記特徴量を第2の識別データベースに登録する人物識別方法。 (10) In a person identification method in a person identification device, a person detection process for detecting a person represented by the image from an image captured by at least one imaging unit, and the state of the person based on a feature amount calculated from the image A user information detection process to detect, when the user information detection process identifies a person based on the feature quantity and a feature quantity registered in the first identification database in advance, and the person is successfully identified A person identification method for registering the feature quantity in a second identification database.

(11)人物識別装置のコンピュータに、少なくとも1つの撮像部が撮像した映像から前記映像が表す人物を検出する人物検出手順、前記映像から算出した特徴量に基づいて前記人物の状態を検出するユーザ情報検出手順を実行させるプログラムであって、前記ユーザ情報検出手順は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて人物を識別し、ユーザの識別に成功したとき、人物の識別に成功したとき、前記特徴量を第2の識別データベースに登録するプログラム。 (11) A person detecting procedure for detecting a person represented by the video from video captured by at least one imaging unit in a computer of the person identification device, and a user detecting the state of the person based on a feature amount calculated from the video A program for executing an information detection procedure, wherein the user information detection procedure identifies a person based on the feature quantity and a feature quantity registered in advance in the first identification database, and succeeds in identifying the user. A program for registering the feature quantity in the second identification database when the person is successfully identified.

また、上述した実施形態における人物識別装置11、11aの一部、例えばユーザ情報検出部112、モーション検出部113、行動認識部114、人物検出部115、動きベクトル検出部116、データ変換部130、伝送制御部140をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、人物識別装置に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における人物識別装置の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。人物識別装置の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
In addition, some of the person identification devices 11 and 11a in the above-described embodiment, for example, the user information detection unit 112, the motion detection unit 113, the behavior recognition unit 114, the person detection unit 115, the motion vector detection unit 116, the data conversion unit 130, The transmission control unit 140 may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. Here, the “computer system” is a computer system built in the person identification device, and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included, and the one holding a program for a certain period of time may be included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
Further, part or all of the person identification device in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the person identification device may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.
Each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

本発明は、人物識別装置、セキュリティカメラとして利用可能である。   The present invention can be used as a person identification device and a security camera.

1、1a、1b…人物識別システム、
11、11a(11−1〜11−4)…人物識別装置、
110…撮像部、111…映像解析部、112…ユーザ情報検出部、
1120…属性推定部、1121…表情推定部、1122…人物識別部、
1123…位置検出部、1124…人体部位検出部、
113…モーション検出部、114…行動認識部、115…人物検出部、
116…動きベクトル検出部、
120…情報DB、121a…顔識別DB処理部、
130…データ変換部、140…伝送制御部、150…設置情報取得部、
21(21−1、21−2)…情報表示端末装置、31…サーバー装置、
41…ネットワーク
1, 1a, 1b ... person identification system,
11, 11a (11-1 to 11-4) ... person identification device,
110 ... Imaging unit, 111 ... Video analysis unit, 112 ... User information detection unit,
1120 ... attribute estimation unit, 1121 ... facial expression estimation unit, 1122 ... person identification unit,
1123: position detection unit, 1124 ... human body part detection unit,
113 ... motion detection unit, 114 ... behavior recognition unit, 115 ... person detection unit,
116 ... a motion vector detection unit,
120 ... information DB, 121a ... face identification DB processing unit,
130 ... Data conversion unit, 140 ... Transmission control unit, 150 ... Installation information acquisition unit,
21 (21-1, 21-2) ... Information display terminal device, 31 ... Server device,
41 ... Network

Claims (9)

少なくとも1つの撮像部が撮像した映像から前記映像が表す人物、動物および物体のうち少なくとも1つの対象を検出する対象検出部と、
前記映像から算出した少なくとも1つの特徴量に基づいて前記対象の状態を検出する情報検出部と、を備え、
前記情報検出部は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて対象を識別し、
対象の識別に成功したとき、前記特徴量を第2の識別データベースに登録する
識別装置。
A target detection unit that detects at least one target among a person, an animal, and an object represented by the video from a video captured by at least one imaging unit;
An information detection unit that detects the state of the target based on at least one feature amount calculated from the video,
The information detection unit identifies a target based on the feature amount and a feature amount registered in the first identification database in advance,
An identification device that registers the feature quantity in a second identification database when the object is successfully identified.
前記情報検出部は、
前記特徴量を前記対象の状態を示す付加情報と対応付けて前記第2の識別データベースに登録する請求項1に記載の識別装置。
The information detection unit
The identification device according to claim 1, wherein the feature amount is registered in the second identification database in association with additional information indicating the state of the target.
前記撮像部の設置状態を示す付加情報をサーバー装置に送信し、前記サーバー装置から前記設置状態に応じた前記第1の識別データベースと前記第2の識別データベースの少なくとも一方の識別データベースを受信する識別データベース処理部を備える
請求項1または請求項2に記載の識別装置。
Identification that transmits additional information indicating the installation state of the imaging unit to a server device and receives at least one of the first identification database and the second identification database according to the installation state from the server device The identification device according to claim 1, further comprising a database processing unit.
前記情報検出部は、前記設置状態として前記撮像部の高さ、向き、明るさ、天候、気温、湿度のうち少なくとも1つを表す設置情報を取得し、前記特徴量と前記設置情報を対応付けて前記第2の識別データベースに登録する
請求項3に記載の識別装置。
The information detection unit acquires installation information representing at least one of height, direction, brightness, weather, temperature, and humidity of the imaging unit as the installation state, and associates the feature amount with the installation information. The identification device according to claim 3, wherein the identification device is registered in the second identification database.
前記情報検出部は、前記第1の識別データベースに登録された特徴量よりも前記第2の識別データベースに登録された特徴量を優先して用いて対象を識別する
請求項1から請求項4のいずれか一項に記載の識別装置。
The information detection unit identifies a target by using a feature quantity registered in the second identification database with priority over a feature quantity registered in the first identification database. The identification device according to any one of the above.
前記第1の識別データベースと前記第2の識別データベースの少なくとも一方の識別データベースと、前記撮像部の識別情報とを対応付けてサーバー装置に送信する識別データベース処理部を備え、
前記識別データベース処理部は、前記対象検出部が対象を検出しないとき、前記少なくとも一方の識別データベースを前記サーバー装置に送信する
請求項1から請求項5のいずれか一項に記載の識別装置。
An identification database processing unit that associates at least one of the first identification database and the second identification database with the identification information of the imaging unit and transmits the identification information to a server device;
The identification device according to any one of claims 1 to 5, wherein the identification database processing unit transmits the at least one identification database to the server device when the target detection unit does not detect a target.
前記識別データベース処理部は、前記撮像部の識別情報に対応する前記少なくとも一方の識別データベースを前記サーバー装置から受信する
請求項6に記載の識別装置。
The identification device according to claim 6, wherein the identification database processing unit receives the at least one identification database corresponding to the identification information of the imaging unit from the server device.
識別装置における識別方法において、少なくとも1つの撮像部が撮像した映像から前記映像が表す人物、動物および物体のうち少なくとも1つの対象を検出する対象検出過程と、
前記映像から算出した少なくとも1つの特徴量に基づいて前記対象の状態を検出する情報検出過程と、を有し、
前記情報検出過程は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて対象を識別し、
対象の識別に成功したとき、前記特徴量を第2の識別データベースに登録する
識別方法。
In the identification method in the identification device, a target detection process of detecting at least one target among a person, an animal, and an object represented by the video from a video captured by at least one imaging unit;
An information detection process for detecting the state of the target based on at least one feature amount calculated from the video,
The information detection process identifies an object based on the feature amount and a feature amount registered in the first identification database in advance,
An identification method for registering the feature quantity in a second identification database when the identification of an object is successful.
識別装置のコンピュータに、少なくとも1つの撮像部が撮像した映像から前記映像が表す人物、動物および物体のうち少なくとも1つの対象を検出する対象検出手順と、
前記映像から算出した少なくとも1つの特徴量に基づいて前記対象の状態を検出する情報検出手順と、を有し、
前記情報検出手順は、前記特徴量と予め第1の識別データベースに登録された特徴量とに基づいて対象を識別し、
対象の識別に成功したとき、前記特徴量を第2の識別データベースに登録する
プログラム。
A target detection procedure for detecting at least one target among a person, an animal, and an object represented by the video from a video captured by at least one imaging unit in a computer of the identification device;
An information detection procedure for detecting the state of the target based on at least one feature amount calculated from the video,
The information detection procedure identifies a target based on the feature quantity and a feature quantity registered in the first identification database in advance,
A program for registering the feature quantity in a second identification database when the object is successfully identified.
JP2018091740A 2018-05-10 2018-05-10 Identification apparatus, identification method, and program Pending JP2018120644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018091740A JP2018120644A (en) 2018-05-10 2018-05-10 Identification apparatus, identification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091740A JP2018120644A (en) 2018-05-10 2018-05-10 Identification apparatus, identification method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014162468A Division JP6339445B2 (en) 2014-08-08 2014-08-08 Person identification device

Publications (1)

Publication Number Publication Date
JP2018120644A true JP2018120644A (en) 2018-08-02

Family

ID=63045356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018091740A Pending JP2018120644A (en) 2018-05-10 2018-05-10 Identification apparatus, identification method, and program

Country Status (1)

Country Link
JP (1) JP2018120644A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020161018A (en) * 2019-03-28 2020-10-01 綜合警備保障株式会社 Security system, management device, mobile terminal and security method
WO2020194488A1 (en) * 2019-03-26 2020-10-01 株式会社資生堂 Device, method, program, and system for determining three-dimensional shape of face
CN111914746A (en) * 2020-07-31 2020-11-10 安徽华速达电子科技有限公司 Method and system for relieving load of face recognition equipment
JP2020186572A (en) * 2019-05-14 2020-11-19 トヨタホーム株式会社 Lock/unlock control system for building
WO2021000829A1 (en) * 2019-07-03 2021-01-07 平安科技(深圳)有限公司 Multi-dimensional identity information identification method and apparatus, computer device and storage medium
JP2021026744A (en) * 2019-08-09 2021-02-22 日本テレビ放送網株式会社 Information processing device, image recognition method, and learning model generation method
JP2021103462A (en) * 2019-12-25 2021-07-15 トヨタ自動車株式会社 Information processing device, information processing method, and program
US11210528B2 (en) 2018-10-18 2021-12-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method, system, and storage medium to determine staying time of a person in predetermined region
WO2023282033A1 (en) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and program
JP7234324B1 (en) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 NOTIFICATION RECEIVING DEVICE, NOTIFICATION METHOD AND NOTIFICATION RECEIVING PROGRAM
JP7455889B2 (en) 2022-04-08 2024-03-26 楽天グループ株式会社 Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program
JP7491057B2 (en) 2019-08-20 2024-05-28 富士通株式会社 Target search device and method, electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085289A (en) * 2004-09-14 2006-03-30 Fuji Photo Film Co Ltd Facial authentication system and facial authentication method
JP2006331247A (en) * 2005-05-30 2006-12-07 Konica Minolta Photo Imaging Inc Id card reissue system
JP2009003898A (en) * 2007-06-25 2009-01-08 Omron Corp Monitoring system, monitoring method, information processing device, and program
JP2009245338A (en) * 2008-03-31 2009-10-22 Secom Co Ltd Face image collating apparatus
JP2013167986A (en) * 2012-02-15 2013-08-29 Hitachi Ltd Image recognition system and image recognition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006085289A (en) * 2004-09-14 2006-03-30 Fuji Photo Film Co Ltd Facial authentication system and facial authentication method
JP2006331247A (en) * 2005-05-30 2006-12-07 Konica Minolta Photo Imaging Inc Id card reissue system
JP2009003898A (en) * 2007-06-25 2009-01-08 Omron Corp Monitoring system, monitoring method, information processing device, and program
JP2009245338A (en) * 2008-03-31 2009-10-22 Secom Co Ltd Face image collating apparatus
JP2013167986A (en) * 2012-02-15 2013-08-29 Hitachi Ltd Image recognition system and image recognition method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11210528B2 (en) 2018-10-18 2021-12-28 Canon Kabushiki Kaisha Information processing apparatus, information processing method, system, and storage medium to determine staying time of a person in predetermined region
WO2020194488A1 (en) * 2019-03-26 2020-10-01 株式会社資生堂 Device, method, program, and system for determining three-dimensional shape of face
JP7347950B2 (en) 2019-03-28 2023-09-20 綜合警備保障株式会社 Security systems, management devices, mobile terminals and security methods
JP2020161018A (en) * 2019-03-28 2020-10-01 綜合警備保障株式会社 Security system, management device, mobile terminal and security method
JP2020186572A (en) * 2019-05-14 2020-11-19 トヨタホーム株式会社 Lock/unlock control system for building
JP7179675B2 (en) 2019-05-14 2022-11-29 トヨタホーム株式会社 Building lock/unlock control system
WO2021000829A1 (en) * 2019-07-03 2021-01-07 平安科技(深圳)有限公司 Multi-dimensional identity information identification method and apparatus, computer device and storage medium
JP2021026744A (en) * 2019-08-09 2021-02-22 日本テレビ放送網株式会社 Information processing device, image recognition method, and learning model generation method
JP7491057B2 (en) 2019-08-20 2024-05-28 富士通株式会社 Target search device and method, electronic device
JP2021103462A (en) * 2019-12-25 2021-07-15 トヨタ自動車株式会社 Information processing device, information processing method, and program
JP7294121B2 (en) 2019-12-25 2023-06-20 トヨタ自動車株式会社 Information processing device, information processing method, and program
US11783586B2 (en) 2019-12-25 2023-10-10 Toyota Jidosha Kabushiki Kaisha Information processing apparatus, information processing method and program medium
CN111914746A (en) * 2020-07-31 2020-11-10 安徽华速达电子科技有限公司 Method and system for relieving load of face recognition equipment
CN111914746B (en) * 2020-07-31 2024-05-03 安徽华速达电子科技有限公司 Method and system for relieving load of face recognition equipment
WO2023282033A1 (en) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 Image processing device, image processing method, and program
JP7234324B1 (en) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 NOTIFICATION RECEIVING DEVICE, NOTIFICATION METHOD AND NOTIFICATION RECEIVING PROGRAM
JP2023048165A (en) * 2021-09-28 2023-04-07 三菱電機インフォメーションシステムズ株式会社 Notification reception device, notification reception method, and notification reception program
JP7455889B2 (en) 2022-04-08 2024-03-26 楽天グループ株式会社 Image evaluation device, image processing system, user terminal, image evaluation method, and image evaluation program

Similar Documents

Publication Publication Date Title
JP2018120644A (en) Identification apparatus, identification method, and program
JP6339445B2 (en) Person identification device
JP6411373B2 (en) Recognition data transmission device, recognition data recording device, and recognition data recording method
CN110535732B (en) Equipment control method and device, electronic equipment and storage medium
US8644614B2 (en) Image processing apparatus, image processing method, and storage medium
CN110647797B (en) Visitor detection method and device
JP2008040781A (en) Subject verification apparatus and subject verification method
JP4797517B2 (en) Monitoring device and method, and program
Jansi et al. Detection of fall for the elderly in an indoor environment using a tri-axial accelerometer and Kinect depth data
JP6757009B1 (en) Computer program, object identification method, object identification device and object identification system
CN110599710A (en) Reminding method and related equipment
JP2012208610A (en) Face image authentication apparatus
JP3835771B2 (en) Communication apparatus and communication method
WO2013069565A1 (en) Imaging/recording device
JP6048630B1 (en) Behavior detection device, behavior detection method, and monitored person monitoring device
CN114859749B (en) Intelligent home management method and system based on Internet of things
JP6941950B2 (en) Image providing system, image providing method, and image providing program
WO2020022371A1 (en) Robot, method for controlling robot, and control program
JP2024045460A (en) Information processing system, information processing device, information processing method, and program
CN112052765A (en) Intelligent furniture with protection function for old people and control method thereof
WO2019150954A1 (en) Information processing device
JP5989505B2 (en) Message management apparatus, message presentation apparatus, message presentation system, message management apparatus, message presentation apparatus control method, control program, and recording medium
CN115118536B (en) Sharing method, control device and computer readable storage medium
US20220319232A1 (en) Apparatus and method for providing missing child search service based on face recognition using deep-learning
JP2005199373A (en) Communication device and communication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191203