JP2020095756A - Identification device - Google Patents

Identification device Download PDF

Info

Publication number
JP2020095756A
JP2020095756A JP2020049530A JP2020049530A JP2020095756A JP 2020095756 A JP2020095756 A JP 2020095756A JP 2020049530 A JP2020049530 A JP 2020049530A JP 2020049530 A JP2020049530 A JP 2020049530A JP 2020095756 A JP2020095756 A JP 2020095756A
Authority
JP
Japan
Prior art keywords
information
person
motion
skeleton
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020049530A
Other languages
Japanese (ja)
Other versions
JP6909986B2 (en
Inventor
新 浩治
Koji Arata
浩治 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016091760A external-priority patent/JP6688990B2/en
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020049530A priority Critical patent/JP6909986B2/en
Publication of JP2020095756A publication Critical patent/JP2020095756A/en
Application granted granted Critical
Publication of JP6909986B2 publication Critical patent/JP6909986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide an identification device capable of identifying the posture of a person.SOLUTION: An identification device 100 includes: an input part 101 that receives a piece of image information of a person picked up by a camera; and a control unit 102 that identifies the person on the basis of the image information and detects at least head and hands of the person, and identifies the motion of the person on the basis of the identified person, the detected portion, and a behavior model in which the behavior of the person is registered for each person. The motion model includes a first motion model that is generated on the basis of the motions of the person identified by the control unit and a second motion model which is pre-generated and stored.SELECTED DRAWING: Figure 5

Description

本発明は、識別装置に関する。 The present invention relates to an identification device.

近年、人物の姿勢を識別する技術が知られている。 In recent years, a technique for identifying the posture of a person is known.

例えば特許文献1には、カメラの画像から人物の手、肘及び肩の特徴点の位置を検出し、あらかじめ作成された関節モデルに適合するよう手、肘及び肩の特徴点位置を補正する装置が開示されている。 For example, in Patent Document 1, a device that detects the positions of the feature points of a person's hand, elbows and shoulders from the image of a camera and corrects the positions of the feature points of the hand, elbows and shoulders so as to match a joint model created in advance. Is disclosed.

特開2010−211705号公報JP, 2010-211705, A

しかしながら、特許文献1に記載の装置では、人物が革ジャケットなど近赤光に対する反射率の低い衣服を着用している場合に、体・腕部分の画素値が正常に得られず、肩及び肘の関節を検知することができないため、人物の姿勢を識別することができないという課題があった。 However, in the device described in Patent Document 1, when a person wears clothes such as a leather jacket having a low reflectance for near red light, the pixel values of the body/arm portions cannot be normally obtained, and the shoulders and elbows are not obtained. There is a problem that the posture of the person cannot be identified because the joint of the person cannot be detected.

本発明の目的は、人物の姿勢を識別することができる識別装置を提供することである。 An object of the present invention is to provide an identification device that can identify the posture of a person.

本発明の一態様に係る識別装置は、カメラで撮影された人物の画像情報を受け取る入力部と、前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含む。 An identification device according to an aspect of the present invention includes an input unit that receives image information of a person photographed by a camera, identification of the person based on the image information, and detection of at least the head and hand parts of the person. The identified person, the detected part, and a control unit that identifies the movement of the person based on a movement model in which the movement of the person is registered for each person; It includes a first motion model generated based on the motion of the person identified by the control unit, and a second motion model generated and stored in advance.

なお、ここでいう「人物」とは、特定の個人の意味には限られず、任意の年齢、性別及び体格の人物一般も意味する。 The “person” here is not limited to the meaning of a specific individual, but also a general person of any age, sex, and physique.

本発明によれば、人物の姿勢を識別することができる。 According to the present invention, the posture of a person can be identified.

本発明の実施の形態に係る識別装置の構成の一例を示すブロック図Block diagram showing an example of the configuration of an identification device according to an embodiment of the present invention 制御部の構成の一例を示すブロック図Block diagram showing an example of the configuration of the control unit 骨格検知処理の一例を示す説明図Explanatory drawing showing an example of skeleton detection processing 動作モデルの一例を示す説明図Explanatory drawing showing an example of behavior model 本発明の実施の形態において人物情報及び部位情報を動作モデルと比較する様子を示す説明図Explanatory drawing which shows a mode that person information and part information are compared with a motion model in the embodiment of the invention. 本発明の実施の形態に係る識別装置の主要な動作を説明するフロー図Flow chart explaining the main operation of the identification device according to an embodiment of the present invention 変形例2において人物情報及び部位情報を動作モデルと比較する様子を示す説明図Explanatory drawing which shows a mode that person information and site|part information are compared with a motion model in the modification 2. 各部の機能をプログラムにより実現するコンピュータのハードウェア構成の一例を示す図The figure which shows an example of the hardware constitutions of the computer which implement|achieves the function of each part by the program.

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。ただし、各実施の形態において、同一機能を有する構成には、同一符号を付し、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, in each embodiment, configurations having the same function are denoted by the same reference numerals, and duplicate description will be omitted.

まず、本発明の実施の形態に係る識別装置100の構成の一例について、図1aを用いて説明する。図1aは、本発明の実施の形態に係る識別装置100の構成の一例を示すブロック図である。 First, an example of the configuration of the identification device 100 according to the embodiment of the present invention will be described with reference to FIG. 1a. FIG. 1a is a block diagram showing an example of the configuration of the identification device 100 according to the embodiment of the present invention.

図1aに示す識別装置100、カメラ200、及び機器300は、例えば、自動車、鉄道車両、船舶、航空機などの移動体に搭載される。本実施の形態では、識別装置100、カメラ200、及び機器300が自動車に搭載される場合を例に挙げて説明する。 The identification device 100, the camera 200, and the device 300 illustrated in FIG. 1a are mounted on a moving body such as an automobile, a railroad vehicle, a ship, or an aircraft. In the present embodiment, a case where the identification device 100, the camera 200, and the device 300 are installed in an automobile will be described as an example.

カメラ200は、例えば、ステレオカメラ、TOF(Time Of Flight)方式のカメラなどの測距カメラであり、車室内における人物の存在する範囲を撮影して画像情報を取得し、その画像情報を識別装置100へ出力する。画像情報は、近赤外光の反射強度の強さを表す近赤画像を少なくとも含む。またステレオカメラまたはTOFカメラの場合には距離の遠近を表す距離画像をさらに含んでも良い。 The camera 200 is, for example, a distance-measuring camera such as a stereo camera or a TOF (Time Of Flight) type camera. The camera 200 captures image information by capturing a range in which a person is present in the vehicle compartment, and the image information is identified by the identification device. Output to 100. The image information includes at least a near-red image that represents the intensity of the reflection intensity of near-infrared light. In the case of a stereo camera or a TOF camera, it may further include a range image showing the distance.

機器300は、自動車において用いられる機器である。機器300は、例えば、カーナビゲーション装置、オーディオ装置、エアコンディショナー装置、タブレット、スマートフォン、リアカメラ、サイドカメラ、フロントカメラ、ETC車載器である。または、機器300は、例えば、ハンドル、シフトレバー(ギアレバー)、ウィンカーレバー(ウィンカースイッチ)、ワイパーレバー(ワイパースイッチ)、ドアロックスイッチ、パワーウィンドウの昇降スイッチ、エンジンスタートスイッチ、アクセルペダル、ブレーキペダル、クラッチペダルなどでもよい。 The device 300 is a device used in an automobile. The device 300 is, for example, a car navigation device, an audio device, an air conditioner device, a tablet, a smartphone, a rear camera, a side camera, a front camera, an ETC vehicle-mounted device. Alternatively, the device 300 includes, for example, a handle, a shift lever (gear lever), a winker lever (winker switch), a wiper lever (wiper switch), a door lock switch, a power window up/down switch, an engine start switch, an accelerator pedal, a brake pedal, It may be a clutch pedal or the like.

機器300は、有線ネットワーク(例えば、CAN:Controller Area Network )、無線ネットワーク(例えば、無線LAN:Local Area Network)、または、有線ネットワークと無線ネットワークが混在したネットワークを介して識別装置100と接続される。そして、機器300は、識別装置100から受け取る制御信号に基づき制御される。 The device 300 is connected to the identification device 100 via a wired network (for example, CAN: Controller Area Network), a wireless network (for example, wireless LAN: Local Area Network), or a network in which a wired network and a wireless network are mixed. .. Then, the device 300 is controlled based on the control signal received from the identification device 100.

識別装置100は、入力部101、制御部102を備える。 The identification device 100 includes an input unit 101 and a control unit 102.

入力部101は、カメラ200から人物の画像情報を受け取り、制御部102に出力する。 The input unit 101 receives the image information of a person from the camera 200 and outputs it to the control unit 102.

制御部102は、入力部101から受け取った画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する。このような構成により、人物の姿勢を識別することができる。 The control unit 102 identifies the person based on the image information received from the input unit 101 and detects at least the head and hand parts of the person, and identifies the identified person, the detected part, and the person. The action of the person is identified based on the action model registered for each person. With such a configuration, the posture of the person can be identified.

次に、制御部102の構成の一例について、図1bを用いて説明する。図1bは、制御部の構成の一例を示すブロック図である。 Next, an example of the configuration of the control unit 102 will be described with reference to FIG. FIG. 1b is a block diagram showing an example of the configuration of the control unit.

図1bに示すように、制御部102は、検知制御部110、骨格検知部120、骨格動作識別部130、人物識別部140、動作モデル部150、部位検知部160、部位動作識別部170、機器制御部180を備える。 As shown in FIG. 1b, the control unit 102 includes a detection control unit 110, a skeleton detection unit 120, a skeleton motion identification unit 130, a person identification unit 140, a motion model unit 150, a site detection unit 160, a site motion identification unit 170, and a device. The controller 180 is provided.

検知制御部110は、カメラ200から画像情報を受け取り、画像情報を解析し、骨格検知部120、人物識別部140、部位検知部160に画像情報を出力する。具体的には、検知制御部110は、画像情報の解析により骨格検知が可能かどうかを判定し、骨格検知が可能であると判定された場合は、骨格検知部120及び人物識別部140に画像情報を出力する。一方、骨格検知が可能でないと判定された場合は、更に後述する動作モデルが利用可能かどうかを判定し、動作モデルが利用可能であると判定された場合は、人物識別部140及び部位検知部160に画像情報を出力する。骨格検知が可能かどうかの判定については後述する。 The detection control unit 110 receives image information from the camera 200, analyzes the image information, and outputs the image information to the skeleton detection unit 120, the person identification unit 140, and the part detection unit 160. Specifically, the detection control unit 110 determines whether or not skeleton detection is possible by analyzing image information, and when it is determined that skeleton detection is possible, the skeleton detection unit 120 and the person identification unit 140 display images. Output information. On the other hand, if it is determined that skeleton detection is not possible, it is further determined whether or not a motion model to be described later is available. If it is determined that the motion model is available, the person identifying unit 140 and the part detection unit. The image information is output to 160. The determination as to whether skeleton detection is possible will be described later.

骨格検知部120は、検知制御部110から受け取った画像情報に基づいて、人物の骨格位置を検知し、検知した結果を示す骨格情報を骨格動作識別部130に出力する。人物の骨格位置とは頭、首、腰、肩、肘、手などの領域を表す代表点の位置を示すものである。代表点の位置は画像上の2次元座標として特定される。 The skeleton detection unit 120 detects the skeleton position of the person based on the image information received from the detection control unit 110, and outputs the skeleton information indicating the detection result to the skeleton motion identification unit 130. The skeleton position of a person refers to the position of a representative point representing a region such as the head, neck, waist, shoulders, elbows, and hands. The position of the representative point is specified as a two-dimensional coordinate on the image.

図2は、骨格検知処理の例を示したものである。画像1000は人物を撮影した画像の例であり、自動車を運転している人物がハンドルを握っている画像の模式図である。画像1001は画像1000における人物の骨格位置を検知した結果画像の例であり、頭、首、腰、左肩、左肘、左手、右肩、右肘、右手の代表点である9点の位置を検知した状態を示している。骨格情報とは検知した代表点の位置座標であり、画像上の代表点9点の位置座標(X1,Y1)、(X2,Y2)・・・(X9,Y9)として得られるものである。骨格検知は、例えば特許文献1に示されているような既存の方法を用いる事で実現が可能である。 FIG. 2 shows an example of the skeleton detection process. An image 1000 is an example of an image of a person, and is a schematic view of an image of a person driving an automobile holding a steering wheel. An image 1001 is an example of an image obtained by detecting the skeleton position of a person in the image 1000, and the positions of nine points that are the representative points of the head, neck, waist, left shoulder, left elbow, left hand, right shoulder, right elbow, and right hand are shown. The detected state is shown. The skeleton information is the position coordinates of the detected representative points, and is obtained as the position coordinates (X1, Y1), (X2, Y2)... (X9, Y9) of the nine representative points on the image. Skeleton detection can be realized by using an existing method as disclosed in Patent Document 1, for example.

また、画像1001では、頭、首、腰、左肩、左肘、左手、右肩、右肘、右手の代表点である9点の位置を検知することができたため、検知制御部110は、骨格検知が可能であると判定する。一方、画像1002は、撮影した人物が革ジャケットなど近赤光に対する反射率の低い衣服を着用している場合に得られる人物の骨格位置を検知した結果画像の例を示している。画像1002では、頭、左手、右手の代表点である3点の位置しか検知できていないことがわかる。この場合、検知制御部110は、骨格検知が可能でないと判定する。 Further, in the image 1001, the positions of nine points, which are the representative points of the head, neck, waist, left shoulder, left elbow, left hand, right shoulder, right elbow, and right hand, can be detected. It is determined that detection is possible. On the other hand, an image 1002 shows an example of a result image obtained by detecting the skeleton position of a person obtained when the photographed person is wearing clothes such as a leather jacket having a low reflectance for near red light. In the image 1002, it can be seen that only the positions of the three representative points of the head, left hand, and right hand can be detected. In this case, the detection control unit 110 determines that skeleton detection is not possible.

骨格動作識別部130は、骨格検知部120から受け取った骨格情報に基づいて、乗員の動作を識別する。乗員の動作とは、例えばエアコンディショナー装置、ハンドル、オーディオ装置等の機器を操作する動作、運転中の物探し、振り向きなどのしぐさ等である。 The skeleton motion identification unit 130 identifies the occupant's motion based on the skeleton information received from the skeleton detection unit 120. The operation of the occupant is, for example, an operation of operating a device such as an air conditioner device, a steering wheel, or an audio device, a search for an object while driving, a gesture of turning and the like.

骨格情報に基づく動作の識別は、既存の手法、例えば比較対象パラメータの木構造に従う複数回の大小比較から既定のパターンのうちのひとつを特定する、いわゆるランダムフォレスト等の手法を使用することで行うことができる。 The operation is identified based on the skeleton information by using an existing method, for example, a so-called random forest method that specifies one of the predetermined patterns from multiple size comparisons according to the tree structure of the comparison target parameter. be able to.

骨格動作識別部130は、上記のような乗員の動作の識別結果を示す動作情報及び骨格情報を、動作モデル部150に出力する。また、骨格動作識別部130は、動作情報を、機器制御部180に出力する。 The skeleton motion identification unit 130 outputs, to the motion model unit 150, motion information and skeleton information indicating the above-described occupant motion identification result. Further, the skeleton motion identification unit 130 outputs the motion information to the device control unit 180.

人物識別部140は、検知制御部110から受け取った画像情報に基づいて、人物が誰であるのかを識別し、識別した結果を示す人物情報を動作モデル部150、及び部位動作識別部170に出力する。 The person identifying unit 140 identifies who the person is based on the image information received from the detection control unit 110, and outputs the person information indicating the identified result to the action model unit 150 and the region action identifying unit 170. To do.

人物識別の実現には例えば既存の顔認証の技術を利用することが可能である。例えば自動車を運転する複数人物の顔画像を予め登録しておき、それらの人物が実際に自動車を運転する際に顔画像を取得し、取得した顔画像と登録済の顔画像とを既存技術で照合することにより、どの登録者か識別することができる。顔識別の既存技術としては、顔の特徴量をLBP(Local Binary Pattern)またはHOG(Histogram of Oriented Gradient)といった手法で取得し、その特徴量を照合する方法がある。 To realize the person identification, it is possible to use the existing face recognition technology, for example. For example, face images of a plurality of persons who drive a car are registered in advance, face images are acquired when those persons actually drive the car, and the acquired face image and the registered face images are registered using existing technology. By matching, it is possible to identify which registrant. As an existing technology for face identification, there is a method of acquiring a feature amount of a face by a method such as LBP (Local Binary Pattern) or HOG (Histogram of Oriented Gradient) and collating the feature amount.

動作モデル部150は、骨格動作識別部130からの動作情報、骨格情報、及び人物識別部140からの人物情報をもとに、動作モデルを生成し、記憶するとともに、記憶した動作モデルを部位動作識別部170に出力する。 The motion model unit 150 generates and stores a motion model based on the motion information from the skeleton motion identifying unit 130, the skeleton information, and the person information from the person identifying unit 140, and the stored motion model is used as a part motion. Output to the identification unit 170.

動作モデルは、人物情報(登録された人物に対応した登録番号)、骨格情報(骨格の特徴点の位置座標)、及び動作情報(動作の種類に対応した動作番号)を関連付けて記憶したデータベースの形態とする。ここで、骨格情報としては、骨格検知部120から出力された全ての特徴点情報を登録するのではなく、後述する部位検知部160での部位検知処理で検知対象となる頭部、左手、及び右手の特徴点の情報のみを登録する。図3に例として、人物情報、頭部・左手・右手の骨格情報、及び動作情報の関連データベース1003を示す。 The motion model is stored in a database in which personal information (registration number corresponding to a registered person), skeleton information (positional coordinates of skeleton feature points), and motion information (motion number corresponding to motion type) are stored in association with each other. Form. Here, as the skeleton information, instead of registering all the feature point information output from the skeleton detection unit 120, the head, the left hand, and the left hand, which are detection targets in the site detection processing by the site detection unit 160, which will be described later. Only the information of the feature points on the right hand is registered. As an example, FIG. 3 shows a relational database 1003 of person information, head/left/right hand skeleton information, and motion information.

本実施の形態では、動作モデルのデータベースは、骨格検知部120による骨格検知が可能な状態にて検知された骨格情報、人物情報及び動作情報を一定数以上蓄積できた後に利用可能となる。例えば、動作モデルのデータベースが利用可能となるためには、人物情報、骨格情報、及び動作情報の組合せを10000組以上蓄積することを必要とする。 In the present embodiment, the motion model database becomes available after a certain number or more of skeleton information, person information, and motion information detected in a state where skeleton detection by the skeleton detection unit 120 is possible. For example, in order to be able to use a database of motion models, it is necessary to store 10,000 or more combinations of person information, skeleton information, and motion information.

動作モデル部150は、動作モデルが利用可能かどうかの状態情報を検知制御部110に出力する。検知制御部110では動作モデルが利用可能かどうかに従って処理を分岐させる。 The behavior model unit 150 outputs state information indicating whether or not the behavior model is available to the detection control unit 110. The detection control unit 110 branches the process depending on whether the behavior model is available.

部位検知部160は、検知制御部110から受け取った画像情報に基づいて、人物の部位情報として頭部位置、左手位置、及び右手位置を検知し、検知結果の部位情報を部位動作識別部170に出力する。 The part detection unit 160 detects a head position, a left hand position, and a right hand position as the part information of the person based on the image information received from the detection control unit 110, and outputs the detection result part information to the part motion identification unit 170. Output.

上述した骨格検知部120においても、頭部位置、左手位置、右手位置を含む複数の特徴点の位置座標を検出しているが、ここでは人物の身体部分の画像情報が正常に得られない場合における検知手法を用いる。 The skeleton detection unit 120 described above also detects the position coordinates of a plurality of feature points including the head position, the left-hand position, and the right-hand position, but here, when the image information of the human body part cannot be obtained normally. The detection method in is used.

例えば部位情報の検知を既存の手法の組合せにより実現する方法として、画像情報に含まれる距離情報を用いて等距離に存在する距離情報の固まりを検知し、その固まりの位置を複数フレーム間でトラッキングする手法を用いることが可能である。 For example, as a method of realizing the detection of body part information by combining existing methods, the distance information included in the image information is used to detect a group of distance information existing at equal distances, and the position of the group is tracked between a plurality of frames. It is possible to use the method.

部位動作識別部170は、人物識別部140からの人物情報、動作モデル部150からの動作モデル、及び部位検知部160からの部位情報に基づいて、乗員の動作を識別する。 Partial movement identification unit 170 identifies the movement of the occupant based on the person information from person identification unit 140, the movement model from movement model unit 150, and the portion information from portion detection unit 160.

部位動作識別部170において乗員の動作を識別する部位動作識別処理の手法について、図4を用いて説明する。 A method of part movement identification processing for identifying the movement of the occupant in part movement identification section 170 will be described with reference to FIG.

部位動作識別処理では、部位動作識別部170の入力情報2001における人物情報及び部位情報を、既に動作モデルとして登録されている登録情報2002における人物情報及び骨格情報と照合し、登録情報2002の中から、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報に最も近いデータを検索する。 In the body part movement identification process, the person information and the body part information in the input information 2001 of the body part movement identification unit 170 are compared with the person information and the skeleton information in the registration information 2002 already registered as the motion model, and the registration information 2002 is selected. , Data in which the person information matches the person information in the input information and the skeleton information is closest to the part information in the input information is searched.

入力情報の部位情報に最も近い骨格情報を有する登録情報を検索する手法として、例えば、次に示す手法を採用することができる。まず、入力情報と登録情報との間の、対応する部位同士(例えば、頭部位置同士、左手位置同士、右手位置同士)の距離をそれぞれ算出する。そして、算出された各部位同士の距離の合計が最も小さい登録情報を、入力情報の部位情報に最も近い骨格情報を有する登録情報であると判断する。 As a method of retrieving the registered information having the skeleton information closest to the part information of the input information, for example, the following method can be adopted. First, distances between corresponding parts (for example, head positions, left-hand positions, right-hand positions) between the input information and the registration information are calculated. Then, the registration information having the smallest sum of the calculated distances between the respective parts is determined to be the registration information having the skeleton information closest to the part information of the input information.

入力情報と登録情報の照合を行う際には、動作の識別精度を考慮すると、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報と一致するデータを検索することが理想である。しかしながら、所定の動作をする場合の人の動きは常に同じとは限らないので、登録情報における骨格情報に、入力情報における部位情報と一致するものがない場合が考えられる。 When matching the input information and the registered information, considering the identification accuracy of the motion, the data in which the person information matches the person information in the input information and the skeleton information matches the part information in the input information are searched for. Is ideal. However, since the movement of a person when performing a predetermined motion is not always the same, it is conceivable that there is no skeleton information in the registration information that matches the part information in the input information.

このような場合を考慮して、本実施の形態では、入力情報と登録情報の照合を行う際には、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報に最も近いデータを検索する。 In consideration of such a case, in the present embodiment, when matching the input information and the registered information, the person information matches the person information in the input information, and the skeleton information is the site information in the input information. To find the data closest to.

図4の例の場合には、入力情報2001は、登録情報2002のうち2003のデータに最も近いため、部位動作識別部170は、動作情報は「6」であると識別し、部位動作情報を機器制御部180に出力する。 In the case of the example of FIG. 4, since the input information 2001 is the closest to the data of 2003 in the registration information 2002, the part motion identification unit 170 identifies that the motion information is “6”, and outputs the part motion information. It is output to the device control unit 180.

機器制御部180は、骨格動作識別部130からの動作情報または部位動作識別部170からの動作情報に基づいて、不図示の機器300を制御するための制御情報を生成し、生成した制御情報を機器300に出力する。 The device control unit 180 generates control information for controlling the device 300 (not shown) based on the motion information from the skeleton motion identification unit 130 or the motion information from the part motion identification unit 170, and outputs the generated control information. Output to the device 300.

機器300は、機器制御部180から受け取った制御情報に基づき制御される。 The device 300 is controlled based on the control information received from the device control unit 180.

なお、図1bの例では、制御部102が骨格検知部120及び骨格動作識別部130を含む構成としたが、制御部102は、骨格検知部120及び骨格動作識別部130を含まない構成としてもよい。詳細については後述する。 Although the control unit 102 includes the skeleton detection unit 120 and the skeleton motion identification unit 130 in the example of FIG. 1b, the control unit 102 may include the skeleton detection unit 120 and the skeleton motion identification unit 130. Good. Details will be described later.

また、図1bの例では、制御部102が機器制御部180を含む構成としたが、機器制御部180は、制御部102とは別に設けられていてもよい。 In the example of FIG. 1b, the control unit 102 includes the device control unit 180, but the device control unit 180 may be provided separately from the control unit 102.

すなわち、制御部102は、少なくとも検知制御部110、人物識別部140、動作モデル部150、部位検知部160及び部位動作識別部170を含む構成であればよい。 That is, the control unit 102 may be configured to include at least the detection control unit 110, the person identifying unit 140, the motion model unit 150, the part detecting unit 160, and the part motion identifying unit 170.

次に、本実施の形態に係る制御部102の動作の一例について、図5を用いて説明する。図5は、本実施の形態に係る制御部102の動作の流れの一例を示すフロー図である。 Next, an example of the operation of the control unit 102 according to this embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an example of the operation flow of the control unit 102 according to the present embodiment.

まず、ステップS101で、検知制御部110は、カメラ200から画像情報を受け取る。上述したとおり、画像情報は乗員を撮影した画像である。 First, in step S101, the detection control unit 110 receives image information from the camera 200. As described above, the image information is an image of the occupant.

続いて、ステップS102で、検知制御部110は、画像情報をもとに、骨格検知が可能な画像かどうかを判定する。具体的には、画像情報から検知すべき全ての代表点位置を検知することができた場合に、骨格検知が可能な画像であると判定し、画像情報から検知すべき代表点位置のうち一部の代表点位置しか検知することができなかった場合に、骨格検知が可能な画像でないと判定する。 Subsequently, in step S102, the detection control unit 110 determines whether the image is a skeleton-detectable image based on the image information. Specifically, when all the representative point positions to be detected from the image information can be detected, it is determined that the image can be detected as a skeleton, and one of the representative point positions to be detected from the image information is detected. When only the representative point position of the part can be detected, it is determined that the image is not a skeleton-detectable image.

ステップS102で骨格検知が可能な画像であると判定された場合(ステップS102:YES)、ステップS103に進み、ステップS103で、骨格検知部120は、骨格検知処理を行う。 If it is determined in step S102 that the skeleton can be detected (step S102: YES), the process proceeds to step S103, and in step S103, the skeleton detection unit 120 performs skeleton detection processing.

続いて、ステップS104で、人物識別部140は、人物識別処理を行い、ステップS105で、骨格動作識別部130は、動作識別処理を行い、ステップS106で、機器制御部180は、機器制御情報生成処理を行う。 Subsequently, in step S104, the person identifying unit 140 performs person identifying processing, in step S105, the skeleton action identifying unit 130 performs action identifying processing, and in step S106, the device control unit 180 causes the device control information generation. Perform processing.

ステップS106に続くステップS107では、ステップS103の骨格検知処理で識別された骨格情報、ステップS104の人物識別処理で識別された人物情報、及びステップS105の動作識別処理で識別された動作情報に基づき、動作モデル部150は、動作モデルの更新を行う。具体的には、得られた骨格情報、人物情報及び動作情報を動作モデルのデータベースに加える作業を行う。なお、ステップS106とステップS107を行う順番は逆でもよく、また、ステップS106とステップS107を同時に行ってもよい。 In step S107 following step S106, based on the skeleton information identified in the skeleton detection process of step S103, the person information identified in the person identification process of step S104, and the action information identified in the action identification process of step S105, The behavior model unit 150 updates the behavior model. Specifically, the work of adding the obtained skeleton information, person information, and motion information to the motion model database is performed. The order of performing step S106 and step S107 may be reversed, and step S106 and step S107 may be performed simultaneously.

ステップS102で骨格検知が可能な画像であると判定されなかった場合(ステップS102:NO)、ステップS108に進み、ステップS108で、検知制御部110は、動作モデルが利用可能かどうかを判定する。 If it is not determined in step S102 that the skeleton can be detected (step S102: NO), the process proceeds to step S108, and in step S108, the detection control unit 110 determines whether the motion model is available.

ステップS108で動作モデルが利用可能であると判定された場合(ステップS108:YES)、ステップS109に進み、ステップS109で、部位検知部160は、部位検知処理を行う。 When it is determined in step S108 that the motion model is available (step S108: YES), the process proceeds to step S109, and in step S109, the part detection unit 160 performs a part detection process.

続いて、ステップS110で、人物識別部140は、人物識別処理を行う。 Subsequently, in step S110, the person identifying unit 140 performs a person identifying process.

ステップS110に続くステップS111で、部位動作識別部170は、ステップS109の部位検知処理で識別された部位情報、ステップS110の人物識別処理で識別された人物情報、及び予め記憶された動作モデルに基づき、部位動作識別処理を行う。 In step S111 following step S110, the part motion identification unit 170 is based on the part information identified in the part detection process of step S109, the person information identified in the person identification process of step S110, and the pre-stored motion model. , The part motion identification process is performed.

ステップS111に続くステップS112で、機器制御部180は、機器制御情報生成処理を行う。 In step S112 following step S111, the device control section 180 performs a device control information generation process.

ステップS108で動作モデルが利用可能であると判定されなかった場合(ステップS108:NO)には、ステップS113に進み、ステップS113で、検知制御部110は、動作識別処理が不可能と判定して、動作識別処理の実行を禁止し、エラー情報を提示するなどして処理を終了する。 When it is not determined that the motion model is available in step S108 (step S108: NO), the process proceeds to step S113, and in step S113, the detection control unit 110 determines that the motion identification process is impossible. The execution of the motion identification process is prohibited, error information is presented, and the process ends.

以上説明したように、本実施の形態の識別装置100では、入力部101から受け取った画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する。 As described above, in the identification device 100 according to the present embodiment, the person is identified and at least the head and hand parts of the person are detected based on the image information received from the input unit 101, and the person is identified. The motion of the person is identified based on the motion model registered for each person, the detected part, and the motion of the person.

そのため、人物が革ジャケット等の近赤外光に対する反射率の低い衣服を着用しており、体・腕部分の距離が正常に出力されず、肩及び肘の関節を検知できない場合、部位情報だけでは動作識別を誤る可能性があるが、本実施の形態の識別装置100は、そのような場合でも、人物の動作を正しく識別することができる。 Therefore, if a person wears leather jackets or other clothing with low reflectance to near-infrared light, the distance between the body and arms is not output normally, and the shoulder and elbow joints cannot be detected, only the site information Although there is a possibility that the motion identification may be erroneous, the identification device 100 of the present embodiment can correctly identify the motion of the person even in such a case.

また、例えば、人物の頭部、左手、右手の位置が同じであっても、人物のしぐさのクセまたは体格の違いにより、動作の種類に違いが生じてしまう場合がある。このような場合にも、本実施の形態の識別装置100は、人物情報、部位情報及び基本動作モデルに基づいて人物の動作を識別するので、人物の違いによる動作の違いを吸収して、動作を正しく識別することができる。 In addition, for example, even if the positions of the head, left hand, and right hand of a person are the same, there may be a case where the type of motion is different due to the habit of the person or the difference in physique. Even in such a case, the identification device 100 of the present embodiment identifies the motion of the person based on the person information, the part information, and the basic motion model. Can be correctly identified.

以上、本発明の実施の形態について説明したが、本発明は、実施の形態の説明に限定されない。以下、各変形例について説明する。 Although the embodiment of the invention has been described above, the invention is not limited to the description of the embodiment. Hereinafter, each modification will be described.

<変形例1>
上述した実施の形態では、識別装置100、カメラ200、および機器300が自動車に備えられる例を挙げて説明したが、これに限定されない。識別装置100、カメラ200、および機器300は、自動車以外の移動体(例えば、鉄道車両、船舶、航空機等)に備えられてもよいし、移動体以外の場所に備えられてもよい。
<Modification 1>
In the above-described embodiment, an example in which the identification device 100, the camera 200, and the device 300 are provided in an automobile has been described, but the present invention is not limited to this. The identification device 100, the camera 200, and the device 300 may be provided in a moving body other than an automobile (for example, a railcar, a ship, an aircraft, etc.) or a place other than the moving body.

<変形例2>
上述した実施の形態では、部位動作識別処理において、人物情報が入力情報における人物情報と同じであり、かつ、骨格情報が入力情報における部位情報に最も近い登録情報における動作情報を、入力情報の動作情報と識別するようにしたが、これに限定されない。
<Modification 2>
In the embodiment described above, in the body part movement identification process, the person information is the same as the person information in the input information, and the skeleton information is the movement information in the registration information closest to the body part information in the input information. Although it is identified as information, the invention is not limited to this.

例えば、入力情報と登録情報の間で人物情報は一致するが、入力情報における部位情報と登録情報における骨格情報で一致するものがない場合に、入力情報における部位情報と近い順に登録情報を所定数検索し、これら所定数の登録情報における動作情報が全て同一である場合に、当該動作情報を入力情報における動作情報として用いるようにしてもよい。検索される登録情報の数については、予め決定しておく。 For example, if the person information matches between the input information and the registration information, but there is no match between the site information in the input information and the skeleton information in the registration information, a predetermined number of registration information items are arranged in the order of proximity to the site information in the input information. If all the operation information in the predetermined number of pieces of registration information is searched, the operation information may be used as the operation information in the input information. The number of registered information items to be searched is determined in advance.

以下、変形例2の具体的態様について、図6を用いて説明する。なお、図6では、説明を容易にするため、登録情報のうち、人物情報が「2」であるもののみを示している。また、以下の説明では、検索される登録情報の数を3個とした例を示す。 Hereinafter, a specific mode of Modification 2 will be described with reference to FIG. It should be noted that in FIG. 6, for ease of explanation, only pieces of registered information whose personal information is “2” are shown. Further, in the following description, an example in which the number of registered information items to be searched is 3 is shown.

図6において、登録情報3002のうち、入力情報3001における部位情報と近い登録情報として、最も近いデータである3005のデータ、2番目に近いデータである3007、及び3番目に近いデータである3003のデータが検索される。そして、この場合、検索された3個のデータにおける動作情報が全て「1」であるので、入力情報における動作情報は「1」であると判定する。 In FIG. 6, among the registration information 3002, the registration information close to the part information in the input information 3001 is the data of the closest data 3005, the data closest to the second 3007, and the data closest to the third 3003. The data is retrieved. Then, in this case, since the motion information in all of the retrieved three data is "1", it is determined that the motion information in the input information is "1".

このようにすれば、単純に入力情報における部位情報に最も近い登録情報における骨格情報を用いるよりも動作識別精度が向上する。特に、登録情報が少ない状態では、入力情報における部位情報に最も近い登録情報における骨格情報を用いると動作識別精度が低下することが懸念されるので、上述の方法を用いた動作情報の推定は効果的である。 With this, the motion identification accuracy is improved as compared with the case where the skeleton information in the registration information closest to the part information in the input information is simply used. In particular, when there is a small amount of registration information, it is feared that the accuracy of motion identification will decrease if the skeleton information in the registration information that is closest to the part information in the input information is used, so estimation of motion information using the above method is effective. Target.

<変形例3>
上述した実施の形態では、人物情報、骨格情報、及び動作情報の組合せを例えば10000組以上蓄積するまでは動作モデルのデータベースを利用できない態様としたが、動作モデルの利用制限はこれに限定されない。
<Modification 3>
In the above-described embodiment, the behavior model database cannot be used until, for example, 10,000 or more combinations of person information, skeleton information, and movement information are accumulated, but the use restriction of the behavior model is not limited to this.

人物情報、骨格情報、及び動作情報の組合せの蓄積量が10000組に満たない場合でも、ある程度信頼性を担保できるだけの情報が蓄積された段階で動作モデルのデータベースを利用可能とすることが可能である。また、人物情報、骨格情報、及び動作情報の組合せの蓄積量が少ない状態であっても、特定の動作についてのみ動作モデルのデータベースを利用可能とすることも可能である。 Even if the accumulated amount of combination of person information, skeleton information, and motion information is less than 10000, it is possible to use the motion model database at the stage when the information that can secure the reliability is accumulated to some extent. is there. Further, even when the amount of accumulated combination of person information, skeleton information, and motion information is small, it is possible to use the motion model database only for specific motions.

特に、変形例2に示した方法と組み合わせることにより、人物情報、骨格情報、及び動作情報の組合せの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。 In particular, by combining with the method shown in the second modification, it is possible to use the motion model database while ensuring the motion identification accuracy even in the case where the accumulated amount of the combination of person information, skeleton information, and motion information is small. ..

<変形例4>
上述した実施の形態では、動作モデルを骨格検知が可能な画像に基づいて作成し、記憶する態様としたが、動作モデルを記憶させる態様についてはこれに限定されない。基本となる動作モデル(以下、「基本動作モデル」という)を、識別装置100を出荷する時点で予め識別装置100内に記憶させておくことも可能である。
<Modification 4>
In the above-described embodiment, the behavior model is created and stored based on the image capable of skeleton detection, but the manner in which the behavior model is stored is not limited to this. It is possible to store a basic behavior model (hereinafter, referred to as “basic behavior model”) in the identification device 100 in advance when the identification device 100 is shipped.

基本動作モデルは、所定の年齢、性別、体格毎に、標準的な骨格情報と動作情報が登録されたものである。この基本動作モデルは、様々な実験および/または計算により得られたデータにより予め作成される。 The basic motion model is a model in which standard skeleton information and motion information are registered for each predetermined age, sex, and physique. This basic motion model is created in advance from data obtained by various experiments and/or calculations.

基本動作モデルを利用する場合には、画像情報に基づいて乗員の年齢、性別、体格等を識別し、記憶してある複数の基本動作モデルの中から、適切な基本動作モデルを選択する。 When using the basic motion model, the age, sex, physique, etc. of the occupant are identified based on the image information, and an appropriate basic motion model is selected from the stored basic motion models.

また、識別装置100内には、識別精度向上のため、年齢、性別、体格が異なる多数の基本動作モデルを記憶させておくことが好ましい。 In addition, it is preferable to store a large number of basic motion models having different ages, sexes, and physiques in the identification device 100 in order to improve identification accuracy.

<変形例5>
変形例5は、変形例4において、基本動作モデルのデータベースと、骨格検知が可能な画像に基づいて作成する動作モデルのデータベースとを別で準備しておき、基本動作モデルと、骨格検知が可能な画像に基づいて作成した動作モデルを切り替えて用いるようにしたものである。
<Modification 5>
In the modified example 5, in the modified example 4, a basic motion model database and a motion model database created based on an image capable of skeleton detection are separately prepared, and the basic motion model and skeleton detection are possible. The behavior model created based on such an image is switched and used.

具体的には、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態では、基本動作モデルを用い、骨格検知が可能な画像に基づいて作成した動作モデルの蓄積量が所定量以上となった場合に、用いる動作モデルを、基本動作モデルから、骨格検知が可能な画像に基づいて作成した動作モデルに切り替える。 Specifically, in a state in which the amount of accumulated motion models created based on images capable of skeleton detection is low, the amount of motion models created based on images capable of skeleton detection is stored using the basic motion model. When the amount exceeds a predetermined amount, the motion model to be used is switched from the basic motion model to the motion model created based on the skeleton-detectable image.

このようにすれば、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。 With this configuration, the motion model database can be used while ensuring the accuracy of motion identification even when the amount of motion models created based on the skeleton-detectable image is small.

<変形例6>
変形例6は、変形例4において、基本動作モデルと、骨格検知が可能な画像に基づいて作成した動作モデルを組み合わせて用いるようにしたものである。
<Modification 6>
Modification 6 is such that, in Modification 4, the basic motion model and the motion model created based on the skeleton-detectable image are used in combination.

具体的には、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態で、基本動作モデルを用いると共に、骨格検知が可能な画像に基づいて動作モデルが作成された場合に、作成された動作モデルを用いて基本動作モデルのデータベースを更新する。具体的には、得られた骨格情報、人物情報及び動作情報を基本動作モデルのデータベースに加える作業を行う。 Specifically, when the basic motion model is used and the motion model is created based on the skeleton-detectable image in a state in which the amount of the motion model created based on the skeleton-detectable image is small. Then, the basic behavior model database is updated using the created behavior model. Specifically, the work of adding the obtained skeleton information, person information, and motion information to the basic motion model database is performed.

このようにすれば、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。更に、基本動作モデルに骨格検知が可能な画像に基づいて作成された信頼性の高い動作モデルのデータを取り入れることで、動作モデルの信頼性を更に向上させることができる。 By doing so, even when the amount of accumulated motion models created based on the skeleton-detectable images is small, the motion model database can be used while ensuring motion identification accuracy. Furthermore, the reliability of the motion model can be further improved by incorporating the data of the motion model with high reliability created based on the image capable of detecting the skeleton into the basic motion model.

<変形例7>
上述した実施の形態では、骨格検知が可能な画像に基づいて動作モデルを作成する態様としたが、動作モデルの作成についてはこれに限定されない。例えば、動作モデルを用いて、部位動作識別部170で動作情報を識別した際に、その人物情報、部位情報及び動作情報を動作モデル部150にフィードバックさせるようにする。
<Modification 7>
In the above-described embodiment, the behavior model is created based on the skeleton-detectable image, but the creation of the behavior model is not limited to this. For example, when motion information is identified by the part motion identification unit 170 using a motion model, the person information, part information, and motion information are fed back to the motion model unit 150.

具体的には、図5のフロー図において、ステップS111の後に、部位動作識別処理に用いた人物情報及び部位情報と、部位動作識別処理において識別された動作情報を、動作モデル部150に出力し、動作モデル部150において、動作モデルの更新を行う。 Specifically, in the flowchart of FIG. 5, after step S111, the person information and the body part information used in the body part motion identification process and the motion information identified in the part motion identification process are output to the motion model unit 150. The behavior model is updated in the behavior model unit 150.

こうすることで、骨格検知が可能な画像に基づく動作モデルの作成に加え、人物情報、部位情報、及び動作モデルに基づいて識別した動作情報からも動作モデルを作成することができるので、動作モデルの蓄積量が飛躍的に増大する。なお、部位動作識別部から出力されるデータのうち、入力情報における部位情報と登録情報における骨格情報のうち複数が一致するもの等、動作の識別の信頼性が高いデータのみをフィードバックさせるようにすることで、動作モデルの信頼性の低下を防止することができる。 By doing so, in addition to creating a motion model based on an image capable of detecting a skeleton, a motion model can be created from motion information identified based on person information, body part information, and motion model. The amount of accumulated electricity increases dramatically. Of the data output from the body part motion identification unit, only the data with high reliability of motion identification, such as the part information in the input information and the plurality of skeleton information in the registration information, are fed back. As a result, it is possible to prevent the reliability of the behavior model from decreasing.

<変形例8>
上述した実施の形態では、乗員である運転者が近赤光に対する反射率の低い長袖の衣服を着用していることを想定し、部位検知部160で検知する部位を、露出している頭部、左手、右手の3箇所としたが、部位検知部160で検知する部位についてはこれに限定されない。検知する部位を3箇所より少なくしてもよいし、3箇所より多くしてもよい。また、手(手首から指先まで)に代えて、もしくは加えて、肘または肩など、上肢における所定の箇所を検知するようにしてもよい。
<Modification 8>
In the embodiment described above, it is assumed that the driver, who is an occupant, wears long-sleeved clothes having a low reflectance for near-red light, and the part detected by the part detection unit 160 is exposed to the head. , The left hand, and the right hand, but the site detected by the site detection unit 160 is not limited to this. The number of sites to be detected may be less than three or more than three. Further, instead of or in addition to the hand (from the wrist to the fingertip), a predetermined portion of the upper limb such as an elbow or a shoulder may be detected.

例えば、運転者が近赤光に対する反射率の低い半袖の衣服及び手袋を着用している場合を考えると、上述の実施の形態では、頭部を検知することはできるが両手を検知することができず、部位動作識別処理を行うことができない。しかしながら、手に代えて、肘を検知するようにすれば、部位動作識別処理を行うことができる。 For example, considering the case where the driver wears short-sleeved clothes and gloves having a low reflectance for near red light, in the above-described embodiment, the head can be detected but both hands can be detected. No, it is not possible to perform the part motion identification process. However, if the elbow is detected instead of the hand, the part motion identification process can be performed.

また、運転席が車両進行方向右側である場合、運転者は機器300を左手で操作することが多い。そこで、検知する部位を、頭部と、左上肢の1箇所以上とすれば、検知部位を少なくしたとしても、検知部位の動きが多いため、運転者の動作を正しく識別することができる。 When the driver's seat is on the right side in the vehicle traveling direction, the driver often operates the device 300 with the left hand. Therefore, if the parts to be detected are the head and one or more parts on the upper left limb, even if the number of parts to be detected is small, the movement of the parts to be detected is large, and the motion of the driver can be correctly identified.

<変形例9>
上述した実施の形態では、動作モデルにおいて記憶される骨格情報として、部位検知部160での部位検知処理で検知対象となる部位の骨格情報のみを登録する態様としたが、動作モデルに記憶させる骨格情報の種類については、これに限定されない。
<Modification 9>
In the above-described embodiment, as the skeleton information stored in the motion model, only the skeleton information of the part to be detected by the part detection process in the part detection unit 160 is registered. However, the skeleton to be stored in the motion model The type of information is not limited to this.

例えば、動作モデルに全骨格情報を記憶させるようにしてもよい。その場合、部位動作識別部170では、画像情報から検知することができた部位の部位情報と、動作モデルにおける骨格情報のうち、画像情報から検知することができた部位に対応する部位の骨格情報を照合する。 For example, all skeleton information may be stored in the motion model. In that case, in the body part motion identifying section 170, the part information of the part that can be detected from the image information and the skeleton information of the part corresponding to the part that can be detected from the image information among the skeleton information in the motion model. To match.

このようにすれば、検知可能な部位の組合せが変わった場合でも、部位動作識別処理を行うことができる。 By doing so, the part motion identification processing can be performed even when the combination of detectable parts changes.

以上、本発明の実施の形態および変形例について説明した。 The embodiments and modifications of the present invention have been described above.

図7は、上述した実施の形態および変形例における各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。 FIG. 7 is a diagram showing a hardware configuration of a computer that realizes the functions of the respective units in the above-described embodiments and modifications by a program.

図7に示すように、コンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。 As shown in FIG. 7, the computer 2100 includes an input device 2101 such as an input button and a touch pad, an output device 2102 such as a display and a speaker, a CPU (Central Processing Unit) 2103, a ROM (Read Only Memory) 2104, and a RAM (Random). Access Memory) 2105. Also, the computer 2100 is a reading device that reads information from a storage device 2106 such as a hard disk device or an SSD (Solid State Drive), a recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory. 2107, and a transmission/reception device 2108 that communicates via a network. The above-mentioned units are connected by a bus 2109.

そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。 Then, the reading device 2107 reads the program from the recording medium in which the program for realizing the functions of the respective units is recorded, and stores the program in the storage device 2106. Alternatively, the transmission/reception device 2108 communicates with a server device connected to the network, and causes the storage device 2106 to store a program downloaded from the server device for implementing the functions of the above-described units.

そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。 Then, the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, sequentially reads out the instructions included in the program from the RAM 2105, and executes the instructions, whereby the functions of the above-described units are realized. Further, when the program is executed, the RAM 2105 or the storage device 2106 stores the information obtained by the various processes described in the embodiments and appropriately uses it.

本発明に係る識別装置は、所定の機器を操作する人物を識別するのに有用である。 The identification device according to the present invention is useful for identifying a person who operates a predetermined device.

100 識別装置
101 入力部
102 制御部
110 検知制御部
120 骨格検知部
130 骨格動作識別部
140 人物識別部
150 動作モデル部
160 部位検知部
170 部位動作識別部
180 機器制御部
200 カメラ
300 機器
1000、1001、1002 画像
1003 データベース
2001 入力情報
2002 登録情報
2003 データ
2100 コンピュータ
2101 入力装置
2102 出力装置
2103 CPU
2104 ROM
2105 RAM
2106 記憶装置
2107 読取装置
2108 送受信装置
2109 バス
3001 入力情報
3002 登録情報
3003、3004、3005、3006、3007 データ
100 identification device 101 input unit 102 control unit 110 detection control unit 120 skeleton detection unit 130 skeleton motion identification unit 140 person identification unit 150 motion model unit 160 site detection unit 170 site operation identification unit 180 device control unit 200 camera 300 device 1000, 1001 , 1002 image 1003 database 2001 input information 2002 registration information 2003 data 2100 computer 2101 input device 2102 output device 2103 CPU
2104 ROM
2105 RAM
2106 storage device 2107 reading device 2108 transmitting/receiving device 2109 bus 3001 input information 3002 registration information 3003, 3004, 3005, 3006, 3007 data

Claims (6)

カメラで撮影された人物の画像情報を受け取る入力部と、
前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、
前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含む、識別装置。
An input unit that receives the image information of the person photographed by the camera,
An operation in which the person is identified and at least the head and hand parts of the person are detected based on the image information, and the identified person, the detected part, and the person's motion are registered for each person. A control unit for identifying the motion of the person based on a model,
The identification device includes: a first action model generated based on the action of the person identified by the control unit; and a second action model generated and stored in advance.
前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルとを切り替えて用いる、請求項1に記載の識別装置。 The identification device according to claim 1, wherein the control unit switches and uses the first behavior model and the second behavior model based on an accumulated amount of the first behavior model. 前記制御部は、前記第1動作モデルの蓄積量が所定量未満の場合は第2動作モデルを用い、前記第1動作モデルの蓄積量が前記所定量以上となった場合に、用いる動作モデルを前記第2動作モデルから前記第1動作モデルに切り替える、請求項2に記載の識別装置。 The control unit uses a second behavior model when the accumulated amount of the first behavior model is less than a predetermined amount, and uses a behavior model to be used when the accumulated amount of the first behavior model is equal to or more than the predetermined amount. The identification device according to claim 2, wherein the second behavior model is switched to the first behavior model. 前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルを組み合わせて用いる、請求項1に記載の識別装置。 The identification device according to claim 1, wherein the control unit uses the first behavior model and the second behavior model in combination based on an accumulated amount of the first behavior model. 前記制御部は、前記第1動作モデルの蓄積量が所定量未満の場合は、前記第2動作モデルを用いると共に、前記第1動作モデルが生成された場合に、生成された動作モデルを用いて前記第2動作モデルを更新する、請求項4に記載の識別装置。 The control unit uses the second behavior model when the accumulated amount of the first behavior model is less than a predetermined amount, and uses the generated behavior model when the first behavior model is generated. The identification device according to claim 4, wherein the second behavior model is updated. 前記制御部は、前記人物の動作を識別した際に、当該人物の人物情報、当該人物の部位情報又は当該人物の動作の識別結果を示す動作情報を前記第1動作モデルにフィードバックさせる、請求項1に記載の識別装置。 The control unit, when identifying the action of the person, feeds back the person information of the person, part information of the person, or action information indicating an identification result of the action of the person to the first action model. The identification device according to 1.
JP2020049530A 2016-04-28 2020-03-19 Identification device Active JP6909986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049530A JP6909986B2 (en) 2016-04-28 2020-03-19 Identification device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016091760A JP6688990B2 (en) 2016-04-28 2016-04-28 Identification device, identification method, identification program, and recording medium
JP2020049530A JP6909986B2 (en) 2016-04-28 2020-03-19 Identification device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016091760A Division JP6688990B2 (en) 2016-04-28 2016-04-28 Identification device, identification method, identification program, and recording medium

Publications (2)

Publication Number Publication Date
JP2020095756A true JP2020095756A (en) 2020-06-18
JP6909986B2 JP6909986B2 (en) 2021-07-28

Family

ID=71085217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049530A Active JP6909986B2 (en) 2016-04-28 2020-03-19 Identification device

Country Status (1)

Country Link
JP (1) JP6909986B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method
JP2013533997A (en) * 2010-05-28 2013-08-29 マイクロソフト コーポレーション Personal feature profile data based on the cloud

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202653A (en) * 2004-01-15 2005-07-28 Canon Inc Behavior recognition device and method, animal object recognition device and method, equipment control device and method, and program
JP2013533997A (en) * 2010-05-28 2013-08-29 マイクロソフト コーポレーション Personal feature profile data based on the cloud
JP2012058884A (en) * 2010-09-07 2012-03-22 Sony Corp Information processor and information processing method

Also Published As

Publication number Publication date
JP6909986B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
JP6688990B2 (en) Identification device, identification method, identification program, and recording medium
CN111033512B (en) Motion control device for communicating with autonomous traveling vehicle based on simple two-dimensional planar image pickup device
EP2743799B1 (en) Control apparatus, vehicle, and portable terminal using hand information for command generation
KR101807513B1 (en) The analysis apparatus and method of user intention using video information in three dimensional space
US10093227B2 (en) Device for controlling the interior lighting of a motor vehicle
JP2019040465A (en) Behavior recognition device, learning device, and method and program
JP7091983B2 (en) Equipment control device
JP5217754B2 (en) Action estimation device, program
JP2017199302A (en) Determination device, determination method, determination program and storage medium
JP5983243B2 (en) Detection device
JP2010079639A (en) Pedestrian detecting device for vehicle
US20230410356A1 (en) Detection apparatus, detection method, and non-transitory storage medium
JP4613999B2 (en) Action estimation device, program
JP4683123B2 (en) Action estimation device, program
JP2004259215A (en) Face detection system and its method
JP6909986B2 (en) Identification device
WO2017170761A1 (en) Three-dimensional video data generation device, three-dimensional video data generation program, and three-dimensional video data generation method
US20220309400A1 (en) Learning method, learning device, and recording medium
Ribas et al. In-Cabin vehicle synthetic data to test Deep Learning based human pose estimation models
US11887257B2 (en) Method and apparatus for virtual training based on tangible interaction
JP2019179289A (en) Processing device and program
CN116069158A (en) Method, system and recording medium for accessory pairing
Tang et al. A computer graphics-based framework for 3D pose estimation of pedestrians
KR20150067679A (en) System and method for gesture recognition of vehicle
JP2019179288A (en) Processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R151 Written notification of patent or utility model registration

Ref document number: 6909986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151