JP6909986B2 - Identification device - Google Patents

Identification device Download PDF

Info

Publication number
JP6909986B2
JP6909986B2 JP2020049530A JP2020049530A JP6909986B2 JP 6909986 B2 JP6909986 B2 JP 6909986B2 JP 2020049530 A JP2020049530 A JP 2020049530A JP 2020049530 A JP2020049530 A JP 2020049530A JP 6909986 B2 JP6909986 B2 JP 6909986B2
Authority
JP
Japan
Prior art keywords
information
person
motion
model
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020049530A
Other languages
Japanese (ja)
Other versions
JP2020095756A (en
Inventor
新 浩治
浩治 新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016091760A external-priority patent/JP6688990B2/en
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020049530A priority Critical patent/JP6909986B2/en
Publication of JP2020095756A publication Critical patent/JP2020095756A/en
Application granted granted Critical
Publication of JP6909986B2 publication Critical patent/JP6909986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、識別装置に関する。 The present invention relates to an identification device.

近年、人物の姿勢を識別する技術が知られている。 In recent years, a technique for identifying a person's posture has been known.

例えば特許文献1には、カメラの画像から人物の手、肘及び肩の特徴点の位置を検出し、あらかじめ作成された関節モデルに適合するよう手、肘及び肩の特徴点位置を補正する装置が開示されている。 For example, Patent Document 1 describes a device that detects the positions of the feature points of a person's hand, elbow, and shoulder from a camera image and corrects the positions of the feature points of the hand, elbow, and shoulder so as to match a joint model created in advance. Is disclosed.

特開2010−211705号公報Japanese Unexamined Patent Publication No. 2010-211705

しかしながら、特許文献1に記載の装置では、人物が革ジャケットなど近赤光に対する反射率の低い衣服を着用している場合に、体・腕部分の画素値が正常に得られず、肩及び肘の関節を検知することができないため、人物の姿勢を識別することができないという課題があった。 However, in the device described in Patent Document 1, when a person wears clothes having a low reflectance to near-red light such as a leather jacket, the pixel values of the body and arms cannot be normally obtained, and the shoulders and elbows cannot be obtained normally. Since it is not possible to detect the joints of the person, there is a problem that the posture of the person cannot be identified.

本発明の目的は、人物の姿勢を識別することができる識別装置を提供することである。 An object of the present invention is to provide an identification device capable of identifying the posture of a person.

本発明の一態様に係る識別装置は、カメラで撮影された人物の画像情報を受け取る入力部と、前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含むみ、前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルとを切り替えて用いる
また、本発明の一態様に係る識別装置は、カメラで撮影された人物の画像情報を受け取る入力部と、前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含み、前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルを組み合わせて用いる。
The identification device according to one aspect of the present invention has an input unit that receives image information of a person photographed by a camera, identifies the person based on the image information, and detects at least the head and hand parts of the person. The motion model includes the person identified by performing, the detected portion, and a control unit that identifies the motion of the person based on the motion model in which the motion of the person is registered for each person. only including a first behavior model is generated based on the operation of the person identified by the control unit, and a second operation model stored is previously generated, the said control unit, said first operation model The first operation model and the second operation model are switched and used based on the accumulated amount of .
Further, the identification device according to one aspect of the present invention includes an input unit that receives image information of a person photographed by a camera, identification of the person based on the image information, and at least head and hand parts of the person. The motion model comprises a control unit that detects and identifies the person, the detected part, and the motion of the person based on the motion model registered for each person. , A first motion model generated based on the motion of the person identified by the control unit, and a second motion model generated and stored in advance, the control unit includes the first motion. The first motion model and the second motion model are used in combination based on the accumulated amount of the model.

なお、ここでいう「人物」とは、特定の個人の意味には限られず、任意の年齢、性別及び体格の人物一般も意味する。 The term "person" as used herein is not limited to the meaning of a specific individual, but also means a person of any age, gender, and physique in general.

本発明によれば、人物の姿勢を識別することができる。 According to the present invention, the posture of a person can be identified.

本発明の実施の形態に係る識別装置の構成の一例を示すブロック図A block diagram showing an example of the configuration of the identification device according to the embodiment of the present invention. 制御部の構成の一例を示すブロック図Block diagram showing an example of the configuration of the control unit 骨格検知処理の一例を示す説明図Explanatory drawing showing an example of skeleton detection processing 動作モデルの一例を示す説明図Explanatory drawing showing an example of an operation model 本発明の実施の形態において人物情報及び部位情報を動作モデルと比較する様子を示す説明図Explanatory drawing which shows how person information and part information are compared with the motion model in embodiment of this invention. 本発明の実施の形態に係る識別装置の主要な動作を説明するフロー図The flow diagram explaining the main operation of the identification apparatus which concerns on embodiment of this invention. 変形例2において人物情報及び部位情報を動作モデルと比較する様子を示す説明図Explanatory drawing which shows how person information and part information are compared with motion model in modification 2. 各部の機能をプログラムにより実現するコンピュータのハードウェア構成の一例を示す図The figure which shows an example of the hardware composition of the computer which realizes the function of each part by a program.

以下、本発明の各実施の形態について、図面を参照して詳細に説明する。ただし、各実施の形態において、同一機能を有する構成には、同一符号を付し、重複する説明は省略する。 Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings. However, in each embodiment, configurations having the same function are designated by the same reference numerals, and duplicate description will be omitted.

まず、本発明の実施の形態に係る識別装置100の構成の一例について、図1aを用いて説明する。図1aは、本発明の実施の形態に係る識別装置100の構成の一例を示すブロック図である。 First, an example of the configuration of the identification device 100 according to the embodiment of the present invention will be described with reference to FIG. 1a. FIG. 1a is a block diagram showing an example of the configuration of the identification device 100 according to the embodiment of the present invention.

図1aに示す識別装置100、カメラ200、及び機器300は、例えば、自動車、鉄道車両、船舶、航空機などの移動体に搭載される。本実施の形態では、識別装置100、カメラ200、及び機器300が自動車に搭載される場合を例に挙げて説明する。 The identification device 100, the camera 200, and the device 300 shown in FIG. 1a are mounted on a moving body such as an automobile, a railroad vehicle, a ship, or an aircraft. In the present embodiment, a case where the identification device 100, the camera 200, and the device 300 are mounted on an automobile will be described as an example.

カメラ200は、例えば、ステレオカメラ、TOF(Time Of Flight)方式のカメラなどの測距カメラであり、車室内における人物の存在する範囲を撮影して画像情報を取得し、その画像情報を識別装置100へ出力する。画像情報は、近赤外光の反射強度の強さを表す近赤画像を少なくとも含む。またステレオカメラまたはTOFカメラの場合には距離の遠近を表す距離画像をさらに含んでも良い。 The camera 200 is, for example, a distance measuring camera such as a stereo camera or a TOF (Time Of Flight) type camera, and is a device that photographs a range in which a person exists in a vehicle interior to acquire image information and identifies the image information. Output to 100. The image information includes at least a near-red image showing the intensity of reflection intensity of near-infrared light. Further, in the case of a stereo camera or a TOF camera, a distance image showing the perspective of the distance may be further included.

機器300は、自動車において用いられる機器である。機器300は、例えば、カーナビゲーション装置、オーディオ装置、エアコンディショナー装置、タブレット、スマートフォン、リアカメラ、サイドカメラ、フロントカメラ、ETC車載器である。または、機器300は、例えば、ハンドル、シフトレバー(ギアレバー)、ウィンカーレバー(ウィンカースイッチ)、ワイパーレバー(ワイパースイッチ)、ドアロックスイッチ、パワーウィンドウの昇降スイッチ、エンジンスタートスイッチ、アクセルペダル、ブレーキペダル、クラッチペダルなどでもよい。 The device 300 is a device used in an automobile. The device 300 is, for example, a car navigation device, an audio device, an air conditioner device, a tablet, a smartphone, a rear camera, a side camera, a front camera, and an ETC on-board unit. Alternatively, the device 300 includes, for example, a handle, a shift lever (gear lever), a winker lever (winker switch), a wiper lever (wiper switch), a door lock switch, a power window elevating switch, an engine start switch, an accelerator pedal, a brake pedal, and the like. It may be a clutch pedal or the like.

機器300は、有線ネットワーク(例えば、CAN:Controller Area Network )、無線ネットワーク(例えば、無線LAN:Local Area Network)、または、有線ネットワークと無線ネットワークが混在したネットワークを介して識別装置100と接続される。そして、機器300は、識別装置100から受け取る制御信号に基づき制御される。 The device 300 is connected to the identification device 100 via a wired network (for example, CAN: Controller Area Network), a wireless network (for example, a wireless LAN: Local Area Network), or a network in which a wired network and a wireless network are mixed. .. Then, the device 300 is controlled based on the control signal received from the identification device 100.

識別装置100は、入力部101、制御部102を備える。 The identification device 100 includes an input unit 101 and a control unit 102.

入力部101は、カメラ200から人物の画像情報を受け取り、制御部102に出力する。 The input unit 101 receives image information of a person from the camera 200 and outputs it to the control unit 102.

制御部102は、入力部101から受け取った画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する。このような構成により、人物の姿勢を識別することができる。 The control unit 102 identifies the person and detects at least the head and hand parts of the person based on the image information received from the input unit 101, and the identified person, the detected part, and the person. The movement of the person is identified based on the movement model registered for each person. With such a configuration, the posture of the person can be identified.

次に、制御部102の構成の一例について、図1bを用いて説明する。図1bは、制御部の構成の一例を示すブロック図である。 Next, an example of the configuration of the control unit 102 will be described with reference to FIG. 1b. FIG. 1b is a block diagram showing an example of the configuration of the control unit.

図1bに示すように、制御部102は、検知制御部110、骨格検知部120、骨格動作識別部130、人物識別部140、動作モデル部150、部位検知部160、部位動作識別部170、機器制御部180を備える。 As shown in FIG. 1b, the control unit 102 includes a detection control unit 110, a skeleton detection unit 120, a skeleton motion identification unit 130, a person identification unit 140, an operation model unit 150, a site detection unit 160, a site motion identification unit 170, and an apparatus. A control unit 180 is provided.

検知制御部110は、カメラ200から画像情報を受け取り、画像情報を解析し、骨格検知部120、人物識別部140、部位検知部160に画像情報を出力する。具体的には、検知制御部110は、画像情報の解析により骨格検知が可能かどうかを判定し、骨格検知が可能であると判定された場合は、骨格検知部120及び人物識別部140に画像情報を出力する。一方、骨格検知が可能でないと判定された場合は、更に後述する動作モデルが利用可能かどうかを判定し、動作モデルが利用可能であると判定された場合は、人物識別部140及び部位検知部160に画像情報を出力する。骨格検知が可能かどうかの判定については後述する。 The detection control unit 110 receives the image information from the camera 200, analyzes the image information, and outputs the image information to the skeleton detection unit 120, the person identification unit 140, and the site detection unit 160. Specifically, the detection control unit 110 determines whether or not skeleton detection is possible by analyzing image information, and if it is determined that skeleton detection is possible, an image is sent to the skeleton detection unit 120 and the person identification unit 140. Output information. On the other hand, if it is determined that the skeleton detection is not possible, it is further determined whether or not the motion model described later is available, and if it is determined that the motion model is available, the person identification unit 140 and the site detection unit are used. Image information is output to 160. The determination of whether or not skeleton detection is possible will be described later.

骨格検知部120は、検知制御部110から受け取った画像情報に基づいて、人物の骨格位置を検知し、検知した結果を示す骨格情報を骨格動作識別部130に出力する。人物の骨格位置とは頭、首、腰、肩、肘、手などの領域を表す代表点の位置を示すものである。代表点の位置は画像上の2次元座標として特定される。 The skeleton detection unit 120 detects the skeleton position of a person based on the image information received from the detection control unit 110, and outputs the skeleton information indicating the detection result to the skeleton motion identification unit 130. The skeletal position of a person indicates the position of a representative point representing an area such as the head, neck, hips, shoulders, elbows, and hands. The position of the representative point is specified as two-dimensional coordinates on the image.

図2は、骨格検知処理の例を示したものである。画像1000は人物を撮影した画像の例であり、自動車を運転している人物がハンドルを握っている画像の模式図である。画像1001は画像1000における人物の骨格位置を検知した結果画像の例であり、頭、首、腰、左肩、左肘、左手、右肩、右肘、右手の代表点である9点の位置を検知した状態を示している。骨格情報とは検知した代表点の位置座標であり、画像上の代表点9点の位置座標(X1,Y1)、(X2,Y2)・・・(X9,Y9)として得られるものである。骨格検知は、例えば特許文献1に示されているような既存の方法を用いる事で実現が可能である。 FIG. 2 shows an example of the skeleton detection process. Image 1000 is an example of an image of a person, and is a schematic view of an image of a person driving a car holding a steering wheel. Image 1001 is an example of a result image in which the skeleton position of a person in image 1000 is detected, and the positions of nine points which are representative points of the head, neck, waist, left shoulder, left elbow, left hand, right shoulder, right elbow, and right hand are displayed. Indicates the detected state. The skeleton information is the position coordinates of the detected representative points, and is obtained as the position coordinates (X1, Y1), (X2, Y2) ... (X9, Y9) of the nine representative points on the image. Skeleton detection can be realized by using an existing method as shown in Patent Document 1, for example.

また、画像1001では、頭、首、腰、左肩、左肘、左手、右肩、右肘、右手の代表点である9点の位置を検知することができたため、検知制御部110は、骨格検知が可能であると判定する。一方、画像1002は、撮影した人物が革ジャケットなど近赤光に対する反射率の低い衣服を着用している場合に得られる人物の骨格位置を検知した結果画像の例を示している。画像1002では、頭、左手、右手の代表点である3点の位置しか検知できていないことがわかる。この場合、検知制御部110は、骨格検知が可能でないと判定する。 Further, in the image 1001, since the positions of nine points, which are the representative points of the head, neck, waist, left shoulder, left elbow, left hand, right shoulder, right elbow, and right hand, can be detected, the detection control unit 110 can detect the skeleton. Judge that detection is possible. On the other hand, image 1002 shows an example of a result image obtained by detecting the skeleton position of a person obtained when the photographed person wears clothes having a low reflectance to near-red light such as a leather jacket. In image 1002, it can be seen that only the positions of three points, which are the representative points of the head, the left hand, and the right hand, can be detected. In this case, the detection control unit 110 determines that skeleton detection is not possible.

骨格動作識別部130は、骨格検知部120から受け取った骨格情報に基づいて、乗員の動作を識別する。乗員の動作とは、例えばエアコンディショナー装置、ハンドル、オーディオ装置等の機器を操作する動作、運転中の物探し、振り向きなどのしぐさ等である。 The skeleton motion identification unit 130 identifies the occupant's motion based on the skeleton information received from the skeleton detection unit 120. The occupant's movements include, for example, the movement of operating a device such as an air conditioner device, a steering wheel, and an audio device, a gesture such as searching for an object while driving, and turning around.

骨格情報に基づく動作の識別は、既存の手法、例えば比較対象パラメータの木構造に従う複数回の大小比較から既定のパターンのうちのひとつを特定する、いわゆるランダムフォレスト等の手法を使用することで行うことができる。 Identification of behavior based on skeletal information is performed by using an existing method, for example, a method such as a so-called random forest that identifies one of the predetermined patterns from multiple magnitude comparisons according to the tree structure of the parameters to be compared. be able to.

骨格動作識別部130は、上記のような乗員の動作の識別結果を示す動作情報及び骨格情報を、動作モデル部150に出力する。また、骨格動作識別部130は、動作情報を、機器制御部180に出力する。 The skeleton motion identification unit 130 outputs motion information and skeleton information indicating the identification result of the occupant's motion as described above to the motion model unit 150. Further, the skeleton motion identification unit 130 outputs operation information to the device control unit 180.

人物識別部140は、検知制御部110から受け取った画像情報に基づいて、人物が誰であるのかを識別し、識別した結果を示す人物情報を動作モデル部150、及び部位動作識別部170に出力する。 The person identification unit 140 identifies who the person is based on the image information received from the detection control unit 110, and outputs the person information indicating the identification result to the motion model unit 150 and the part motion identification unit 170. do.

人物識別の実現には例えば既存の顔認証の技術を利用することが可能である。例えば自動車を運転する複数人物の顔画像を予め登録しておき、それらの人物が実際に自動車を運転する際に顔画像を取得し、取得した顔画像と登録済の顔画像とを既存技術で照合することにより、どの登録者か識別することができる。顔識別の既存技術としては、顔の特徴量をLBP(Local Binary Pattern)またはHOG(Histogram of Oriented Gradient)といった手法で取得し、その特徴量を照合する方法がある。 For example, existing face authentication technology can be used to realize person identification. For example, the face images of a plurality of people driving a car are registered in advance, the face images are acquired when those people actually drive the car, and the acquired face images and the registered face images are combined with the existing technology. By collating, it is possible to identify which registrant. As an existing technique for face recognition, there is a method of acquiring facial features by a method such as LBP (Local Binary Pattern) or HOG (Histogram of Oriented Gradient) and collating the features.

動作モデル部150は、骨格動作識別部130からの動作情報、骨格情報、及び人物識別部140からの人物情報をもとに、動作モデルを生成し、記憶するとともに、記憶した動作モデルを部位動作識別部170に出力する。 The motion model unit 150 generates and stores an motion model based on the motion information from the skeleton motion identification unit 130, the skeleton information, and the person information from the person identification unit 140, and stores the stored motion model as a part motion. Output to the identification unit 170.

動作モデルは、人物情報(登録された人物に対応した登録番号)、骨格情報(骨格の特徴点の位置座標)、及び動作情報(動作の種類に対応した動作番号)を関連付けて記憶したデータベースの形態とする。ここで、骨格情報としては、骨格検知部120から出力された全ての特徴点情報を登録するのではなく、後述する部位検知部160での部位検知処理で検知対象となる頭部、左手、及び右手の特徴点の情報のみを登録する。図3に例として、人物情報、頭部・左手・右手の骨格情報、及び動作情報の関連データベース1003を示す。 The motion model is a database in which person information (registration number corresponding to a registered person), skeleton information (positional coordinates of feature points of the skeleton), and motion information (motion number corresponding to the type of motion) are stored in association with each other. Make it a form. Here, as the skeleton information, instead of registering all the feature point information output from the skeleton detection unit 120, the head, the left hand, and the head, the left hand, which are the detection targets in the part detection process by the part detection unit 160 described later, and Only the information of the feature point of the right hand is registered. As an example, FIG. 3 shows a relational database 1003 of person information, head / left / right hand skeleton information, and motion information.

本実施の形態では、動作モデルのデータベースは、骨格検知部120による骨格検知が可能な状態にて検知された骨格情報、人物情報及び動作情報を一定数以上蓄積できた後に利用可能となる。例えば、動作モデルのデータベースが利用可能となるためには、人物情報、骨格情報、及び動作情報の組合せを10000組以上蓄積することを必要とする。 In the present embodiment, the motion model database becomes available after accumulating a certain number or more of skeleton information, person information, and motion information detected in a state where the skeleton can be detected by the skeleton detection unit 120. For example, in order for a database of motion models to be available, it is necessary to accumulate 10,000 or more combinations of person information, skeleton information, and motion information.

動作モデル部150は、動作モデルが利用可能かどうかの状態情報を検知制御部110に出力する。検知制御部110では動作モデルが利用可能かどうかに従って処理を分岐させる。 The operation model unit 150 outputs the state information of whether or not the operation model is available to the detection control unit 110. The detection control unit 110 branches the process according to whether or not the operation model is available.

部位検知部160は、検知制御部110から受け取った画像情報に基づいて、人物の部位情報として頭部位置、左手位置、及び右手位置を検知し、検知結果の部位情報を部位動作識別部170に出力する。 The site detection unit 160 detects the head position, the left hand position, and the right hand position as the site information of the person based on the image information received from the detection control unit 110, and transmits the detection result site information to the site motion identification unit 170. Output.

上述した骨格検知部120においても、頭部位置、左手位置、右手位置を含む複数の特徴点の位置座標を検出しているが、ここでは人物の身体部分の画像情報が正常に得られない場合における検知手法を用いる。 The skeleton detection unit 120 described above also detects the position coordinates of a plurality of feature points including the head position, the left hand position, and the right hand position, but here, when the image information of the body part of the person cannot be normally obtained. Use the detection method in.

例えば部位情報の検知を既存の手法の組合せにより実現する方法として、画像情報に含まれる距離情報を用いて等距離に存在する距離情報の固まりを検知し、その固まりの位置を複数フレーム間でトラッキングする手法を用いることが可能である。 For example, as a method of realizing detection of site information by combining existing methods, a mass of distance information existing at equal distances is detected using the distance information included in the image information, and the position of the mass is tracked between a plurality of frames. It is possible to use the method of

部位動作識別部170は、人物識別部140からの人物情報、動作モデル部150からの動作モデル、及び部位検知部160からの部位情報に基づいて、乗員の動作を識別する。 The part motion identification unit 170 identifies the movement of the occupant based on the person information from the person identification unit 140, the motion model from the motion model unit 150, and the site information from the site detection unit 160.

部位動作識別部170において乗員の動作を識別する部位動作識別処理の手法について、図4を用いて説明する。 A method of the site motion identification process for identifying the motion of the occupant in the site motion identification unit 170 will be described with reference to FIG.

部位動作識別処理では、部位動作識別部170の入力情報2001における人物情報及び部位情報を、既に動作モデルとして登録されている登録情報2002における人物情報及び骨格情報と照合し、登録情報2002の中から、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報に最も近いデータを検索する。 In the site motion identification process, the person information and the site information in the input information 2001 of the site motion identification unit 170 are collated with the person information and the skeleton information in the registration information 2002 already registered as the motion model, and the registered information 2002 is used. , The data whose personal information matches the personal information in the input information and whose skeletal information is closest to the part information in the input information is searched.

入力情報の部位情報に最も近い骨格情報を有する登録情報を検索する手法として、例えば、次に示す手法を採用することができる。まず、入力情報と登録情報との間の、対応する部位同士(例えば、頭部位置同士、左手位置同士、右手位置同士)の距離をそれぞれ算出する。そして、算出された各部位同士の距離の合計が最も小さい登録情報を、入力情報の部位情報に最も近い骨格情報を有する登録情報であると判断する。 As a method of searching the registered information having the skeleton information closest to the part information of the input information, for example, the following method can be adopted. First, the distances between the corresponding parts (for example, the head positions, the left hand positions, and the right hand positions) between the input information and the registration information are calculated. Then, it is determined that the registration information having the smallest total distance between the calculated parts is the registration information having the skeleton information closest to the part information of the input information.

入力情報と登録情報の照合を行う際には、動作の識別精度を考慮すると、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報と一致するデータを検索することが理想である。しかしながら、所定の動作をする場合の人の動きは常に同じとは限らないので、登録情報における骨格情報に、入力情報における部位情報と一致するものがない場合が考えられる。 When collating the input information with the registration information, considering the identification accuracy of the operation, search for data in which the person information matches the person information in the input information and the skeleton information matches the part information in the input information. Is ideal. However, since the movement of a person when performing a predetermined movement is not always the same, it is conceivable that the skeleton information in the registration information does not match the part information in the input information.

このような場合を考慮して、本実施の形態では、入力情報と登録情報の照合を行う際には、人物情報が入力情報における人物情報と一致し、かつ、骨格情報が入力情報における部位情報に最も近いデータを検索する。 In consideration of such a case, in the present embodiment, when collating the input information and the registration information, the person information matches the person information in the input information, and the skeleton information is the part information in the input information. Find the data closest to.

図4の例の場合には、入力情報2001は、登録情報2002のうち2003のデータに最も近いため、部位動作識別部170は、動作情報は「6」であると識別し、部位動作情報を機器制御部180に出力する。 In the case of the example of FIG. 4, since the input information 2001 is the closest to the data of 2003 in the registration information 2002, the site motion identification unit 170 identifies that the motion information is "6" and displays the site motion information. Output to the device control unit 180.

機器制御部180は、骨格動作識別部130からの動作情報または部位動作識別部170からの動作情報に基づいて、不図示の機器300を制御するための制御情報を生成し、生成した制御情報を機器300に出力する。 The device control unit 180 generates control information for controlling the device 300 (not shown) based on the motion information from the skeletal motion identification unit 130 or the motion information from the site motion identification unit 170, and generates the generated control information. Output to device 300.

機器300は、機器制御部180から受け取った制御情報に基づき制御される。 The device 300 is controlled based on the control information received from the device control unit 180.

なお、図1bの例では、制御部102が骨格検知部120及び骨格動作識別部130を含む構成としたが、制御部102は、骨格検知部120及び骨格動作識別部130を含まない構成としてもよい。詳細については後述する。 In the example of FIG. 1b, the control unit 102 includes the skeleton detection unit 120 and the skeleton motion identification unit 130, but the control unit 102 may not include the skeleton detection unit 120 and the skeleton motion identification unit 130. good. Details will be described later.

また、図1bの例では、制御部102が機器制御部180を含む構成としたが、機器制御部180は、制御部102とは別に設けられていてもよい。 Further, in the example of FIG. 1b, the control unit 102 is configured to include the device control unit 180, but the device control unit 180 may be provided separately from the control unit 102.

すなわち、制御部102は、少なくとも検知制御部110、人物識別部140、動作モデル部150、部位検知部160及び部位動作識別部170を含む構成であればよい。 That is, the control unit 102 may have a configuration including at least a detection control unit 110, a person identification unit 140, an operation model unit 150, a site detection unit 160, and a site motion identification unit 170.

次に、本実施の形態に係る制御部102の動作の一例について、図5を用いて説明する。図5は、本実施の形態に係る制御部102の動作の流れの一例を示すフロー図である。 Next, an example of the operation of the control unit 102 according to the present embodiment will be described with reference to FIG. FIG. 5 is a flow chart showing an example of the operation flow of the control unit 102 according to the present embodiment.

まず、ステップS101で、検知制御部110は、カメラ200から画像情報を受け取る。上述したとおり、画像情報は乗員を撮影した画像である。 First, in step S101, the detection control unit 110 receives image information from the camera 200. As described above, the image information is an image of the occupant.

続いて、ステップS102で、検知制御部110は、画像情報をもとに、骨格検知が可能な画像かどうかを判定する。具体的には、画像情報から検知すべき全ての代表点位置を検知することができた場合に、骨格検知が可能な画像であると判定し、画像情報から検知すべき代表点位置のうち一部の代表点位置しか検知することができなかった場合に、骨格検知が可能な画像でないと判定する。 Subsequently, in step S102, the detection control unit 110 determines whether or not the image can detect the skeleton based on the image information. Specifically, when all the representative point positions to be detected can be detected from the image information, it is determined that the image can detect the skeleton, and one of the representative point positions to be detected from the image information. When only the position of the representative point of the part can be detected, it is determined that the image is not capable of detecting the skeleton.

ステップS102で骨格検知が可能な画像であると判定された場合(ステップS102:YES)、ステップS103に進み、ステップS103で、骨格検知部120は、骨格検知処理を行う。 If it is determined in step S102 that the image is capable of detecting the skeleton (step S102: YES), the process proceeds to step S103, and in step S103, the skeleton detection unit 120 performs the skeleton detection process.

続いて、ステップS104で、人物識別部140は、人物識別処理を行い、ステップS105で、骨格動作識別部130は、動作識別処理を行い、ステップS106で、機器制御部180は、機器制御情報生成処理を行う。 Subsequently, in step S104, the person identification unit 140 performs the person identification process, in step S105, the skeleton motion identification unit 130 performs the motion identification process, and in step S106, the device control unit 180 generates the device control information. Perform processing.

ステップS106に続くステップS107では、ステップS103の骨格検知処理で識別された骨格情報、ステップS104の人物識別処理で識別された人物情報、及びステップS105の動作識別処理で識別された動作情報に基づき、動作モデル部150は、動作モデルの更新を行う。具体的には、得られた骨格情報、人物情報及び動作情報を動作モデルのデータベースに加える作業を行う。なお、ステップS106とステップS107を行う順番は逆でもよく、また、ステップS106とステップS107を同時に行ってもよい。 In step S107 following step S106, based on the skeleton information identified by the skeleton detection process of step S103, the person information identified by the person identification process of step S104, and the operation information identified by the operation identification process of step S105. The operation model unit 150 updates the operation model. Specifically, the work of adding the obtained skeleton information, person information, and motion information to the database of motion models is performed. The order of performing steps S106 and S107 may be reversed, or steps S106 and S107 may be performed at the same time.

ステップS102で骨格検知が可能な画像であると判定されなかった場合(ステップS102:NO)、ステップS108に進み、ステップS108で、検知制御部110は、動作モデルが利用可能かどうかを判定する。 If it is not determined in step S102 that the image is capable of detecting the skeleton (step S102: NO), the process proceeds to step S108, and in step S108, the detection control unit 110 determines whether or not the operation model is available.

ステップS108で動作モデルが利用可能であると判定された場合(ステップS108:YES)、ステップS109に進み、ステップS109で、部位検知部160は、部位検知処理を行う。 If it is determined in step S108 that the operation model is available (step S108: YES), the process proceeds to step S109, and in step S109, the site detection unit 160 performs the site detection process.

続いて、ステップS110で、人物識別部140は、人物識別処理を行う。 Subsequently, in step S110, the person identification unit 140 performs the person identification process.

ステップS110に続くステップS111で、部位動作識別部170は、ステップS109の部位検知処理で識別された部位情報、ステップS110の人物識別処理で識別された人物情報、及び予め記憶された動作モデルに基づき、部位動作識別処理を行う。 In step S111 following step S110, the site motion identification unit 170 is based on the site information identified by the site detection process in step S109, the person information identified by the person identification process in step S110, and the motion model stored in advance. , Performs site motion identification processing.

ステップS111に続くステップS112で、機器制御部180は、機器制御情報生成処理を行う。 In step S112 following step S111, the device control unit 180 performs device control information generation processing.

ステップS108で動作モデルが利用可能であると判定されなかった場合(ステップS108:NO)には、ステップS113に進み、ステップS113で、検知制御部110は、動作識別処理が不可能と判定して、動作識別処理の実行を禁止し、エラー情報を提示するなどして処理を終了する。 If it is not determined in step S108 that the operation model is available (step S108: NO), the process proceeds to step S113, and in step S113, the detection control unit 110 determines that the operation identification process is impossible. , The execution of the operation identification process is prohibited, and the process is terminated by presenting error information.

以上説明したように、本実施の形態の識別装置100では、入力部101から受け取った画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する。 As described above, in the identification device 100 of the present embodiment, the person is identified and at least the head and hand parts of the person are detected based on the image information received from the input unit 101, and the identification is performed. The movement of the person, the detected part, and the movement of the person are identified based on the movement model registered for each person.

そのため、人物が革ジャケット等の近赤外光に対する反射率の低い衣服を着用しており、体・腕部分の距離が正常に出力されず、肩及び肘の関節を検知できない場合、部位情報だけでは動作識別を誤る可能性があるが、本実施の形態の識別装置100は、そのような場合でも、人物の動作を正しく識別することができる。 Therefore, if the person is wearing clothes with low reflectance to near-infrared light such as a leather jacket, the distance between the body and arms is not output normally, and the shoulder and elbow joints cannot be detected, only the part information is available. However, the identification device 100 of the present embodiment can correctly identify the motion of a person even in such a case.

また、例えば、人物の頭部、左手、右手の位置が同じであっても、人物のしぐさのクセまたは体格の違いにより、動作の種類に違いが生じてしまう場合がある。このような場合にも、本実施の形態の識別装置100は、人物情報、部位情報及び基本動作モデルに基づいて人物の動作を識別するので、人物の違いによる動作の違いを吸収して、動作を正しく識別することができる。 Further, for example, even if the positions of the head, left hand, and right hand of a person are the same, the type of movement may differ due to the habit of the person's gesture or the difference in physique. Even in such a case, since the identification device 100 of the present embodiment identifies the movement of the person based on the person information, the part information, and the basic movement model, it absorbs the difference in the movement due to the difference in the person and operates. Can be correctly identified.

以上、本発明の実施の形態について説明したが、本発明は、実施の形態の説明に限定されない。以下、各変形例について説明する。 Although the embodiment of the present invention has been described above, the present invention is not limited to the description of the embodiment. Hereinafter, each modification will be described.

<変形例1>
上述した実施の形態では、識別装置100、カメラ200、および機器300が自動車に備えられる例を挙げて説明したが、これに限定されない。識別装置100、カメラ200、および機器300は、自動車以外の移動体(例えば、鉄道車両、船舶、航空機等)に備えられてもよいし、移動体以外の場所に備えられてもよい。
<Modification example 1>
In the above-described embodiment, the identification device 100, the camera 200, and the device 300 have been described with reference to an example provided in the automobile, but the present invention is not limited thereto. The identification device 100, the camera 200, and the device 300 may be provided in a moving body other than an automobile (for example, a railroad vehicle, a ship, an aircraft, etc.), or may be provided in a place other than the moving body.

<変形例2>
上述した実施の形態では、部位動作識別処理において、人物情報が入力情報における人物情報と同じであり、かつ、骨格情報が入力情報における部位情報に最も近い登録情報における動作情報を、入力情報の動作情報と識別するようにしたが、これに限定されない。
<Modification 2>
In the above-described embodiment, in the part motion identification process, the motion information in the registered information in which the person information is the same as the person information in the input information and the skeleton information is closest to the site information in the input information is the operation of the input information. I tried to identify it as information, but it is not limited to this.

例えば、入力情報と登録情報の間で人物情報は一致するが、入力情報における部位情報と登録情報における骨格情報で一致するものがない場合に、入力情報における部位情報と近い順に登録情報を所定数検索し、これら所定数の登録情報における動作情報が全て同一である場合に、当該動作情報を入力情報における動作情報として用いるようにしてもよい。検索される登録情報の数については、予め決定しておく。 For example, if the person information matches between the input information and the registration information, but there is no match between the part information in the input information and the skeleton information in the registration information, a predetermined number of registration information is provided in the order of proximity to the part information in the input information. When the search is performed and the operation information in the predetermined number of registered information is all the same, the operation information may be used as the operation information in the input information. The number of registration information to be searched is determined in advance.

以下、変形例2の具体的態様について、図6を用いて説明する。なお、図6では、説明を容易にするため、登録情報のうち、人物情報が「2」であるもののみを示している。また、以下の説明では、検索される登録情報の数を3個とした例を示す。 Hereinafter, a specific embodiment of the second modification will be described with reference to FIG. In addition, in FIG. 6, in order to facilitate the explanation, only the registered information whose personal information is "2" is shown. Further, in the following description, an example in which the number of registered information to be searched is three is shown.

図6において、登録情報3002のうち、入力情報3001における部位情報と近い登録情報として、最も近いデータである3005のデータ、2番目に近いデータである3007、及び3番目に近いデータである3003のデータが検索される。そして、この場合、検索された3個のデータにおける動作情報が全て「1」であるので、入力情報における動作情報は「1」であると判定する。 In FIG. 6, among the registration information 3002, as the registration information close to the part information in the input information 3001, the data of 3005 which is the closest data, 3007 which is the second closest data, and 3003 which is the third closest data. The data is searched. Then, in this case, since the operation information in the three searched data is all "1", it is determined that the operation information in the input information is "1".

このようにすれば、単純に入力情報における部位情報に最も近い登録情報における骨格情報を用いるよりも動作識別精度が向上する。特に、登録情報が少ない状態では、入力情報における部位情報に最も近い登録情報における骨格情報を用いると動作識別精度が低下することが懸念されるので、上述の方法を用いた動作情報の推定は効果的である。 In this way, the motion identification accuracy is improved as compared with simply using the skeleton information in the registered information closest to the part information in the input information. In particular, when the amount of registered information is small, there is a concern that the motion identification accuracy will decrease if the skeleton information in the registered information closest to the part information in the input information is used. Therefore, estimation of the motion information using the above method is effective. Is the target.

<変形例3>
上述した実施の形態では、人物情報、骨格情報、及び動作情報の組合せを例えば10000組以上蓄積するまでは動作モデルのデータベースを利用できない態様としたが、動作モデルの利用制限はこれに限定されない。
<Modification example 3>
In the above-described embodiment, the motion model database cannot be used until, for example, 10,000 or more combinations of person information, skeleton information, and motion information are accumulated, but the usage restrictions of the motion model are not limited to this.

人物情報、骨格情報、及び動作情報の組合せの蓄積量が10000組に満たない場合でも、ある程度信頼性を担保できるだけの情報が蓄積された段階で動作モデルのデータベースを利用可能とすることが可能である。また、人物情報、骨格情報、及び動作情報の組合せの蓄積量が少ない状態であっても、特定の動作についてのみ動作モデルのデータベースを利用可能とすることも可能である。 Even if the accumulated amount of combinations of person information, skeleton information, and motion information is less than 10,000 pairs, it is possible to make the database of motion models available at the stage when information that can guarantee reliability to some extent is accumulated. be. Further, even when the accumulated amount of the combination of the person information, the skeleton information, and the motion information is small, it is possible to make the database of the motion model available only for a specific motion.

特に、変形例2に示した方法と組み合わせることにより、人物情報、骨格情報、及び動作情報の組合せの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。 In particular, by combining with the method shown in the second modification, the database of the motion model can be used while ensuring the motion identification accuracy even when the accumulated amount of the combination of the person information, the skeleton information, and the motion information is small. ..

<変形例4>
上述した実施の形態では、動作モデルを骨格検知が可能な画像に基づいて作成し、記憶する態様としたが、動作モデルを記憶させる態様についてはこれに限定されない。基本となる動作モデル(以下、「基本動作モデル」という)を、識別装置100を出荷する時点で予め識別装置100内に記憶させておくことも可能である。
<Modification example 4>
In the above-described embodiment, the motion model is created and stored based on an image capable of detecting the skeleton, but the mode in which the motion model is stored is not limited to this. It is also possible to store the basic operation model (hereinafter referred to as “basic operation model”) in the identification device 100 in advance at the time of shipping the identification device 100.

基本動作モデルは、所定の年齢、性別、体格毎に、標準的な骨格情報と動作情報が登録されたものである。この基本動作モデルは、様々な実験および/または計算により得られたデータにより予め作成される。 In the basic motion model, standard skeletal information and motion information are registered for each predetermined age, gender, and physique. This basic motion model is pre-built with data obtained from various experiments and / or calculations.

基本動作モデルを利用する場合には、画像情報に基づいて乗員の年齢、性別、体格等を識別し、記憶してある複数の基本動作モデルの中から、適切な基本動作モデルを選択する。 When using the basic motion model, the age, gender, physique, etc. of the occupant are identified based on the image information, and an appropriate basic motion model is selected from a plurality of stored basic motion models.

また、識別装置100内には、識別精度向上のため、年齢、性別、体格が異なる多数の基本動作モデルを記憶させておくことが好ましい。 Further, in order to improve the identification accuracy, it is preferable to store a large number of basic motion models having different ages, genders, and physiques in the identification device 100.

<変形例5>
変形例5は、変形例4において、基本動作モデルのデータベースと、骨格検知が可能な画像に基づいて作成する動作モデルのデータベースとを別で準備しておき、基本動作モデルと、骨格検知が可能な画像に基づいて作成した動作モデルを切り替えて用いるようにしたものである。
<Modification 5>
In the modified example 5, in the modified example 4, the database of the basic motion model and the database of the motion model created based on the image capable of detecting the skeleton are separately prepared, and the basic motion model and the skeleton can be detected. The operation model created based on the various images is switched and used.

具体的には、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態では、基本動作モデルを用い、骨格検知が可能な画像に基づいて作成した動作モデルの蓄積量が所定量以上となった場合に、用いる動作モデルを、基本動作モデルから、骨格検知が可能な画像に基づいて作成した動作モデルに切り替える。 Specifically, when the accumulated amount of the motion model created based on the image capable of detecting the skeleton is small, the accumulated amount of the motion model created based on the image capable of detecting the skeleton using the basic motion model is large. When the amount exceeds a predetermined amount, the motion model to be used is switched from the basic motion model to the motion model created based on the image capable of skeleton detection.

このようにすれば、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。 By doing so, it is possible to use the motion model database while ensuring the motion identification accuracy even when the accumulation amount of the motion model created based on the image capable of skeleton detection is small.

<変形例6>
変形例6は、変形例4において、基本動作モデルと、骨格検知が可能な画像に基づいて作成した動作モデルを組み合わせて用いるようにしたものである。
<Modification 6>
In the modified example 6, in the modified example 4, the basic motion model and the motion model created based on the image capable of detecting the skeleton are used in combination.

具体的には、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態で、基本動作モデルを用いると共に、骨格検知が可能な画像に基づいて動作モデルが作成された場合に、作成された動作モデルを用いて基本動作モデルのデータベースを更新する。具体的には、得られた骨格情報、人物情報及び動作情報を基本動作モデルのデータベースに加える作業を行う。 Specifically, when the basic motion model is used and the motion model is created based on the image capable of detecting the skeleton while the accumulated amount of the motion model created based on the image capable of detecting the skeleton is small. In addition, the database of the basic operation model is updated using the created operation model. Specifically, the work of adding the obtained skeleton information, person information, and motion information to the database of the basic motion model is performed.

このようにすれば、骨格検知が可能な画像に基づいて作成された動作モデルの蓄積量が少ない状態でも、動作識別精度を確保しつつ動作モデルのデータベースを利用することができる。更に、基本動作モデルに骨格検知が可能な画像に基づいて作成された信頼性の高い動作モデルのデータを取り入れることで、動作モデルの信頼性を更に向上させることができる。 By doing so, it is possible to use the motion model database while ensuring the motion identification accuracy even when the accumulation amount of the motion model created based on the image capable of skeleton detection is small. Furthermore, the reliability of the motion model can be further improved by incorporating highly reliable motion model data created based on an image capable of detecting the skeleton into the basic motion model.

<変形例7>
上述した実施の形態では、骨格検知が可能な画像に基づいて動作モデルを作成する態様としたが、動作モデルの作成についてはこれに限定されない。例えば、動作モデルを用いて、部位動作識別部170で動作情報を識別した際に、その人物情報、部位情報及び動作情報を動作モデル部150にフィードバックさせるようにする。
<Modification 7>
In the above-described embodiment, the motion model is created based on an image capable of detecting the skeleton, but the creation of the motion model is not limited to this. For example, when the motion information is identified by the site motion identification unit 170 using the motion model, the person information, the site information, and the motion information are fed back to the motion model unit 150.

具体的には、図5のフロー図において、ステップS111の後に、部位動作識別処理に用いた人物情報及び部位情報と、部位動作識別処理において識別された動作情報を、動作モデル部150に出力し、動作モデル部150において、動作モデルの更新を行う。 Specifically, in the flow diagram of FIG. 5, after step S111, the person information and the site information used in the site motion identification process and the motion information identified in the site motion identification process are output to the motion model unit 150. , The operation model unit 150 updates the operation model.

こうすることで、骨格検知が可能な画像に基づく動作モデルの作成に加え、人物情報、部位情報、及び動作モデルに基づいて識別した動作情報からも動作モデルを作成することができるので、動作モデルの蓄積量が飛躍的に増大する。なお、部位動作識別部から出力されるデータのうち、入力情報における部位情報と登録情報における骨格情報のうち複数が一致するもの等、動作の識別の信頼性が高いデータのみをフィードバックさせるようにすることで、動作モデルの信頼性の低下を防止することができる。 By doing so, in addition to creating a motion model based on an image capable of detecting the skeleton, a motion model can be created from person information, part information, and motion information identified based on the motion model, so that the motion model can be created. The amount of accumulated information increases dramatically. Of the data output from the site motion identification unit, only data with high reliability of motion identification, such as data in which a plurality of site information in the input information and skeleton information in the registration information match, is fed back. Therefore, it is possible to prevent the reliability of the operation model from being lowered.

<変形例8>
上述した実施の形態では、乗員である運転者が近赤光に対する反射率の低い長袖の衣服を着用していることを想定し、部位検知部160で検知する部位を、露出している頭部、左手、右手の3箇所としたが、部位検知部160で検知する部位についてはこれに限定されない。検知する部位を3箇所より少なくしてもよいし、3箇所より多くしてもよい。また、手(手首から指先まで)に代えて、もしくは加えて、肘または肩など、上肢における所定の箇所を検知するようにしてもよい。
<Modification 8>
In the above-described embodiment, it is assumed that the driver, who is an occupant, is wearing long-sleeved clothing having a low reflectance to near-red light, and the part to be detected by the part detection unit 160 is exposed to the head. , Left hand and right hand, but the part detected by the part detection unit 160 is not limited to this. The number of detected parts may be less than three or more than three. Alternatively, instead of or in addition to the hand (wrist to fingertip), a predetermined location on the upper limb, such as the elbow or shoulder, may be detected.

例えば、運転者が近赤光に対する反射率の低い半袖の衣服及び手袋を着用している場合を考えると、上述の実施の形態では、頭部を検知することはできるが両手を検知することができず、部位動作識別処理を行うことができない。しかしながら、手に代えて、肘を検知するようにすれば、部位動作識別処理を行うことができる。 For example, considering the case where the driver wears short-sleeved clothes and gloves having low reflectance to near-red light, in the above-described embodiment, the head can be detected but both hands can be detected. It is not possible to perform the site motion identification process. However, if the elbow is detected instead of the hand, the site motion identification process can be performed.

また、運転席が車両進行方向右側である場合、運転者は機器300を左手で操作することが多い。そこで、検知する部位を、頭部と、左上肢の1箇所以上とすれば、検知部位を少なくしたとしても、検知部位の動きが多いため、運転者の動作を正しく識別することができる。 Further, when the driver's seat is on the right side in the vehicle traveling direction, the driver often operates the device 300 with the left hand. Therefore, if the parts to be detected are one or more of the head and the upper left limb, even if the number of detection parts is reduced, the movement of the detection part is large, so that the driver's movement can be correctly identified.

<変形例9>
上述した実施の形態では、動作モデルにおいて記憶される骨格情報として、部位検知部160での部位検知処理で検知対象となる部位の骨格情報のみを登録する態様としたが、動作モデルに記憶させる骨格情報の種類については、これに限定されない。
<Modification example 9>
In the above-described embodiment, as the skeleton information stored in the motion model, only the skeleton information of the site to be detected by the site detection process in the site detection unit 160 is registered, but the skeleton stored in the motion model. The type of information is not limited to this.

例えば、動作モデルに全骨格情報を記憶させるようにしてもよい。その場合、部位動作識別部170では、画像情報から検知することができた部位の部位情報と、動作モデルにおける骨格情報のうち、画像情報から検知することができた部位に対応する部位の骨格情報を照合する。 For example, the motion model may store the entire skeleton information. In that case, the part motion identification unit 170 includes the part information of the part that could be detected from the image information and the skeleton information of the part corresponding to the part that could be detected from the image information among the skeleton information in the motion model. To match.

このようにすれば、検知可能な部位の組合せが変わった場合でも、部位動作識別処理を行うことができる。 In this way, even if the combination of detectable parts changes, the part motion identification process can be performed.

以上、本発明の実施の形態および変形例について説明した。 The embodiments and modifications of the present invention have been described above.

図7は、上述した実施の形態および変形例における各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。 FIG. 7 is a diagram showing a hardware configuration of a computer that programmatically realizes the functions of each part in the above-described embodiment and modification.

図7に示すように、コンピュータ2100は、入力ボタン、タッチパッドなどの入力装置2101、ディスプレイ、スピーカなどの出力装置2102、CPU(Central Processing Unit)2103、ROM(Read Only Memory)2104、RAM(Random Access Memory)2105を備える。また、コンピュータ2100は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置2106、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置2107、ネットワークを介して通信を行う送受信装置2108を備える。上述した各部は、バス2109により接続される。 As shown in FIG. 7, the computer 2100 includes an input device 2101 such as an input button and a touch pad, an output device 2102 such as a display and a speaker, a CPU (Central Processing Unit) 2103, a ROM (Read Only Memory) 2104, and a RAM (Random). Access Memory) 2105 is provided. The computer 2100 is a reading device that reads information from a hard disk device, a storage device 2106 such as an SSD (Solid State Drive), a recording medium such as a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory. 2107, a transmission / reception device 2108 that communicates via a network is provided. The above-mentioned parts are connected by the bus 2109.

そして、読取装置2107は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置2106に記憶させる。あるいは、送受信装置2108が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置2106に記憶させる。 Then, the reading device 2107 reads the program from the recording medium on which the program for realizing the functions of the above parts is recorded, and stores the program in the storage device 2106. Alternatively, the transmission / reception device 2108 communicates with the server device connected to the network, and stores the program downloaded from the server device for realizing the functions of the above parts in the storage device 2106.

そして、CPU2103が、記憶装置2106に記憶されたプログラムをRAM2105にコピーし、そのプログラムに含まれる命令をRAM2105から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM2105または記憶装置2106には、各実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。 Then, the CPU 2103 copies the program stored in the storage device 2106 to the RAM 2105, and sequentially reads and executes the instructions included in the program from the RAM 2105, thereby realizing the functions of the above-mentioned parts. Further, when the program is executed, the information obtained by the various processes described in each embodiment is stored in the RAM 2105 or the storage device 2106, and is appropriately used.

本発明に係る識別装置は、所定の機器を操作する人物を識別するのに有用である。 The identification device according to the present invention is useful for identifying a person who operates a predetermined device.

100 識別装置
101 入力部
102 制御部
110 検知制御部
120 骨格検知部
130 骨格動作識別部
140 人物識別部
150 動作モデル部
160 部位検知部
170 部位動作識別部
180 機器制御部
200 カメラ
300 機器
1000、1001、1002 画像
1003 データベース
2001 入力情報
2002 登録情報
2003 データ
2100 コンピュータ
2101 入力装置
2102 出力装置
2103 CPU
2104 ROM
2105 RAM
2106 記憶装置
2107 読取装置
2108 送受信装置
2109 バス
3001 入力情報
3002 登録情報
3003、3004、3005、3006、3007 データ
100 Identification device 101 Input unit 102 Control unit 110 Detection control unit 120 Skeletal detection unit 130 Skeletal motion identification unit 140 Person identification unit 150 Operation model unit 160 Part detection unit 170 Part operation identification unit 180 Equipment control unit 200 Camera 300 Equipment 1000, 1001 , 1002 Image 1003 Database 2001 Input Information 2002 Registration Information 2003 Data 2100 Computer 2101 Input Device 2102 Output Device 2103 CPU
2104 ROM
2105 RAM
2106 Storage device 2107 Reader 2108 Transmission / reception device 2109 Bus 3001 Input information 3002 Registration information 3003, 3004, 3005, 3006, 3007 Data

Claims (5)

カメラで撮影された人物の画像情報を受け取る入力部と、
前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、
前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含
前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルとを切り替えて用いる、識別装置。
An input unit that receives image information of a person taken by a camera,
Based on the image information, the person is identified and at least the head and hand parts of the person are detected, and the identified person, the detected part, and the movement of the person are registered for each person. A control unit that identifies the movement of the person based on the model is provided.
The operation model, viewed contains a first behavior model is generated based on the operation of the person identified by the control unit, and a second operation model stored are generated in advance, a,
The control unit is an identification device that switches between the first operation model and the second operation model based on the accumulated amount of the first operation model.
前記制御部は、前記第1動作モデルの蓄積量が所定量未満の場合は第2動作モデルを用い、前記第1動作モデルの蓄積量が前記所定量以上となった場合に、用いる動作モデルを前記第2動作モデルから前記第1動作モデルに切り替える、請求項に記載の識別装置。 The control unit uses the second operation model when the accumulated amount of the first operation model is less than the predetermined amount, and uses the operation model when the accumulated amount of the first operation model is equal to or more than the predetermined amount. The identification device according to claim 1 , wherein the second operation model is switched to the first operation model. 前記制御部は、前記人物の動作を識別した際に、当該人物の人物情報、当該人物の部位情報又は当該人物の動作の識別結果を示す動作情報を前記第1動作モデルにフィードバックさせる、請求項1に記載の識別装置。When the control unit identifies the motion of the person, the control unit feeds back the person information of the person, the part information of the person, or the motion information indicating the identification result of the motion of the person to the first motion model. The identification device according to 1. カメラで撮影された人物の画像情報を受け取る入力部と、
前記画像情報に基づいて前記人物の識別及び前記人物の少なくとも頭部及び手の部位の検知を行い、識別された前記人物、検知された前記部位、及び人物の動作が人物毎に登録された動作モデルに基づいて前記人物の動作を識別する制御部と、を備え、
前記動作モデルは、前記制御部によって識別された前記人物の動作に基づいて生成される第1動作モデルと、予め生成されて記憶されている第2動作モデルと、を含み、
前記制御部は、前記第1動作モデルの蓄積量に基づいて前記第1動作モデルと前記第2動作モデルを組み合わせて用いる、識別装置。
An input unit that receives image information of a person taken by a camera,
Based on the image information, the person is identified and at least the head and hand parts of the person are detected, and the identified person, the detected part, and the movement of the person are registered for each person. A control unit that identifies the movement of the person based on the model is provided.
The motion model includes a first motion model generated based on the motion of the person identified by the control unit, and a second motion model generated and stored in advance.
Wherein the control unit is used by combining the second operation model and the first behavior model based on the accumulated amount of the first operation model, identification device.
前記制御部は、前記第1動作モデルの蓄積量が所定量未満の場合は、前記第2動作モデルを用いると共に、前記第1動作モデルが生成された場合に、生成された動作モデルを用いて前記第2動作モデルを更新する、請求項4に記載の識別装置。 The control unit uses the second operation model when the accumulated amount of the first operation model is less than a predetermined amount, and uses the generated operation model when the first operation model is generated. The identification device according to claim 4, wherein the second operation model is updated.
JP2020049530A 2016-04-28 2020-03-19 Identification device Active JP6909986B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049530A JP6909986B2 (en) 2016-04-28 2020-03-19 Identification device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016091760A JP6688990B2 (en) 2016-04-28 2016-04-28 Identification device, identification method, identification program, and recording medium
JP2020049530A JP6909986B2 (en) 2016-04-28 2020-03-19 Identification device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016091760A Division JP6688990B2 (en) 2016-04-28 2016-04-28 Identification device, identification method, identification program, and recording medium

Publications (2)

Publication Number Publication Date
JP2020095756A JP2020095756A (en) 2020-06-18
JP6909986B2 true JP6909986B2 (en) 2021-07-28

Family

ID=71085217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049530A Active JP6909986B2 (en) 2016-04-28 2020-03-19 Identification device

Country Status (1)

Country Link
JP (1) JP6909986B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4481663B2 (en) * 2004-01-15 2010-06-16 キヤノン株式会社 Motion recognition device, motion recognition method, device control device, and computer program
US9274594B2 (en) * 2010-05-28 2016-03-01 Microsoft Technology Licensing, Llc Cloud-based personal trait profile data
JP5625643B2 (en) * 2010-09-07 2014-11-19 ソニー株式会社 Information processing apparatus and information processing method

Also Published As

Publication number Publication date
JP2020095756A (en) 2020-06-18

Similar Documents

Publication Publication Date Title
JP6688990B2 (en) Identification device, identification method, identification program, and recording medium
JP7011578B2 (en) Methods and systems for monitoring driving behavior
EP2743799B1 (en) Control apparatus, vehicle, and portable terminal using hand information for command generation
JP5877053B2 (en) Posture estimation apparatus and posture estimation method
JP2019040465A (en) Behavior recognition device, learning device, and method and program
JP6509361B2 (en) Parking support device and parking support method
CN111104820A (en) Gesture recognition method based on deep learning
CN103310188A (en) Method and apparatus for pose recognition
JP5217754B2 (en) Action estimation device, program
JP2017199302A (en) Determination device, determination method, determination program and storage medium
JP7091983B2 (en) Equipment control device
JPWO2019163124A1 (en) 3D position estimation device and 3D position estimation method
JP2010079639A (en) Pedestrian detecting device for vehicle
US20230410356A1 (en) Detection apparatus, detection method, and non-transitory storage medium
JP6909986B2 (en) Identification device
JP4613999B2 (en) Action estimation device, program
JP2004259215A (en) Face detection system and its method
US20220309400A1 (en) Learning method, learning device, and recording medium
Ribas et al. In-Cabin vehicle synthetic data to test Deep Learning based human pose estimation models
KR101976498B1 (en) System and method for gesture recognition of vehicle
JP2010152487A (en) Action estimating apparatus and program
Kapgate et al. Human following robot using kinect in embedded platform
JP2018089161A (en) Target person recognition method, device, system, and program
US11887257B2 (en) Method and apparatus for virtual training based on tangible interaction
JP2009216480A (en) Three-dimensional position and attitude measuring method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R151 Written notification of patent or utility model registration

Ref document number: 6909986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151