JP5983132B2 - POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM - Google Patents

POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP5983132B2
JP5983132B2 JP2012161323A JP2012161323A JP5983132B2 JP 5983132 B2 JP5983132 B2 JP 5983132B2 JP 2012161323 A JP2012161323 A JP 2012161323A JP 2012161323 A JP2012161323 A JP 2012161323A JP 5983132 B2 JP5983132 B2 JP 5983132B2
Authority
JP
Japan
Prior art keywords
marker
image
detected
markers
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012161323A
Other languages
Japanese (ja)
Other versions
JP2014020986A5 (en
JP2014020986A (en
Inventor
哲司 牧野
哲司 牧野
雅昭 佐々木
雅昭 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012161323A priority Critical patent/JP5983132B2/en
Publication of JP2014020986A publication Critical patent/JP2014020986A/en
Publication of JP2014020986A5 publication Critical patent/JP2014020986A5/ja
Application granted granted Critical
Publication of JP5983132B2 publication Critical patent/JP5983132B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、位置決定装置、位置決定システム、位置決定方法及びプログラムに関する。   The present invention relates to a position determination device, a position determination system, a position determination method, and a program.

従来、被写体の動作を示す動作情報を生成する手法として、マーカーが付された被写体が複数の方向から撮像された複数の動画像データに基づいて動作情報を生成するモーションキャプチャシステムが知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, as a method for generating motion information indicating the motion of a subject, a motion capture system that generates motion information based on a plurality of moving image data in which a subject with a marker is captured from a plurality of directions is known. (For example, patent document 1).

特開平10−222668号公報Japanese Patent Laid-Open No. 10-222668

ところで、所定の一方向から被写体を撮像した画像から動作情報を生成する場合、被写体が回動動作等を行って当該被写体の一部分により撮像装置とマーカーとの間が遮られると、マーカーの位置の検出を検出することができなくなるといった問題がある。   By the way, when generating motion information from an image obtained by imaging a subject from a predetermined direction, if the subject performs a rotation operation or the like and a part of the subject blocks the imaging device and the marker, the position of the marker is changed. There is a problem that detection cannot be detected.

本発明の課題は、所定の一方向からヒトが撮像された画像に基づいて、ヒトに付された全てのマーカーの位置を決定することができる位置決定装置、位置決定システム、位置決定方法及びプログラムを提供することである。 An object of the present invention is to provide a position determination device, a position determination system, a position determination method, and a program capable of determining the positions of all markers attached to a human based on an image obtained by imaging a human from a predetermined direction. Is to provide.

上記課題を解決するため、本発明の位置決定装置は、複数のマーカーが付されたヒトが所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置において、前記画像を取得する取得手段と、この取得手段により取得された画像内のマーカーを検出する第1検出手段と、前記画像に含まれる前記ヒトの画像の顔画像を検出する第2検出手段と、前記第2検出手段により検出された顔画像の所定方向の軸を中心とする回動角度を算出する算出手段と、この算出手段により算出された回動角度に基づいて、前記ヒトの前記所定方向の軸を中心とする回動動作に係る回動情報を生成する第1生成手段と、前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定する推定手段と、前ヒトに付された全てのマーカーの位置を決定する決定手段と、を備え、前記決定手段は、前記第1検出手段によるマーカーの検出結果及び前記推定手段により推定されたマーカーの位置を用いて、前記ヒトに付された全てのマーカーの位置を決定することを特徴とする。 In order to solve the above-described problem, the position determination device of the present invention acquires the image in a position determination device that determines the position of a marker in an image captured by a human with a plurality of markers taken from a predetermined direction. Obtaining means, first detection means for detecting a marker in the image obtained by the obtaining means, second detection means for detecting a face image of the human image included in the image, and the second detection Calculating means for calculating a rotation angle about the axis in a predetermined direction of the face image detected by the means, and based on the rotation angle calculated by the calculation means, the axis in the predetermined direction of the human being a first generating means for generating a rotation information relating to rotational motion to, on the basis of the rotation information, and estimating means for estimating the position of a marker of the non-detected by the first detecting means, before Symbol human all of which are attached Comprising determining means for determining the position of the manufacturers, and the determination means, all using the detection result and the estimated position of the markers by the estimating means of the marker according to the first detecting means, attached to said human The position of the marker is determined .

また、本発明の位置決定システムは、複数のマーカーが付されたヒトを所定の一方向から撮像する撮像装置と、請求項1〜の何れか一項に記載の位置決定装置と、を備える位置決定システムであって、前記位置決定装置の前記取得手段は、前記撮像装置により撮像された画像を取得することを特徴とする。 The position determination system of the present invention includes an imaging device for imaging a plurality of markers attached person from a predetermined direction, and a positioning device according to any one of claims 1 to 5 In the position determination system, the acquisition unit of the position determination apparatus acquires an image captured by the imaging apparatus.

また、本発明の位置決定方法は、複数のマーカーが付されたヒトが所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置を用いた位置決定方法であって、前記画像を取得するステップと、取得された画像内のマーカーを検出するステップと、前記画像に含まれる前記ヒトの画像の顔画像を検出するステップと、検出された顔画像の所定方向の軸を中心とする回動角度を算出するステップと、算出された回動角度に基づいて、前記ヒトの前記所定方向の軸を中心とする回動動作に係る回動情報を生成するステップと、前記回動情報に基づいて、非検出のマーカーの位置を推定するステップと、前ヒトに付された全てのマーカーの位置を決定するステップと、を有し、前記全てのマーカーの位置を決定するステップは、前記取得された画像内のマーカーを検出するステップによるマーカーの検出結果及び前記非検出のマーカーの位置を推定するステップにより推定されたマーカーの位置を用いて、前記ヒトに付された全てのマーカーの位置を決定することを特徴とする。 Further, the position determination method of the present invention is a position determination method using a position determination device that determines the position of a marker in an image in which a human with a plurality of markers is imaged from a predetermined direction. Acquiring an image, detecting a marker in the acquired image, detecting a face image of the human image included in the image, and centering an axis in a predetermined direction of the detected face image A step of calculating a rotation angle, a step of generating rotation information related to a rotation operation about the axis of the predetermined direction of the human based on the calculated rotation angle, and the rotation based on the information, estimating a position of the marker undetected, before SL has a step of determining the position of all the markers attached to the person, and determining a position of said all markers , Using the marker detection result obtained by the step of detecting a marker in the acquired image and the marker position estimated by the step of estimating the position of the non-detected marker, all markers attached to the human being are detected. The position is determined .

また、本発明のプログラムは、複数のマーカーが付されたヒトが所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置のコンピュータを、前記画像を取得する手段、取得された画像内のマーカーを検出する第1検出手段、前記画像に含まれる前記ヒトの画像の顔画像を検出する手段、検出された顔画像の所定方向の軸を中心とする回動角度を算出する手段、算出された回動角度に基づいて、前記ヒトの前記所定方向の軸を中心とする回動動作に係る回動情報を生成する手段、前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定する推定手段、前記ヒトに付された全てのマーカーの位置を決定する決定手段、として機能させ、前記決定手段は、前記第1検出手段によるマーカーの検出結果及び前記推定手段により推定されたマーカーの位置を用いて、前記ヒトに付された全てのマーカーの位置を決定することを特徴とする。 Further, the program of the present invention is acquired by means of a computer for a position determination device that determines a position of a marker in an image captured by a human with a plurality of markers from a predetermined direction, and that acquires the image. First detection means for detecting a marker in the image, means for detecting a face image of the human image included in the image, and calculating a rotation angle about an axis in a predetermined direction of the detected face image. It means, based on the calculated rotation angle, wherein the predetermined direction means to generate a rotation information relating to the rotational motion about the axis of the person, based on the rotation information, the first detection estimating means for estimating the position of a marker of the non-detected by means, determining means for determining the position of all the markers attached to the person, to function as the determining means, the detection result of the marker according to the first detection means Using the position of the estimated markers by fine said estimating means, and determining the position of all the markers attached to the person.

本発明によれば、所定の一方向からヒトを撮像した画像に基づいて、ヒトに付された全てのマーカーの位置を決定することができる。 According to the present invention, it is possible to determine the positions of all markers attached to a human based on an image obtained by imaging the human from a predetermined direction.

本発明を適用した一実施形態の位置決定システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the position determination system of one Embodiment to which this invention is applied. 位置決定装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a position determination apparatus. 動作情報生成処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on an operation | movement information generation process. マーカー位置決定処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on a marker position determination process. 複数の可動部分にマーカーが付された被写体の一例を示す図である。It is a figure which shows an example of the to-be-photographed object to which the marker was attached | subjected to several movable parts. 顔画像と、顔画像の回動角度との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of a face image and the rotation angle of a face image. 回動動作を行う被写体が撮像された場合の被写体画像の一例を示す図である。図7(a)は被写体の回動角度が0[度]である場合を示す図である。図7(b)は被写体の回動角度が−45[度]である場合を示す図である。図7(c)は被写体の回動角度が−90[度]である場合を示す図である。It is a figure which shows an example of a to-be-photographed image when the to-be-photographed object which rotates is imaged. FIG. 7A is a diagram illustrating a case where the rotation angle of the subject is 0 [degree]. FIG. 7B is a diagram illustrating a case where the rotation angle of the subject is −45 [degrees]. FIG. 7C is a diagram illustrating a case where the rotation angle of the subject is −90 [degrees]. 図7に示す被写体と撮像装置との関係を示す図である。図8(a)は被写体の回動角度が0[度]である場合を示す図である。図8(b)は被写体の回動角度が−45[度]である場合を示す図である。図8(c)は被写体の回動角度が−90[度]である場合を示す図である。It is a figure which shows the relationship between the to-be-photographed object and imaging device shown in FIG. FIG. 8A is a diagram illustrating a case where the rotation angle of the subject is 0 [degree]. FIG. 8B is a diagram illustrating a case where the rotation angle of the subject is −45 [degrees]. FIG. 8C is a diagram illustrating a case where the rotation angle of the subject is −90 [degrees]. 回動動作が行われていない被写体画像において非検出のマーカーがある場合の一例を示す図である。It is a figure which shows an example in case there exists a non-detection marker in the to-be-photographed image which is not performing the rotation operation.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の位置決定システム100の概略構成を示すブロック図である。
図1に示すように、本実施形態の位置決定システム100は、撮像装置1と、位置決定装置2とを備える。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram showing a schematic configuration of a position determination system 100 according to an embodiment to which the present invention is applied.
As illustrated in FIG. 1, the position determination system 100 according to the present embodiment includes an imaging device 1 and a position determination device 2.

先ず、撮像装置1について説明する。
撮像装置1は、複数の可動部分にマーカーが付された被写体P(図5参照)を所定の一方向から撮像する。
具体的には、撮像装置1は、例えば、撮像レンズの光軸を被写体Pが存する所定の一方向(例えば、方向V1;図8(a)〜(c)参照)に向けるように、当該被写体Pを撮像可能な所定の位置に固定されている。被写体Pには、複数の可動部分にマーカー(例えば、マーカーM1〜M16等;図5参照)が予め付されている。
そして、撮像装置1は、マーカーが付された被写体Pを撮像した画像データを生成して記録媒体Cに記録する。具体的には、撮像装置1は、被写体Pを所定の時間連続して撮像し、所定のフレームレートを有する動画像データを生成して記録媒体Cに記録する。
なお、撮像装置1は、例えば、所定の時間内においてそれぞれ異なる複数のタイミングで被写体Pを撮像し、各タイミングで撮像された静止画像データを生成して記録媒体Cに記録するようにしてもよい。
First, the imaging device 1 will be described.
The imaging device 1 images a subject P (see FIG. 5) in which markers are attached to a plurality of movable parts from a predetermined direction.
Specifically, for example, the imaging device 1 directs the subject so that the optical axis of the imaging lens is directed in a predetermined direction in which the subject P exists (for example, the direction V1; see FIGS. 8A to 8C). It is fixed at a predetermined position where P can be imaged. In the subject P, markers (for example, markers M1 to M16, etc .; see FIG. 5) are attached in advance to a plurality of movable parts.
Then, the imaging apparatus 1 generates image data obtained by imaging the subject P to which the marker is attached and records it on the recording medium C. Specifically, the imaging apparatus 1 continuously captures an image of the subject P for a predetermined time, generates moving image data having a predetermined frame rate, and records it on the recording medium C.
Note that the imaging apparatus 1 may, for example, capture the subject P at a plurality of different timings within a predetermined time, generate still image data captured at each timing, and record the still image data on the recording medium C. .

ここで、マーカーについて説明する。
マーカーは、被写体に存する複数の可動部分に付される。例えば、マーカーは、被写体Pであるヒトの間接に対応する位置や、被写体Pの動作に応じて揺動する部分の先端又は当該先端の近傍等、被写体Pの動作に応じて位置が変化する複数の箇所に付される。
具体的には、マーカーは、例えば、図5に示すように、被写体Pの顔が面する側(正面側)の顔、肩、又、両脚及び両腕に付されている。ここで、顔には上下方向に並ぶように二つのマーカーM1、M2が付されている。また、首の付け根には一つのマーカーM3が付されている。また、股の上方には一つのマーカーM4が付されている。また、右脚の膝、脛の付け根及びつま先にはそれぞれ一つずつのマーカーM5、M6、M7が付されている。また、左脚の膝、脛の付け根及びつま先にはそれぞれ一つずつのマーカーM8、M9、M10が付されている。また、右肩、右肘、右手の付け根にはそれぞれ一つずつのマーカーM11、M12、M13が付されている。また、左肩、左肘、左手の付け根にはそれぞれ一つずつのマーカーM14、M15、M16が付されている。
Here, the marker will be described.
The markers are attached to a plurality of movable parts existing in the subject. For example, the position of the marker varies depending on the movement of the subject P, such as the position indirectly corresponding to the person who is the subject P, the tip of a portion that swings according to the motion of the subject P, or the vicinity of the tip. It is attached to the place of.
Specifically, for example, as shown in FIG. 5, the marker is attached to the face, shoulder, both legs, and both arms on the side (front side) of the subject P. Here, two markers M1 and M2 are attached to the face so as to be lined up and down. One marker M3 is attached to the base of the neck. Further, one marker M4 is attached above the crotch. In addition, one marker M5, M6, and M7 is attached to each of the knee of the right leg, the base of the shin, and the toe. Also, one marker M8, M9, and M10 is attached to the left leg knee, shin base and toe, respectively. Further, one marker M11, M12, and M13 is attached to the base of the right shoulder, right elbow, and right hand, respectively. Also, one marker M14, M15, and M16 is attached to the base of the left shoulder, left elbow, and left hand, respectively.

また、マーカーは、例えば、所定の形状(例えば、円形等)や所定の色等をなし、互いに識別可能な特徴を有する指標である。形状や色等、マーカーが有する各種の特徴は、マーカーが付される被写体Pとの識別、特に、視覚的な識別が容易となるよう定められる。
また、上記のマーカーの各種の特徴や、被写体Pに付されたマーカーの数、マーカーどうしの位置関係、各マーカーが付された被写体Pの可動部分どうしの関係等、マーカーに係る各種の特徴を示す情報(マーカー情報)が、位置決定装置2の所定の記録手段(図示略)に記録されている。
The marker is, for example, an index having a predetermined shape (for example, circular shape), a predetermined color, or the like, and features that are distinguishable from each other. Various characteristics of the marker such as shape and color are determined so as to facilitate identification with the subject P to which the marker is attached, in particular, visual identification.
In addition, various characteristics of the marker, such as the number of markers attached to the subject P, the positional relationship between the markers, the relationship between the movable parts of the subject P to which each marker is attached, and the like. Information shown (marker information) is recorded in predetermined recording means (not shown) of the position determining device 2.

なお、撮像装置1は、公知のものを適用可能であり、例えば、主要な機能を撮像機能とするデジタルカメラ等だけでなく、主要な機能としないものの撮像機能を具備する携帯電話機等も含む。   Note that a known device can be applied to the imaging device 1, and includes, for example, not only a digital camera having a main function as an imaging function but also a mobile phone having an imaging function that is not a main function.

次に、位置決定装置2について図2を参照して説明する。
位置決定装置2は、例えば、パーソナルコンピュータ等により構成され、撮像装置1により記録された画像データを記録媒体Cから読み出して被写体Pの動作情報を生成する。
Next, the position determination device 2 will be described with reference to FIG.
The position determination device 2 is configured by, for example, a personal computer or the like, and reads out the image data recorded by the imaging device 1 from the recording medium C and generates motion information of the subject P.

図2は、位置決定装置2の概略構成を示すブロック図である。
図2に示すように、位置決定装置2は、具体的には、記録媒体制御部201と、画像取得部202と、マーカー検出部203と、回動角度算出部204と、回動情報生成部205と、マーカー位置決定部206と、動作情報生成部207と、表示部208と、操作入力部209と、中央制御部210等を備えている。
FIG. 2 is a block diagram illustrating a schematic configuration of the position determination device 2.
As shown in FIG. 2, the position determination device 2 specifically includes a recording medium control unit 201, an image acquisition unit 202, a marker detection unit 203, a rotation angle calculation unit 204, and a rotation information generation unit. 205, a marker position determination unit 206, an operation information generation unit 207, a display unit 208, an operation input unit 209, a central control unit 210, and the like.

記録媒体制御部201は、記録媒体Cが着脱自在に構成され、装着された記録媒体Cからのデータの読み出しや記録媒体Cに対するデータの書き込みを制御する。即ち、記録媒体制御部201は、撮像装置1から取り外されて装着された記録媒体Cからマーカー位置決定処理(後述)に係る画像データ(例えば、動画像データ等)を読み出して画像取得部202に出力する。   The recording medium control unit 201 is configured so that the recording medium C is detachable, and controls reading of data from the loaded recording medium C and writing of data to the recording medium C. That is, the recording medium control unit 201 reads out image data (for example, moving image data) related to the marker position determination process (described later) from the recording medium C that is detached from the imaging apparatus 1 and attached to the image acquisition unit 202. Output.

画像取得部202は、記録媒体制御部201から出力された画像データに基づいて、複数の可動部分にマーカーが付された被写体Pが所定の一方向から撮像された画像データを取得する取得手段として機能する。
具体的には、画像取得部202は、例えば、被写体Pを所定の時間連続して撮像した複数のフレーム画像を有する動画像データを取得し、当該動画像データを構成する複数のフレーム画像の各々を静止画像データとして個別に抽出し、各フレーム画像に対応する静止画像データを取得する。ここで、静止画像データは、図7(a)〜(c)や図9に示すように、動画像データの生成時に撮像された被写体画像(例えば、図7(a)〜(c)及び図9に示す被写体画像P1〜P4)及び被写体Pに付されたマーカーの画像を含む。
また、マーカーが付された被写体Pを撮像した静止画像データが記録媒体Cに記録されている場合、画像取得部202は、記録媒体制御部201から出力された当該静止画像データを取得する。
Based on the image data output from the recording medium control unit 201, the image acquisition unit 202 is an acquisition unit that acquires image data obtained by imaging a subject P with markers attached to a plurality of movable parts from a predetermined direction. Function.
Specifically, the image acquisition unit 202 acquires, for example, moving image data including a plurality of frame images obtained by continuously capturing the subject P for a predetermined time, and each of the plurality of frame images constituting the moving image data. Are individually extracted as still image data, and still image data corresponding to each frame image is acquired. Here, as shown in FIGS. 7A to 7C and FIG. 9, the still image data includes subject images (for example, FIGS. 7A to 7C and FIGS. 7A and 7B) captured when moving image data is generated. 9 includes subject images P1 to P4) and a marker image attached to the subject P.
When still image data obtained by imaging the subject P with a marker is recorded on the recording medium C, the image acquisition unit 202 acquires the still image data output from the recording medium control unit 201.

なお、画像取得部202が取得する静止画像データは、例えば、図9に示すように、互いに直交する二方向にそれぞれの解像度(水平解像度、垂直解像度)を有する画像領域Dを備えた画像データであり、画像領域D内に被写体画像(例えば、被写体画像P4)を含む。図7(a)〜(c)では静止画像データの画像領域Dの図示を省略して被写体画像P1〜P3のみ図示しているが、被写体画像P1〜P3は、図9と同様の画像領域D内に含まれる。   Note that the still image data acquired by the image acquisition unit 202 is, for example, image data including image regions D having respective resolutions (horizontal resolution and vertical resolution) in two directions orthogonal to each other, as shown in FIG. Yes, the image area D includes a subject image (for example, subject image P4). 7A to 7C, the image area D of the still image data is not shown, and only the subject images P1 to P3 are illustrated. However, the subject images P1 to P3 are the same as the image area D in FIG. Contained within.

マーカー検出部203は、画像取得部202により取得された画像内のマーカーを検出する第1検出手段として機能する。
具体的には、マーカー検出部203は、マーカー情報により示されるマーカーの特徴(例えば、マーカーの形状や色等の視覚的特徴)に基づいて、マーカーとその周囲との画素値の差からマーカーの輪郭(エッジ)及び当該輪郭に囲まれた画像領域を検出するエッジ検出処理等を行う。そして、マーカー検出部203は、マーカーの検出結果をマーカー位置決定部206に出力する。
なお、マーカー検出部203によるマーカーの検出方法は一例であってこれに限られるものでなく、適宜任意に変更可能である。
また、エッジ検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The marker detection unit 203 functions as a first detection unit that detects a marker in the image acquired by the image acquisition unit 202.
Specifically, the marker detection unit 203 determines the marker based on the difference in pixel values between the marker and its surroundings based on the marker characteristics (for example, visual characteristics such as the shape and color of the marker) indicated by the marker information. Edge detection processing for detecting an outline (edge) and an image area surrounded by the outline is performed. Then, the marker detection unit 203 outputs the marker detection result to the marker position determination unit 206.
In addition, the marker detection method by the marker detection unit 203 is an example, and is not limited thereto, and can be arbitrarily changed as appropriate.
Further, since the edge detection process is a known technique, detailed description thereof is omitted here.

回動角度算出部204は、画像に含まれる被写体画像の少なくとも一部分の所定方向の軸を中心とする回動角度を算出する。
具体的には、回動角度算出部204は、顔画像検出部204aを具備し、この顔画像検出部204aにより検出された顔画像の所定方向の軸を中心とする回動角度を算出する。
The rotation angle calculation unit 204 calculates a rotation angle about an axis in a predetermined direction of at least a part of the subject image included in the image.
Specifically, the rotation angle calculation unit 204 includes a face image detection unit 204a, and calculates a rotation angle around the axis in a predetermined direction of the face image detected by the face image detection unit 204a.

顔画像検出部204aは、被写体画像の顔画像を検出する第2検出手段として機能する。
具体的には、顔画像検出部204aは、画像取得部202により取得された画像から、顔画像の候補領域として、所定サイズ(例えば、24×24[画素])の検出候補領域を複数生成する。そして、顔画像検出部204aは、例えば、各検出候補領域の画像データと所定の基準画像の画像データとの類似度を所定のアルゴリズム(例えば、adaboost(アダブースト)等)による出力計算を用いて算出し、算出された類似度が所定の閾値以上である検出候補領域の画像を顔画像として検出する。
The face image detection unit 204a functions as a second detection unit that detects a face image of the subject image.
Specifically, the face image detection unit 204a generates a plurality of detection candidate areas of a predetermined size (for example, 24 × 24 [pixel]) as face image candidate areas from the image acquired by the image acquisition unit 202. . Then, for example, the face image detection unit 204a calculates the degree of similarity between the image data of each detection candidate region and the image data of a predetermined reference image using output calculation by a predetermined algorithm (for example, adaboost (adaboost) or the like). Then, an image of a detection candidate area whose calculated similarity is equal to or greater than a predetermined threshold is detected as a face image.

所定の基準画像の画像データは、例えば、所定の記録手段(図示略)に記録され、検出候補領域について顔画像であるか否かを判定するための各種の識別用情報である。識別用情報としては、例えば、「ヒトの目」や「ヒトの鼻」、「ヒトの口」などの形状を基準とするものや、明度や彩度が高く鮮やかな(派手な)色合いであるか否かや肌色であるか否かなどの色調を基準とするものや、画角全体の画像に対する割合(例えば、半分以上であるか)などの大きさを基準とするもの等が挙げられる。
なお、顔画像検出部204aによる顔画像の検出方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The image data of the predetermined reference image is, for example, various identification information for determining whether or not the detection candidate area is a face image, recorded in a predetermined recording unit (not shown). Examples of identification information include information based on shapes such as “human eyes”, “human nose”, “human mouth”, and bright (high-pitched) colors with high brightness and saturation. For example, a color tone such as whether or not it is a skin color, and a color size based on the ratio of the entire angle of view to the image (for example, half or more).
Note that the face image detection method by the face image detection unit 204a is an example and is not limited to this, and can be arbitrarily changed as appropriate.

回動角度算出部204は、画像に含まれる被写体画像の少なくとも一部分(例えば、顔画像)の所定方向の軸を中心とする回動角度を算出する算出手段として機能する。
具体的には、回動角度算出部204は、例えば、顔画像検出部204aにより検出された顔画像の複数の特徴点(例えば、「ヒトの目」や「ヒトの鼻」、「ヒトの口」等)を特徴点検出処理により検出し、各特徴点どうしの位置関係を示す相関を特定する。そして、回動角度算出部204は、顔画像検出部204aにより検出された顔画像において特定された各特徴点どうしの相関と所定の相関データとの照合結果に基づいて、地面に垂直な方向の軸を中心とする顔画像の回動角度を算出する。また、回動角度算出部204は、算出された回動角度を示す情報を回動情報生成部205に出力する。
ここで、所定の相関データは、例えば、所定の記録手段(図示略)に記録され、顔画像の回動角度と、顔画像の回動角度に応じて変化する顔画像の各特徴点どうしの位置関係の相関とを対応付けた情報等、顔画像の回動角度の算出に係る各種の情報を含むデータである(図6参照)。なお、被写体Pの顔が撮像装置1のレンズに対して正面を向いた状態で撮像された顔画像の回動角度を基準(0[度])とし、一方の回動方向(例えば、図6の右方向)を+の回動方向とし、他方の回動方向(例えば、図6の左方向)を−の回動方向とするが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The rotation angle calculation unit 204 functions as a calculation unit that calculates a rotation angle around an axis in a predetermined direction of at least a part of a subject image (for example, a face image) included in an image.
Specifically, the rotation angle calculation unit 204, for example, includes a plurality of feature points (for example, “human eye”, “human nose”, “human mouth” of the face image detected by the face image detection unit 204a. Etc.) is detected by the feature point detection process, and the correlation indicating the positional relationship between the feature points is specified. Then, the rotation angle calculation unit 204 has a direction perpendicular to the ground on the basis of a result of matching between the correlation between the feature points specified in the face image detected by the face image detection unit 204a and predetermined correlation data. The rotation angle of the face image around the axis is calculated. Further, the rotation angle calculation unit 204 outputs information indicating the calculated rotation angle to the rotation information generation unit 205.
Here, the predetermined correlation data is recorded in, for example, a predetermined recording unit (not shown), and the rotation angle of the face image and the feature points of the face image that change in accordance with the rotation angle of the face image. This is data including various types of information related to the calculation of the rotation angle of the face image, such as information associated with the correlation of the positional relationship (see FIG. 6). Note that the rotation angle of the face image captured with the face of the subject P facing the front of the lens of the imaging device 1 is set as a reference (0 [degree]), and one rotation direction (for example, FIG. 6). The right rotation direction) is the + rotation direction, and the other rotation direction (for example, the left direction in FIG. 6) is the − rotation direction. Can be changed.

また、回動角度算出部204による回動角度の算出方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、特徴点検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
Moreover, the calculation method of the rotation angle by the rotation angle calculation part 204 is an example, and is not restricted to this, It can change arbitrarily arbitrarily.
Since the feature point detection process is a known technique, detailed description thereof is omitted here.

回動情報生成部205は、回動角度算出部204により算出された回動角度に基づいて、被写体Pの所定方向の軸を中心とする回動動作に係る回動情報を生成する第1生成手段として機能する。
具体的には、回動情報生成部205は、例えば、地面に垂直な方向の軸(例えば、軸O;図8(a)等参照)を中心として被写体Pが回動しているか否かを示す情報や、被写体Pの回動角度とを示す情報等を含む回動情報を生成する。そして、回動情報生成部205は、生成された回動情報をマーカー位置決定部206に出力する。
The rotation information generation unit 205 generates first rotation information related to the rotation operation about the axis in the predetermined direction of the subject P based on the rotation angle calculated by the rotation angle calculation unit 204. Functions as a means.
Specifically, the rotation information generation unit 205 determines, for example, whether or not the subject P is rotating about an axis perpendicular to the ground (for example, the axis O; see FIG. 8A and the like). Rotation information including information indicating information indicating the rotation angle of the subject P, and the like is generated. Then, the rotation information generation unit 205 outputs the generated rotation information to the marker position determination unit 206.

また、回動情報生成部205は、回動角度算出部204により算出された回動角度に基づいて、被写体Pの回動の有無を判定する。具体的には、回動情報生成部205は、例えば、回動角度算出部204により算出された回動角度の値と所定の角度の値との比較結果に基づいて、被写体Pが回動しているか否かを判定する。ここで、被写体Pが回動していると判定された場合、回動情報生成部205は、回動角度算出部204により算出された回動角度を被写体Pの回動角度として含む回動情報を生成する。一方、被写体Pが回動していないと判定された場合、回動情報生成部205は、回動角度算出部204により算出された回動角度を被写体Pの回動角度として含まない回動情報を生成する。
なお、所定の角度は、適宜任意に変更可能である。例えば、回動情報生成部205は、回動角度の絶対値が0[度]を上回る場合に、被写体Pが回動していると判定するようにしてもよいし、絶対値がより大きい所定の角度(例えば、45[度]等)に基づいて、被写体Pが回動しているか否かを判定するようにしてもよい。
Further, the rotation information generation unit 205 determines whether the subject P is rotated based on the rotation angle calculated by the rotation angle calculation unit 204. Specifically, the rotation information generation unit 205 rotates the subject P based on a comparison result between the rotation angle value calculated by the rotation angle calculation unit 204 and a predetermined angle value, for example. It is determined whether or not. Here, when it is determined that the subject P is rotating, the rotation information generation unit 205 includes rotation information that includes the rotation angle calculated by the rotation angle calculation unit 204 as the rotation angle of the subject P. Is generated. On the other hand, when it is determined that the subject P has not rotated, the rotation information generation unit 205 does not include the rotation angle calculated by the rotation angle calculation unit 204 as the rotation angle of the subject P. Is generated.
The predetermined angle can be arbitrarily changed as appropriate. For example, the rotation information generation unit 205 may determine that the subject P is rotating when the absolute value of the rotation angle exceeds 0 [degrees], or a predetermined value with a larger absolute value. It may be determined whether or not the subject P is rotating based on the angle (for example, 45 [degrees]).

マーカー位置決定部206は、マーカー検出部203によるマーカーの検出結果及び回動情報生成部205により生成された回動情報に基づいて、被写体Pに付された全てのマーカーの位置を決定する決定手段として機能する。
具体的には、マーカー位置決定部206は、マーカー検出部203により検出されたマーカーの位置を決定する。ここで、マーカー位置決定部206は、例えば、画像取得部202により取得された画像の全画像領域(例えば、画像領域D;図9参照)に対するマーカーの画像領域位置を検出する。また、マーカー位置決定部206は、検出されたマーカーの位置を所定の形式の位置情報(例えば、画像領域D内の所定の一点を原点とした座標情報等)とする。
また、マーカー位置決定部206は、第1判定部206a、第2判定部206b及び位置推定部206cを備える。
The marker position determination unit 206 determines a position of all markers attached to the subject P based on the marker detection result by the marker detection unit 203 and the rotation information generated by the rotation information generation unit 205. Function as.
Specifically, the marker position determination unit 206 determines the position of the marker detected by the marker detection unit 203. Here, the marker position determination unit 206 detects the image region position of the marker with respect to the entire image region (for example, the image region D; see FIG. 9) of the image acquired by the image acquisition unit 202, for example. The marker position determination unit 206 uses the detected marker position as position information in a predetermined format (for example, coordinate information using a predetermined point in the image region D as an origin).
The marker position determination unit 206 includes a first determination unit 206a, a second determination unit 206b, and a position estimation unit 206c.

第1判定部206aは、全てのマーカーがマーカー検出部203により検出されたか否か判定する第1判定手段として機能する。
具体的には、第1判定部206aは、マーカー検出部203から出力されたマーカーの検出結果を取得し、マーカー検出部203により検出済みのマーカーの数を特定する。そして、第1判定部206aは、特定されたマーカーの数と、マーカー情報により示されるマーカーの数との比較結果に基づいて、被写体Pに付された全てのマーカー(例えば、マーカーM1〜M16等)がマーカー検出部203により検出されたか否か判定する。
ここで、全てのマーカーが検出されたと判定された場合、マーカー位置決定部206は、マーカー検出部203によるマーカーの検出結果に基づいて、被写体Pに付された全てのマーカーの位置を決定する(図7(a)、(b)参照)。即ち、マーカー位置決定部206は、マーカー検出部203により検出されたマーカーの各々の位置の検出によりマーカーの位置を決定する。
The first determination unit 206a functions as a first determination unit that determines whether all markers have been detected by the marker detection unit 203.
Specifically, the first determination unit 206a acquires the marker detection result output from the marker detection unit 203, and specifies the number of markers detected by the marker detection unit 203. Then, the first determination unit 206a, based on the comparison result between the number of identified markers and the number of markers indicated by the marker information, all markers attached to the subject P (for example, markers M1 to M16, etc.) ) Is detected by the marker detection unit 203.
If it is determined that all the markers have been detected, the marker position determination unit 206 determines the positions of all the markers attached to the subject P based on the marker detection result by the marker detection unit 203 ( (See FIGS. 7A and 7B). That is, the marker position determination unit 206 determines the position of the marker by detecting the position of each marker detected by the marker detection unit 203.

一方、全てのマーカーが検出されていないと判定された場合、即ち、非検出のマーカーがあると判定された場合、マーカー位置決定部206は、マーカー検出部203によるマーカーの検出結果及び回動情報生成部205により生成された回動情報に基づいて、被写体Pに付された全てのマーカーの位置を決定する(図7(c)参照)。具体的には、マーカー位置決定部206は、例えば、第2判定部206bによる被写体Pの回動動作に係る判定処理と、当該判定結果に基づく位置推定部206cによる非検出のマーカーの位置の推定処理とを順次行う。   On the other hand, when it is determined that all the markers are not detected, that is, when it is determined that there are undetected markers, the marker position determination unit 206 detects the marker detection result and the rotation information by the marker detection unit 203. Based on the rotation information generated by the generation unit 205, the positions of all markers attached to the subject P are determined (see FIG. 7C). Specifically, for example, the marker position determination unit 206 estimates the position of the non-detected marker by the position estimation unit 206c based on the determination process related to the rotation operation of the subject P by the second determination unit 206b and the determination result. Processing is performed sequentially.

第2判定部206bは、回動情報に基づいて、被写体Pが回動しているか否か判定する第2判定手段として機能する。
具体的には、第2判定部206bは、回動情報生成部205から出力された回動情報を取得し、回動情報が被写体Pの回動を示す情報を含むか否かにより被写体が回動しているか否か判定する。例えば、図8(c)に示すように、被写体Pの回動角度が−90[度]である場合、被写体画像P3(図7(c))について、顔画像の回動角度が−90[度]であることが回動角度算出部204により算出される。そして、当該回動角度を含む回動情報が回動情報生成部205により生成されることから、第2判定部206bは、被写体が回動していると判定する。
The second determination unit 206b functions as a second determination unit that determines whether or not the subject P is rotating based on the rotation information.
Specifically, the second determination unit 206b acquires the rotation information output from the rotation information generation unit 205, and the subject rotates depending on whether or not the rotation information includes information indicating the rotation of the subject P. Determine if it is moving. For example, as shown in FIG. 8C, when the rotation angle of the subject P is −90 [degrees], the rotation angle of the face image is −90 [for the subject image P3 (FIG. 7C). Degrees] is calculated by the rotation angle calculation unit 204. Then, since the rotation information including the rotation angle is generated by the rotation information generation unit 205, the second determination unit 206b determines that the subject is rotating.

位置推定部206cは、全てのマーカーが検出されていないと判定された場合に、回動情報に基づいて、非検出のマーカーの位置を推定する。
即ち、位置推定部206cは、全てのマーカーがマーカー検出部203により検出されていないと判定され、かつ、被写体Pが回動していると判定された場合、回動情報に基づいて、非検出のマーカーの位置を推定する推定手段として機能する。
具体的には、位置推定部206cは、例えば、図8(c)に示すように、マーカーM1、M7等、マーカー検出部203により検出され、マーカー位置決定部206により決定されたマーカーの位置に基づいて、非検出のマーカーが存すると推定される被写体Pの正面の位置(例えば、線L1により示される位置)を推定する。また、位置推定部206cは、回動情報に基づいて、被写体の正面側が向いている方向(例えば、方向V2)を推定する。そして、位置推定部206cは、マーカー情報により示される各マーカーどうしの位置関係等から、非検出のマーカーが存する可能性が最も高いとされる位置を非検出のマーカー(例えば、マーカーM3、M6等)の各々について推定する。
図7(c)では、マーカーM3、M6の位置を矢印にて指し示している。また、図8(c)では、検出済みのマーカーM1、M7を黒点で示し、位置が推定されたマーカーM11〜M16を白抜きの点で示している。
If it is determined that all the markers have not been detected, the position estimation unit 206c estimates the position of the non-detected marker based on the rotation information.
That is, if it is determined that all the markers are not detected by the marker detection unit 203 and the subject P is rotating, the position estimation unit 206c is not detected based on the rotation information. It functions as an estimation means for estimating the position of the marker.
Specifically, for example, as shown in FIG. 8C, the position estimation unit 206c detects the markers M1, M7, etc., detected by the marker detection unit 203, and at the marker position determined by the marker position determination unit 206. Based on this, the front position of the subject P where the non-detected marker is estimated to exist (for example, the position indicated by the line L1) is estimated. Further, the position estimation unit 206c estimates the direction (for example, the direction V2) in which the front side of the subject is facing based on the rotation information. Then, the position estimation unit 206c determines a position that is most likely to contain a non-detected marker from the positional relationship between the markers indicated by the marker information, and the like (for example, markers M3, M6, etc.). ) For each.
In FIG. 7C, the positions of the markers M3 and M6 are indicated by arrows. In FIG. 8C, the detected markers M1 and M7 are indicated by black dots, and the markers M11 to M16 whose positions are estimated are indicated by white dots.

また、位置推定部206cは、第2判定部206bにより被写体Pが回動していないと判定された場合、検出されたマーカーに基づいて、非検出のマーカーの位置を推定する。
例えば、図9に示すように、例えば、被写体画像P4における顔画像の回動角度は0[度]の状態で、被写体Pの動作により一部のマーカー(例えば、マーカーM4)が被写体Pの体の一部により隠されて撮像されなかった場合、第1判定部206aは、全てのマーカーがマーカー検出部203により検出されていないと判定し、且つ、第2判定部206bは、被写体Pは回動していないと判定する。この場合、位置推定部206cは、例えば、上記のマーカーM4に隣接するマーカーM3、M5、M8の3つのマーカーの位置関係(例えば、図5に示す三角形T1)や、当該3つのマーカーの各々に対するマーカーM4の位置関係をマーカー情報から取得する。また、位置推定部206cは、マーカーM4が非検出の被写体画像P4から検出され、マーカー位置決定部206により位置が決定されたマーカーM3、M5、M8の位置関係(例えば、図9に示す三角形T2)を取得する。そして、位置推定部206cは、これらの位置関係に基づいて、被写体画像P4におけるマーカーM4の位置を推定する。
Further, when the second determination unit 206b determines that the subject P is not rotating, the position estimation unit 206c estimates the position of the non-detected marker based on the detected marker.
For example, as shown in FIG. 9, for example, when the rotation angle of the face image in the subject image P4 is 0 [degree], some markers (for example, the marker M4) are moved to the body of the subject P by the operation of the subject P. If the image is hidden by a part of the image and not captured, the first determination unit 206a determines that all the markers have not been detected by the marker detection unit 203, and the second determination unit 206b Judge that it is not moving. In this case, the position estimating unit 206c, for example, the positional relationship of the three markers M3, M5, and M8 adjacent to the marker M4 (for example, the triangle T1 shown in FIG. 5) and each of the three markers The positional relationship of the marker M4 is acquired from the marker information. Further, the position estimation unit 206c detects the marker M4 from the non-detected subject image P4, and the positional relationship between the markers M3, M5, and M8 whose positions are determined by the marker position determination unit 206 (for example, the triangle T2 shown in FIG. 9). ) To get. Then, the position estimating unit 206c estimates the position of the marker M4 in the subject image P4 based on these positional relationships.

マーカー位置決定部206は、位置推定部206cにより推定された非検出のマーカーの位置を用いて全てのマーカーの位置を決定する。即ち、マーカー位置決定部206は、位置推定部206cにより推定された非検出のマーカーの位置を当該非検出のマーカーが存するであろう位置として決定し、マーカー検出部203により検出されたマーカーの各々の位置の検出結果と合わせて全てのマーカーの位置を決定する。   The marker position determination unit 206 determines the positions of all markers using the positions of undetected markers estimated by the position estimation unit 206c. That is, the marker position determination unit 206 determines the position of the undetected marker estimated by the position estimation unit 206c as a position where the undetected marker will exist, and each of the markers detected by the marker detection unit 203. The positions of all the markers are determined together with the detection results of the positions.

また、マーカー位置決定部206は、所定の時間内にそれぞれ異なるタイミングで撮像された複数の画像について、被写体Pに付された全てのマーカーの位置を決定する。ここで、位置推定部206cは、マーカー検出部203により複数の画像のうちの何れか一の画像にて非検出のマーカーと対応するマーカーが当該複数の画像のうちの一の画像と異なる他の画像から検出された場合に、他の画像から検出されたマーカーの位置に基づいて非検出のマーカーの位置を推定するようにしてもよい。   The marker position determination unit 206 determines the positions of all markers attached to the subject P for a plurality of images captured at different timings within a predetermined time. Here, the position estimating unit 206c is different from the one of the plurality of images in that the marker corresponding to the non-detected marker in any one of the plurality of images by the marker detecting unit 203 is different from the one of the plurality of images. When detected from an image, the position of a non-detected marker may be estimated based on the position of the marker detected from another image.

ここで、回動動作を行う被写体Pを図8(a)〜(c)の各々のタイミングで撮像した複数の静止画像データについて、全てのマーカーの位置を決定する場合について説明する。この場合に、画像取得部202により取得される複数の静止画像データの被写体画像は、図7(a)〜(c)に示す被写体画像P1〜P3となる。
図8(a)のタイミングから図8(b)のタイミングにかけて、被写体Pが軸Oを中心として0[度]の回動角度から−45[度]回動すると、当該回動動作及び回動角度を示す回動情報が生成される。この状態では、図7(a)、(b)に示すように、被写体画像P1、P2に基づいて、マーカー検出部203により被写体Pに付された全てのマーカーが検出される。
さらに、図8(b)のタイミングから図8(c)のタイミングにかけて、被写体Pがさらに−45[度]回動すると、回動角度は−90[度]となって、当該回動動作及び回動角度を示す回動情報が生成される。この状態では、図7(c)に示すように、被写体画像P3に基づいてマーカー検出部203により非検出とされるマーカー(例えば、マーカーM3、M6、M11〜M16)が生じる。この場合、位置推定部206cは、例えば、マーカー検出部203により検出された被写体画像P2におけるマーカーを基準とし、被写体画像P1から被写体画像P2にかけて変化したマーカーの位置の変化の度合いに基づいて、被写体画像P3にて非検出のマーカーの位置を推定するようにしてもよい。
Here, a case will be described in which the positions of all the markers are determined for a plurality of still image data obtained by imaging the subject P to be rotated at the respective timings shown in FIGS. In this case, the subject images of the plurality of still image data acquired by the image acquisition unit 202 are subject images P1 to P3 shown in FIGS.
When the subject P rotates from the timing of FIG. 8A to the timing of FIG. 8B by −45 [degree] from the rotation angle of 0 [degree] around the axis O, the rotation operation and rotation Rotation information indicating the angle is generated. In this state, as shown in FIGS. 7A and 7B, all the markers attached to the subject P are detected by the marker detection unit 203 based on the subject images P1 and P2.
Further, when the subject P further rotates by −45 [degree] from the timing of FIG. 8B to the timing of FIG. 8C, the rotation angle becomes −90 [degree], and the rotation operation and Rotation information indicating the rotation angle is generated. In this state, as shown in FIG. 7C, markers (for example, markers M3, M6, M11 to M16) that are not detected by the marker detection unit 203 are generated based on the subject image P3. In this case, for example, the position estimation unit 206c uses the marker in the subject image P2 detected by the marker detection unit 203 as a reference, and based on the degree of change in the marker position changed from the subject image P1 to the subject image P2. The position of the non-detected marker may be estimated in the image P3.

また、マーカー位置決定部206は、位置が決定された全てのマーカーについて、各々のマーカーの位置を示す情報(マーカー位置情報)を出力する。
具体的には、マーカー位置決定部206は、例えば、各々のマーカーの位置を所定の領域内の一点を原点とした座標領域内における座標情報とし、全てのマーカーの位置に対応する座標情報が含まれた情報をマーカー位置情報として動作情報生成部207に出力する。ここで、座標領域は、例えば、三次元空間に対応する座標を管理するためのものであってもよいし、他の次元(例えば、二次元等)に対応する座標を管理するためのものであってもよい。
In addition, the marker position determination unit 206 outputs information (marker position information) indicating the position of each marker for all markers whose positions have been determined.
Specifically, the marker position determination unit 206 uses, for example, each marker position as coordinate information in a coordinate area with one point in a predetermined area as an origin, and includes coordinate information corresponding to all marker positions. The obtained information is output to the motion information generation unit 207 as marker position information. Here, the coordinate area may be, for example, for managing coordinates corresponding to a three-dimensional space, or for managing coordinates corresponding to other dimensions (for example, two-dimensional). There may be.

動作情報生成部207は、マーカー位置決定部206により決定された複数の画像に係る全てのマーカーの位置に基づいて、被写体Pの動作を示す動作情報を生成する第2生成手段として機能する。
具体的には、動作情報生成部207は、複数の静止画像データの各々についてマーカー位置決定部206により出力されたマーカー位置情報を、各々の静止画像データが撮像されたタイミングにおける被写体Pのポーズを示すデータとする。そして、動作情報生成部207は、各々の静止画像データの撮像タイミングの時間軸に沿って各々のタイミングにおける被写体Pのポーズを示すデータどうしを関連付けることで動作情報を含むデータ(モーションデータ)を生成する。
また、動作情報生成部207は、記録媒体C等の記録装置にモーションデータを記録させる。
The motion information generation unit 207 functions as a second generation unit that generates motion information indicating the motion of the subject P based on the positions of all the markers related to the plurality of images determined by the marker position determination unit 206.
Specifically, the motion information generation unit 207 uses the marker position information output from the marker position determination unit 206 for each of a plurality of still image data, and the pose of the subject P at the timing when each still image data is captured. This data is shown. Then, the motion information generation unit 207 generates data (motion data) including the motion information by associating data indicating the pose of the subject P at each timing along the time axis of the imaging timing of each still image data. To do.
Further, the motion information generation unit 207 records the motion data in a recording device such as the recording medium C.

表示部208は、例えば、LCD、CRT(Cathode Ray Tube)等のディスプレイから構成され、中央制御部210のCPUの制御下にて各種情報を表示画面に表示する。
即ち、表示部208は、例えば、画像取得部202により取得された静止画像データを表示する。また、表示部208は、マーカー検出部203により検出されたマーカーを示す情報を表示する。また、表示部208は、マーカー位置決定部206により決定された全てのマーカーの位置を示す情報を表示する。また、表示部208は、非検出のマーカーがある場合、マーカー位置決定部206により位置が推定されたマーカーの位置とマーカー検出部203により検出されたマーカーに対応する位置とを区別可能に表示するようにしてもよい。また、表示部208は、動作情報により示される被写体Pの動きをタイミングごとに並べて表示するようにしてもよいし、スライドショー等の画面遷移を用いて動作情報に応じた被写体Pの動作を再現する表示を行うようにしてもよい。
The display unit 208 includes a display such as an LCD or a CRT (Cathode Ray Tube), for example, and displays various information on the display screen under the control of the CPU of the central control unit 210.
That is, the display unit 208 displays, for example, still image data acquired by the image acquisition unit 202. The display unit 208 displays information indicating the marker detected by the marker detection unit 203. The display unit 208 displays information indicating the positions of all the markers determined by the marker position determining unit 206. Further, when there is a non-detected marker, the display unit 208 displays the position of the marker whose position is estimated by the marker position determination unit 206 and the position corresponding to the marker detected by the marker detection unit 203 in a distinguishable manner. You may do it. Further, the display unit 208 may display the movement of the subject P indicated by the operation information side by side at each timing, or reproduces the operation of the subject P according to the operation information using screen transition such as a slide show. Display may be performed.

操作入力部209は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等を備え、ユーザにより押下されたキーの押下信号やマウスの操作信号を中央制御部210のCPUに出力する。
なお、操作入力部209としてタッチパネル(図示略)を表示部208の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
The operation input unit 209 includes, for example, a keyboard or mouse configured with data input keys for inputting numerical values, characters, and the like, up / down / left / right movement keys for performing data selection, feeding operations, and the like, and various function keys And a key press signal and a mouse operation signal pressed by the user are output to the CPU of the central control unit 210.
Note that a touch panel (not shown) may be disposed on the display screen of the display unit 208 as the operation input unit 209, and various instructions may be input according to the touch position of the touch panel.

中央制御部210は、位置決定装置2の各部を制御するものである。具体的には、中央制御部210は、CPU、RAM、ROM(何れも図示略)を備え、ROMに記録された位置決定装置2用の各種処理プログラム(図示略)に従って各種の制御動作を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部208に表示させる。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、位置決定装置2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記録する。
The central control unit 210 controls each unit of the position determination device 2. Specifically, the central control unit 210 includes a CPU, a RAM, and a ROM (all not shown), and performs various control operations according to various processing programs (not shown) for the position determination device 2 recorded in the ROM. . At that time, the CPU stores various processing results in a storage area in the RAM, and displays the processing results on the display unit 208 as necessary.
The RAM includes, for example, a program storage area for expanding a processing program executed by the CPU, a data storage area for storing input data, a processing result generated when the processing program is executed, and the like.
The ROM stores a program stored in the form of computer-readable program code, specifically, a system program that can be executed by the position determination device 2, various processing programs that can be executed by the system program, and these various processing programs. Records data used for execution.

次に、位置決定装置2による動作情報生成処理について、図3及び図4を参照して説明する。
図3は、動作情報生成処理に係る動作の一例を示すフローチャートである。また、図4は、マーカー位置決定処理に係る動作の一例を示すフローチャートである。
Next, operation information generation processing by the position determination device 2 will be described with reference to FIGS.
FIG. 3 is a flowchart illustrating an example of an operation related to the operation information generation process. FIG. 4 is a flowchart illustrating an example of an operation related to the marker position determination process.

まず、マーカー位置決定部206は、処理対象画像の枚数をカウントするカウンタNを所定の初期値(例えば、N=1)で設定する(ステップS1)。
次に、画像取得部202は、複数の可動部分にマーカーが付された被写体Pが所定の一方向から撮像された画像を取得する(ステップS2)。具体的には、画像取得部202は、例えば、記録媒体制御部201から出力された動画像データを構成する複数のフレーム画像の各々を静止画像データとして個別に抽出し、各フレーム画像に対応する静止画像データを取得する。
First, the marker position determination unit 206 sets a counter N that counts the number of images to be processed with a predetermined initial value (for example, N = 1) (step S1).
Next, the image acquisition unit 202 acquires an image in which the subject P with markers attached to a plurality of movable parts is captured from a predetermined direction (step S2). Specifically, for example, the image acquisition unit 202 individually extracts each of a plurality of frame images constituting the moving image data output from the recording medium control unit 201 as still image data, and corresponds to each frame image. Get still image data.

次に、マーカー検出部203は、画像取得部202により取得された画像に含まれるマーカーを検出する(ステップS3)。具体的には、マーカー検出部203は、例えば、マーカーを識別するために予め定められた特徴(例えば、マーカーの形状や色等)に基づいて、マーカーの特徴を示す画像領域を抽出することで画像内に含まれるマーカーを特定する。   Next, the marker detection unit 203 detects a marker included in the image acquired by the image acquisition unit 202 (step S3). Specifically, the marker detection unit 203 extracts, for example, an image region indicating the marker feature based on a feature (for example, the shape or color of the marker) predetermined for identifying the marker. Identify the markers included in the image.

次に、顔画像検出部204aは、画像取得部202により取得された画像に含まれる顔画像を検出する(ステップS4)。具体的には、顔画像検出部204aは、例えば、画像取得部202により取得された画像から、顔画像の候補領域として、所定サイズ(例えば、24×24[画素])の検出候補領域を複数生成し、各検出候補領域の画像データと所定の基準画像の画像データとの類似度を所定のアルゴリズム(例えば、adaboost(アダブースト)等)による出力計算を用いて算出し、算出された類似度が所定の閾値以上である検出候補領域の画像を顔画像として検出する。
次に、回動角度算出部204は、顔画像検出部204aにより検出された顔画像の所定方向の軸を中心とする回動角度を算出する(ステップS5)。具体的には、回動角度算出部204は、例えば、顔画像検出部204aにより検出された顔画像の複数の特徴点(例えば、「ヒトの目」や「ヒトの鼻」、「ヒトの口」等)を特徴点検出処理により検出し、各特徴点どうしの位置関係を示す相関を特定し、特定された顔画像の相関と、所定の相関データとの照合結果に基づいて、顔画像検出部204aにより検出された顔画像について、地面に垂直な方向の軸を中心とした回動角度を算出する(図6参照)。
Next, the face image detection unit 204a detects a face image included in the image acquired by the image acquisition unit 202 (step S4). Specifically, the face image detection unit 204a, for example, selects a plurality of detection candidate areas of a predetermined size (for example, 24 × 24 [pixel]) as candidate face image areas from the image acquired by the image acquisition unit 202. Generate and calculate the similarity between the image data of each detection candidate region and the image data of the predetermined reference image by using an output calculation by a predetermined algorithm (for example, adaboost), and the calculated similarity is An image of a detection candidate area that is equal to or greater than a predetermined threshold is detected as a face image.
Next, the rotation angle calculation unit 204 calculates a rotation angle around the axis in a predetermined direction of the face image detected by the face image detection unit 204a (step S5). Specifically, the rotation angle calculation unit 204, for example, includes a plurality of feature points (for example, “human eye”, “human nose”, “human mouth” of the face image detected by the face image detection unit 204a. )) Is detected by the feature point detection process, the correlation indicating the positional relationship between the feature points is specified, and the face image is detected based on the result of matching between the correlation of the specified face image and predetermined correlation data. For the face image detected by the unit 204a, the rotation angle about the axis in the direction perpendicular to the ground is calculated (see FIG. 6).

次に、回動情報生成部205は、回動角度算出部204により算出された回動角度に基づいて、被写体Pの所定方向の軸を中心とする回動動作に係る回動情報を生成する(ステップS6)。具体的には、回動情報生成部205は、例えば、地面に垂直な方向の軸を中心として被写体Pが回動しているか否かや被写体Pの回動角度を示す情報を含む回動情報を生成する。   Next, the rotation information generation unit 205 generates rotation information related to the rotation operation about the axis in the predetermined direction of the subject P based on the rotation angle calculated by the rotation angle calculation unit 204. (Step S6). Specifically, the rotation information generation unit 205 includes, for example, rotation information including information indicating whether or not the subject P is rotating about the axis perpendicular to the ground and the rotation angle of the subject P. Is generated.

次に、マーカー位置決定部206は、マーカー位置決定処理を行う(ステップS7)。
以下に、マーカー位置決定部206について、図4のフローチャートを参照して説明する。
まず、マーカー位置決定部206は、マーカー検出部203に検出されたマーカーの位置を決定する(ステップS21)。具体的には、マーカー位置決定部206は、例えば、画像取得部202により取得された画像の全画像領域に対するマーカーの画像領域位置を検出し、検出されたマーカーの位置を所定の形式の位置情報とする(図9等参照)。
Next, the marker position determination unit 206 performs marker position determination processing (step S7).
Hereinafter, the marker position determination unit 206 will be described with reference to the flowchart of FIG.
First, the marker position determination unit 206 determines the position of the marker detected by the marker detection unit 203 (step S21). Specifically, the marker position determination unit 206 detects, for example, the image region position of the marker with respect to the entire image region of the image acquired by the image acquisition unit 202, and the detected marker position is determined as position information in a predetermined format. (See FIG. 9 and the like).

次に、第1判定部206aは、被写体Pに付された全てのマーカーがマーカー検出部203により検出されたか否か判定する(ステップS22)。具体的には、第1判定部206aは、例えば、マーカー検出部203により検出済みのマーカーの数とマーカー検出部203により検出されたマーカーの数とを比較して、当該比較結果に基づいて全てのマーカーが検出されているか否か判定する。
ステップS22にて、マーカー検出部203により被写体Pに付された全てのマーカーが検出されたと判定された場合(ステップS22;YES)、マーカー位置決定部206は、マーカー検出部203によるマーカーの検出結果に基づいて、被写体Pに付された全てのマーカーの位置を決定する(ステップS23)。即ち、マーカー位置決定部206は、マーカー検出部203により検出されたマーカーの各々の位置の検出によりマーカーの位置を決定する。
Next, the first determination unit 206a determines whether or not all markers attached to the subject P have been detected by the marker detection unit 203 (step S22). Specifically, for example, the first determination unit 206a compares the number of markers already detected by the marker detection unit 203 with the number of markers detected by the marker detection unit 203, and based on the comparison result, It is determined whether or not the marker is detected.
When it is determined in step S22 that all markers attached to the subject P have been detected by the marker detection unit 203 (step S22; YES), the marker position determination unit 206 determines the marker detection result by the marker detection unit 203. Based on the above, the positions of all markers attached to the subject P are determined (step S23). That is, the marker position determination unit 206 determines the position of the marker by detecting the position of each marker detected by the marker detection unit 203.

一方、ステップS22にて、マーカー検出部203により被写体Pに付された全てのマーカーが検出されていないと判定された場合(ステップS22;NO)、マーカー位置決定部206は、カウンタNの値が1(N=1)であるか否か判定する(ステップS24)。ここで、N=1であると判定された場合(ステップS24;YES)、第2判定部206bは、回動情報に基づいて、被写体Pが回動しているか否か判定する(ステップS25)。即ち、第2判定部206bは、回動情報により被写体が回動していることが示されているか否か判定する。
ステップS25にて、回動情報に基づいて、被写体Pが回動していると判定された場合(ステップS25;YES)、位置推定部206cは、回動情報に基づいて、非検出のマーカーの位置を推定する(ステップS26)。具体的には、位置推定部206cは、例えば、位置推定部206cは、被写体Pに付された全てのマーカーのうちマーカー検出部203により検出され、マーカー位置決定部206により決定されたマーカーの位置や、回動情報により示される被写体Pの回動角度、マーカー情報により示されるマーカーに係る各種情報から非検出のマーカーの位置を推定する(図7(c)、図8(c)参照)。
一方、ステップS25にて、回動情報に基づいて、被写体Pが回動していないと判定された場合(ステップS25;NO)、位置推定部206cは、検出されたマーカーに基づいて、非検出のマーカーの位置を推定する(ステップS27)。具体的には、位置推定部206cは、例えば、マーカー検出部203により非検出のマーカーとマーカー検出部203により検出されたマーカーとの位置関係を取得し、当該位置関係と、マーカー検出部203により検出され、マーカー位置決定部206により決定されたマーカーの位置とに基づいて、非検出のマーカーの位置を推定する(図9参照)。
ステップS26又はステップS27のいずれかの処理後、マーカー位置決定部206は、位置推定部206cにより推定された非検出のマーカーの位置を用いて全てのマーカーの位置を決定する(ステップS23)。即ち、マーカー位置決定部206は、位置推定部206cにより推定された非検出のマーカーの位置を当該非検出のマーカーが存するであろう位置として決定し、マーカー検出部203により検出されたマーカーの各々の位置の検出結果と合わせて全てのマーカーの位置を決定する。
ステップS23の処理の完了により、マーカー位置決定部206は、マーカー位置決定処理を完了する。
On the other hand, when it is determined in step S22 that all markers attached to the subject P have not been detected by the marker detection unit 203 (step S22; NO), the marker position determination unit 206 determines that the value of the counter N is It is determined whether or not 1 (N = 1) (step S24). If it is determined that N = 1 (step S24; YES), the second determination unit 206b determines whether or not the subject P is rotating based on the rotation information (step S25). . In other words, the second determination unit 206b determines whether or not the rotation information indicates that the subject is rotating.
If it is determined in step S25 that the subject P is rotating based on the rotation information (step S25; YES), the position estimation unit 206c determines the non-detected marker based on the rotation information. The position is estimated (step S26). Specifically, the position estimation unit 206c, for example, the position estimation unit 206c is detected by the marker detection unit 203 among all the markers attached to the subject P, and the marker position determined by the marker position determination unit 206. In addition, the position of the non-detected marker is estimated from the rotation angle of the subject P indicated by the rotation information and various information related to the marker indicated by the marker information (see FIGS. 7C and 8C).
On the other hand, when it is determined in step S25 that the subject P is not rotating based on the rotation information (step S25; NO), the position estimation unit 206c is not detected based on the detected marker. The position of the marker is estimated (step S27). Specifically, the position estimation unit 206c acquires, for example, a positional relationship between a marker that is not detected by the marker detection unit 203 and a marker that is detected by the marker detection unit 203, and the positional relationship and the marker detection unit 203 Based on the detected marker position determined by the marker position determining unit 206, the position of the non-detected marker is estimated (see FIG. 9).
After the process of either step S26 or step S27, the marker position determination unit 206 determines the positions of all markers using the positions of the non-detected markers estimated by the position estimation unit 206c (step S23). That is, the marker position determination unit 206 determines the position of the undetected marker estimated by the position estimation unit 206c as a position where the undetected marker will exist, and each of the markers detected by the marker detection unit 203. The positions of all the markers are determined together with the detection results of the positions.
Upon completion of the process in step S23, the marker position determination unit 206 completes the marker position determination process.

図3に戻り、マーカー位置決定処理(ステップS7)の完了後、マーカー位置決定部206は、処理対象となる全ての静止画像データについて全てのマーカーの位置の決定が完了したか否か判定する(ステップS8)。ここで、処理対象となる全ての静止画像データについて全てのマーカーの位置の決定が完了していないと判定された場合(ステップS8;NO)、マーカー位置決定部206は、カウンタNの値の変更(例えば、+1)によるカウント処理を行い(ステップS9)、ステップS2の処理に移行する。   Returning to FIG. 3, after the marker position determination process (step S7) is completed, the marker position determination unit 206 determines whether or not the determination of the positions of all the markers has been completed for all the still image data to be processed (step S7). Step S8). Here, when it is determined that determination of the positions of all the markers has not been completed for all the still image data to be processed (step S8; NO), the marker position determination unit 206 changes the value of the counter N. (For example, +1) is performed (step S9), and the process proceeds to step S2.

ステップS9のカウント処理を1回以上経てから行われたマーカー位置決定処理(図4参照)においては、ステップS24にて、カウンタNの値が1でないと判定される(ステップS24;NO)。この場合、第2判定部206bは、回動情報に基づいて、被写体Pが回動しているか否か判定する(ステップS28)。
ステップS28にて、回動情報に基づいて、被写体Pが回動していると判定された場合(ステップS28;YES)、位置推定部206cは、回動情報及び他の画像のマーカーの位置に基づいて、非検出のマーカーの位置を推定する(ステップS29)。具体的には、位置推定部206cは、例えば、ステップS26の処理と同様の流れで処理を行うに際して、更に、マーカー検出部203により複数の画像のうちの何れか一の画像にて非検出のマーカーと対応するマーカーが当該複数の画像のうちの一の画像と異なる他の画像から検出された場合に、他の画像から検出されたマーカーの位置に基づいて非検出のマーカーの位置を推定する(図7(a)〜(c)、図8(a)〜(c)参照)。
一方、ステップS28にて、回動情報に基づいて、被写体Pが回動していないと判定された場合(ステップS28;NO)、位置推定部206cは、検出されたマーカー及び他の画像のマーカーの位置に基づいて、非検出のマーカーの位置を推定する(ステップS30)。具体的には、位置推定部206cは、例えば、ステップS27の処理と同様の流れで処理を行うに際して、更に、マーカー検出部203により複数の画像のうちの何れか一の画像にて非検出のマーカーと対応するマーカーが当該複数の画像のうちの一の画像と異なる他の画像から検出された場合に、他の画像から検出されたマーカーの位置に基づいて非検出のマーカーの位置を推定する。
ステップS29又はステップS30のいずれかの処理後、マーカー位置決定部206は、位置推定部206cにより推定された非検出のマーカーの位置を用いて全てのマーカーの位置を決定し(ステップS23)、マーカー位置決定処理を完了する。
In the marker position determination process (see FIG. 4) performed after the count process of step S9 is performed once or more, it is determined in step S24 that the value of the counter N is not 1 (step S24; NO). In this case, the second determination unit 206b determines whether or not the subject P is rotating based on the rotation information (step S28).
If it is determined in step S28 that the subject P is rotating based on the rotation information (step S28; YES), the position estimation unit 206c determines the position of the rotation information and the marker of another image. Based on this, the position of the non-detected marker is estimated (step S29). Specifically, for example, when performing the processing in the same flow as the processing in step S26, the position estimation unit 206c is further undetected in any one of the plurality of images by the marker detection unit 203. When a marker corresponding to a marker is detected from another image different from one of the plurality of images, the position of the non-detected marker is estimated based on the position of the marker detected from the other image (Refer to Drawing 7 (a)-(c) and Drawing 8 (a)-(c)).
On the other hand, when it is determined in step S28 that the subject P is not rotated based on the rotation information (step S28; NO), the position estimation unit 206c detects the detected marker and the marker of another image. The position of the non-detected marker is estimated based on the position (step S30). Specifically, for example, when performing the processing in the same flow as the processing in step S27, the position estimation unit 206c is further undetected in any one of the plurality of images by the marker detection unit 203. When a marker corresponding to a marker is detected from another image different from one of the plurality of images, the position of the non-detected marker is estimated based on the position of the marker detected from the other image .
After the processing in either step S29 or step S30, the marker position determination unit 206 determines the positions of all markers using the positions of the non-detected markers estimated by the position estimation unit 206c (step S23), Complete the position determination process.

図3に戻り、マーカー位置決定処理(ステップS7)の完了後、マーカー位置決定部206は、処理対象となる全ての静止画像データについて全てのマーカーの位置の決定が完了したか否か判定する(ステップS8)。ここで、処理対象となる全ての静止画像データについて全てのマーカーの位置の決定が完了したと判定された場合(ステップS8;YES)、動作情報生成部207は、マーカー位置決定部206により決定された複数の画像に係る全てのマーカーの位置に基づいて、被写体Pの動作を示す動作情報を生成する(ステップS10)。具体的には、動作情報生成部207は、例えば、マーカー位置決定処理の完了に伴い複数の静止画像データの各々についてマーカー位置決定部206により出力されたマーカー位置情報を、各々の静止画像データが撮像されたタイミングにおける被写体Pのポーズを示すデータとし、各々の静止画像データの撮像タイミングの時間軸に沿って各々のタイミングにおける被写体Pのポーズを示すデータどうしを関連付けることで動作情報を含むデータ(モーションデータ)を生成する。
ステップS10の処理の完了により、位置決定装置2は、動作情報生成処理を完了する。
Returning to FIG. 3, after the marker position determination process (step S7) is completed, the marker position determination unit 206 determines whether or not the determination of the positions of all the markers has been completed for all the still image data to be processed (step S7). Step S8). Here, when it is determined that all the marker positions have been determined for all the still image data to be processed (step S8; YES), the motion information generation unit 207 is determined by the marker position determination unit 206. Based on the positions of all the markers related to the plurality of images, motion information indicating the motion of the subject P is generated (step S10). Specifically, the motion information generation unit 207, for example, displays the marker position information output by the marker position determination unit 206 for each of a plurality of still image data upon completion of the marker position determination process. Data including motion information by associating data indicating the pose of the subject P at each timing along the time axis of the imaging timing of each still image data as data indicating the pose of the subject P at the captured timing ( Motion data).
Upon completion of the process in step S10, the position determination device 2 completes the motion information generation process.

以上のように、本実施形態の位置決定システム100によれば、マーカーの検出結果及び回動情報に基づいて、被写体Pに付された全てのマーカーの位置を決定するので、被写体の回動動作に係る情報を踏まえてマーカーの位置の決定を行うことができる。即ち、一方向から被写体Pを撮像すると被写体Pに付された全てのマーカーが画像内に含まれずに当該全てのマーカーが検出されない場合があるが、この場合に、マーカーが検出されなかったものについても被写体Pの回動状態(回動動作の有無や回動角度等)を考慮することで当該マーカーの位置を決定することができる。従って、所定の一方向から被写体Pが撮像された画像に基づいて、被写体Pに付された全てのマーカーの位置を決定することができる。
さらに、従来のように複数の方向から被写体を撮像する場合に比べて、より低コストで全てのマーカーの位置を決定することができる。
As described above, according to the position determination system 100 of the present embodiment, the positions of all the markers attached to the subject P are determined based on the marker detection result and the rotation information. The position of the marker can be determined on the basis of the information related to. That is, when the subject P is imaged from one direction, all markers attached to the subject P may not be included in the image and all the markers may not be detected. In this case, no marker is detected. In addition, the position of the marker can be determined by taking into consideration the rotation state of the subject P (the presence or absence of a rotation operation, the rotation angle, etc.). Therefore, the positions of all markers attached to the subject P can be determined based on an image obtained by capturing the subject P from a predetermined direction.
Furthermore, the positions of all the markers can be determined at a lower cost compared to the case where the subject is imaged from a plurality of directions as in the prior art.

また、全てのマーカーが検出されていないと判定された場合に、回動情報に基づいて、非検出のマーカーの位置を推定するので、非検出のマーカーがある場合に、回動情報により示される被写体Pの回動動作の有無や回動角度に基づいて、マーカーの位置の推定により非検出のマーカーの位置を決定することができ、これにより、被写体Pに付された全てのマーカーの位置を決定することができる。
さらに、被写体Pが回動していると判定された場合に、回動情報に基づいて、非検出のマーカーの位置を推定するので、被写体Pの回動動作の有無を踏まえてマーカーの位置を推定することができ、回動動作の有無によって推定される位置が変化する非検出のマーカーの位置の推定をより高精度で行うことができる。
In addition, when it is determined that all the markers have not been detected, the position of the non-detected marker is estimated based on the rotation information. Therefore, when there is an undetected marker, the rotation information indicates the position. Based on the presence / absence and rotation angle of the subject P, the position of the non-detected marker can be determined by estimating the marker position, whereby the positions of all the markers attached to the subject P can be determined. Can be determined.
Further, when it is determined that the subject P is rotating, the position of the non-detected marker is estimated based on the rotation information. Therefore, the position of the marker is determined based on whether or not the subject P is rotating. It is possible to estimate, and the position of the non-detected marker whose position estimated by the presence / absence of the rotating motion changes can be estimated with higher accuracy.

また、複数の画像のうちの何れか一の画像にて非検出のマーカーと対応するマーカーが当該複数の画像のうちの一の画像と異なる他の画像から検出された場合に、他の画像から検出されたマーカーの位置に基づいて非検出のマーカーの位置を推定するので、他の画像に存するマーカーの位置を基準として非検出のマーカーの位置を推定することができ、これにより、非検出のマーカーの位置の推定をより高精度で行うことができる。   In addition, when a marker corresponding to an undetected marker is detected from another image different from one image of the plurality of images in any one of the plurality of images, Since the position of the non-detected marker is estimated based on the position of the detected marker, the position of the non-detected marker can be estimated based on the position of the marker existing in another image. The position of the marker can be estimated with higher accuracy.

また、決定された複数の画像に係る全てのマーカーの位置に基づいて、被写体Pの動作を示す動作情報を生成するので、所定の一方向から被写体Pが撮像された画像に基づいて、より低コストで動作情報を生成することができる。   In addition, since the motion information indicating the motion of the subject P is generated based on the positions of all the markers related to the determined plurality of images, the motion information is further reduced based on the image obtained by capturing the subject P from a predetermined direction. Operation information can be generated at a cost.

また、顔画像の所定方向の軸を中心とする回動角度を算出するので、例えば、目、鼻、口等の特徴点を有する顔画像を用いて回動角度を算出することができ、回動角度の算出をより適正に行うことができる。   Also, since the rotation angle about the axis of the face image in the predetermined direction is calculated, for example, the rotation angle can be calculated using a face image having feature points such as eyes, nose and mouth. The moving angle can be calculated more appropriately.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。   The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.

例えば、上記実施形態では、撮像装置1と位置決定装置2とが別個に設けられているが、位置決定装置2が撮像装置1と同様の撮像手段を備え、当該撮像手段により撮像された画像を取得するようにしてもよい。
位置決定装置2が撮像手段を備えることにより、撮像手段(例えば、撮像装置1)と取得手段(例えば、画像取得部202)との間でデータを受け渡すための手段(例えば、記録媒体C)や受け渡しの作業を省略することができ、より効率的に全てのマーカーの位置の決定に係る処理を行うことができる。
For example, in the above-described embodiment, the imaging device 1 and the position determination device 2 are provided separately. However, the position determination device 2 includes the same imaging unit as the imaging device 1, and images captured by the imaging unit are displayed. You may make it acquire.
When the position determination device 2 includes the imaging unit, a unit (for example, the recording medium C) for transferring data between the imaging unit (for example, the imaging device 1) and the acquisition unit (for example, the image acquisition unit 202). And the delivery work can be omitted, and the processing for determining the positions of all the markers can be performed more efficiently.

また、上記実施形態では、記録媒体Cを介して撮像装置1と位置決定装置2との間のデータの受け渡しを行っているが、一例であってこれに限られるものでない。例えば、位置決定システムは、撮像装置1と位置決定装置2とを通信回線や所定のインタフェース等により接続する形態であってもよい。
また、上記実施形態において、顔画像検出部204aは、回動角度算出部204に設けられているが、一例であってこれに限られるものでない。例えば、顔画像検出部204aは、回動角度算出部204から独立して設けられてもよい。マーカー位置決定部206が備える各部も同様に、マーカー位置決定部206から独立して設けられてもよい。
In the above embodiment, data is exchanged between the imaging device 1 and the position determination device 2 via the recording medium C. However, this is an example, and the present invention is not limited to this. For example, the position determination system may be configured such that the imaging device 1 and the position determination device 2 are connected by a communication line, a predetermined interface, or the like.
Moreover, in the said embodiment, although the face image detection part 204a is provided in the rotation angle calculation part 204, it is an example and is not restricted to this. For example, the face image detection unit 204a may be provided independently of the rotation angle calculation unit 204. Similarly, each unit included in the marker position determination unit 206 may be provided independently of the marker position determination unit 206.

また、上記実施形態では、回動角度算出部204は、顔画像検出部204aにより検出された顔画像の回動角度を算出しているが、一例であってこれに限られるものでなく、被写体画像の他の部分に基づいて、回動角度を算出してもよい。例えば、手の画像、足の画像や手足の一部分の画像、胴体の画像、その他、被写体Pのあらゆる部分の画像のいずれか又は複数に基づいて、回動角度を算出するようにしてもよい。
また、上記実施形態では、回動動作の中心となる所定方向の軸を地面に垂直な方向の軸としているが、一例であってこれに限られるものでなく、適宜任意に変更可能である。
In the above-described embodiment, the rotation angle calculation unit 204 calculates the rotation angle of the face image detected by the face image detection unit 204a. However, the rotation angle calculation unit 204 is not limited to this example. The rotation angle may be calculated based on other parts of the image. For example, the rotation angle may be calculated based on any one or more of a hand image, a foot image, an image of a part of the limb, a torso image, and other images of all parts of the subject P.
In the above embodiment, although the vertical axis to the ground serving as the center in a predetermined direction axial of the rotational operation, the was not limited to this example, Ru can be arbitrarily changed der appropriately .

また、上記実施形態にあっては、位置推定部206cは、非検出のマーカーがある静止画像データよりも前のタイミングで撮像された静止画像データにおけるマーカーの位置に基づいて、非検出のマーカーの位置を推定しているが、一例であってこれに限られるものでない。例えば、位置推定部206cは、非検出のマーカーがある静止画像データよりも後のタイミングで撮像された静止画像データにおけるマーカーの位置に基づいて、非検出のマーカーの位置を推定するようにしてもよいし、前後の両方のタイミングにおけるマーカーの位置に基づいて、非検出のマーカーの位置を推定するようにしてもよい。   In the above embodiment, the position estimation unit 206c determines the position of the non-detected marker based on the position of the marker in the still image data captured at a timing before the still image data including the non-detected marker. Although the position is estimated, it is an example and the present invention is not limited to this. For example, the position estimation unit 206c may estimate the position of the non-detected marker based on the position of the marker in still image data captured at a later timing than the still image data with the non-detected marker. Alternatively, the position of the undetected marker may be estimated based on the marker position at both the preceding and following timings.

また、位置推定部206cは、所定の時間内にそれぞれ異なるタイミングで撮像された複数の画像のうち、二以上の画像においてマーカー検出部203により非検出のマーカーがある場合に、当該二以上の画像のうち、いずれか一の画像について推定された非検出のマーカーの位置に基づいて、まだ位置の推定が完了していない他の画像の非検出のマーカーの位置を推定するようにしてもよい。   Further, the position estimation unit 206c, when there are markers that are not detected by the marker detection unit 203 in two or more images among a plurality of images captured at different timings within a predetermined time, the two or more images Among them, based on the position of the non-detected marker estimated for any one of the images, the position of the non-detected marker of another image that has not yet been estimated for the position may be estimated.

また、マーカー位置決定部206は、マーカー位置情報の生成及び出力に係り、回動情報生成部205により生成された回動情報により示される被写体Pの回動動作に係る処理を加えて行ってもよい。
具体的には、マーカー位置決定部206は、例えば、マーカー検出部203により全てのマーカーが検出され、全てのマーカーの位置の決定に係り回動情報が用いられなかった静止画像データのマーカー位置情報に対して、当該静止画像データに対応する回動情報が示す被写体Pの回動角度に基づいて、三次元空間の座標領域内における各マーカーの位置の算出や各マーカーの位置の調整、補正等の各種の処理のいずれか又は複数を行うようにしてもよい。
In addition, the marker position determination unit 206 may perform processing related to the rotation operation of the subject P indicated by the rotation information generated by the rotation information generation unit 205 in connection with generation and output of the marker position information. Good.
Specifically, the marker position determination unit 206 detects, for example, all the markers by the marker detection unit 203, and the marker position information of still image data in which the rotation information is not used in determining the positions of all the markers. On the other hand, based on the rotation angle of the subject P indicated by the rotation information corresponding to the still image data, calculation of the position of each marker in the coordinate region of the three-dimensional space, adjustment and correction of the position of each marker, etc. Any one or more of the various processes may be performed.

また、第2判定部206bによる判定を省略し、回動情報により示される回動角度に基づいて、非検出のマーカーの位置を推定するようにしてもよい。この場合、例えば、位置推定部206cは、非検出のマーカーの位置を推定する処理において、回動情報により示される回動角度の値を変数の一つとして取得するが、回動角度が0[度]である場合に、回動角度に基づく推定される非検出のマーカーの位置の補正をなくす(0にする)ことにより、被写体Pが回動していない場合のマーカーの位置を推定する。   Further, the determination by the second determination unit 206b may be omitted, and the position of the non-detected marker may be estimated based on the rotation angle indicated by the rotation information. In this case, for example, in the process of estimating the position of the non-detected marker, the position estimation unit 206c acquires the value of the rotation angle indicated by the rotation information as one of the variables, but the rotation angle is 0 [ In the case of [degree], the correction of the estimated position of the non-detected marker based on the rotation angle is eliminated (set to 0), thereby estimating the position of the marker when the subject P is not rotating.

また、上記実施形態にあっては、中央制御部210のCPUの制御下にて、画像取得部202、マーカー検出部203、回動角度算出部204、回動情報生成部205、マーカー位置決定部206、動作情報生成部207等が駆動することにより実現される構成としたが、これに限られるものではなく、CPUによって所定のプログラム等が実行されることにより実現される構成としてもよい。
即ち、プログラムを記録するプログラムメモリ(図示略)に、画像取得ルーチン、マーカー検出ルーチン、回動角度算出ルーチン、回動情報生成ルーチン、マーカー位置決定ルーチン、動作情報生成ルーチン等を含むプログラムを記録しておく。そして、画像取得ルーチンによりCPUが、複数の可動部分にマーカーが付された被写体が所定の一方向から撮像された画像を取得するようにしてもよい。また、マーカー検出ルーチンによりCPUが、取得された画像内のマーカーを検出するようにしてもよい。また、回動角度算出ルーチンによりCPUが、画像に含まれる被写体画像の少なくとも一部分の所定方向の軸を中心とする回動角度を算出するようにしてもよい。また、回動情報生成ルーチンによりCPUが、算出された回動角度に基づいて、被写体の所定方向の軸を中心とする回動動作に係る回動情報を生成するようにしてもよい。また、マーカー位置決定ルーチンによりCPUが、マーカーの検出結果及び回動情報に基づいて、被写体に付された全てのマーカーの位置を決定するようにしてもよい。また、動作情報生成ルーチンによりCPUが、決定された複数の画像に係る全てのマーカーの位置に基づいて、被写体の動作を示す動作情報を生成するようにしてもよい。
In the above embodiment, the image acquisition unit 202, the marker detection unit 203, the rotation angle calculation unit 204, the rotation information generation unit 205, and the marker position determination unit are controlled by the CPU of the central control unit 210. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the CPU.
That is, a program including an image acquisition routine, a marker detection routine, a rotation angle calculation routine, a rotation information generation routine, a marker position determination routine, an operation information generation routine, etc. is recorded in a program memory (not shown) for recording the program. Keep it. Then, the CPU may acquire an image in which a subject with markers attached to a plurality of movable parts is captured from a predetermined direction by an image acquisition routine. Further, the CPU may detect a marker in the acquired image by a marker detection routine. Further, the rotation angle calculation routine may cause the CPU to calculate a rotation angle about an axis in a predetermined direction of at least a part of the subject image included in the image. Further, the rotation information generation routine may cause the CPU to generate rotation information related to the rotation operation about the axis in the predetermined direction of the subject based on the calculated rotation angle. Further, the CPU may determine the positions of all markers attached to the subject based on the marker detection result and the rotation information by the marker position determination routine. Further, the CPU may generate motion information indicating the motion of the subject based on the positions of all the markers related to the determined plurality of images by the motion information generation routine.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
複数の可動部分にマーカーが付された被写体が所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置において、
前記画像を取得する取得手段と、
この取得手段により取得された画像内のマーカーを検出する第1検出手段と、
前記画像に含まれる被写体画像の少なくとも一部分の所定方向の軸を中心とする回動角度を算出する算出手段と、
この算出手段により算出された回動角度に基づいて、前記被写体の前記所定方向の軸を中心とする回動動作に係る回動情報を生成する第1生成手段と、
前記第1検出手段によるマーカーの検出結果及び前記第1生成手段により生成された前記回動情報に基づいて、前記被写体に付された全てのマーカーの位置を決定する決定手段と、
を備えることを特徴とする位置決定装置。
<請求項2>
前記決定手段は、
前記全てのマーカーが前記第1検出手段により検出されたか否か判定する第1判定手段と、
この第1判定手段により前記全てのマーカーが検出されていないと判定された場合に、前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定する推定手段と、を備えることを特徴とする請求項1に記載の位置決定装置。
<請求項3>
前記決定手段は、更に、前記回動情報に基づいて、被写体が回動しているか否か判定する第2判定手段を備え、
前記推定手段は、前記第2判定手段により被写体が回動していると判定された場合に、前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定することを特徴とする請求項2に記載の位置決定装置。
<請求項4>
前記取得手段は、所定の時間内にそれぞれ異なるタイミングで撮像された複数の画像を取得し、
前記推定手段は、前記第1検出手段により前記複数の画像のうちの何れか一の画像にて非検出のマーカーと対応するマーカーが当該複数の画像のうちの前記一の画像と異なる他の画像から検出された場合に、前記他の画像から検出されたマーカーの位置に基づいて前記非検出のマーカーの位置を推定することを特徴とする請求項2又は3に記載の位置決定装置。
<請求項5>
前記決定手段は、所定の時間内にそれぞれ異なるタイミングで撮像された複数の画像について、前記被写体に付された全てのマーカーの位置を決定し、
前記決定手段により決定された前記複数の画像に係る全てのマーカーの位置に基づいて、前記被写体の動作を示す動作情報を生成する第2生成手段を更に備えることを特徴とする請求項1〜4の何れか一項に記載の位置決定装置。
<請求項6>
前記被写体画像の顔画像を検出する第2検出手段を備え、
前記算出手段は、前記第2検出手段により検出された顔画像の前記所定方向の軸を中心とする回動角度を算出することを特徴とする請求項1〜5の何れか一項に記載の位置決定装置。
<請求項7>
前記被写体を前記所定の一方向から撮像する撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮像された画像を取得することを特徴とする請求項1〜6の何れか一項に記載の位置決定装置。
<請求項8>
複数の可動部分にマーカーが付された被写体を所定の一方向から撮像する撮像装置と、
請求項1〜6の何れか一項に記載の位置決定装置と、を備える位置決定システムであって、
前記位置決定装置の前記取得手段は、前記撮像装置により撮像された画像を取得することを特徴とする位置決定システム。
<請求項9>
複数の可動部分にマーカーが付された被写体が所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置を用いた位置決定方法であって、
前記画像を取得するステップと、
取得された画像内のマーカーを検出するステップと、
前記画像に含まれる被写体画像の少なくとも一部分の所定方向の軸を中心とする回動角度を算出するステップと、
算出された回動角度に基づいて、前記被写体の前記所定方向の軸を中心とする回動動作に係る回動情報を生成するステップと、
マーカーの検出結果及び前記回動情報に基づいて、前記被写体に付された全てのマーカーの位置を決定するステップと、
を有することを特徴とする位置決定方法。
<請求項10>
複数の可動部分にマーカーが付された被写体が所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置のコンピュータを、
前記画像を取得する手段、
取得された画像内のマーカーを検出する手段、
前記画像に含まれる被写体画像の少なくとも一部分の所定方向の軸を中心とする回動角度を算出する手段、
算出された回動角度に基づいて、前記被写体の前記所定方向の軸を中心とする回動動作に係る回動情報を生成する手段、
マーカーの検出結果及び前記回動情報に基づいて、前記被写体に付された全てのマーカーの位置を決定する手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
In a position determination device that determines the position of a marker in an image in which a subject with markers attached to a plurality of movable parts is captured from a predetermined direction,
Obtaining means for obtaining the image;
First detection means for detecting a marker in the image acquired by the acquisition means;
Calculating means for calculating a rotation angle about an axis in a predetermined direction of at least a part of the subject image included in the image;
First generation means for generating rotation information related to a rotation operation about the axis in the predetermined direction of the subject based on the rotation angle calculated by the calculation means;
Determining means for determining the positions of all markers attached to the subject based on the marker detection result by the first detecting means and the rotation information generated by the first generating means;
A position determining apparatus comprising:
<Claim 2>
The determining means includes
First determination means for determining whether or not all the markers have been detected by the first detection means;
An estimation means for estimating the position of a non-detected marker by the first detection means based on the rotation information when it is determined by the first determination means that all the markers have not been detected; The position determination apparatus according to claim 1, further comprising:
<Claim 3>
The determination means further includes second determination means for determining whether or not the subject is rotating based on the rotation information,
The estimation means estimates the position of a non-detected marker by the first detection means based on the rotation information when the second determination means determines that the subject is rotating. The position determining apparatus according to claim 2, wherein
<Claim 4>
The acquisition means acquires a plurality of images captured at different timings within a predetermined time,
The estimation means includes another image in which a marker corresponding to a non-detected marker in any one of the plurality of images by the first detection means is different from the one image in the plurality of images. 4. The position determination device according to claim 2, wherein the position of the non-detected marker is estimated based on the position of the marker detected from the other image.
<Claim 5>
The determining means determines the positions of all the markers attached to the subject for a plurality of images captured at different timings within a predetermined time,
5. The apparatus according to claim 1, further comprising second generation means for generating motion information indicating the motion of the subject based on the positions of all the markers related to the plurality of images determined by the determination means. The position determination apparatus as described in any one of.
<Claim 6>
A second detecting means for detecting a face image of the subject image;
The said calculation means calculates the rotation angle centering on the axis | shaft of the said predetermined direction of the face image detected by the said 2nd detection means, The Claim 1 characterized by the above-mentioned. Positioning device.
<Claim 7>
An image pickup means for picking up an image of the subject from the predetermined direction;
The position determination apparatus according to claim 1, wherein the acquisition unit acquires an image captured by the imaging unit.
<Claim 8>
An imaging device for imaging a subject having markers attached to a plurality of movable parts from a predetermined direction;
A position determination system comprising the position determination device according to any one of claims 1 to 6,
The position determination system, wherein the acquisition unit of the position determination apparatus acquires an image captured by the imaging apparatus.
<Claim 9>
A position determination method using a position determination device that determines a position of a marker in an image in which a subject with markers attached to a plurality of movable parts is captured from a predetermined direction,
Obtaining the image;
Detecting a marker in the acquired image;
Calculating a rotation angle about an axis in a predetermined direction of at least a part of a subject image included in the image;
Generating rotation information related to a rotation operation about the axis of the predetermined direction of the subject based on the calculated rotation angle;
Determining the positions of all markers attached to the subject based on the marker detection result and the rotation information;
A position determining method characterized by comprising:
<Claim 10>
A computer of a position determination device that determines the position of a marker in an image in which a subject with markers attached to a plurality of movable parts is imaged from a predetermined direction.
Means for acquiring the image;
Means for detecting a marker in the acquired image;
Means for calculating a rotation angle about an axis in a predetermined direction of at least a part of a subject image included in the image;
Means for generating rotation information relating to a rotation operation about the axis of the predetermined direction of the subject based on the calculated rotation angle;
Means for determining the positions of all the markers attached to the subject based on a marker detection result and the rotation information;
A program characterized by functioning as

100 位置決定システム
1 撮像装置
2 位置決定装置
201 記録媒体制御部
202 画像取得部
203 マーカー検出部
204 回動角度算出部
204a 顔画像検出部
205 回動情報生成部
206 マーカー位置決定部
206a 第1判定部
206b 第2判定部
206c 位置推定部
207 動作情報生成部
C 記録媒体
M1〜M16 マーカー
O 軸
P 被写体
P1〜P4 被写体画像
DESCRIPTION OF SYMBOLS 100 Position determination system 1 Imaging device 2 Position determination apparatus 201 Recording medium control part 202 Image acquisition part 203 Marker detection part 204 Rotation angle calculation part 204a Face image detection part 205 Rotation information generation part 206 Marker position determination part 206a 1st determination Unit 206b second determination unit 206c position estimation unit 207 motion information generation unit C recording medium M1 to M16 marker O axis P subject P1 to P4 subject image

Claims (9)

複数のマーカーが付されたヒトが所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置において、
前記画像を取得する取得手段と、
この取得手段により取得された画像内のマーカーを検出する第1検出手段と、
前記画像に含まれる前記ヒトの画像の顔画像を検出する第2検出手段と、
前記第2検出手段により検出された顔画像の所定方向の軸を中心とする回動角度を算出する算出手段と、
この算出手段により算出された回動角度に基づいて、前記ヒトの前記所定方向の軸を中心とする回動動作に係る回動情報を生成する第1生成手段と、
前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定する推定手段と、
ヒトに付された全てのマーカーの位置を決定する決定手段と、を備え、
前記決定手段は、
前記第1検出手段によるマーカーの検出結果及び前記推定手段により推定されたマーカーの位置を用いて、前記ヒトに付された全てのマーカーの位置を決定することを特徴とする位置決定装置。
In a position determination device that determines the position of a marker in an image in which a human with a plurality of markers is imaged from a predetermined direction,
Obtaining means for obtaining the image;
First detection means for detecting a marker in the image acquired by the acquisition means;
Second detection means for detecting a face image of the human image included in the image;
Calculating means for calculating a rotation angle about an axis in a predetermined direction of the face image detected by the second detecting means ;
Based on the rotation angle calculated by the calculation means, first generation means for generating rotation information related to the rotation operation about the axis of the human being in the predetermined direction ;
Estimating means for estimating a position of a non-detected marker by the first detecting means based on the rotation information;
Comprising determining means for determining the position of all the markers attached to the front Symbol person, and
The determining means includes
A position determination apparatus , wherein positions of all markers attached to the human are determined using a marker detection result by the first detection unit and a marker position estimated by the estimation unit.
前記マーカーは、前記ヒトの複数の可動部分に複数付されていることを特徴とする請求項1に記載の位置決定装置。 The position determination apparatus according to claim 1, wherein a plurality of the markers are attached to the plurality of movable parts of the human . 記回動情報に基づいて、前記ヒトが回動しているか否か判定する回動判定手段を備え、
前記推定手段は、前記回動判定手段により前記ヒトが回動していると判定された場合に、前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定することを特徴とする請求項に記載の位置決定装置。
Based on the prior Kikaido information comprises determining whether turning determination means the person is rotated,
The estimation means estimates the position of the non-detected marker by the first detection means based on the rotation information when the rotation determination means determines that the human is rotating. The position determining device according to claim 2 .
前記取得手段は、所定の時間内にそれぞれ異なるタイミングで撮像された複数の画像を取得し、
前記推定手段は、前記第1検出手段により前記複数の画像のうちの何れか一の画像にて非検出のマーカーと対応するマーカーが当該複数の画像のうちの前記一の画像と異なる他の画像から検出された場合に、前記他の画像から検出されたマーカーの位置に基づいて前記非検出のマーカーの位置を推定することを特徴とする請求項又はに記載の位置決定装置。
The acquisition means acquires a plurality of images captured at different timings within a predetermined time,
The estimation means includes another image in which a marker corresponding to a non-detected marker in any one of the plurality of images by the first detection means is different from the one image in the plurality of images. when it is detected from the position determination apparatus according to claim 2 or 3, characterized in that estimating the position of a marker of the non-detected based on the detected position of the marker from the other image.
前記決定手段は、所定の時間内にそれぞれ異なるタイミングで撮像された複数の画像について、前記ヒトに付された複数のマーカーの位置を決定し、
前記決定手段により決定された前記複数の画像に係る複数のマーカーの位置に基づいて、前記ヒトの動作を示す動作情報を生成する第2生成手段を更に備えることを特徴とする請求項の何れか一項に記載の位置決定装置。
The determining means determines the positions of a plurality of markers attached to the human for a plurality of images captured at different timings within a predetermined time,
Based on the positions of a plurality of markers according to the plurality of images determined by said determining means, according to claim 1 to 4, further comprising a second generation means for generating operation information indicating the operation of the human The position determination apparatus as described in any one of.
前記ヒトを前記所定の一方向から撮像する撮像手段を更に備え、
前記取得手段は、前記撮像手段により撮像された画像を取得することを特徴とする請求項1〜の何れか一項に記載の位置決定装置。
Further comprising imaging means for imaging the human from the predetermined one direction;
It said acquisition means, the position determining device according to any one of claim 1 to 5, characterized in that obtaining the image captured by the imaging means.
複数のマーカーが付されたヒトを所定の一方向から撮像する撮像装置と、
請求項1〜の何れか一項に記載の位置決定装置と、を備える位置決定システムであって、
前記位置決定装置の前記取得手段は、前記撮像装置により撮像された画像を取得することを特徴とする位置決定システム。
An imaging device for imaging a person with a plurality of markers from a predetermined direction;
A position determination system comprising the position determination device according to any one of claims 1 to 5 ,
The position determination system, wherein the acquisition unit of the position determination apparatus acquires an image captured by the imaging apparatus.
複数のマーカーが付されたヒトが所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置を用いた位置決定方法であって、
前記画像を取得するステップと、
取得された画像内のマーカーを検出するステップと、
前記画像に含まれる前記ヒトの画像の顔画像を検出するステップと、
検出された顔画像の所定方向の軸を中心とする回動角度を算出するステップと、
算出された回動角度に基づいて、前記ヒトの前記所定方向の軸を中心とする回動動作に係る回動情報を生成するステップと、
前記回動情報に基づいて、非検出のマーカーの位置を推定するステップと、
ヒトに付された全てのマーカーの位置を決定するステップと、を有し、
前記全てのマーカーの位置を決定するステップは、
前記取得された画像内のマーカーを検出するステップによるマーカーの検出結果及び前記非検出のマーカーの位置を推定するステップにより推定されたマーカーの位置を用いて、前記ヒトに付された全てのマーカーの位置を決定することを特徴とする位置決定方法。
A position determination method using a position determination device that determines a position of a marker in an image obtained by imaging a human with a plurality of markers from a predetermined direction,
Obtaining the image;
Detecting a marker in the acquired image;
Detecting a face image of the human image included in the image;
Calculating a rotation angle about an axis in a predetermined direction of the detected face image ;
Generating rotation information related to a rotation operation around the axis of the predetermined direction of the human based on the calculated rotation angle ;
Estimating a position of a non-detected marker based on the rotation information;
Comprising determining the position of all markers attached to the front Symbol person, and
Determining the position of all the markers,
Using the marker detection result by the step of detecting the marker in the acquired image and the marker position estimated by the step of estimating the position of the non-detected marker, all the markers attached to the human being position determination method characterized by determining the position.
複数のマーカーが付されたヒトが所定の一方向から撮像された画像内のマーカーの位置を決定する位置決定装置のコンピュータを、
前記画像を取得する手段、
取得された画像内のマーカーを検出する第1検出手段、
前記画像に含まれる前記ヒトの画像の顔画像を検出する手段、
検出された顔画像の所定方向の軸を中心とする回動角度を算出する手段、
算出された回動角度に基づいて、前記ヒトの前記所定方向の軸を中心とする回動動作に係る回動情報を生成する手段、
前記回動情報に基づいて、前記第1検出手段により非検出のマーカーの位置を推定する推定手段、
前記ヒトに付された全てのマーカーの位置を決定する決定手段、として機能させ、
前記決定手段は、
前記第1検出手段によるマーカーの検出結果及び前記推定手段により推定されたマーカーの位置を用いて、前記ヒトに付された全てのマーカーの位置を決定することを特徴とするプログラム。
A computer of a position determination device that determines the position of a marker in an image in which a human with a plurality of markers is imaged from a predetermined direction.
Means for acquiring the image;
First detection means for detecting a marker in the acquired image;
Means for detecting a face image of the human image included in the image;
Means for calculating a rotation angle about the axis in a predetermined direction of the detected face image ;
Based on the calculated rotation angle, means to generate a rotation information relating to the rotational motion about a predetermined axis of said human,
Estimating means for estimating a position of a non-detected marker by the first detecting means based on the rotation information;
Functioning as a determining means for determining the positions of all markers attached to the human ,
The determining means includes
A program for determining the positions of all markers attached to the human using the marker detection results by the first detection means and the marker positions estimated by the estimation means .
JP2012161323A 2012-07-20 2012-07-20 POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM Expired - Fee Related JP5983132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012161323A JP5983132B2 (en) 2012-07-20 2012-07-20 POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012161323A JP5983132B2 (en) 2012-07-20 2012-07-20 POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM

Publications (3)

Publication Number Publication Date
JP2014020986A JP2014020986A (en) 2014-02-03
JP2014020986A5 JP2014020986A5 (en) 2015-07-23
JP5983132B2 true JP5983132B2 (en) 2016-08-31

Family

ID=50196011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012161323A Expired - Fee Related JP5983132B2 (en) 2012-07-20 2012-07-20 POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5983132B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001133222A (en) * 1999-11-01 2001-05-18 Nippon Telegr & Teleph Corp <Ntt> Device for method for measuring three-dimensional position, and recording medium recording three- dimensional position measurement program
JP2002259984A (en) * 2001-03-01 2002-09-13 Matsushita Electric Ind Co Ltd Motion analyzing device and motion analyzing method
JP2005258891A (en) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3d motion capturing method and device
JP2007004732A (en) * 2005-06-27 2007-01-11 Matsushita Electric Ind Co Ltd Image generation device and method
JP4494326B2 (en) * 2005-11-11 2010-06-30 株式会社第一興商 How to do a team competition karaoke competition

Also Published As

Publication number Publication date
JP2014020986A (en) 2014-02-03

Similar Documents

Publication Publication Date Title
JP4792824B2 (en) Motion analysis device
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
JP4687265B2 (en) Image analyzer
WO2019228473A1 (en) Method and apparatus for beautifying face image
US9898651B2 (en) Upper-body skeleton extraction from depth maps
TWI419081B (en) Method and system for providing augmented reality based on marker tracing, and computer program product thereof
JP6507730B2 (en) Coordinate transformation parameter determination device, coordinate transformation parameter determination method, and computer program for coordinate transformation parameter determination
JP4537104B2 (en) Marker detection method, marker detection device, position and orientation estimation method, and mixed reality space presentation method
US8116517B2 (en) Action analysis apparatus
JP5205187B2 (en) Input system and input method
US9779699B2 (en) Image processing device, image processing method, computer readable medium
US10402657B2 (en) Methods and systems for training an object detection algorithm
US10692291B2 (en) Apparatus, method, and medium for generating a 3D model of a finger using captured image
EP3241151A1 (en) An image face processing method and apparatus
JP5674465B2 (en) Image processing apparatus, camera, image processing method and program
JP6028589B2 (en) Input program, input device, and input method
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
JP6942566B2 (en) Information processing equipment, information processing methods and computer programs
JP6915611B2 (en) Information processing equipment, information processing methods and programs
JP2000149025A (en) Gesture recognizing device and method thereof
JP5983132B2 (en) POSITION DETERMINING DEVICE, POSITION DETERMINING SYSTEM, POSITION DETERMINING METHOD, AND PROGRAM
CN115393962A (en) Motion recognition method, head-mounted display device, and storage medium
WO2021116672A1 (en) Determining spatial relationship between upper and lower teeth
CN116348909A (en) Posture detection device, posture detection method, and sleep phase determination method
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150609

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160718

R150 Certificate of patent or registration of utility model

Ref document number: 5983132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees