JP2006277076A - Image interface device - Google Patents

Image interface device Download PDF

Info

Publication number
JP2006277076A
JP2006277076A JP2005092369A JP2005092369A JP2006277076A JP 2006277076 A JP2006277076 A JP 2006277076A JP 2005092369 A JP2005092369 A JP 2005092369A JP 2005092369 A JP2005092369 A JP 2005092369A JP 2006277076 A JP2006277076 A JP 2006277076A
Authority
JP
Japan
Prior art keywords
distance
image
data
moving
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005092369A
Other languages
Japanese (ja)
Inventor
Keiichi Ito
啓一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Device Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Device Technology Co Ltd filed Critical Fuji Electric Device Technology Co Ltd
Priority to JP2005092369A priority Critical patent/JP2006277076A/en
Publication of JP2006277076A publication Critical patent/JP2006277076A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To display a more real moving image by detecting three-dimensional operations of a traveling object such as a human being, and properly reflecting detection contents on the operation of an image such as a character on a display while including time information relating to the operation as the case may be. <P>SOLUTION: An object site extracting part 22 extracts image data of the face and hand of a human body 1 for each of two image data D1 and D2 obtained by a multi-line optical sensor 11. An object node extracting part 23 extracts nodes of the tip of the nose and fist as featured points of the face and hand from the image data, and a calculation part 24 calculates distances from all the nodes to the sensor 11. A calculation part 25 calculates a distance from the sensor 11 to the nose, its distance to the fist and their difference distances, and acquires distance time data by associating the detection time with the difference distance, and calculates data of the moving distance, moving time and moving direction of the fist by comparing the data in different time with each other. A preparation part 26 prepares control data for controlling the operation of the image on a monitor 32 based on the data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ゲーム機のユーザインタフェイス装置等に用いられ、人間や動物等の移動体の動きを撮像により検出してディスプレイ上のキャラクタ等の画像の動作に反映させる画像インターフェイス装置に関する。   The present invention relates to an image interface device that is used in a user interface device or the like of a game machine and detects a movement of a moving body such as a human being or an animal by imaging and reflects it in an operation of an image such as a character on a display.

従来、人等の動きを撮像してゲーム機等のディスプレイの画像に反映させるインターフェイス装置として、例えば特許文献1に記載のものがある。
この内容は、入力コマンドに応答してゲームを進行させるゲーム装置において、人体の少なくとも一部の形状が入力対象であり、画像入力手段によって、その入力対象の動的なジェスチャーによる入力ビデオ信号から二値画像データを取得する。オリエンテーション検出手段によって、その取得された二値画像データに基づいて入力対象のオリエンテーション情報を検出する。シェイプ検出手段によって、画像入力手段で取得された二値画像データに基づいて入力対象のシェイプ情報を検出する。そして、コマンド生成手段によって、オリエンテーション検出手段で検出されたオリエンテーション情報とシェイプ検出手段で検出されたシェイプ情報との組み合わせに応じて、ゲームを進行させるための入力コマンドを生成するようになっている。
2. Description of the Related Art Conventionally, there is an interface device described in Patent Document 1, for example, as an interface device that captures the motion of a person or the like and reflects the image on a display of a game machine or the like.
This is because, in a game device that progresses a game in response to an input command, at least a part of the shape of the human body is an input target, and an image input means outputs a second input signal from a dynamic gesture of the input target. Get value image data. The orientation detection means detects the orientation information to be input based on the acquired binary image data. The shape detection unit detects shape information to be input based on the binary image data acquired by the image input unit. Then, the command generation means generates an input command for advancing the game according to the combination of the orientation information detected by the orientation detection means and the shape information detected by the shape detection means.

このように、ジェスチャー認識の精度についてある程度の許容をもたせることで、入力操作デバイスを用いてコマンド入力した場合と同等のリアルタイム性を簡単に確保できるようになっている。これによって、インタラクティブゲームの進行に必要な高い応答性を実現することを可能としている。また、人間特有の動き(反射神経など)を考慮することで、より高いヒューマンインタフェースを実現することを可能としている。
特開2001−246161号公報
In this way, by providing a certain degree of tolerance for the accuracy of gesture recognition, it is possible to easily ensure real-time performance equivalent to that when a command is input using an input operation device. This makes it possible to achieve high responsiveness necessary for the progress of the interactive game. In addition, it is possible to realize a higher human interface by considering human-specific movements (such as reflexes).
JP 2001-246161 A

しかし、上記特許文献1においては、画像入力手段によって取得される人体の二値画像データが人体を撮像して得た2次元平面のデータなので、人体の前後方向の動作をディスプレイ上のキャラクタ等の画像の動作に適正に反映させることができない。例えば、従来の画像インターフェイス装置を用いたゲーム機では、撮像対象の移動体の平面方向の動きしか検出できない。このため、その検出内容に制約されたゲームしかできず、よりリアルな動画像によるゲームを実現することができない。つまり、移動体の平面方向の動きしか検出できないので、よりリアルな動画像を表示することができないという問題がある。
本発明は、このような課題に鑑みてなされたものであり、人間等の移動体の3次元の動作を検出し、この検出内容をディスプレイ上のキャラクタ等の画像の動作に適正に反映させ、よりリアルな動画像を表示することができる画像インターフェイス装置を提供することを目的としている。
However, in the above-mentioned Patent Document 1, since the binary image data of the human body acquired by the image input means is two-dimensional plane data obtained by imaging the human body, the movement of the human body in the front-rear direction is performed using a character or the like on the display. It cannot be properly reflected in the operation of the image. For example, in a game machine using a conventional image interface device, only a movement in a plane direction of a moving object to be imaged can be detected. For this reason, only a game restricted by the detected content can be played, and a game with a more realistic moving image cannot be realized. That is, since only the movement of the moving body in the planar direction can be detected, there is a problem that a more realistic moving image cannot be displayed.
The present invention has been made in view of such a problem, and detects a three-dimensional movement of a moving body such as a human, and appropriately reflects this detection content on the movement of an image such as a character on a display. An object of the present invention is to provide an image interface apparatus capable of displaying a more realistic moving image.

上記目的を達成するために、本発明の請求項1による画像インターフェイス装置は、移動体の動きを撮像により検出してディスプレイ上の画像の動作に反映させる画像インターフェイス装置において、少なくとも2つのレンズを通して撮像される移動体の2つの画像データを得るセンサと、前記2つの画像データから、該画像データをもとに前記移動体における基準部位と移動部位を抽出する第1の抽出手段と、前記抽出された基準部位における特徴点と移動部位における複数の特徴点とを抽出する第2の抽出手段と、前記第2の抽出手段で抽出された基準部位の特徴点及び移動部位の各特徴点をもとに、それら全ての特徴点から前記センサまでの距離を算出する距離算出手段と、前記算出された全ての距離をもとに、前記センサから前記基準部位までの距離と、前記移動部位までの距離と、これら距離の差分距離とを求め、この求められた距離に前記センサでの検出時刻を対応付けて距離時刻データとし、この距離時刻データを別時刻のもの同士で比較することにより前記移動部位の移動距離、この距離を移動部位が移動する移動時間及び移動方向のデータを求める差分算出手段と、前記差分算出手段で求められた移動部位の移動距離、移動時間及び移動方向のデータをもとに、前記ディスプレイ上の画像の動作を制御する制御データを作成する作成手段とを備えたことを特徴とする。   In order to achieve the above object, an image interface apparatus according to claim 1 of the present invention is an image interface apparatus that detects movement of a moving body by imaging and reflects it in the operation of an image on a display. A sensor for obtaining two image data of the moving body, a first extracting means for extracting a reference part and a moving part in the moving body from the two image data based on the image data, and the extracted A second extraction means for extracting a feature point in the reference part and a plurality of feature points in the movement part; and a feature point of the reference part and a feature point of the movement part extracted by the second extraction means In addition, distance calculation means for calculating the distance from all the feature points to the sensor, and based on all the calculated distances, The distance to the part, the distance to the moving part, and the difference distance between these distances are obtained, and the time detected by the sensor is associated with the obtained distance to obtain distance time data. The difference calculation means for obtaining the movement distance of the movement part, the movement time of the movement part and the movement direction of the distance by comparing the ones at the time, and the movement of the movement part obtained by the difference calculation means And a creation unit that creates control data for controlling the operation of the image on the display based on the data of the distance, the travel time, and the travel direction.

この構成によれば、移動体の移動部位の3次元の動作を検出し、この検出内容を示す制御データを用いてディスプレイ上の画像の動作を制御させるようにしたので、移動部位の前後方向の動作をディスプレイ上のキャラクタ等の画像の動作に適正に反映させることができる。従って、検出対象の移動体の実際の平面方向に更に実際の前後方向の動きを加えた、よりリアルな動画像をディスプレイ上に表示することができる。   According to this configuration, since the three-dimensional motion of the moving part of the moving body is detected and the operation of the image on the display is controlled using the control data indicating the detection contents, The motion can be appropriately reflected in the motion of an image such as a character on the display. Accordingly, it is possible to display a more realistic moving image obtained by further adding an actual back-and-forth movement in the actual plane direction of the moving object to be detected.

また、本発明の請求項2による画像インターフェイス装置は、請求項1において、前記センサは、2つのレンズを通して前記移動体の映像が結像される一対の1次元光センサアレイを複数配列し、これら光センサの受光強度に応じて画像データを得るマルチライン光センサであることを特徴とする。
この構成によれば、撮像情報量の少ないマルチライン光センサによって移動体の画像データを得るので、エリアセンサ等の撮像情報量が多いセンサに比べ、高速な処理を行うことができる。
The image interface device according to claim 2 of the present invention is the image interface device according to claim 1, wherein the sensor includes a plurality of a pair of one-dimensional photosensor arrays on which an image of the moving body is formed through two lenses. It is a multi-line optical sensor that obtains image data according to the received light intensity of the optical sensor.
According to this configuration, since the image data of the moving body is obtained by the multi-line optical sensor with a small amount of imaging information, high-speed processing can be performed as compared with a sensor with a large amount of imaging information such as an area sensor.

以上説明したように本発明によれば、人間等の移動体の3次元の動作を検出し、場合によっては当該動作に関する時間情報も含めながらこの検出内容をディスプレイ上のキャラクタ等の画像の動作に適正に反映させ、よりリアルな動画像を表示することができるという効果がある。   As described above, according to the present invention, a three-dimensional motion of a moving body such as a human is detected, and in some cases, the detected content is included in the motion of an image such as a character on a display, including time information related to the motion. There is an effect that it is possible to appropriately reflect and display a more realistic moving image.

以下、本発明の実施の形態を、図面を参照して説明する。
図1は、本発明の実施の形態に係る画像インターフェイス装置の構成を示すブロック図である。
図1に示す画像インターフェイス装置10は、2つのレンズが取り付けられたマルチライン光センサ11と、このマルチライン光センサ11にA/D(Analog/Digital)変換部12及びI/O(Input/Output)部13を介して接続された動作解析部14と、データ転送部15とを備えて構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an image interface apparatus according to an embodiment of the present invention.
An image interface apparatus 10 shown in FIG. 1 includes a multiline optical sensor 11 to which two lenses are attached, an A / D (Analog / Digital) converter 12 and an I / O (Input / Output). ) Unit 13 connected via a unit 13 and a data transfer unit 15.

動作解析部14は、センサ制御部20と、対象部位抽出部22と、対象ノード抽出部23と、距離算出部24と、前回データ差分算出部25と、制御データ作成部26とを備えて構成されている。
マルチライン光センサ11は、本出願人により既に出願された距離測定装置を用いたものであり、人体1の顔や手などの任意部分を2つのレンズを通して光センサアレイに結像させ、この結像によって得られる2つの画像信号を出力するようになっている。2つの画像信号からは、後述するように、人体1の例えば顔の鼻などの目標部位をノードとして求め、当該センサ11からノードまでの距離を得ることが可能となっている。
The motion analysis unit 14 includes a sensor control unit 20, a target region extraction unit 22, a target node extraction unit 23, a distance calculation unit 24, a previous data difference calculation unit 25, and a control data creation unit 26. Has been.
The multi-line optical sensor 11 uses a distance measuring device already filed by the applicant of the present application. An image of an arbitrary part such as the face and hand of the human body 1 is formed on the optical sensor array through two lenses. Two image signals obtained by the image are output. From the two image signals, as will be described later, it is possible to obtain a target part of the human body 1 such as the nose of the face as a node and obtain the distance from the sensor 11 to the node.

その距離は、三角測距に基づき得られるようになっている。この三角測距の原理を、図2に示す三角測距の原理に基づくマルチライン光センサの原理図を参照して説明する。
被写体である人体1(便宜的に矢印で示してある)の光がレンズ51、52により、光センサアレイ53、54上に被写体像56、57として結像する。点G、点Hは、正面の無限遠からレンズ51、52の中心点C、Dを通過する光線(光軸58、59)と光センサアレイ53、54との交点である。
The distance is obtained based on triangulation. The principle of this triangulation will be described with reference to the principle diagram of a multiline optical sensor based on the principle of triangulation shown in FIG.
The light of the human body 1 (indicated by an arrow for convenience) as a subject is formed as subject images 56 and 57 on the photosensor arrays 53 and 54 by the lenses 51 and 52. Points G and H are intersections of light beams (optical axes 58 and 59) passing through the center points C and D of the lenses 51 and 52 from the infinity front and the optical sensor arrays 53 and 54, respectively.

点Gと点Hの間の距離をB、光センサアレイ53、54とレンズ51、52との距離をfeとする。また、光軸58、59からの被写体像56、57のずれをX1、X2とする。このX1とX2を足した長さをXとする。なお、Xは通常位相差と呼ばれる。ここで三角形ACEと三角形CFG及び、三角形AEDと三角形DHIは、それぞれ相似であることから、人体1の点Aに相当する部位、例えば顔までの距離dは次の(1)次式で求められる。
d=B・fe/(X1+X2)=B・fe/X ・・・(1)
位相差Xは被写体55が無限遠にあるとき、すなわち二つの被写体像56、57がレンズ51、52の光軸58、59と光センサアレイの交点にある場合を基準とした2像の相対変移である。Bとfeは定数であるので、位相差Xを検出することで距離dを求めることができる。
The distance between the point G and the point H is B, and the distance between the optical sensor arrays 53 and 54 and the lenses 51 and 52 is fe. Further, the deviations of the subject images 56 and 57 from the optical axes 58 and 59 are assumed to be X1 and X2. The length obtained by adding X1 and X2 is X. X is usually called a phase difference. Here, since the triangle ACE and the triangle CFG, and the triangle AED and the triangle DHI are similar to each other, the distance d to the part corresponding to the point A of the human body 1, for example, the face is obtained by the following equation (1). .
d = B · fe / (X1 + X2) = B · fe / X (1)
The phase difference X is a relative transition of two images when the subject 55 is at infinity, that is, when the two subject images 56 and 57 are at the intersections of the optical axes 58 and 59 of the lenses 51 and 52 and the optical sensor array. It is. Since B and fe are constants, the distance d can be obtained by detecting the phase difference X.

また、マルチライン光センサ11の構成は、図3に示すように、各々1対の光センサ回路アレイ130aと130b、130cと130d、130eと130fを、長手方向xnに対して垂直方向ynに複数個配置した構成となっている。また、151a,151b,152a,152b,153a,153bは光センサアレイ(受光部)であり、154a,154b,155a,155b,156a,156bは積分回路アレイ(増幅部)である。   Further, as shown in FIG. 3, the multi-line photosensor 11 includes a plurality of pairs of photosensor circuit arrays 130a and 130b, 130c and 130d, and 130e and 130f in a direction yn perpendicular to the longitudinal direction xn. It has a configuration in which pieces are arranged. Reference numerals 151a, 151b, 152a, 152b, 153a, and 153b denote optical sensor arrays (light receiving units), and reference numerals 154a, 154b, 155a, 155b, 156a, and 156b denote integration circuit arrays (amplifying units).

更に説明すると、マルチライン光センサ11は、隣接して配置される上段の光センサアレイ151a、151bと中段の光センサアレイ152a、152bとの間に、積分回路アレイ155a、155bが配置される構成となっている。また、同様に中段と下段の光センサアレイの間にも積分回路アレイが配置されている。なお、図3には光センサ回路アレイを3対配置した例を示すが、3対に限定するものではなく、より多くの光センサ回路アレイを配したものでもよい。5対以上が好ましく、さらに好ましくは10〜20対あるとよい。   More specifically, in the multi-line photosensor 11, the integration circuit arrays 155a and 155b are arranged between the upper photosensor arrays 151a and 151b and the middle photosensor arrays 152a and 152b arranged adjacent to each other. It has become. Similarly, an integrating circuit array is also arranged between the middle and lower photosensor arrays. Although FIG. 3 shows an example in which three pairs of optical sensor circuit arrays are arranged, the number is not limited to three pairs, and more photosensor circuit arrays may be arranged. 5 pairs or more are preferable, and 10 to 20 pairs are more preferable.

画像インターフェイス装置10のA/D変換部12は、光センサ回路アレイ130a,130c,130eから出力される第1のアナログ画像信号及び光センサ回路アレイ130b,130d,130fから出力される第2のアナログ画像信号を、ディジタルの第1及び第2の画像データD1,D2に変換して出力するものである。
対象部位抽出部22は、A/D変換部12からの第1及び第2の画像データD1,D2をもとに、図4に示す人体1の撮像原画像1aに対して周知の画像処理によりピクセル単位で平均化処理を行って図5に示すようなピクセル平均化画像1bを取得し、このピクセル平均化画像1bの明るい部分の面積から顔1c及び手1dを判別して抽出し、これら顔1c及び手1dの画像データを出力するものである。但し、それら顔1c及び手1dの画像データは、第1及び第2の画像データD1,D2毎に抽出されて出力される。
The A / D converter 12 of the image interface device 10 includes a first analog image signal output from the photosensor circuit arrays 130a, 130c, and 130e and a second analog image output from the photosensor circuit arrays 130b, 130d, and 130f. The image signal is converted into digital first and second image data D1, D2 and output.
Based on the first and second image data D1, D2 from the A / D conversion unit 12, the target part extraction unit 22 performs known image processing on the captured original image 1a of the human body 1 shown in FIG. A pixel averaged image 1b as shown in FIG. 5 is obtained by performing an averaging process on a pixel basis, and the face 1c and the hand 1d are discriminated and extracted from the area of the bright portion of the pixel averaged image 1b. The image data of 1c and hand 1d is output. However, the image data of the face 1c and the hand 1d are extracted and output for each of the first and second image data D1 and D2.

対象ノード抽出部23は、対象部位抽出部22からの顔1c及び手1dの画像データをもとに、図6に示すように、顔1cの特徴部分である鼻1e及び手1dの特徴部分である拳1fにポイント(○で指示)を定め、このポイント部分をノードとして抽出する。
この際、図7(a)から(b)に示すように、鼻1eは、鼻頭●を基準のノードN0として抽出する。一方、拳1fにおいては、人体1が例えばボクシングの動作を行うことを前提とすると、拳1fが前方に(マルチライン光センサ11側に)突き出され、この状態から後方に引かれる。更に、それら前後する際に動きが直線方向のみならず斜め方向であったりする。このような拳1fの前後左右上下斜め方向への移動を検出するために、拳1fにおいては、複数箇所にポイント●を定め、これらをノードとして抽出する。この例では、拳1fに●で示す18箇所の拳の各ノードN1〜N18を定めた。
Based on the image data of the face 1c and the hand 1d from the target part extraction unit 22, the target node extraction unit 23 is a characteristic part of the nose 1e and the hand 1d that are characteristic parts of the face 1c, as shown in FIG. A point (indicated by a circle) is set for a certain fist 1f, and this point portion is extracted as a node.
At this time, as shown in FIGS. 7A to 7B, the nose 1e extracts the nasal head ● as the reference node N0. On the other hand, in the fist 1f, assuming that the human body 1 performs a boxing operation, for example, the fist 1f is projected forward (to the multi-line optical sensor 11 side) and pulled backward from this state. Furthermore, when moving back and forth, the movement is not only a linear direction but also an oblique direction. In order to detect such movement of the fist 1f in the front-back, left-right, up-down, and slant directions, the fist 1f determines points ● at a plurality of locations and extracts them as nodes. In this example, the nodes N1 to N18 of 18 fists indicated by ● are defined on the fist 1f.

但し、拳の各ノードN1〜N18と鼻頭のノードN0は、上記の第1及び第2の画像データD1,D2毎に抽出されて距離算出部24へ出力される。
距離算出部24は、対象ノード抽出部23で抽出された第1及び第2の画像データD1,D2毎の鼻頭のノードN0及び拳の各ノードN1〜N18をもとに三角測距の原理に従い、マルチライン光センサ11から各々の対象ノードN0及びN1〜N18までの距離を算出し、これらの距離を前回データ差分算出部25へ出力するものである。
The fist nodes N1 to N18 and the nasal head node N0 are extracted for each of the first and second image data D1 and D2 and output to the distance calculation unit 24.
The distance calculation unit 24 follows the principle of triangulation based on the nasal node N0 and the fist nodes N1 to N18 for each of the first and second image data D1 and D2 extracted by the target node extraction unit 23. The distance from the multiline optical sensor 11 to each of the target nodes N0 and N1 to N18 is calculated, and these distances are output to the previous data difference calculation unit 25.

前回データ差分算出部25は、距離算出部24で算出された各々の対象ノードN0及びN1〜N18までの距離をもとに、図8に示すように、マルチライン光センサ11から鼻1eまでの距離Z1と、拳1fまでの距離Z2と、これら距離Z1とZ2との差分距離Z3とを求める。鼻1eまでの距離Z1は鼻頭のノードN0までの距離である。拳1fまでの距離Z2は、例えば拳の各ノードN1〜N18までの距離の平均値とする。   Based on the distances from the target nodes N0 and N1 to N18 calculated by the distance calculation unit 24, the previous data difference calculation unit 25, as shown in FIG. 8, from the multiline optical sensor 11 to the nose 1e. A distance Z1, a distance Z2 to the fist 1f, and a difference distance Z3 between these distances Z1 and Z2 are obtained. The distance Z1 to the nose 1e is a distance to the node N0 of the nasal head. The distance Z2 to the fist 1f is, for example, the average value of the distances to the fist nodes N1 to N18.

これによって、例えば、図9(a)に示すように、鼻1eまでの距離Z1が109.5cm、拳1fまでの距離Z2が100.0cm、差分距離Z3が9.5cmと算出される。また、距離算出部24は、図9(a)に示すように、マルチライン光センサ11の該当する検出時刻t1=12(時):00(分):00(秒):00として各距離Z1〜Z3に対応付ける。   Thus, for example, as shown in FIG. 9A, the distance Z1 to the nose 1e is calculated to be 109.5 cm, the distance Z2 to the fist 1f is 100.0 cm, and the difference distance Z3 is calculated to be 9.5 cm. Further, as shown in FIG. 9A, the distance calculating unit 24 sets each distance Z1 as a corresponding detection time t1 = 12 (hours): 00 (minutes): 00 (seconds): 00 of the multiline optical sensor 11. Correspond to ~ Z3.

更に、前回データ差分算出部25は、各距離Z1〜Z3に検出時刻tが対応付けられて成る距離時刻データの前回分と今回分を比較して、図8に示す拳1fの移動距離Z4、この距離Z4を拳1fが移動する移動時間及び移動方向を求める。ここで、図9(a)に示す距離時刻データD3を前回分、(b)に示す距離時刻データD4を今回分とする。
拳1fの移動距離Z4は、今回の距離時刻データD4の差分距離Z3a=63.5cmから前回の距離時刻データD3の差分距離Z3=9.5cmを減算して求める。この例の場合、拳1fの移動距離Z4は54cmとなる。
Further, the previous data difference calculation unit 25 compares the previous time and the current time of the distance time data in which the detection times t are associated with the distances Z1 to Z3, and the movement distance Z4 of the fist 1f shown in FIG. The moving time and moving direction for the fist 1f to move through this distance Z4 are obtained. Here, the distance time data D3 shown in FIG. 9A is the previous time, and the distance time data D4 shown in FIG. 9B is the current time.
The movement distance Z4 of the fist 1f is obtained by subtracting the difference distance Z3 = 9.5 cm of the previous distance time data D3 from the difference distance Z3a = 63.5 cm of the current distance time data D4. In this example, the movement distance Z4 of the fist 1f is 54 cm.

拳1fの移動時間は、今回の距離時刻データD4の検出時刻t2=12:00:00:08から前回の距離時刻データD3の検出時刻t1=12:00:00:00を減算して求める。この例の場合、拳1fの移動時間は0.8秒となる。
拳1fの移動方向は、まず、差分距離Z3a−Z3の結果から拳1fの前後方向を求める。つまり、その減算結果が上記の54cmのようにプラスであれば、マルチライン光センサ11に向かう前方方向、マイナスであれば逆の後方方向となる。更に、拳1fまでの距離Z2を求めた拳の各ノードN1〜N18の個々のXY平面(図8に示すZ1〜Z3方向と垂直な面のことであるが、図3に示す方向xnと方向ynで規定される平面、すなわちマルチライン光センサ111と考えてもよく、その場合は結像位置の)座標位置を求め、これら値の今回分と前回分との差分と、上記の前後方向とから、拳1fの前後左右上下斜めの移動方向を求める。
The movement time of the fist 1f is obtained by subtracting the detection time t1 = 12: 00: 00: 00 of the previous distance time data D3 from the detection time t2 = 12: 00: 00: 00 of the current distance time data D4. In this example, the movement time of the fist 1f is 0.8 seconds.
As the movement direction of the fist 1f, first, the front-rear direction of the fist 1f is obtained from the result of the difference distance Z3a-Z3. That is, if the subtraction result is positive as in the above 54 cm, it is the forward direction toward the multi-line optical sensor 11, and if it is negative, it is the reverse backward direction. Further, the individual XY planes of the fist nodes N1 to N18 for which the distance Z2 to the fist 1f is obtained (which is a plane perpendicular to the Z1 to Z3 directions shown in FIG. 8, but the direction xn and the direction shown in FIG. 3) It is possible to think of the plane defined by yn, that is, the multi-line optical sensor 111. In this case, the coordinate position (of the imaging position) is obtained, the difference between the current value and the previous value of these values, From the above, the diagonally moving direction of the fist 1f is obtained.

制御データ作成部26は、前回データ差分算出部25にて求められた拳1fの移動方向、移動時間、移動距離をもとに、ゲーム機31によってテレビモニタ32上に映し出される画像(例えばボクシングキャラクタ画像)の動作を人体1と連動させて制御するための制御データを作成する。
データ転送部15は、制御データ作成部26で作成された制御データをゲーム機31へ転送するものである。
センサ制御部20は、I/O部13を介してマルチライン光センサ11の撮像動作を制御するものである。
このような構成の画像インターフェイス装置10を用いて、ゲーム機31によってテレビモニタ32上に映し出されるボクシングキャラクタ画像の動作を制御する際の処理を、図10に示すフローチャートを参照して説明する。
Based on the movement direction, movement time, and movement distance of the fist 1f obtained by the previous data difference calculation unit 25, the control data creation unit 26 displays an image (for example, a boxing character) displayed on the television monitor 32 by the game machine 31. Control data for controlling the movement of the image) in conjunction with the human body 1 is created.
The data transfer unit 15 transfers the control data created by the control data creation unit 26 to the game machine 31.
The sensor control unit 20 controls the imaging operation of the multiline optical sensor 11 via the I / O unit 13.
A process for controlling the operation of the boxing character image displayed on the television monitor 32 by the game machine 31 using the image interface apparatus 10 having such a configuration will be described with reference to the flowchart shown in FIG.

まず、ステップS1において、人体1が図4に示すポーズをとっている際に、センサ制御部20からI/O部13を介してマルチライン光センサ11の撮像制御が行われると、当該センサ11によって人体1が撮像され、第1及び第2のアナログ画像信号が得られる。そして、それらアナログ信号がA/D変換部12によって第1及び第2の画像データD1,D2に変換され、対象部位抽出部22へ出力される。   First, in step S1, when imaging control of the multiline optical sensor 11 is performed from the sensor control unit 20 via the I / O unit 13 while the human body 1 is in the pose illustrated in FIG. Thus, the human body 1 is imaged, and first and second analog image signals are obtained. Then, these analog signals are converted into first and second image data D 1 and D 2 by the A / D conversion unit 12 and output to the target part extraction unit 22.

ステップS2において、対象部位抽出部22にて第1又は第2の画像データD1,D2に対し、図4に示した撮像原画像1aに対するピクセル単位での平均化画像処理が行われ、これによって図5に示したピクセル平均化画像1bが取得される。更に、そのピクセル平均化画像1bの明るい部分の面積から顔1c及び手1dが抽出され、これら顔1c及び手1dの画像データが対象ノード抽出部23へ出力される。   In step S2, the target part extraction unit 22 performs averaged image processing in units of pixels on the captured original image 1a shown in FIG. 4 for the first or second image data D1 and D2, thereby The pixel averaged image 1b shown in FIG. Further, the face 1c and the hand 1d are extracted from the area of the bright portion of the pixel averaged image 1b, and the image data of the face 1c and the hand 1d are output to the target node extracting unit 23.

ステップS3において、対象ノード抽出部23にて、対象部位抽出部22からの顔1c及び手1dの画像データをもとに、図6に示した顔1cの特徴部分である鼻1eと、手1dの特徴部分である拳1fとにポイント(○で指示)が定められ、このポイント部分からノードが抽出される。この際、図7(a)に示したように、鼻1eが、鼻頭●を基準のノードN0として抽出される。一方、拳1fは、18箇所にポイント●が定められ、これらがノードN1〜N18として抽出される。但し、各々のノードN0及びN1〜N18は、第1及び第2の画像データD1,D2の取得毎に当該画像データから抽出される。
ステップS4において、距離算出部24にて、先に抽出された第1及び第2の画像データD1,D2毎の鼻頭のノードN0及び拳の各ノードN1〜N18からマルチライン光センサ11までの距離が算出され、これらの距離が前回データ差分算出部25へ出力される。
In step S3, the target node extraction unit 23, based on the image data of the face 1c and the hand 1d from the target part extraction unit 22, the nose 1e and the hand 1d which are the characteristic parts of the face 1c shown in FIG. A point (indicated by a circle) is determined for the fist 1f that is a characteristic portion of the node, and a node is extracted from this point portion. At this time, as shown in FIG. 7A, the nose 1e is extracted with the nasal head ● as a reference node N0. On the other hand, in the fist 1f, points ● are determined at 18 locations, and these are extracted as nodes N1 to N18. However, each of the nodes N0 and N1 to N18 is extracted from the image data every time the first and second image data D1 and D2 are acquired.
In step S4, the distance calculation unit 24 distances the multiline optical sensor 11 from the nasal node N0 and the fist nodes N1 to N18 for each of the first and second image data D1 and D2 previously extracted. And these distances are output to the previous data difference calculation unit 25.

ステップS5において、前回データ差分算出部25にて、距離算出部24で算出された各々の対象ノードN0及びN1〜N18までの距離をもとに、図8に示したマルチライン光センサ11から鼻1eまでの距離Z1と、拳1fまでの距離Z2と、これら距離Z1とZ2との差分距離Z3とが求められる。ここで、鼻1eまでの距離Z1は鼻頭のノードN0までの距離であり、拳1fまでの距離Z2は、拳の各ノードN1〜N18までの距離の平均値である。これらの距離Z1〜Z3は、例えば図9(a)に示すように距離Z1が109.5cm、距離Z2が100.0cm、差分距離Z3が9.5cmである。更に、マルチライン光センサ11での該当する検出時刻t1=12(時):00(分):00(秒):00として対応付けられる。これらの距離Z1〜Z3及び検出時刻t1から成る距離時刻データD3は、前回データ差分算出部25に記憶される。   In step S5, based on the distances to the target nodes N0 and N1 to N18 calculated by the distance calculation unit 24 in the previous data difference calculation unit 25, the multiline optical sensor 11 shown in FIG. A distance Z1 to 1e, a distance Z2 to the fist 1f, and a difference distance Z3 between these distances Z1 and Z2 are obtained. Here, the distance Z1 to the nose 1e is a distance to the node N0 of the nasal head, and the distance Z2 to the fist 1f is an average value of the distances to the fist nodes N1 to N18. These distances Z1 to Z3 are, for example, as shown in FIG. 9A, the distance Z1 is 109.5 cm, the distance Z2 is 100.0 cm, and the differential distance Z3 is 9.5 cm. Further, the corresponding detection time t1 = 12 (hours): 00 (minutes): 00 (seconds): 00 in the multiline optical sensor 11 is associated. The distance time data D3 including the distances Z1 to Z3 and the detection time t1 is stored in the previous data difference calculation unit 25.

次に、ステップS6において、人体1が図7(b)に示すように、拳1fを突き出したとする。この場合も、上記ステップS1〜S5で説明したと同様に処理が行われ、図8に示す各距離Z1,Z2a,Z3aが求められる。これらの距離Z1,Z2a,Z3aは、例えば図9(b)に示すように、距離Z1が109.5cm、距離Z2aが46.0cm、差分距離Z3aが63.5cmである。更に、マルチライン光センサ11での該当する検出時刻t1=12(時):00(分):00(秒):08として対応付けられ、今回の距離時刻データD4が求められる。   Next, in step S6, it is assumed that the human body 1 protrudes the fist 1f as shown in FIG. Also in this case, processing is performed in the same manner as described in steps S1 to S5, and the distances Z1, Z2a, and Z3a shown in FIG. 8 are obtained. These distances Z1, Z2a, and Z3a are, for example, as shown in FIG. 9B, the distance Z1 is 109.5 cm, the distance Z2a is 46.0 cm, and the differential distance Z3a is 63.5 cm. Further, the corresponding detection time t1 = 12 (hours): 00 (minutes): 00 (seconds): 08 in the multiline optical sensor 11 is associated, and the current distance time data D4 is obtained.

この後、ステップS7において、前回データ差分算出部25にて、前回の距離時刻データD3と今回の距離時刻データD4とが比較され、図8に示す拳1fの移動距離Z4と、この距離Z4を拳1fが移動する移動時間及び移動方向が求められる。
上記の例では、拳1fの移動距離Z4は、今回の距離時刻データD4の差分距離Z3a=63.5cmから前回の距離時刻データD3の差分距離Z3=9.5cmが減算されることによって、54cmと求められる。
Thereafter, in step S7, the previous distance time data D3 and the current distance time data D4 are compared in the previous data difference calculation unit 25, and the movement distance Z4 of the fist 1f shown in FIG. The moving time and moving direction in which the fist 1f moves are obtained.
In the above example, the movement distance Z4 of the fist 1f is 54 cm by subtracting the difference distance Z3 = 9.5 cm of the previous distance time data D3 from the difference distance Z3a = 63.5 cm of the current distance time data D4. Is required.

拳1fの移動時間は、今回の距離時刻データD4の検出時刻t2=12:00:00:08から前回の距離時刻データD3の検出時刻t1=12:00:00:00が減算されることによって、0.8秒と求められる。
拳1fの移動方向は、まず、差分距離Z3a−Z3の減算結果が54cmのようにプラスなので、マルチライン光センサ11に向かう前方方向と求められる。更に、拳1fまでの距離Z2を求めた拳の各ノードN1〜N18の個々のXY平面座標位置が求められ、この値の今回分と前回分との差分と、先に求めた前方方向とから、拳1fの前後左右上下斜めの移動方向が正確に求められる。
The movement time of the fist 1f is obtained by subtracting the detection time t1 = 12: 00: 00: 00 of the previous distance time data D3 from the detection time t2 = 12: 00: 00: 00 of the current distance time data D4. 0.8 seconds.
First, the movement direction of the fist 1f is obtained as a forward direction toward the multi-line optical sensor 11 because the subtraction result of the difference distance Z3a-Z3 is positive as 54 cm. Further, the individual XY plane coordinate positions of the respective nodes N1 to N18 of the fist for which the distance Z2 to the fist 1f is obtained are obtained, and the difference between this value and the previous value and the forward direction obtained previously are obtained. Thus, the forward / backward / left / right / upward / downwardly moving directions of the fist 1f are accurately obtained.

次に、ステップS8において、制御データ作成部26にて、前回データ差分算出部25にて求められた拳1fの移動方向、移動時間、移動距離のデータをもとに、テレビモニタ32上に映し出されているボクシングキャラクタ画像の動作を制御する制御データが作成される。
ステップS9において、その作成された制御データが、データ転送部15でゲーム機31へ転送され、これに応じてゲーム機31がテレビモニタ32上に映し出されているボクシングキャラクタ画像を人体1と連動するように制御し、この制御によってボクシングキャラクタ画像が人体1と連動して動作する。
Next, in step S8, the control data creation unit 26 displays the data on the television monitor 32 based on the movement direction, movement time, and movement distance data of the fist 1f obtained by the previous data difference calculation unit 25. Control data for controlling the operation of the boxing character image is generated.
In step S9, the created control data is transferred to the game machine 31 by the data transfer unit 15, and the game machine 31 is linked to the human body 1 in response to the boxing character image displayed on the television monitor 32 accordingly. The boxing character image operates in conjunction with the human body 1 by this control.

ここで、ゲーム機31は転送された制御データからさらに対象の移動速度を求め、これも加味してゲームの進行を決めることができる。例えば上記の例において、拳1fの移動速度すなわちパンチスピードを求め、パンチスピードによりパンチの威力を定めて対戦相手に与えるダメージを変えることができる。このように、3次元の空間データに加え時間要素も合わせてデータとすることにより、従来技術では得られなかった効果を得ることができる。なお、移動速度自体はステップ8で求めてもよい。   Here, the game machine 31 can further determine the target moving speed from the transferred control data, and can determine the progress of the game in consideration of this. For example, in the above example, the movement speed of the fist 1f, that is, the punch speed can be obtained, and the damage to the opponent can be changed by determining the power of the punch by the punch speed. As described above, by combining the time element with the three-dimensional spatial data, it is possible to obtain an effect that could not be obtained by the prior art. The moving speed itself may be obtained in step 8.

以上説明したように本実施の形態の画像インターフェイス装置10によれば、人体1の移動部位である拳1fの3次元の動作を検出し、この検出内容を示す制御データを用いてテレビモニタ32上の画像の動作を制御するようにしたので、拳1fの前後方向の動作をテレビモニタ32上の画像の動作に適正に反映させることができる。従って、検出対象の人体1の拳1fの実際の平面方向に更に実際の前後方向の動きを加えた、よりリアルな動画像をテレビモニタ32上に表示することができる。   As described above, according to the image interface device 10 of the present embodiment, the three-dimensional motion of the fist 1f that is the moving part of the human body 1 is detected, and the control data indicating the detected contents is used on the television monitor 32. Therefore, the movement of the fist 1f in the front-rear direction can be appropriately reflected in the movement of the image on the television monitor 32. Accordingly, it is possible to display a more realistic moving image on the television monitor 32 in which an actual longitudinal movement is further added to the actual plane direction of the fist 1f of the human body 1 to be detected.

また、撮像情報量の少ないマルチライン光センサ11によって人体1の画像データを得るようにしたので、エリアセンサ等の撮像情報量が多いセンサを用いた場合に比べ、高速な処理を行うことができる。つまり、画像のサンプリングが高速にでき、データ量が少ないので、CPUの処理能力や必要なメモリが比較的小さなものでもよいため、ゲーム機などの小型機器に搭載可能となる。また、人間の三次元の動作を検出できるので、交通事故体現シミュレーションツールなど移動体の動きを検出してディスプレイ画像に反映させるツールに幅広く使用可能である。
なお、顔1を2箇所の離れた位置にて撮像し、2つの画像信号を得ることが可能なセンサであれば、マルチライン光センサ11に代え、どの様なセンサを用いても良い。例えば、2つのCCD(Charge Coupled Device)を使用しても良い。
Further, since the image data of the human body 1 is obtained by the multi-line optical sensor 11 having a small amount of imaging information, high-speed processing can be performed as compared with a case where a sensor having a large amount of imaging information such as an area sensor is used. . That is, since the image sampling can be performed at a high speed and the amount of data is small, the processing capacity of the CPU and the necessary memory may be relatively small, so that it can be mounted on a small device such as a game machine. In addition, since it can detect human three-dimensional movements, it can be widely used as a tool for detecting the movement of a moving object and reflecting it in a display image, such as a traffic accident manifestation simulation tool.
Note that any sensor may be used in place of the multi-line optical sensor 11 as long as the sensor can capture two faces of the face 1 and obtain two image signals. For example, two CCDs (Charge Coupled Devices) may be used.

本発明の実施の形態に係る画像インターフェイス装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image interface apparatus which concerns on embodiment of this invention. 三角測距の原理に基づくマルチライン光センサによる距離測定の原理図である。It is a principle diagram of distance measurement by a multiline optical sensor based on the principle of triangulation. 上記実施の形態に係る画像インターフェイス装置におけるマルチライン光センサの構成を示す図である。It is a figure which shows the structure of the multiline optical sensor in the image interface apparatus which concerns on the said embodiment. マルチライン光センサによる人体の撮像原画像を示す図である。It is a figure which shows the imaging original image of the human body by a multiline optical sensor. 撮像原画像から取得したピクセル平均化画像及び当該画像から顔及び手を特定した様態を示す図である。It is a figure which shows the aspect which specified the face average and the hand from the pixel averaged image acquired from the imaging original image, and the said image. ピクセル平均化画像の顔及び手から更に鼻及び拳を特定した様態を示す図である。It is a figure which shows the aspect which identified the nose and the fist further from the face and hand of a pixel averaged image. (a)は鼻のノード及び拳の各ノードを示す図、(b)は拳が突き出された際の鼻のノード及び拳の各ノードを示す図である。(A) is a figure which shows each node of a nose and a fist, (b) is a figure which shows each node of a nose and a fist when a fist is protruded. マルチライン光センサから鼻及び拳までの距離と、これら差分距離とを示す図である。It is a figure which shows the distance from a multiline optical sensor to a nose and a fist, and these difference distances. (a)は前回の距離時刻データ、(b)は今回の距離時刻データを示す図である。(A) is the last distance time data, (b) is the figure which shows this distance time data. 本画像インターフェイス装置によるテレビモニタ上の画像動作の制御処理を説明するためのフローチャートである。It is a flowchart for demonstrating the control processing of the image operation on the television monitor by this image interface apparatus.

符号の説明Explanation of symbols

1 人体
1a 顔
1e 鼻
1f 拳
10 画像インターフェイス装置
11 マルチライン光センサ
12 A/D変換部
13 I/O部
14 動作解析部
15 データ転送部
20 センサ制御部
22 対象部位抽出部
23 対象ノード抽出部
24 距離算出部
25 前回データ差分算出部
26 制御データ作成部
31 ゲーム機
32 テレビモニタ
DESCRIPTION OF SYMBOLS 1 Human body 1a Face 1e Nose 1f Fist 10 Image interface apparatus 11 Multiline optical sensor 12 A / D conversion part 13 I / O part 14 Motion analysis part 15 Data transfer part 20 Sensor control part 22 Target part extraction part 23 Target node extraction part 24 Distance calculation unit 25 Previous data difference calculation unit 26 Control data creation unit 31 Game machine 32 Television monitor

Claims (2)

移動体の動きを撮像により検出してディスプレイ上の画像の動作に反映させる画像インターフェイス装置において、
少なくとも2つのレンズを通して撮像される移動体の2つの画像データを得るセンサと、
前記2つの画像データから、該画像データをもとに前記移動体における基準部位と移動部位を抽出する第1の抽出手段と、
前記抽出された基準部位における特徴点と移動部位における複数の特徴点とを抽出する第2の抽出手段と、
前記第2の抽出手段で抽出された基準部位の特徴点及び移動部位の各特徴点をもとに、それら全ての特徴点から前記センサまでの距離を算出する距離算出手段と、
前記算出された全ての距離をもとに、前記センサから前記基準部位までの距離と、前記移動部位までの距離と、これら距離の差分距離とを求め、この求められた距離に前記センサでの検出時刻を対応付けて距離時刻データとし、この距離時刻データを別時刻のもの同士で比較することにより前記移動部位の移動距離、この距離を移動部位が移動する移動時間及び移動方向のデータを求める差分算出手段と、
前記差分算出手段で求められた移動部位の移動距離、移動時間及び移動方向のデータをもとに、前記ディスプレイ上の画像の動作を制御する制御データを作成する作成手段と
を備えたことを特徴とする画像インターフェイス装置。
In an image interface device that detects the movement of a moving object by imaging and reflects it in the operation of an image on a display,
A sensor for obtaining two image data of a moving body imaged through at least two lenses;
First extraction means for extracting a reference part and a moving part in the moving body from the two image data based on the image data;
Second extraction means for extracting the feature points in the extracted reference part and the plurality of feature points in the movement part;
Based on the feature points of the reference part extracted by the second extraction means and the feature points of the moving part, distance calculation means for calculating the distance from all the feature points to the sensor;
Based on all the calculated distances, a distance from the sensor to the reference part, a distance to the moving part, and a difference distance between these distances are obtained, and the distance obtained by the sensor is calculated to the obtained distance. The detection time is associated with distance time data, and the distance time data is compared with another time to obtain the movement distance of the moving part, the moving time and the moving direction of the moving part. Difference calculation means;
Creating means for creating control data for controlling the operation of the image on the display based on the data of the moving distance, moving time, and moving direction of the moving part determined by the difference calculating means. Image interface device.
前記センサは、2つのレンズを通して前記移動体の映像が結像される一対の1次元光センサアレイを複数配列し、これら光センサの受光強度に応じて画像データを得るマルチライン光センサである
ことを特徴とする請求項1に記載の画像インターフェイス装置。
The sensor is a multi-line optical sensor in which a plurality of a pair of one-dimensional photosensor arrays on which an image of the moving body is formed through two lenses and image data is obtained in accordance with the received light intensity of these photosensors. The image interface device according to claim 1.
JP2005092369A 2005-03-28 2005-03-28 Image interface device Pending JP2006277076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005092369A JP2006277076A (en) 2005-03-28 2005-03-28 Image interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005092369A JP2006277076A (en) 2005-03-28 2005-03-28 Image interface device

Publications (1)

Publication Number Publication Date
JP2006277076A true JP2006277076A (en) 2006-10-12

Family

ID=37211807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005092369A Pending JP2006277076A (en) 2005-03-28 2005-03-28 Image interface device

Country Status (1)

Country Link
JP (1) JP2006277076A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100903490B1 (en) * 2006-12-16 2009-06-18 김종철 Ergonomic Human Computer Interface
WO2009093461A1 (en) * 2008-01-22 2009-07-30 Ssd Company Limited Imaging device, online game system, operation object, input method, image analysis device, image analysis method, and recording medium
JP2010063528A (en) * 2008-09-09 2010-03-25 British Virgin Islands CyWee Group Ltd Electronic game controller capable of sensing image of player's body and method of the same
JP2010122727A (en) * 2008-11-17 2010-06-03 Ricoh Co Ltd Movement measuring apparatus and movement measuring program
WO2011011029A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display to determine gestures
JP5101622B2 (en) * 2007-09-07 2012-12-19 株式会社コナミデジタルエンタテインメント Operation determination device, game device, and computer program
US8904430B2 (en) 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation
KR101609861B1 (en) * 2010-11-16 2016-04-20 주식회사 케이티 Input control system and method based on users behavior
WO2017078283A1 (en) * 2015-11-05 2017-05-11 삼성전자 주식회사 Electronic device for determining position of user, and method of controlling said device
CN106924957A (en) * 2017-03-17 2017-07-07 西安理工大学 A kind of athletic training amount of exercise monitoring system
JP2017143992A (en) * 2016-02-16 2017-08-24 株式会社トプコン Ophthalmologic examination system and ophthalmologic examination apparatus
WO2018103656A1 (en) * 2016-12-07 2018-06-14 腾讯科技(深圳)有限公司 Motion processing method and device for props in vr scene, and storage medium
CN111061360A (en) * 2019-11-12 2020-04-24 北京字节跳动网络技术有限公司 Control method, device, medium and electronic equipment based on head action of user

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100903490B1 (en) * 2006-12-16 2009-06-18 김종철 Ergonomic Human Computer Interface
JP5101622B2 (en) * 2007-09-07 2012-12-19 株式会社コナミデジタルエンタテインメント Operation determination device, game device, and computer program
WO2009093461A1 (en) * 2008-01-22 2009-07-30 Ssd Company Limited Imaging device, online game system, operation object, input method, image analysis device, image analysis method, and recording medium
US9584862B2 (en) 2008-04-24 2017-02-28 Sony Interactive Entertainment America Llc Method and apparatus for real-time viewer interaction with a media presentation
US8904430B2 (en) 2008-04-24 2014-12-02 Sony Computer Entertainment America, LLC Method and apparatus for real-time viewer interaction with a media presentation
US10412456B2 (en) 2008-04-24 2019-09-10 Sony Interactive Entertainment, LLC Method and apparatus for real-time viewer interaction with a media presentation
JP2010063528A (en) * 2008-09-09 2010-03-25 British Virgin Islands CyWee Group Ltd Electronic game controller capable of sensing image of player's body and method of the same
JP2010122727A (en) * 2008-11-17 2010-06-03 Ricoh Co Ltd Movement measuring apparatus and movement measuring program
WO2011011029A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display to determine gestures
KR101609861B1 (en) * 2010-11-16 2016-04-20 주식회사 케이티 Input control system and method based on users behavior
WO2017078283A1 (en) * 2015-11-05 2017-05-11 삼성전자 주식회사 Electronic device for determining position of user, and method of controlling said device
KR20170052984A (en) * 2015-11-05 2017-05-15 삼성전자주식회사 Electronic apparatus for determining position of user and method for controlling thereof
US11132537B2 (en) 2015-11-05 2021-09-28 Samsung Electronics Co., Ltd. Electronic device for determining position of user based on image pixels, and method of controlling said device
KR102355759B1 (en) * 2015-11-05 2022-01-26 삼성전자주식회사 Electronic apparatus for determining position of user and method for controlling thereof
JP2017143992A (en) * 2016-02-16 2017-08-24 株式会社トプコン Ophthalmologic examination system and ophthalmologic examination apparatus
WO2018103656A1 (en) * 2016-12-07 2018-06-14 腾讯科技(深圳)有限公司 Motion processing method and device for props in vr scene, and storage medium
CN106924957A (en) * 2017-03-17 2017-07-07 西安理工大学 A kind of athletic training amount of exercise monitoring system
CN111061360A (en) * 2019-11-12 2020-04-24 北京字节跳动网络技术有限公司 Control method, device, medium and electronic equipment based on head action of user
CN111061360B (en) * 2019-11-12 2023-08-22 北京字节跳动网络技术有限公司 Control method and device based on user head motion, medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP2006277076A (en) Image interface device
CN108780586B (en) Image processing method, display device and inspection system
CN101432776B (en) System and method for three-dimensional object reconstruction from two-dimensional images
JP7367764B2 (en) Skeleton recognition method, skeleton recognition program, and information processing device
KR101002785B1 (en) Method and System for Spatial Interaction in Augmented Reality System
US11783580B2 (en) Input apparatus, input method of input apparatus, and output apparatus
JP6892286B2 (en) Image processing equipment, image processing methods, and computer programs
JP6723061B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP7164045B2 (en) Skeleton Recognition Method, Skeleton Recognition Program and Skeleton Recognition System
CN104035557B (en) Kinect action identification method based on joint activeness
JP2006011880A (en) Environmental map creation method and device, and mobile robot device
JP2010282615A (en) Object motion detection system based on combining 3d warping technique and proper object motion (pom) detection
EP2476999B1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
US9595095B2 (en) Robot system
US11282222B2 (en) Recording medium, object detection apparatus, object detection method, and object detection system
JP5396585B2 (en) Feature identification method
JP2008015815A (en) Image processor and image processing program
JP6237122B2 (en) Robot, image processing method and robot system
JP2006113645A (en) Moving locus analysis method
JPH06301477A (en) Input device for pointed position of three-dimensional space
JPH05173644A (en) Three-dimensional body recording device
JP2019197278A (en) Image processing apparatus, method of controlling image processing apparatus, and program
JP2003280808A (en) Three-dimensional position inputting device
JPH0973543A (en) Moving object recognition method/device
JP2001264010A (en) Three-dimensional input device and recording medium