JP2007241477A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2007241477A JP2007241477A JP2006060263A JP2006060263A JP2007241477A JP 2007241477 A JP2007241477 A JP 2007241477A JP 2006060263 A JP2006060263 A JP 2006060263A JP 2006060263 A JP2006060263 A JP 2006060263A JP 2007241477 A JP2007241477 A JP 2007241477A
- Authority
- JP
- Japan
- Prior art keywords
- face
- inclination
- detection
- information
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像された画像データから、顔などの対象物の傾きを検出する画像処理装置に関する。 The present invention relates to an image processing apparatus that detects the inclination of an object such as a face from captured image data.
近年、動画像や静止画像の中から顔の領域を検出する技術が実用化されつつある。こうした現状の下、さらに検出した顔の向きや視線の方向を特定して、撮像された人物の注目している方向を検出することで、種々の制御や、マーケティング情報を獲得しようとする要望が高まっている。 In recent years, a technique for detecting a face region from a moving image or a still image has been put into practical use. Under such circumstances, there is a demand to acquire various control and marketing information by specifying the detected face direction and the direction of the line of sight and detecting the direction in which the imaged person is paying attention. It is growing.
なお、動画像や静止画像中から検出された顔の画像について、所定の顔の向きごと(例えば15度ごと)のサンプルの画像データ(テンプレート)を用い、このテンプレートと撮像された画像とをマッチングすることで顔の向きを推定する技術が開発されている(例えば特許文献1)
しかしながら、上記従来の技術では、テンプレートとのマッチング処理を行うために、テンプレートに登録されている顔の向きごとの角度から推定結果を得るため、離散的な結果が得られるに過ぎず、利用分野が限られてしまうという問題点があった。 However, in the above conventional technique, in order to perform the matching process with the template, the estimation result is obtained from the angle for each face direction registered in the template, so that only a discrete result is obtained. There was a problem that was limited.
本発明は上記実情に鑑みて為されたもので、連続的な結果が出力できるようにして利用分野を拡大できる画像処理装置を提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus capable of expanding a field of use so that continuous results can be output.
また、本発明の別の目的の一つは、顔の向きを推定する際の照明の変化に対するロバスト性を高めることにある。 Another object of the present invention is to improve robustness against changes in illumination when estimating the orientation of a face.
上記従来例の問題点を解決するための本発明は、画像処理装置であって、所与の画像データから、互いに異なる検出処理によって対象物を検出する複数の検出手段と、前記複数の検出手段の各々によって検出された対象物の検出結果の差に基づいて、前記対象物の所定基準位置からの傾きを推定する傾き推定手段と、を含み、前記推定された傾きを表す情報を所定処理に供することを特徴としている。ここで前記対象物は、人物の顔であってもよい。 The present invention for solving the problems of the above conventional example is an image processing apparatus, and a plurality of detection means for detecting an object from given image data by different detection processes, and the plurality of detection means Inclination estimation means for estimating the inclination of the object from a predetermined reference position based on the difference in the detection results of the objects detected by each of the information, the information representing the estimated inclination is subjected to a predetermined process It is characterized by providing. Here, the object may be a human face.
また、本発明の一態様に係る画像処理方法は、所与の画像データから、互いに異なる検出処理によって対象物を検出する複数の検出手段を用い、前記複数の検出手段の各々によって検出された対象物の検出結果の差を特定する工程と、前記特定された差から対象物の所定基準位置からの傾きを推定する工程と、を実行し、前記推定された傾きを表す情報を所定処理に供することを特徴としている。 In addition, an image processing method according to an aspect of the present invention uses a plurality of detection units that detect a target object from given image data by different detection processes, and the targets detected by each of the plurality of detection units. A step of identifying a difference between detection results of the object and a step of estimating a tilt of the object from a predetermined reference position from the identified difference, and providing information representing the estimated tilt to a predetermined process It is characterized by that.
さらに本発明の別の態様に係るプログラムは、コンピュータに、所与の画像データから、互いに異なる検出処理によって対象物を検出する複数の検出手順を実行させ、前記複数の検出手順の各々によって検出された対象物の検出結果の差に基づいて、前記対象物の所定基準位置からの傾きを推定させて、当該推定された傾きを表す情報を出力させることを特徴としている。 Furthermore, a program according to another aspect of the present invention causes a computer to execute a plurality of detection procedures for detecting an object from given image data by different detection processes, and is detected by each of the plurality of detection procedures. The inclination of the object from the predetermined reference position is estimated based on the difference between the detection results of the objects, and information representing the estimated inclination is output.
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置は、図1に例示するように、撮像部11、制御部12、記憶部13、及び出力部14を含んで構成される。
Embodiments of the present invention will be described with reference to the drawings. The image processing apparatus according to the embodiment of the present invention includes an
撮像部11は、CCD等の撮像素子を含み、撮像素子にて撮像した画像のデータを制御部12に出力する。制御部12は、CPU等のプログラム制御デバイスであり、記憶部13に格納されているプログラムに従って動作する。この制御部12は、撮像部11から入力される画像データを処理の対象として、互いに異なる複数の検出処理によって対象物を検出し、各検出処理の結果の差に基づいて、対象物の所定基準位置からの傾きを推定する処理を行う。この処理については後に詳しく述べる。
The
記憶部13は、RAMやROM等の記憶素子やハードディスク等を含んで構成される。この記憶部13には、制御部12によって実行されるプログラムが格納されている。また、この記憶部13は、制御部12のワークメモリとしても動作する。
The
出力部14は、制御部12が推定した対象物の傾きの情報を出力する。この出力部14は、例えばディスプレイ装置であり、対象物の傾きの情報を表示出力する。また、別の例では、この出力部14は、データロガーであり、制御部12が対象物の傾きの推定結果を出力するごとに、そのタイミングで、図示しない時計部(カレンダチップなど)から日時の情報を取得し、当該日時の情報と推定結果を表す情報とを記憶部13に蓄積して格納する。
The
ここで本実施の形態の制御部12の具体的な処理の内容について説明する。本実施の形態の制御部12は、撮像部11にて撮像された画像データから対象物として、人物の顔部分を検出し、その人物の顔が、撮像部11に対して正面向きを基準位置として、左右方向へどの程度傾いているか(首を振っているか)を検出する。
Here, the content of the specific process of the
具体的な例として、制御部12の実行する処理により、本実施の形態の画像処理装置は、機能的に、図2に示すように、画像変換部21と、第1顔特定処理部22と、第2顔特定処理部23と、傾き判定部24とを含んで構成される。
As a specific example, the processing performed by the
画像変換部21は、撮像部11から入力される画像データを処理対象として、当該画像データをグレイスケールの画像データに変換して、第1顔特定処理部22に出力する。またこの画像変換部21は、処理対象となった画像データを色相の成分を含む色空間の画像データ(色相データ)に変換して、第2顔特定処理部23に出力する。
The
なお、本実施の形態では、第1顔特定処理部22が対象物の輪郭ないし、対象物上の特徴部分の輪郭に基づいて対象物を検出するのに対し、第2顔特定処理部23は、対象物の色によって対象物を検出する。
In the present embodiment, the first face
つまり、第1顔特定処理部22は、グレイスケールの画像データから明暗のパターンを用いて顔部分を特定する処理を実行する。この処理は、予めサンプルとなる顔画像を学習して得られたデータベースを用い、画像データ中の顔部分を認識するパターンマッチングの方法を採用し得る。ここでは、たとえば、Rotation Invariant NeuralNetwork-Based Face Detection, H.A. Rowley, S. Baluja, and T. Kanade,Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,1998, pp.38-44などを用いればよい。
In other words, the first face
また第1顔特定処理部22は、認識した顔部分の画像からさらに所定の顔部品(目、鼻、口など)に関わる座標の情報を出力する。この座標の情報としては、例えば両目の中間点などがある。第1顔特定処理部22は、この座標の情報を第1基準点情報として傾き判定部24に出力する。
Further, the first face
なお、第1顔特定処理部22が、顔部分や、顔部品の位置を検出する方法は、パターンマッチングの手法を用いる方法に限られず、第1顔特定処理部22は、画素の濃淡値の縦、横、右斜め、左斜めといった四方向のエッジ勾配の情報を用いる、四方向面特徴を用いた検出方法を用いて、顔部分や顔部品などの位置を検出することとしてもよい。
Note that the method by which the first face
さらに、第1顔特定処理部22は、顔領域の基準点として、上述のように顔部品に基づく位置に代えて、顔部分に外接する矩形領域の座標情報を用い、当該矩形領域内の所定位置(例えば矩形領域内の中心座標、または矩形領域の上辺から矩形領域高さの1/4の位置で、かつ左右の中心位置など)を基準点として定め、当該基準点を表す第1基準点情報を傾き判定部24に出力してもよい。
Further, the first face
第2顔特定処理部23は、画像変換部21が出力する色相データのうち、予め顔部分の色相(肌色の色相)として定められている色相となっている部分を特定する。具体的な処理の例は次のようになる。すなわち、予め複数の人物の顔画像から得られた肌の色の情報から、肌の色とされる色相のヒストグラム(肌色ヒストグラム)を生成して記憶部13に格納しておく。そして色相データの各画素について、当該画素の色相に対応する肌色ヒストグラムにおける頻度値を関連づける。そして色相データに対応する頻度値のマップを得る。この頻度値のマップは、肌色らしさを表す2次元のマップとなる。次に、頻度値のマップのうち、予め定めたしきい値以上の頻度値となっている領域を顔領域として抽出する。また、この抽出した顔領域から、肌色の重心(頻度値を、座標値(ベクトル値)に乗じて得たベクトル値を総和し、総和に係る画素数で除したベクトル値)を演算し、その演算結果を、第2基準点情報として傾き判定部24に出力する。
The second face
なお、ここでは肌色ヒストグラムを予め生成しておく場合を例としたが、肌の色の個人差が大きいことに配慮し、第1顔特定処理部22にて特定した顔部分に対応する画素値(色相データの画素値)を用いて肌色ヒストグラムを生成してもよい。この場合、第1顔特定処理部22における顔検出の精度に配慮して、検出した顔部分の輪郭線を所定画素数ずつ外側(顔から外側)へ拡張して、当該拡張した領域に対応する画素値を用いて肌色ヒストグラムを生成してもよい。
Here, the case where the skin color histogram is generated in advance is taken as an example. However, the pixel value corresponding to the face portion specified by the first face specifying
傾き判定部24は、第1顔特定処理部22が出力する第1基準点情報と、第2顔特定処理部23が出力する第2基準点情報とを用いて撮像された人物の顔の向きを判定する。すなわちここでは第1顔特定処理部22が顔そのものや、顔部品の輪郭から定められる第1基準点情報を出力し、第2顔特定処理部23が顔の色に基づく顔の中心の座標を表す第2基準点情報を出力している。
The
そこで傾き判定部24は、これら第1基準点情報が表す座標と、第2基準点情報が表す座標との差(相対情報)を用いて傾きを演算する。すなわち、目の間の中心位置Pは例えば図3に示すように首の角度が左右方向に変化したときに、当該首の向きの方向へ移動するのに対し、顔の色の重心Qは、その水平方向の位置は、顔が正面(撮像部11の方向)を向いているときには、目の間の中心位置の水平方向の位置と大きく変わらないが、首が左右に振れるに従って、目の間の中心位置から水平方向にずれていくと推定される。
Therefore, the
同様に、首の方向が上下方向に変化したときにも、これら第1基準点情報と第2基準点情報とが表す各座標位置の垂直方向のずれも併せて変化することになると推定される。 Similarly, when the direction of the neck changes in the vertical direction, it is estimated that the vertical shift of each coordinate position represented by the first reference point information and the second reference point information also changes. .
そこで、本実施の形態では、予め顔の傾き(例えば左右方向角度)と、上記相対情報との相関関数を実験的に得ておく。この相関関数は、複数のサンプルについて測定した結果を多項式で近似し、その多項式の係数を最小自乗法で最適化する方法によって得てもよいし、ニューラルネットワークなどの機械学習の方式を用いてもよい。 Therefore, in the present embodiment, a correlation function between the inclination of the face (for example, the horizontal angle) and the relative information is experimentally obtained in advance. This correlation function may be obtained by approximating the results measured for a plurality of samples with a polynomial and optimizing the coefficients of the polynomial by the method of least squares, or by using a machine learning method such as a neural network. Good.
例えば、第1基準点情報と第2基準点情報とが表す各座標位置の水平方向の差(左右方向の相対情報)に対する左右方向の顔の傾きを表す角度の値とを実験的に定めた例を図4に示す。図4においては、実際に顔の角度を5度ごとに変えたときの左右方向の相対情報を、複数のサンプルを用いて測定し、各角度での平均値を塗りつぶした四角で表し、各角度での測定結果の分散から推定される誤差範囲をバーで表す。また、これらの情報を直線で近似した結果を、実線で示している。なお、直線で近似するのではなく、より高次の多項式で近似し、または折れ線で近似して相関関数を得てもよい。 For example, the angle value representing the tilt of the face in the left-right direction with respect to the horizontal difference (relative information in the left-right direction) of each coordinate position represented by the first reference point information and the second reference point information was experimentally determined. An example is shown in FIG. In FIG. 4, the relative information in the left-right direction when the face angle is actually changed every 5 degrees is measured using a plurality of samples, and the average value at each angle is represented by a filled square. The error range estimated from the variance of the measurement results at is represented by a bar. The result of approximating these pieces of information with a straight line is shown by a solid line. Instead of approximating with a straight line, a correlation function may be obtained by approximating with a higher order polynomial or approximating with a polygonal line.
傾き判定部24は、第1顔特定処理部22が出力する第1基準点情報と、第2顔特定処理部23が出力する第2基準点情報との差を演算し、当該演算で得られた相対情報に対応する傾き角度の値を実験的に得られた相関関数によって求める。そして、当該求めた傾き角度の値を出力する。
The
なお相対情報を演算する際は、例えば第1基準点情報と第2基準点情報との水平方向の座標値の差から得られる首の左右方向の傾きを表す相対情報(水平相対情報)と、第1基準点情報と第2基準点情報との垂直方向の座標値の差から得られる首の上下方向の傾きを表す相対情報(垂直相対情報)とを個別に演算し、これらの水平相対情報と垂直相対情報とのそれぞれについて予め実験的に得ておいた相関関数(それぞれ水平相関関数、垂直相関関数と呼ぶ)を用いて、水平方向の顔の傾き(首振りの角度)と、垂直方向の顔の傾きとを個別に求めてもよい。 Note that when calculating the relative information, for example, relative information (horizontal relative information) indicating the horizontal tilt of the neck obtained from the difference in the horizontal coordinate values between the first reference point information and the second reference point information, Relative information (vertical relative information) representing the vertical tilt of the neck obtained from the difference in vertical coordinate values between the first reference point information and the second reference point information is individually calculated, and the horizontal relative information is obtained. Using the correlation function (each called horizontal correlation function and vertical correlation function) obtained experimentally in advance for each of the vertical relative information and the vertical relative information, the horizontal face inclination (swing angle) and the vertical direction The face inclination may be obtained individually.
本実施の形態によると、撮像部11にて人物が撮像されると、制御部12が、その顔のうち、特徴部分である2つの目の輪郭を検出し、左目と右目の中心点の座標を表す第1基準点情報を生成し、また、予め定められた肌色ヒストグラムを用いて、肌色の重心位置を検出して、当該重心位置を表す第2基準点情報を生成する。そして、これら第1基準点情報と第2基準点情報とがそれぞれ表す座標位置の差(相対情報)を生成する。
According to the present embodiment, when a person is imaged by the
また制御部12は、予め相対情報と、顔の角度の情報とを関連づける相関関数を実験的に決定して記憶しており、この相関関数を用いて、生成した相対情報に対応する顔の角度の情報を取得する。そして、当該取得した顔の角度の情報を出力する。
In addition, the
これにより例えば、店舗内の商品陳列棚に撮像部11を配置しておけば、陳列された商品の位置との関係によって顧客がどの商品に注目したかを知ることができる。本実施の形態では、連続的な角度の値が検出されるため、どの商品に注目しているかの検出の精度を向上できる。また、本実施の形態のように顔の角度の検出に用いる場合、照明の向きが変化しても、顔の角度を安定的に検出でき、ロバスト性を向上できる。
Thus, for example, if the
また、実際のセールスの結果をPOS(ポイントオブセールス)などから取得して比較することで、注目しているが売れていない商品や、注目はされないが売れている商品などといった分類をすることもできる。 In addition, by acquiring and comparing actual sales results from POS (Point of Sales), etc., it is possible to classify products that are attracting attention but not sold, and products that are not attracting attention but are sold. it can.
さらに、顔の画像から例えば四方向面特徴から得られる顔部品間の相対位置から人物の性別や年齢といった属性を判定して、検出結果に併せて記録することで、どのような性別、年齢層の人物がどのような商品に注目するかなどの統計処理に供することができる。 Furthermore, by determining attributes such as the gender and age of a person from the relative position between facial parts obtained from, for example, four-way surface features from the face image and recording it together with the detection result, what gender and age group It can be used for statistical processing such as what kind of products the person of interest pays attention to.
なお、ここまでの説明では、対象物として人物の顔を例として説明したが、例えば自動車の向きなども同様にして推定することができる。例えば、画像データのエッジから車の輪郭を取得するとともに、別途、ヘッドライトの位置を検出し、これらの輪郭とヘッドライトの位置との検出結果の差から車の進行方向を推定するなどの処理を行うことができる。 In the above description, the face of a person is described as an example of the target object. However, for example, the direction of a car can be estimated in the same manner. For example, the vehicle contour is obtained from the edge of the image data, and the position of the headlight is separately detected, and the traveling direction of the vehicle is estimated from the difference in the detection result between the contour and the headlight position. It can be performed.
本実施の形態によると、複数の検出方法による検出結果間の関係と、対象物の傾きとの間に相関があることに着目して、相関関係を表す相関関数を推定して当該相関関数によって対象物の傾きを推定するので、傾きを連続的な値として検出でき、利用分野を拡大できる。 According to the present embodiment, paying attention to the fact that there is a correlation between the relationship between the detection results by the plurality of detection methods and the inclination of the object, the correlation function representing the correlation is estimated and the correlation function is used. Since the inclination of the object is estimated, the inclination can be detected as a continuous value, and the field of use can be expanded.
11 撮像部、12 制御部、13 記憶部、14 出力部、21 画像変換部、22 第1顔特定処理部、23 第2顔特定処理部、24 傾き判定部。
DESCRIPTION OF
Claims (4)
前記複数の検出手段の各々によって検出された対象物の検出結果の差に基づいて、前記対象物の所定基準位置からの傾きを推定する傾き推定手段と、
を含み、
前記推定された傾きを表す情報を所定処理に供することを特徴とする画像処理装置。 A plurality of detection means for detecting an object from given image data by different detection processes;
An inclination estimation means for estimating an inclination of the object from a predetermined reference position based on a difference in detection results of the object detected by each of the plurality of detection means;
Including
An image processing apparatus characterized in that information representing the estimated inclination is subjected to a predetermined process.
前記対象物は、人物の顔であることを特徴とする画像処理装置。 The image processing apparatus according to claim 1,
The image processing apparatus according to claim 1, wherein the object is a human face.
前記複数の検出手段の各々によって検出された対象物の検出結果の差を特定する工程と、
前記特定された差から対象物の所定基準位置からの傾きを推定する工程と、
を実行し前記推定された傾きを表す情報を所定処理に供することを特徴とする画像処理方法。 Using a plurality of detection means for detecting an object from given image data by different detection processes,
Identifying a difference in detection results of the object detected by each of the plurality of detection means;
Estimating an inclination of the object from a predetermined reference position from the identified difference;
The image processing method is characterized in that the information representing the estimated inclination is executed for a predetermined process.
所与の画像データから、互いに異なる検出処理によって対象物を検出する複数の検出手順を実行させ、
前記複数の検出手順の各々によって検出された対象物の検出結果の差に基づいて、前記対象物の所定基準位置からの傾きを推定させて、当該推定された傾きを表す情報を出力させることを特徴とするプログラム。
On the computer,
A plurality of detection procedures for detecting an object from given image data by different detection processes;
Estimating the inclination of the object from a predetermined reference position based on a difference in detection results of the object detected by each of the plurality of detection procedures, and outputting information representing the estimated inclination. A featured program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006060263A JP2007241477A (en) | 2006-03-06 | 2006-03-06 | Image processor |
US11/508,317 US20070206093A1 (en) | 2006-03-06 | 2006-08-23 | Image processing apparatus, method for image processing, computer readable medium, and computer data signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006060263A JP2007241477A (en) | 2006-03-06 | 2006-03-06 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007241477A true JP2007241477A (en) | 2007-09-20 |
Family
ID=38471102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006060263A Pending JP2007241477A (en) | 2006-03-06 | 2006-03-06 | Image processor |
Country Status (2)
Country | Link |
---|---|
US (1) | US20070206093A1 (en) |
JP (1) | JP2007241477A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018128895A (en) * | 2017-02-09 | 2018-08-16 | 富士電機機器制御株式会社 | Support system, support apparatus, support method, and program |
WO2018235628A1 (en) * | 2017-06-23 | 2018-12-27 | オムロン株式会社 | Monitoring assistance system, control method therefor, and program |
WO2019003859A1 (en) * | 2017-06-27 | 2019-01-03 | オムロン株式会社 | Monitoring system, control method therefor, and program |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4458131B2 (en) | 2007-08-23 | 2010-04-28 | ソニー株式会社 | Image imaging apparatus and imaging method |
JP4458151B2 (en) | 2007-11-06 | 2010-04-28 | ソニー株式会社 | Automatic imaging apparatus, automatic imaging control method, image display system, image display method, display control apparatus, display control method |
JP5935308B2 (en) | 2011-12-13 | 2016-06-15 | 富士通株式会社 | User detection device, method and program |
JP6265640B2 (en) * | 2013-07-18 | 2018-01-24 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60217470A (en) * | 1984-04-13 | 1985-10-31 | Hitachi Ltd | System for estimating shape of cube from image pickup object picture |
JP3143038B2 (en) * | 1994-11-18 | 2001-03-07 | 株式会社日立製作所 | Automatic focusing method and apparatus, and three-dimensional shape detection method and apparatus |
WO1997047943A1 (en) * | 1996-06-14 | 1997-12-18 | Kabushiki Kaisya Saginomiya Seisakusyo | Wheel alignment measuring instrument and wheel alignment measuring |
JP3533308B2 (en) * | 1997-02-10 | 2004-05-31 | 株式会社ニデック | Ophthalmic equipment |
US7298412B2 (en) * | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
-
2006
- 2006-03-06 JP JP2006060263A patent/JP2007241477A/en active Pending
- 2006-08-23 US US11/508,317 patent/US20070206093A1/en not_active Abandoned
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018128895A (en) * | 2017-02-09 | 2018-08-16 | 富士電機機器制御株式会社 | Support system, support apparatus, support method, and program |
JP7011801B2 (en) | 2017-02-09 | 2022-01-27 | 株式会社アットソリューションズ | Support systems, support devices, support methods and programs |
WO2018235628A1 (en) * | 2017-06-23 | 2018-12-27 | オムロン株式会社 | Monitoring assistance system, control method therefor, and program |
JP2019008515A (en) * | 2017-06-23 | 2019-01-17 | オムロン株式会社 | Watching support system and method for controlling the same |
WO2019003859A1 (en) * | 2017-06-27 | 2019-01-03 | オムロン株式会社 | Monitoring system, control method therefor, and program |
JP2019008638A (en) * | 2017-06-27 | 2019-01-17 | オムロン株式会社 | Watching support system and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
US20070206093A1 (en) | 2007-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210191524A1 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP6525453B2 (en) | Object position estimation system and program thereof | |
KR102109941B1 (en) | Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP5812599B2 (en) | Information processing method and apparatus | |
US9881204B2 (en) | Method for determining authenticity of a three-dimensional object | |
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
JP5493108B2 (en) | Human body identification method and human body identification device using range image camera | |
US20230410321A1 (en) | Information processing apparatus, control method, and program | |
JP2004054376A (en) | Method and device for estimating group attribute | |
US10063843B2 (en) | Image processing apparatus and image processing method for estimating three-dimensional position of object in image | |
JP2007241477A (en) | Image processor | |
JP2007042072A (en) | Tracking apparatus | |
EP3241151A1 (en) | An image face processing method and apparatus | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
KR20100138202A (en) | System and method of tracking object using different kind camera | |
JP6410450B2 (en) | Object identification device, object identification method, and program | |
CN101383005A (en) | Method for separating passenger target image and background by auxiliary regular veins | |
CN108369739B (en) | Object detection device and object detection method | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
JP2010039617A (en) | Object tracking device and program | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
JP6221283B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6606340B2 (en) | Image detection apparatus, image detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071113 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071115 |