JP2015510169A - Feature improvement by contrast improvement and optical imaging for object detection - Google Patents
Feature improvement by contrast improvement and optical imaging for object detection Download PDFInfo
- Publication number
- JP2015510169A JP2015510169A JP2014552391A JP2014552391A JP2015510169A JP 2015510169 A JP2015510169 A JP 2015510169A JP 2014552391 A JP2014552391 A JP 2014552391A JP 2014552391 A JP2014552391 A JP 2014552391A JP 2015510169 A JP2015510169 A JP 2015510169A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- light source
- field
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
画像内において見えている背景面と物体との間の改善されたコントラストは、物体に向けられて制御された照明の使用によって与えられる。距離による光強度の減衰を利用するべく、例えば赤外光源などの光源(または複数の光源)は、(複数の)カメラが画像を撮像する間に物体に光を当てるために、1以上のカメラの近くに配置され得る。撮像された画像は、背景画素から物体画素を区別する解析が可能である。【選択図】 図11Improved contrast between the background surface visible in the image and the object is given by the use of controlled illumination directed at the object. To take advantage of the attenuation of light intensity with distance, a light source (or multiple light sources), such as an infrared light source, can be used to illuminate an object while the camera (s) capture an image. Can be placed near. The captured image can be analyzed to distinguish object pixels from background pixels. [Selection] FIG.
Description
本出願は、2012年11月8日に出願された米国シリアル番号第61/724068について優先権を主張するともに利益を得るものであり、当該出願の開示全体が参照として本明細書に援用される。さらに、本出願は、米国特許出願番号第13/414485(2012年3月7日出願)及び第13/724357(2012年12月21日出願)の優先権を主張し、米国仮特許出願番号第61/724091(2012年11月8日出願)及び第61/587554(2012年1月17日出願)についても優先権及び利益を主張するものである。これらの出願は、その全体が参照として本明細書に援用される。 This application claims and benefits from US Serial No. 61 / 724,068 filed Nov. 8, 2012, the entire disclosure of which is incorporated herein by reference. . In addition, this application claims priority to US patent application Ser. Nos. 13/414485 (filed Mar. 7, 2012) and 13/724357 (filed Dec. 21, 2012). No. 61/724091 (filed on Nov. 8, 2012) and 61/588554 (filed on Jan. 17, 2012) also claim priority and benefit. These applications are hereby incorporated by reference in their entirety.
本出願は、撮像システム、特に、三次元(3D)物体検出、追跡及び光学画像化を用いた特徴評価に関する。 The present application relates to imaging systems, and in particular to feature evaluation using three-dimensional (3D) object detection, tracking and optical imaging.
モーションキャプチャシステムは、人間の手や人体などの関節部を有する物体を含む様々な物体の動きや構造に関する情報を取得するための、様々な場面で使用されている。このようなシステムには、一般的に、物体の体積、位置及び動きの再構成を成すための画像を解析するコンピュータや、動体の一連の画像を撮像するためのカメラが含まれる。3Dモーションキャプチャには、少なくとも2つのカメラが典型的に使用される。 The motion capture system is used in various scenes for acquiring information on the movement and structure of various objects including objects having joint portions such as human hands and human bodies. Such systems typically include a computer that analyzes images to reconstruct the volume, position, and motion of an object, and a camera that captures a series of images of moving objects. At least two cameras are typically used for 3D motion capture.
画像によるモーションキャプチャシステムは、背景から対象の物体を区別する能力に依存する。これは、しばしば、エッジを検出する(典型的には、画素の比較によって色及び/または輝度の急激な変化を検出する)画像解析アルゴリズムを用いることで、実現される。しかしながら、このような従来のシステムは、例えば、背景における対象の物体と背景及び/または背景のパターンとの間のコントラストが低く物体のエッジとして誤って検出され得る場合など、多くの一般的な状況下において性能が低下する。 Image motion capture systems rely on the ability to distinguish the object of interest from the background. This is often accomplished by using an image analysis algorithm that detects edges (typically detecting sudden changes in color and / or brightness by pixel comparison). However, such conventional systems have many common situations, for example, when the contrast between the object of interest in the background and the background and / or background pattern is low and can be erroneously detected as the edge of the object. Under performance will decrease.
場合によっては、例えば、動きの実行中において人が反射材や発光源のメッシュ等を着ているようにするなど、対象の物体の「道具化(instrumenting)」によって、物体と背景との区別を促進することができる。特別な照明条件(例えば、微光)は、画像内における反射材や光源を目立たせるために使用することができる。しかしながら、対象の道具化は、必ずしも便利または望ましい選択肢ではない。 In some cases, for example, a person is wearing a reflector or a light source mesh while performing a movement, such as “instrumenting” the target object to distinguish between the object and the background. Can be promoted. Special illumination conditions (e.g., low light) can be used to make the reflectors and light sources stand out in the image. However, subject instrumentation is not always a convenient or desirable option.
本発明のある実施形態は、使用する画像内において見えている背景面と物体との間のコントラストの改善により、物体認識を向上させる撮像システムに関する。これは、例えば、物体に向けられる照明の制御手段によって達成され得る。例えば、どの背景面よりもカメラに著しく近い人の手などを対象の物体とするモーションキャプチャシステムでは、距離に対する光強度の減衰(点状光源では1/r2)が、(複数の)カメラまたは他の(複数の)撮像装置の近くの光源(または複数の光源)の配置及び物体上の光の照射によって生かされる。対象の物体の近くで反射された光源光は、より遠くの背景面及び(物体と比較して)より遠くの背景からの反射光よりも非常に明るくなると予測することができ、より顕著な効果が生じ得る。したがって、いくつかの実施形態において、撮像画像内の画素の輝度に対するカットオフ閾値を、「背景」画素から「物体」画素を区別するために用いることができる。広帯域の環境光源を用いることができるが、様々な実施形態では、限定的な波長範囲の光と、そのような光を検出するよう適合したカメラが用いられる。例えば、赤外光源の光は、赤外周波数を感知する1以上のカメラとともに使用され得る。 An embodiment of the present invention relates to an imaging system that improves object recognition by improving the contrast between a background surface visible in the image used and the object. This can be achieved, for example, by means of control of the illumination directed at the object. For example, in a motion capture system that targets an object such as a human hand that is significantly closer to the camera than any background surface, the attenuation of light intensity with respect to distance (1 / r 2 for a point light source) Utilized by the arrangement of the light source (or light sources) in the vicinity of the other imaging device (s) and the illumination of light on the object. Source light reflected near the object of interest can be expected to be much brighter than reflected light from farther backgrounds and farther backgrounds (compared to objects), more pronounced effect Can occur. Thus, in some embodiments, a cut-off threshold for the luminance of pixels in the captured image can be used to distinguish “object” pixels from “background” pixels. While a broadband ambient light source can be used, in various embodiments, a limited wavelength range of light and a camera adapted to detect such light are used. For example, light from an infrared light source can be used with one or more cameras that sense infrared frequencies.
したがって、第1の態様において、本発明は、デジタルで表示された画像シーンの中から対象の物体を識別するための画像撮像解析システムに関する。様々な実施形態において、前記システムは、視野に向けられた少なくとも1つのカメラと、前記カメラと同じ前記視野側に配置されて前記視野を照明するように向けられた少なくとも1つの光源と、前記カメラ及び(複数の)前記光源と結合された画像解析装置と、を備える。前記画像解析装置は、(複数の)前記光源が前記視野を照明すると同時に撮像される第1画像を含む、一連の画像を撮像するために(複数の)前記カメラを動作させ、背景ではなく前記物体に対応する画素を識別し、識別された画素に基づき、前記物体の位置及び形状を含む前記物体の3Dモデルを構築して、それが対象の前記物体に対応するか否かを幾何学的に決定するように構成され得る。ある実施形態では、前記画像解析装置は、(i)前記視野の近接領域内に位置する前記物体に対応する前景画像成分と、(ii)前記視野の遠隔領域内に位置する前記物体に対応する背景画像成分と、を区別するものであり、前記近接領域は、(複数の)前記カメラから広がるとともに、(複数の)前記カメラと前記前景画像成分に対応する前記物体との間の予測最大距離の少なくとも2倍となる奥行を有し、前記遠隔領域は、少なくとも1つの前記カメラに対して前記近接領域を越えた位置に存在している。例えば、前記近接領域が前記予測最大距離の少なくとも4倍となる奥行を有していてもよい。 Accordingly, in a first aspect, the present invention relates to an image capturing and analyzing system for identifying a target object from a digitally displayed image scene. In various embodiments, the system includes at least one camera directed to a field of view, at least one light source disposed on the same field side as the camera and directed to illuminate the field of view, and the camera And an image analysis device coupled to the light source (s). The image analysis device operates the camera (s) to capture a series of images, including a first image captured at the same time as the light source (s) illuminate the field of view, and not the background Identify a pixel corresponding to the object, and build a 3D model of the object including the position and shape of the object based on the identified pixel and determine whether it corresponds to the object of interest Can be configured to determine. In one embodiment, the image analysis device corresponds to (i) a foreground image component corresponding to the object located in a near region of the field of view, and (ii) corresponding to the object located in a remote region of the field of view. And the proximity region extends from the camera (s) and the predicted maximum distance between the camera (s) and the object corresponding to the foreground image component The remote area exists at a position beyond the proximity area with respect to at least one of the cameras. For example, the proximity region may have a depth that is at least four times the predicted maximum distance.
他の実施形態では、前記画像解析装置は、(複数の)前記光源が前記視野を照明していない時に(複数の)前記カメラを動作させて第2及び第3画像を撮像するとともに、前記第1及び第2画像の差分と前記第1及び第3画像の差分とに基づいて前記物体に対応する画素を識別するものであり、前記第2画像は前記第1画像の前に撮像され、前記第3画像は前記第2画像の後に撮像される。 In another embodiment, the image analysis apparatus operates the camera (s) to capture the second and third images when the light source (s) are not illuminating the field of view, Identifying a pixel corresponding to the object based on a difference between the first and second images and a difference between the first and third images, the second image being captured before the first image, The third image is captured after the second image.
例えば、(複数の)前記光源は、拡散出射体(例えば、赤外発光ダイオードであって、この場合は(複数の)前記カメラは赤外感知カメラである)であってもよい。2以上の前記光源が、(複数の)前記カメラに隣接し、これらが実質的に同一平面内に存在してもよい。様々な実施形態において、(複数の)前記カメラと(複数の)前記光源とが鉛直上方を向いている。コントラストを改善するために、前記カメラは、露光時間が100マイクロ秒と同程度となるように動作し、(複数の)前記光源は、露光時間の間に少なくとも5ワットの電力レベルで駆動されるようにしてもよい。ある実装では、ホログラフィック回折格子が、それぞれの前記カメラのレンズと前記視野との間(即ち、前記カメラのレンズの前)に配置される。 For example, the light source (s) may be a diffuse emitter (eg, an infrared light emitting diode, in which case the camera (s) is an infrared sensitive camera). Two or more of the light sources may be adjacent to the camera (s) and they may be substantially in the same plane. In various embodiments, the camera (s) and the light source (s) are pointing vertically upward. To improve contrast, the camera is operated such that the exposure time is as high as 100 microseconds, and the light source (s) are driven at a power level of at least 5 watts during the exposure time. You may do it. In one implementation, a holographic diffraction grating is placed between each camera lens and the field of view (ie, in front of the camera lens).
画像解析装置は、候補物体を容量分析的に定義する楕円の識別と、楕円に基づく定義に対して幾何学的に矛盾する物体セグメントの破棄と、候補物体が対象の物体に対応するか否かについての楕円に基づく決定と、によって、ある物体が対象の物体に対応するか否かを幾何学的に決定し得る。 The image analysis device identifies the ellipse that defines the candidate object in terms of volumetric analysis, discards the object segment that is geometrically inconsistent with the definition based on the ellipse, and whether the candidate object corresponds to the target object. With an ellipse-based decision on, it can be determined geometrically whether an object corresponds to the object of interest.
別の態様において、本発明は、画像撮像解析方法に関する。様々な実施形態において、前記方法は、対象の物体を含む視野を照明する少なくとも1つの光源の駆動と、(複数の)前記光源の駆動と同時にカメラ(または、複数のカメラ)を使用することによる、前記視野の一連のデジタル画像の撮像と、背景ではなく前記物体に対応する画素の識別と、のステップを備え、識別された画素に基づき、前記物体の位置及び形状を含む前記物体の3Dモデルを構築して、それが対象の前記物体に対応するか否かを幾何学的に決定する。 In another aspect, the present invention relates to an image capturing analysis method. In various embodiments, the method is by driving at least one light source that illuminates a field of view containing the object of interest, and using the camera (or cameras) simultaneously with driving the light source (s). Imaging a series of digital images of the field of view and identifying pixels corresponding to the object rather than the background, and based on the identified pixels, a 3D model of the object including the position and shape of the object And geometrically determine whether it corresponds to the object of interest.
(複数の)前記光源は、対象の前記物体が近接領域内に位置するように配置してもよく、前記近接領域は、前記カメラから、前記カメラと対象の前記物体との間の予測最大距離の少なくとも2倍となる距離まで広がる。例えば、前記近接領域が前記予測最大距離の少なくとも4倍となる奥行を有していてもよい。(複数の)前記光源は、例えば、拡散出射体(例えば、赤外発光ダイオード)としてもよく、この場合、前記カメラは赤外感知カメラである。少なくとも2以上の前記光源が、前記カメラに隣接し、これらが実質的に同一平面内に存在してもよい。様々な実施形態において、前記カメラと(複数の)前記光源とが鉛直上方を向いている。コントラストを改善するために、前記カメラは、露光時間が100マイクロ秒と同程度となるように動作し、(複数の)前記光源は、露光時間の間に少なくとも5ワットの電力レベルで駆動されるようにしてもよい。 The light source (s) may be arranged such that the object of interest is located within a proximity area, the proximity area being a predicted maximum distance between the camera and the object of interest from the camera. It spreads to a distance that is at least twice as long. For example, the proximity region may have a depth that is at least four times the predicted maximum distance. The light source (s) may be, for example, a diffuse emitter (eg, an infrared light emitting diode), in which case the camera is an infrared sensitive camera. At least two or more of the light sources may be adjacent to the camera and they may be substantially in the same plane. In various embodiments, the camera and the light source (s) are pointing vertically upward. To improve contrast, the camera is operated such that the exposure time is as high as 100 microseconds, and the light source (s) are driven at a power level of at least 5 watts during the exposure time. You may do it.
また、物体画素は、(複数の)前記光源が駆動していない時の第1画像と、(複数の)前記光源が駆動している時の第2画像と、(複数の)前記光源が駆動していない時の第3画像と、の撮像によって識別してもよく、前記第2及び第1画像の差分と、前記第2及び第3画像の差分と、に基づいて前記物体に対応する画素が識別される。 Further, the object pixel includes a first image when the light source (s) are not driven, a second image when the light source (s) are driven, and the light source (s) being driven. A pixel corresponding to the object based on the difference between the second and first images and the difference between the second and third images, which may be identified by imaging the third image when not Is identified.
ある物体が対象の物体に対応するか否かについての幾何学的な決定は、候補物体を容量分析的に定義する楕円の識別と、楕円に基づく定義に対して幾何学的に矛盾する物体セグメントの破棄と、候補物体が対象の物体に対応するか否かについての楕円に基づく決定と、から成り得るかこれらを含み得る。 The geometric decision as to whether an object corresponds to the object of interest is the identification of an ellipse that defines the candidate object volumetrically and an object segment that is geometrically inconsistent with the ellipse-based definition , And an ellipse-based decision as to whether the candidate object corresponds to the target object.
さらに別の態様において、本発明は、デジタル画像内における丸形物体の位置決め方法に関する。様々な実施形態において、前記方法は、対象の物体を含む視野を照明する少なくとも1つの光源の駆動と、少なくとも1つの前記光源が前記視野を照明すると同時に撮像される第1画像を含む、一連の画像を撮像するための前記カメラの動作と、前記視野内における丸形物体を示すガウシアン輝度減衰パターンを検出するための前記画像の解析と、のステップを備える。いくつかの実施形態において、前記丸形物体が、そのエッジの識別をすることなく検出される。この方法は、複数の撮像画像を通じて検出された前記丸形物体の動きの追跡を、さらに備えてもよい。 In yet another aspect, the invention relates to a method for positioning a round object in a digital image. In various embodiments, the method includes a series of driving at least one light source that illuminates a field of view that includes the object of interest, and a first image that is imaged at the same time as the at least one light source illuminates the field of view. And a step of operating the camera to capture an image and analyzing the image to detect a Gaussian luminance attenuation pattern indicating a round object in the field of view. In some embodiments, the round object is detected without identifying its edges. The method may further comprise tracking the movement of the round object detected through a plurality of captured images.
別の態様において、本発明は、視野内における丸形物体の位置決めをするための画像撮像解析システムに関する。様々な実施形態において、前記システムは、視野に向けられた少なくとも1つのカメラと、前記カメラと同じ前記視野側に配置されて前記視野を照明するように向けられた少なくとも1つの光源と、前記カメラ及び前記光源と結合された画像解析装置と、を備える。前記画像解析装置は、少なくとも1つの前記光源が前記視野を照明すると同時に撮像される第1画像を含む、一連の画像を撮像するために少なくとも1つの前記カメラを動作させ、前記視野内における丸形物体を示すガウシアン輝度減衰パターンを検出するために前記画像を解析するように、構成され得る。丸形物体は、いくつかの実施形態において、そのエッジの識別をすることなく検出され得る。前記システムは、複数の撮像画像を通じて検出された前記丸形物体の動きを追跡し得る。 In another aspect, the invention relates to an imaging analysis system for positioning a round object in a field of view. In various embodiments, the system includes at least one camera directed to a field of view, at least one light source disposed on the same field side as the camera and directed to illuminate the field of view, and the camera And an image analysis device coupled to the light source. The image analysis device operates at least one of the cameras to capture a series of images, including a first image captured at the same time as at least one of the light sources illuminates the field of view, and has a round shape within the field of view. It may be configured to analyze the image to detect a Gaussian luminance attenuation pattern indicative of the object. A round object may be detected without identifying its edge in some embodiments. The system may track the movement of the round object detected through a plurality of captured images.
本明細書において使用される語句「実質的に」または「およそ」は、±10%(例えば、重量や体積)を意味し、いくつかの実施形態では±5%である。語句「基本的に〜から構成される」は、本明細書において他に定義しない限り、機能に寄与する他の材料を含まないことを意味する。本明細書を通じて、「一実施例(one example)」、「実施例(an example)」、「一実施形態(one embodiment)」または「実施形態(an embodiment)」の言及は、その例に関して記載された特定の特徴、構造または特徴が、本技術の少なくとも一例に含まれることを意味する。そのため、本明細書を通じた様々な場所における語句「一実施例では(in one example)」、「実施例では(in an example)」、「一実施形態(one embodiment)」または「実施形態(an embodiment)」の記載は、必ずしも全て同じ例について言及するものではない。さらに、特定の特性、構造、ルーチン、ステップまたは特徴は、本技術の1以上の例において任意の適切な方法で組み合わせることができる。本明細書で定義されている見出しは、単なる便宜上のものであって、特許請求する技術の範囲または意味を限定または解釈を意図したものではない。 The phrase “substantially” or “approximately” as used herein means ± 10% (eg, weight or volume), and in some embodiments ± 5%. The phrase “consisting essentially of” means that it does not include other materials that contribute to function unless otherwise defined herein. Throughout this specification, references to “one example”, “an example”, “one embodiment”, or “an embodiment” are described with respect to that example. The particular feature, structure or feature made is meant to be included in at least one example of the present technology. As such, the phrases “in one example”, “in an example”, “one embodiment” or “an embodiment” in various places throughout this specification. The description of embodiment) ”does not necessarily refer to the same example. Furthermore, the particular features, structures, routines, steps or characteristics may be combined in any suitable manner in one or more examples of the technology. The headings defined herein are for convenience only and are not intended to limit or interpret the scope or meaning of the claimed technology.
添付の図面と共に以下の詳細な説明は、本発明の性質及び利点のより良い理解を提供するであろう。 The following detailed description in conjunction with the accompanying drawings will provide a better understanding of the nature and advantages of the present invention.
本発明の実施形態に係る画像データを撮像するシステム100を示す図1を、最初に参照する。システム100は、画像解析システム106に結合された一対のカメラ102,104を備える。カメラ102,104は、可視スペクトルの全域を感知するカメラや、より典型的には、限定的な波長帯域(例えば、赤外(IR)や紫外帯域)の感度が強化されたカメラを含む、どのようなタイプのカメラであってもよい。より一般的に、本明細書における語句「カメラ」は、物体の画像を撮像して当該画像をデジタルデータの形式で表示することが可能な任意の装置(または装置の組み合わせ)を指す。例えば、二次元(2D)画像を撮像する従来の装置ではなく、ラインセンサやラインカメラを用いてもよい。語句「光」は、可視スペクトルの範囲内であってもそうでなくてもよく、広帯域(例えば、白色光)または狭帯域(例えば、単一波長または狭い波長帯)であってもよい、いかなる電磁的な出射をも含意するものとして、一般的に使用される。
Reference is first made to FIG. 1 illustrating a
デジタルカメラの心臓部は、感光性画像素子(画素)のグリッドを含むイメージセンサである。レンズがイメージセンサの表面に光を集光し、画素に様々な強度の光が当たることで画像が形成される。各画素は、検出された光の強度を反映した大きさの電荷へと光を変換するとともに、測定可能なように当該電荷を収集する。CCD及びCMOSイメージセンサのいずれもがこれと同じ機能を果たすが、信号の測定及び伝達方法が異なる。 The heart of a digital camera is an image sensor that includes a grid of photosensitive image elements (pixels). The lens condenses light on the surface of the image sensor, and an image is formed when light of various intensities hits the pixels. Each pixel converts the light into a charge that reflects the detected light intensity and collects the charge so that it can be measured. Both CCD and CMOS image sensors perform the same function, but differ in signal measurement and transmission methods.
CCDでは、各画素からの電荷が、測定可能な電圧へと電荷を変換する単一の構造へと搬送される。これは、測定構造に到達するまで、行毎及び列毎の「バケツリレー」方式により、各画素がその隣接する画素に電荷を順次移動させることによって行われる。これとは対照的に、CMOSセンサは、各画素の位置に測定構造を配置される。測定結果は、それぞれの位置からセンサの出力へと直接的に転送される。 In a CCD, the charge from each pixel is conveyed to a single structure that converts the charge to a measurable voltage. This is done by each pixel moving its charge sequentially to its neighboring pixels in a “bucket relay” manner for each row and column until the measurement structure is reached. In contrast, a CMOS sensor has a measurement structure at each pixel location. The measurement results are transferred directly from each position to the sensor output.
カメラ102,104は、ビデオ画像(即ち、少なくとも毎秒15フレームの一定レートである一連の画像フレーム)の撮像が可能であると好ましいが、特定のフレームレートが必要というわけではない。カメラ102,104の機能は本発明にとって重要ではなく、当該カメラは、フレームレート、画像解像度(例えば、画像あたりの画素数)、色または強度分解能(例えば、画素当たりの強度データのビット数)、レンズの焦点距離、被写界深度などについて様々であり得る。一般的に、特定の用途のために、対象の空間体積内の物体に焦点を合わせることが可能な任意のカメラが使用され得る。例えば、他の部分が静止している人の手の動きを撮像するために、対象の体積は、一辺がおよそ1メートルの立方体であると定義され得る。
Although the
システム100は、カメラ102,104の両側に配置されるとともに画像解析システム106に制御される一対の光源108,110を、さらに備える。光源108,110は、一般的な従来の設計である赤外光源、例えば赤外発光ダイオード(LED)であってもよく、カメラ102,104は赤外光を感知可能であってもよい。フィルタ120、122は、可視光を除去して赤外光のみがカメラ102,104によって撮像された画像内に記録されるように、カメラ102,104の前に配置され得る。対象の物体が人の手や体であるいくつかの実施形態では、赤外光の使用によって、モーションキャプチャシステムを広範囲の照明条件下で動作させることを可能にするとともに、様々な不便や人が動く領域内に可視光が入射することに関連し得る妨害を回避することができる。しかし、特定の波長や電磁スペクトルの領域が必要となる。
The
上述の構成は、代表的なものであって限定的なものではないことが、強調されるべきである。例えば、レーザや他の光源を、LEDの代わりに使用することができる。レーザの設定のために、レーザビームを広げる(及びカメラの視野に似た視野を作る)ための追加の光学系(例えば、レンズまたは拡散器)を用いてもよい。有用な構成は、異なる範囲のための短広角照明器をさらに含み得る。光源は、典型的には、鏡面反射性ではなく拡散性の点光源である。例えば、光拡散カプセル化によってパッケージ化されたLEDが適している。 It should be emphasized that the above arrangement is exemplary and not limiting. For example, a laser or other light source can be used in place of the LED. For laser setup, additional optics (eg, a lens or diffuser) may be used to expand the laser beam (and create a field of view similar to that of the camera). Useful configurations may further include short wide angle illuminators for different ranges. The light source is typically a diffusive point source rather than a specular reflection. For example, LEDs packaged by light diffusion encapsulation are suitable.
動作時において、カメラ102、104は、対象の物体114(本例では、手)及び1以上の背景物体116が存在し得る対象の領域112に対して向けられる。光源108,110は、領域112を照射するように配置されている。いくつかの実施形態において、1以上の光源及び1以上のカメラ102,104は、検出される動きの下方(例えば、手の動きが検出される場合、その動きが行われる空間領域の直下)に配置される。手について記録される情報量は、それがカメラ画像内に占める画素数に比例し、手の「指示方向」に対するカメラの角度が可能な限り垂直であれば、当該手がより多くの画素を占めることになるため、上記の位置が最適である。ユーザにとって、スクリーンに対して手のひらを向けることは窮屈であるため、下面から見上げる、上面から見下ろすまたはスクリーンのベゼルから対角線上に見上げるあるいは見下ろす、のいずれかが最適な位置である。見上げる場合、背景物体(例えば、ユーザの机の上の散乱物)との混同の可能性が低くなり、真っすぐに見上げるようにすれば、視野外における他の人との混同の可能性が低くなる(さらには、顔を撮像しないことによってプライバシーが改善される)。例えば、コンピュータシステム等であり得る画像解析システム106は、領域112の画像を撮像するために、光源108,110及びカメラ102,104の動作を制御し得る。この撮像画像に基づいて、画像解析システム106は、物体114の位置及び/または動きを決定する。
In operation, the
例えば、物体114の位置を決定する際のステップとして、画像解析システム106は、物体114の一部を含むカメラ102,104によって撮像された様々な画像の画素を決定し得る。いくつかの実施形態では、画像内の任意の画素が、物体114の一部を含む画素であるか否かに基づいて、「物体」画素または「背景」画素として分類され得る。光源108、110を使用する、物体または背景画素の分類は、画素の輝度に基づいて行われ得る。例えば、対象の物体114及びカメラ102,104の間の距離(rO)は、(複数の)背景物体116及びカメラ102,104の間の距離(rB)よりも小さいことが予想される。光源108、110からの光の強度が1/r2で減少するため、物体114は背景116と比較してより明るく照明され、物体114の一部を含む画素(即ち、物体画素)は、これに対応して背景116の一部を含む画素(即ち、背景画素)よりも明るくなる。例えば、rB/rO=2の場合、物体114及び背景116が光源108,110からの光を同様に反射すると仮定し、さらに領域112の照明全体(少なくともカメラ102,104によって撮像される周波数帯域内)が光源108,110によって支配されていると仮定すると、物体画素は背景画素よりもおよそ4倍明るくなる。これらの仮定は、一般的に、カメラ102、104、光源108、110、フィルタ120,122及び通常遭遇する物体の適切な選択においても保持される。例えば、光源108,110が狭い周波数帯域で放射線の強い出射が可能な赤外LEDになり得るとともに、フィルタ120,122が光源108,110の周波数帯域に合致したものとなり得る。このように、人間の手や体、または背景内における熱源あるいは他の物体が赤外線を出射し得るが、それでもカメラ102,104の反応は、光源108、110に由来するとともに物体114及び/または背景116によって反射された光に支配されたものとなり得る。
For example, as a step in determining the position of the
この構成では、画像解析システム106は、各画素に輝度閾値を適用することによって、迅速かつ正確に背景画素から対象画素を区別することができる。例えば、CMOSセンサや類似の装置における画素の輝度は、センサ設計に基づいて0.0(暗)から1.0(完全飽和)の間にいくつかの階調を有する範囲で測定され得る。カメラ画素によって符号化される輝度は、典型的には蓄積される電荷またはダイオード電圧に起因しており、被写体の明るさに対して標準的(線形的)に対応する。いくつかの実施形態では、光源108,110は、距離rOの物体から反射された光が1.0の輝度レベルを生じさせ、その一方で距離rB=2rOの物体から反射された光が0.25の輝度レベルを生じさせるほど、十分に明るい。対象画素は、このように容易に、輝度に基づいて背景画素から区別され得る。さらに、物体のエッジもまた、隣接する画素の間における輝度の差に基づいて容易に検出され得るものであり、各画像内の物体の位置の決定を可能にする。カメラ102,104からの画像間における物体の位置の関連付けは、画像解析システム106における物体114の3D空間内の位置の決定を可能にするものであり、一連の画像の解析は、画像解析システム106における従来の動きアルゴリズムを用いた物体114の3D動きの再構成を可能にする。
In this configuration, the
当然であるが、システム100は例示であって、変更や修正は可能である。例えば、光源108、110は、カメラ102,104の両側に配置されるものとして示している。これは、両方のカメラの視点から見た物体114のエッジに対する照明を、容易にし得る。しかし、カメラ及びライトの特定の配置は必要ない。(他の構成の例については、以下で説明される。)物体が背景よりもカメラに著しく近い限り、本明細書に記載のような改善されたコントラストが達成され得る。
Of course, the
画像解析システム106(画像解析装置とも言う)は、例えば本明細書に記載の技術を用いた撮像及び画像データの処理が可能な任意の装置または装置の構成要素に含まれ得るあるいはこれを成し得る。図2は、本発明の実施形態に係る画像解析装置106を実現するコンピュータシステム200の簡略ブロック図である。コンピュータシステム200は、プロセッサ202、メモリ204、カメラインタフェース206、ディスプレイ208、スピーカ209、キーボード210及びマウス211を含む。
The image analysis system 106 (also referred to as an image analysis device) may be included in or constitute any device or device component capable of imaging and processing image data using, for example, the techniques described herein. obtain. FIG. 2 is a simplified block diagram of a
メモリ204は、プロセッサ202によって実行される命令だけでなく、当該命令の実行に関連付けられている入力及び/または出力データを記憶するために使用され得る。特に、メモリ204は、以下で詳細に説明するモジュールのグループとして概念的に図示される、プロセッサ202の動作及び他のハードウェアコンポーネントとのやりとりを制御する命令を格納している。オペレーティングシステムは、メモリ割り当て、ファイル管理及び大容量記憶装置の操作などの基本システム機能である低レベルの実行を指示する。オペレーティングシステムは、Microsoft Windows(登録商標)オペレーティングシステム、Unix(登録商標)オペレーティングシステム、Linux(登録商標)オペレーティングシステム、Xenixオペレーティング・システム、IBM AIXオペレーティングシステム、ヒューレットパッカードUXオペレーティングシステム、Novell NETWAREオペレーティング・システム、Sun Microsystems SOLARISオペレーティングシステム、OS/2オペレーティング・システム、BeOSオペレーティングシステム、MACINTOSHオペレーティングシステム、APACHEオペレーティングシステム、OPENSTEPオペレーティングシステムまたはプラットフォームの別のオペレーティングシステムなど、様々なオペレーティングシステムから成り得るまたは含み得る。
コンピュータ環境は、他のリムーバブル/非リムーバブル、揮発性/不揮発性のコンピュータ記憶媒体を含み得る。例えば、ハードディスクドライブは、非リムーバブルであり不揮発性の磁気媒体に読み取りまたは書き込みを行い得る。磁気ディスクドライブは、リムーバブルであり不揮発性の磁気ディスクに読み取りまたは書き込みを行い得るとともに、光ディスクドライブは、リムーバブルであり不揮発性のCD−ROMや他の光媒体などの光ディスクに読み取りまたは書き込みを行い得る。他のリムーバブル/非リムーバブル、揮発性/不揮発性のコンピュータ記憶媒体は、例示の動作環境で使用されるものを含むが、磁気テープカセット、フラッシュメモリカード、デジタル多用途ディスク(Digital Versatile Disk)、デジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなど、これらに限定されない。記憶媒体は、典型的には、リムーバブルまたは非リムーバブルのメモリインタフェースを介してシステムバスに接続されている。 The computing environment may include other removable / non-removable, volatile / nonvolatile computer storage media. For example, hard disk drives can read or write to non-removable, non-volatile magnetic media. A magnetic disk drive can read or write to a removable and non-volatile magnetic disk, and an optical disk drive can read or write to an optical disk such as a non-volatile CD-ROM or other optical media . Other removable / non-removable, volatile / nonvolatile computer storage media include those used in the exemplary operating environment, including magnetic tape cassettes, flash memory cards, digital versatile disks, digital The video tape, solid state RAM, solid state ROM, etc. are not limited to these. The storage medium is typically connected to the system bus via a removable or non-removable memory interface.
プロセッサ202は、汎用マイクロプロセッサであってもよいが、実装に応じてその代わりに、マイクロコントローラ、周辺集積回路素子、CSIC(Customer Specific Integrated Circuit)、ASIC(Application-Specific Integrated Circuit)、論理回路、デジタル信号プロセッサ、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイス、PLD(Programmable Logic Device)、PLA(Programmable Logic Array)、RFIDプロセッサ、スマートチップまたは本発明の処理のステップを実行することが可能な他の任意の装置あるいは装置の構成、とすることができる。
The
カメラインタフェース206は、図1に示すカメラ102,104などのカメラとコンピュータシステム200との間の通信を可能にするハードウェア及び/またはソフトウェアだけでなく、図1に示す光源108,110などの関連した光源も含み得る。したがって、例えば、カメラインタフェース206は、カメラが接続された1以上のデータポート216、218だけでなく、カメラから受信したデータ信号をプロセッサ202上で実行される従来のモーションキャプチャ(「モーキャプ」)プログラム214の入力として与える前に修正する(例えば、ノイズの減少やデータの再フォーマットをする)ためのハードウェア及び/またはソフトウェアシグナルプロセッサも含み得る。いくつかの実施形態では、カメラインタフェース206は、例えば、カメラを駆動または停止させるためや、カメラ設定(フレームレート、画質、感度等)の制御などのために、カメラへの信号の送信も行い得る。このような信号は、ユーザ入力または他の検出されたイベントに応じて順番に生成され得るものであり、例えばプロセッサ202からの制御信号に応じて送信され得る。
The
カメラインタフェース206は、光源(例えば、光源108、110)に接続可能なコントローラ217、219も含み得る。いくつかの実施形態において、コントローラ217,219は、例えばモーキャププログラム214を実行するプロセッサ202からの指示に応じて、動作電流を光源に供給する。他の実施形態では、光源が外部電源(不図示)から動作電流を引き込み得るとともに、コントローラ217,219が例えば光源のオンあるいはオフまたは輝度の変化を指示する光源のための制御信号を生成し得る。いくつかの実施形態では、1つのコントローラが複数の光源を制御するために使用され得る。
The
モーキャププログラム214を定義する命令は、メモリ204に格納され、これらの命令が実行されると、カメラインタフェース206に接続されたカメラから与えられる画像に対するモーションキャプチャ解析が実行される。一実施形態では、モーキャププログラム214は、物体検出モジュール222及び物体解析モジュール224などの様々なモジュールを含む。さらに、これらのモジュールの両方は、従来のものであって当技術分野において十分に特徴付けられているものである。物体検出モジュール222は、画像中の物体のエッジ及び/または物体の位置に関する他の情報を検出するために、画像(例えば、カメラインタフェース206を介して撮像された画像)を解析し得る。物体解析モジュール224は、物体の3D位置及び/または動きを決定するために、物体検出モジュール222によって与えられる物体情報を解析し得る。モーキャププログラム214のコードモジュールで実行され得る動作の例については、以下に記載する。メモリ204は、他の情報及び/またはモーキャププログラム214によって使用されるコードモジュールも含み得る。
Instructions that define the motocap program 214 are stored in the
ディスプレイ208、スピーカ209、キーボード210及びマウス211は、コンピュータシステム200とのユーザのやりとりを容易にし得る。これらの構成要素は、一般的な従来設計のものや、ユーザのやりとりの任意のタイプを与えることが望ましくなるように変更したものであり得る。いくつかの実施形態では、カメラインタフェース206及びモーキャププログラム214を使用したモーションキャプチャの結果が、ユーザ入力として解釈され得る。例えば、ユーザは、モーキャププログラム214を用いて解析される手のジェスチャを行うことが可能であり、この解析の結果は、プロセッサ200(例えば、ウェブブラウザ、ワードプロセッサまたは他のアプリケーション)上で実行される他のプログラムへの指示として解釈され得る。そのため、例として、ユーザは、ディスプレイ208上に表示される現在のウェブページを「スクロール」するための上側または下側スワイプジェスチャや、スピーカ209からのオーディオ出力の音量を増大または減少するための回転ジェスチャなどを使用し得る、
当然であるが、コンピュータシステム200は例示であって、変更や修正は可能である。コンピュータシステムは、サーバシステム、デスクトップシステム、ラップトップシステム、タブレット、スマートフォンまたはパーソナルデジタルアシスタントなどを含む様々なフォームファクタで実現され得る。特定の実現態様は、例えば有線及び/または無線ネットワークインタフェース、メディアの再生及び/または記録機能など、本明細書に記載されていない他の機能を含み得る。いくつかの実施形態では、1以上のカメラが、分離した構成要素として与えられるのではなく、コンピュータ内に組み入れられ得る。さらに、画像解析装置は、コンピュータシステムの構成要素(例えば、プログラムコードを実行するプロセッサ、ASICまたは画像データと出力解析結果を受信するための適切なI/Oインタフェースを備えた固定機能デジタル信号プロセッサ)のサブセットのみを使用して実現され得る。
Of course, the
コンピュータシステム200は、特定のブロックを参照して本明細書に記載されているが、当該ブロックは説明の便宜のために定義されているものであって、構成部品の特定の物理的配置を意味することを意図するものではないと理解されるべきである。さらに、当該ブロックは、物理的に別個の構成要素に対応する必要はない。物理的に別個の構成要素が使用される場合、必要に応じて、構成要素間の接続(例えば、データ通信用など)が有線及び/または無線と成り得る。
Although the
プロセッサ202による物体検出モジュール222の実行は、プロセッサ202に、物体の画像を撮像するためにカメラインタフェース206を動作させたり、画像データの解析によって背景画素から対象画素を区別させたりする。図3A〜図3Cは、本発明の様々な実施形態に係る得られ得る画素行の輝度データの3つの異なるグラフである。各グラフは1つの画素行について例示しているが、画像が典型的には多数の画素行を含むとともに、行が任意の数の画素を含み得ると理解されるべきである。例えば、HDビデオ画像は、それぞれ1920画素を有する1080行を含み得る。
The execution of the
図3Aは、手のひらの断面など、単一な断面を有する物体の画素行の輝度データ300を示している。物体に対応する領域302内の画素は高輝度を有しているが、背景に対応する領域304及び306内の画素は著しく低い輝度を有する。図から分かるように、物体の位置は見てすぐに分かるものであり、物体のエッジの位置(位置308、位置310)は容易に識別される。例えば、0.5を上回る輝度を持つ画素は対象画素であると見なすことが可能であり、反対に0.5を下回る輝度を持つ画素は背景画素であると見なすことが可能である。
FIG. 3A shows
図3Bは、開いた手の指の断面など、複数の異なる断面を有する物体の画素行の輝度データ320を示している。物体に対応する領域322,323及び324は高輝度を有しているが、背景に対応する領域326〜329内の画素は低い輝度を有するこの場合も、輝度に対する単純なカットオフ閾値(例えば、0.5)は、対象画素を背景画素と区別するために十分であり、物体のエッジを容易に確定することができる。
FIG. 3B shows
図3Cは、広げた2本指をカメラに向けた手の断面など、物体までの距離が行の所々で変化する画素行の輝度データ340を示している。開いた指に対応する領域342及び343は最も高い輝度を有する。手の他の部分に対応する領域344及び345はわずかに少ない輝度を有する。これは、1つはより遠くにあるということ、1つは開いた指による影が掛かること、に起因し得る。背景に対応する領域348及び349は、背景領域であり、手が含まれる領域342〜345よりも著しく暗い。輝度に対するカットオフ閾値(例えば、0.5)は、この場合でも対象画素を背景画素と区別するために十分である。対象画素のさらなる解析は、領域342及び343のエッジを検出するためにも行われ得るものであり、物体の形状に関する追加の情報を与える。
FIG. 3C shows pixel
当然であるが、図3A〜3Cに示すデータは例示である。いくつかの実施形態では、予測される距離(例えば、図1のrO)にある物体が露出オーバーになる(即ち、全てではないにしても多くの対象画素が完全に1.0の輝度レベルで飽和してしまう)ことがあるなど、光源108,110の強度を調整することが望ましくなり得る。(物体の現実の輝度が、実際には高くなり得る。)背景画素も多少明るくし得るが、背景画素も飽和レベルに近づくほど強度が高く設定されない限り、依然として距離に対する光強度の減衰1/r2によって物体及び背景画素を区別することができる状態である。図3A〜3Cに示したように、物体と背景との間に強いコントラストを作り出すために物体に向けられた照明の使用は、背景画素と対象画素を区別するための簡単で高速なアルゴリズムの使用を可能にするものであり、リアルタイムモーションキャプチャシステムにおいて特に有用となり得る。背景及び物体画素を区別するタスクの簡素化は、他のモーションキャプチャタスク(例えば、物体の位置、形状及び/または動きの再構築)のためのコンピュータ資源を開放し得る。
Of course, the data shown in FIGS. 3A-3C are exemplary. In some embodiments, an object at the expected distance (eg, r O in FIG. 1) is overexposed (ie, many if not all of the target pixels are at a brightness level of 1.0). It may be desirable to adjust the intensity of the
本発明の実施形態に係る画像内の物体の位置を識別するための処理のフロー図を示す図4を参照する。処理400は、例えば図1のシステム100において実現され得る。ブロック402において、光源108,110がオンする。ブロック404において、1以上の画像がカメラ102,104を用いて撮像される。いくつかの実施形態では、各カメラからの1つの画像が撮像される。他の実施形態では、各カメラから一連の画像が撮像される。2つのカメラからの2つの画像は、2つのカメラからの相関画像が物体の3D位置の決定に使用され得るように、時間において厳密に相関させられ得る(例えば、数ミリ秒以内となる同時)。
Reference is made to FIG. 4 showing a flow diagram of a process for identifying the position of an object in an image according to an embodiment of the invention.
ブロック406において、背景画素から対象画素を区別するために、画素の輝度の閾値が適用される。ブロック406は、背景及び物体画素の間の遷移点に基づいた物体のエッジの位置の特定をも含み得る。いくつかの実施形態において、各画素は、最初に、輝度カットオフ閾値を超えているか否かに基づいて物体または背景のいずれかに分類される。例えば、図3A〜3Cに示すように、0.5の飽和レベルにおけるカットオフが使用され得る。画素が分類されると、背景画素が画素物体に隣接している位置を見つけることによって、エッジが検出され得る。いくつかの実施形態では、ノイズ欠陥を回避するために、エッジの両側となる背景及び物体画素の領域が、特定の最小の大きさ(例えば、2、4または8画素)を有することを必要とし得る。
At
他の実施形態では、エッジが、画素が物体であるか背景であるかの最初の分類をすることなく検出され得る。例えば、Δβは、隣接する画素間の輝度の差として定義され得るものであり、|Δβ|が閾値を上回る(例えば、飽和範囲の単位で0.3または0.5)ことが、隣接する画素間における背景から物体または物体から背景への遷移を示し得る。(Δβの符号は、遷移の方向を示し得る。)物体のエッジが、実際には画素の中央である場合、境界において中間値を有する画素が存在し得る。これは、例えば画素iについて2つの輝度値(βL=(βi+βi−1)/2及びβR=(βi+βi+1)/2、画素(i−1)は画素iの左側、画素(i+1)は画素iの右側)を算出することによって、検出され得る。画素iがエッジの近くにない場合は一般的に|βL−βR|がゼロに近くなり、画素がエッジの近くにある場合は|βL−βR|が1に近くなり、|βL−βR|の閾値がエッジを検出するために使用され得る。 In other embodiments, the edge may be detected without first classifying whether the pixel is an object or a background. For example, Δβ can be defined as the luminance difference between adjacent pixels, and | Δβ | is above a threshold (eg, 0.3 or 0.5 in units of saturation range). A transition from background to object or from object to background may be indicated. (The sign of Δβ may indicate the direction of the transition.) If the edge of the object is actually the center of the pixel, there may be a pixel with an intermediate value at the boundary. For example, for pixel i, two luminance values (βL = (β i + β i−1 ) / 2 and βR = (β i + β i + 1 ) / 2, pixel (i−1) is the left side of pixel i, pixel ( i + 1) can be detected by calculating the right side of pixel i). In general, | βL-βR | is close to zero when pixel i is not near the edge, and | βL-βR | is close to 1 when pixel is near the edge, and | βL-βR | A threshold can be used to detect edges.
いくつかの例では、物体の一部が画像内の別の物体を部分的に遮蔽してもよい。例えば手の場合、指が、手のひらや別の指を部分的に遮蔽してもよい。物体の一部が別の物体を部分的に遮蔽して生じる遮蔽エッジも、背景画素が除去されれば、小さいが明らかである輝度の変化に基づいて検出され得る。図3Cは、そのような部分的な遮蔽の例を示しており、遮蔽エッジの位置は明らかである。 In some examples, a part of an object may partially occlude another object in the image. For example, in the case of a hand, the finger may partially block the palm or another finger. Shielding edges that result from partly obscuring another object may also be detected based on small but obvious changes in brightness if background pixels are removed. FIG. 3C shows an example of such partial occlusion, where the location of the occlusion edge is clear.
検出されたエッジは、多くの目的に使用され得る。例えば、前述のように、2つのカメラから見た物体のエッジは、3D空間内の物体のおよその位置を決定するために使用され得る。カメラの光軸を横断する2D平面内の物体の位置は、1つの画像から決定され得るとともに、2つの異なるカメラからの時間相関画像における物体の位置の間のオフセット(視差)は、カメラ間の間隔が既知であれば、物体までの距離を決定するために使用され得る。 The detected edges can be used for many purposes. For example, as described above, the edge of an object viewed from two cameras can be used to determine the approximate position of the object in 3D space. The position of the object in the 2D plane across the optical axis of the camera can be determined from one image, and the offset (parallax) between the positions of the objects in the time-correlated images from two different cameras is If the spacing is known, it can be used to determine the distance to the object.
さらに、物体の位置及び形状は、2つの異なるカメラからの時間相関画像におけるそのエッジの位置に基づいて決定され得るとともに、物体の動き(関節を含む)は、一連となる一対の画像の解析から決定され得る。物体のエッジの位置に基づいた物体の位置、形状及び動き動きの決定に使用され得る技術例として、同時係属中のシリアル番号第13/414485(2012年3月7日米国出願)の開示全体が、参照として本明細書に援用される。本開示にアクセスする当業者は、物体のエッジの位置に関する情報に基づいた物体の位置、形状及び動きを決定するものとしても使用され得る他の技術を認識するであろう。 Furthermore, the position and shape of the object can be determined based on the position of its edge in the time-correlated images from two different cameras, and the motion of the object (including joints) can be derived from a series of analysis of a pair of images. Can be determined. As an example of a technique that can be used to determine the position, shape, and motion of an object based on the position of the edge of the object, the entire disclosure of co-pending serial number 13/414485 (filed March 7, 2012 US) is , Incorporated herein by reference. Those skilled in the art accessing the present disclosure will recognize other techniques that may also be used to determine the position, shape, and movement of an object based on information about the position of the edge of the object.
上記第13/414485出願に基づいて、物体の動き及び/または位置は、少量の情報を使用して再構成される。例えば、特定の視点から見た、物体の形状またはシルエットの外形は、様々な面内における当該視点から物体に対する接線を定義するために使用され得る(本明細書では「スライス」という)。わずか2つの異なった視点を用いると、当該視点から物体への4つ(またはそれ以上)の接線が、所定のスライス内で得られ得る。これらの4つ(またはそれ以上)の接線から、スライス内の物体の位置を決定することが可能であるとともに、スライス内のその断面を例えば1以上の楕円または他の単純閉曲線を用いて近似することが可能である。別の例として、特定のスライス内の物体の表面上の点の位置は、直接的に決定され得る(例えば、タイムオブフライトカメラを使用)とともに、当該スライス内の物体の断面の位置及び形状は、当該点に対する楕円や他の単純閉曲線のフィッティングにより近似され得る。異なるスライスについての位置及び断面決定は、その位置及び形状を含む物体の3Dモデルを構築するために相関させられ得る。一連の画像は、物体の動きをモデル化するものと同じ技術を用いて解析され得る。複数の独立した関節部を持つ複雑な物体(例えば、人間の手)の動きは、これらの技術を使用してモデル化され得る。 Based on the 13/414485 application, the movement and / or position of the object is reconstructed using a small amount of information. For example, the shape of an object or the outline of a silhouette viewed from a particular viewpoint can be used to define a tangent to the object from that viewpoint in various planes (referred to herein as a “slice”). With only two different viewpoints, four (or more) tangents from the viewpoint to the object can be obtained within a given slice. From these four (or more) tangents, it is possible to determine the position of the object in the slice and approximate its cross-section in the slice using, for example, one or more ellipses or other simple closed curves. It is possible. As another example, the position of a point on the surface of an object in a particular slice can be determined directly (eg, using a time-of-flight camera) and the position and shape of the cross-section of the object in that slice is Can be approximated by fitting an ellipse or other simple closed curve to the point. Position and cross-sectional determinations for different slices can be correlated to build a 3D model of the object including its position and shape. The series of images can be analyzed using the same techniques that model the movement of the object. The movement of complex objects (eg, human hands) with multiple independent joints can be modeled using these techniques.
より具体的に、xy平面内の楕円は、中心のx及びy座標(XC、YC)、長半径、短半径及び回転角度(例えば、x軸に対する長半径の角度)、の5つのパラメータで特徴付けられ得る。4つの接線だけでは、楕円は未決定である。しかし、この事実にもかかわらず、楕円を推定するための効率的な処理は、パラメータの1つに関する初期の作業仮説(または「推測」)の定立と、解析中に収集される追加情報としての仮説の再検討と、を含む。この追加情報は、例えば、カメラ及び/または物体の性質に基づく物理的な制約を含み得る。いくつかの状況では、例えば2以上の視点が利用可能であるため、スライスの一部または全部について、物体に対する4以上の接線が利用可能となり得る。楕円形断面は、依然として決定可能であり、いくつかの例における処理では、パラメータの値を仮定する必要がないように若干簡略化されている。いくつかの例では、追加の接線は、追加の複雑さを生じ得る。いくつかの状況では、例えば1つのカメラの視野の範囲外に物体のエッジがあるためまたはエッジが検出されなかったため、スライスの一部または全部について、物体に対する4以上の接線が利用可能となり得る。3つの接線を有するスライスが解析され得る。例えば、隣接するスライス(例えば、少なくとも4つの接線を有していたスライス)にフィットする楕円からの2つのパラメータを使用することで、当該楕円及び3つの接線についての連立方程式が解かれ得るものであると十分に断定される。別の選択肢として、3つの接線にフィットし得る円がある。平面内で円を決定する3つのパラメータ(中心座標と半径)のみが必要であるため、3つの接線は十分に円にフィットする。3未満の接線を有するスライスは、破棄されるか隣接するスライスと組み合わせられ得る。 More specifically, the ellipse in the xy plane has five parameters: center x and y coordinates (X C , Y C ), major radius, minor radius, and rotation angle (eg, major radius angle with respect to the x axis). Can be characterized by With only four tangents, the ellipse is undetermined. However, despite this fact, an efficient process for estimating an ellipse is the establishment of an initial working hypothesis (or “guess”) for one of the parameters and additional information collected during the analysis. Including reexamination of hypotheses. This additional information may include physical constraints based on, for example, the nature of the camera and / or object. In some situations, for example, two or more viewpoints are available, so four or more tangents to the object may be available for some or all of the slices. The elliptical cross-section is still determinable and the process in some examples is slightly simplified so that it is not necessary to assume parameter values. In some examples, additional tangents can result in additional complexity. In some situations, four or more tangents to the object may be available for some or all of the slices, for example because the edge of the object is outside the field of view of one camera or no edge was detected. A slice with three tangents can be analyzed. For example, using two parameters from an ellipse that fits an adjacent slice (eg, a slice that had at least four tangents), the simultaneous equations for that ellipse and three tangents can be solved. It is fully determined that there is. Another option is a circle that can fit three tangents. Since only three parameters (center coordinates and radius) are needed to determine the circle in the plane, the three tangents fit the circle sufficiently. Slices with tangents less than 3 can be discarded or combined with adjacent slices.
ある物体が対象の物体に対応するか否かを幾何学的に決定するための1つの方法は、一連の楕円の体積を求めることで、物体を定義するとともに、楕円に基づく物体の定義に対して幾何学的に矛盾する物体セグメントを破棄すること(例えば、過度に円筒状、過度に直線状、過度に薄い、過度に小さいまたは過度に遠いセグメントの破棄)である。物体を特徴づけるために十分な数の楕円が残り、それが対象の物体に整合している場合、そのように識別されて、フレームからフレームへと追跡され得る。 One method for geometrically determining whether an object corresponds to a target object is to define the object by determining the volume of a series of ellipses, and to define an object based on an ellipse. And discarding object segments that are geometrically inconsistent (eg, discarding excessively cylindrical, excessively straight, excessively thin, excessively small, or excessively far segments). If a sufficient number of ellipses remain to characterize the object and it matches the object of interest, it can be identified as such and tracked from frame to frame.
いくつかの実施形態では、複数のスライスのそれぞれは、そのスライス内の物体の楕円形断面の大きさ及び位置を決定するために個別に解析される。これは、異なるスライスにわたって断面を相関させることにより改善され得る初期の3Dモデル(具体的には、楕円形断面の積み重ね)を与える。例えば、物体の表面は連続性を有するものとなることが予想され、不連続な楕円は結果的に無視され得る。例えば、動きや変形の継続性に関連した予想に基づいて、時間を越えて自身の3Dモデルを相関させることによって、さらなる改善が得られ得る。図1及び図2を改めて参照すると、いくつかの実施形態において、光源108,110は、継続的にオンにされるのではなく、パルスモードで動作され得る。例えば、光源108,110が、定常状態動作よりもパルスで明るい光を生成する能力を有する場合、これは有用となり得る。図5は、502に示すように光源108,110が一定の間隔でオンになるパルス状である時系列を示している。504に示すように、カメラ102,104のシャッタは、光パルスと一致するタイミングで画像を撮像するために開き得る。このように、画像が撮像される時間中、対象の物体は明るく照明され得る。いくつかの実施形態では、物体のシルエットが、異なる視点から見た物体に関する情報を示す1以上の物体の画像から抽出される。シルエットは複数の異なる技術を用いて得られ得るが、いくつかの実施形態では、当該シルエットは、物体の画像を撮像するカメラの使用及び物体のエッジを検出するための画像の解析によって得られる。
In some embodiments, each of the plurality of slices is analyzed individually to determine the size and position of the elliptical cross section of the object within that slice. This provides an initial 3D model (specifically, a stack of elliptical cross sections) that can be improved by correlating cross sections across different slices. For example, the surface of the object is expected to be continuous, and discontinuous ellipses can be ignored as a result. Further improvements can be obtained, for example, by correlating their 3D model over time based on expectations related to the continuity of movement and deformation. Referring back to FIGS. 1 and 2, in some embodiments, the
いくつかの実施形態では、光源108,110のパルス駆動が、対象の物体及び背景の間のコントラストをさらに改善するために使用され得る。特に、自身が光を出射するまたは反射性が高い物体が含まれているシーンの場合、シーン内の関連及び非関連(例えば、背景)の物体を区別するための能力が損なわれ得る。この問題は、カメラの露光時間を非常に短い時間(例えば、100マイクロ秒以下)に設定するとともに、非常に高い電力(即ち、5〜20ワット、または、場合によっては、例えば40ワットなどのより高いレベル)で照明をパルス駆動することによって、対処され得る。このとき、最も一般的な環境照明の光源(例えば、蛍光灯)は、そのような明るい短時間の照明と比較して非常に暗い。即ち、マイクロ秒では、非パルス光源は、それらがミリ秒以上の露出時間に表れたとしても薄暗いものである。実際、この方法では、これらが同じ一般的な帯域で発光しても、他の物体に対する対象の物体のコントラストを増大させる。したがって、このような条件下における輝度による判別は、画像の再構成及び処理の目的のための無関連の物体の無視を可能にする。平均消費電力も低減される。20ワットで100マイクロ秒の場合、平均消費電力は10ミリワットを下回る。一般的に、光源108,110は、カメラ全体の露光時間中にオンになるように動作させられる(即ち、パルス幅が、露光時間と等しくかつこれに揃っている)。
In some embodiments, pulsed driving of the
光源108,110をオンにして撮像された画像と光源108,110をオフにして撮像された画像との比較をする目的のために、光源108,110のパルスを調整することも可能である。図6は、604に示すようにカメラ102,104のシャッタが画像を撮像するために開いている間に、602に示すように光源108,110が一定の間隔でオンになるパルス状である時系列を示す。この場合、光源108,110は、1つおきの画像に対して「オン」になる。対象の物体が、背景領域よりも光源108,110に対して著しく近い場合、背景画素に対する光強度の差よりも、対象画素に対する光強度の差の方が、が強くなる。したがって、一連の画像内の画素の比較が、物体及び背景画素の区別に役立ち得る。
It is also possible to adjust the pulses of the
図7は、本発明の実施形態に係る一連の画像を用いて物体のエッジを識別する処理700のフロー図である。ブロック702において、光源がオフにされ、ブロック704において、第1画像(A)が撮像される。次に、ブロック706において、光源がオンにされ、ブロック708において、第2画像(B)が撮像される。ブロック710において、「差分」画像B−Aは、例えば、画像Aの各画素の輝度値を、画像Bの対応する画素の輝度値から減算することによって、算出される。画像Bは、光がオンの状態で撮像されたものであるため、B−Aはほとんどの画素で正になることが予想される。
FIG. 7 is a flow diagram of a
差分画像は、閾値または他の画素毎の基準の適用によって背景及び前景を区別するために、使用される。ブロック712において、物体画素を識別するために差分画像に対して閾値が適用され、閾値を上回る(B−A)は対象画素に関連付けられるとともに、閾値を下回る(B−A)は背景画素に関連付けられる。物体のエッジは、その後で、上述のように背景画素に隣接する対象画素の識別によって定義され得る。物体のエッジは、上述のように位置及び/または動き検出などの目的のために使用され得る。
The difference image is used to distinguish the background and foreground by applying thresholds or other per-pixel criteria. In
代替的な実施形態では、物体のエッジが、一対ではなく三つ組の画像フレームを使用して識別される。例えば、1つの実装では、第1画像(画像1)が光源をオフとした状態で得られ、第2画像(画像2)が光源をオンにした状態で得られ、さらに第3画像(画像3)が光源を再びオフにした状態で撮像される。2つの差分画像
画像4=abs(画像2−画像1)及び
画像5=abs(画像2−画像3)
は、画素の輝度値を減算することによって定義される。最終的な画像、画像6は、画像4及び画像5の2つの画像に基づいて定義される。特に、画像6における各画素の値は、画像4及び画像5における2つの対応する画素値の小さい方である。換言すると、各画素について、画像6=min(画像4,画像5)である。画像6は、精度が改善された差分画像を表し、そのほとんどの画素は正となる。再度、前景及び背景画素を区別するために、閾値または他の基準が画素毎に使用され得る。
In an alternative embodiment, object edges are identified using triplet image frames instead of pairs. For example, in one implementation, a first image (image 1) is obtained with the light source turned off, a second image (image 2) is obtained with the light source turned on, and a third image (image 3) is obtained. ) Is imaged with the light source turned off again. Two difference images Image 4 = abs (image 2 -image 1) and image 5 = abs (image 2 -image 3)
Is defined by subtracting the luminance value of the pixel. The final image, image 6, is defined based on two images, image 4 and image 5. In particular, the value of each pixel in image 6 is the smaller of the two corresponding pixel values in images 4 and 5. In other words, for each pixel, image 6 = min (image 4, image 5). Image 6 represents a difference image with improved accuracy, and most of its pixels are positive. Again, thresholds or other criteria may be used for each pixel to distinguish foreground and background pixels.
本明細書に記載のコントラストに基づく物体検出は、対象の物体が背景物体よりも(複数の)光源に対して大幅に近づく(例えば、半分の距離)ことが予想される任意の状況に対して適用され得る。動き検出の使用に関するそのような適用の一つとして、コンピュータシステムとやりとりするためのユーザ入力がある。例えば、ユーザが画面を指し示すまたは他の手でジェスチャをすると、それが入力としてコンピュータシステムに解釈され得る。 The contrast-based object detection described herein is for any situation where the target object is expected to be much closer (eg, half the distance) to the light source (s) than the background object. Can be applied. One such application for using motion detection is user input for interacting with a computer system. For example, when a user points to the screen or makes a gesture with another hand, it can be interpreted as input to the computer system.
本発明の実施形態に係るユーザ入力装置である動き検出器を含むコンピュータシステム800が、図8に示されている。コンピュータシステム800は、プロセッサ、メモリ、固定またはリムーバブルディスクドライブ、ビデオドライバ、オーディオドライバ、ネットワークインタフェースコンポーネントなど、様々なコンピュータシステムの構成要素を収容し得るデスクトップボックス802を含む。ディスプレイ804は、デスクトップボックス802に接続されるとともにユーザが閲覧可能となるように配置されている。キーボード806は、ユーザの手が簡単に届く範囲内に配置される。動き検出器ユニット808は、キーボード806の近くに配置され(例えば、図示のような後方または片側)、その中でユーザがディスプレイ804に向かってジェスチャをすることが自然となる領域(例えば、キーボードの上側の空間であってモニタの前)に対して向けられている。カメラ810,812(例えば、上述のカメラ102,104と同様または同一であり得るもの)は、一般的には上側を向くように配置され、光源814,816(上述の光源108,110と同様または同一であり得るもの)は、動き検出器ユニット808の上の領域を照明するために、カメラ810,812の両側に配置される。典型的な実装では、カメラ810,812及び光源814,816は、実質的に同一平面内にある。この構成は、例えばエッジ検出を妨害し得る影の出現(光源がカメラに隣接せずに間に位置する場合と同様になり得る)を防止する。不図示のフィルタは、光源814,816のピーク周波数付近の帯域の外側となるすべての光を除去するために、動き検出器ユニット808の上面の上(または、カメラ810,812の開口のちょうど上)に配置され得る。
A
図示の構成では、カメラ810,812の視野内でユーザが手または他の物体(例えば、鉛筆)を動かすと、背景はおそらく天井及び/または天井に設けられた様々な定着物から成り得る。ユーザの手が、動き検出器ユニット808の上側10〜20センチメートルになり得るのに対して、天井はその距離の5〜10倍(またはそれ以上)となり得る。光源814,816からの照明は、それ故に天井と比較してユーザの手に対してはるかに強くなり、本明細書に記載の技術が、カメラ810,812によって撮像された画像内の背景画素から物体画素を確実に区別するために使用され得る。赤外光が使用される場合は、ユーザの気が散ったり光によって妨害されたりすることがない。
In the illustrated configuration, when a user moves a hand or other object (eg, a pencil) within the field of view of the
コンピュータシステム800は、図1に示した構造を利用し得る。例えば、動き検出器ユニット808のカメラ810,812がデスクトップボックス802に対して画像データを与え得るとともに、画像解析及びその後の解釈がデスクトップボックス802に収容されているプロセッサ及び他の構成要素を使用して行われ得る。また、動き検出器ユニット808は、画像解析及び解釈の一部または全部の段階を実行するためのプロセッサまたは他の構成要素を含み得る。例えば、動き検出器ユニット808は、物体画素及び背景画素を区別するための上述の処理の1以上を実行するプロセッサ(プログラム可能なまたは固定機能)を含み得る。この場合、動き検出器ユニット808は、さらなる解析及び解釈のために、撮像画像の減少表示(例えば、すべての背景画素をゼロにした表示)を、デスクトップボックス802に対して送信し得る。動き検出器ユニット808内部のプロセッサ及びデスクトップボックス802内のプロセッサの間における計算タスクの特別な分割は不要である。
The
絶対的な輝度レベルによる物体画素及び背景画素の区別は、必ずしも必要ではない。例えば、物体形状の知見があれば、物体のエッジの明らかな検出もなく画像内の物体を検出するために、輝度減衰のパターンが利用され得る。丸みを帯びた物体(手や指など)では、例えば、1/r2の関係が、物体の中心付近にガウシアンまたは近ガウシアン輝度分布(near-Gaussian brightness distributions)を生じさせる。LEDによって照明されるとともにカメラに対して垂直に配置された円筒を撮像すると、円筒軸に対応する明るい中心線を有するとともに各側(円筒の周囲)で明るさが減衰する画像になる。指はおよそ円筒形であり、これらのガウシアンピークを識別することによって、背景が近く背景の相対輝度に起因してエッジが見えない(近接のためか、それとも積極的に赤外光が出射され得るということのため)という状況であっても指を配置することができる。語句「ガウシアン」は、負の二次導関数の曲線を含意するように、本明細書で広義に使用される。多くの場合、そのような曲線はベル型かつ対称形になるが、必ずしもそうではない。例えば、物体の鏡面反射性がより高い状況または物体が極端な角度である場合、曲線が特定の方向にずれ得る。したがって、本明細書で使用する用語「ガウシアン」は、明らかにガウシアン関数に適合する曲線のみに限定されるものではない。 It is not always necessary to distinguish between an object pixel and a background pixel based on an absolute luminance level. For example, if there is knowledge of the object shape, a luminance decay pattern can be used to detect the object in the image without obvious detection of the object edge. For a rounded object (such as a hand or finger), for example, the 1 / r 2 relationship produces Gaussian or near-Gaussian brightness distributions near the center of the object. When a cylinder that is illuminated by the LED and is arranged perpendicular to the camera is imaged, the image has a bright center line corresponding to the cylinder axis and the brightness is attenuated on each side (around the cylinder). The finger is approximately cylindrical and by identifying these Gaussian peaks, the background is close and the edges are not visible due to the relative brightness of the background (due to proximity or aggressive infrared light can be emitted. For this reason, the finger can be placed even in the situation. The phrase “Gaussian” is used broadly herein to imply a negative second derivative curve. In many cases, such curves are bell-shaped and symmetric, but not necessarily. For example, if the object is more specular or if the object is at an extreme angle, the curve may shift in a particular direction. Therefore, the term “Gaussian” as used herein is not limited to only curves that clearly fit a Gaussian function.
図9は、本発明の実施形態に係る動き検出器を含むタブレットコンピュータ900を示す。タブレットコンピュータ900は、前面にベゼル904に囲まれた表示画面902を含む筐体を有する。1以上の制御ボタン906は、ベゼル904に含まれ得る。タブレットコンピュータ900は、ハウジング内(例えば、表示画面902の背後)に、様々な従来のコンピュータの構成要素(プロセッサ、メモリ、ネットワークインタフェースなど)を有し得る。動き検出器ユニット910は、ベゼル904内に設けられるとともにタブレットコンピュータ900の前方に位置するユーザの動きをキャプチャするように前面に向けられたカメラ912,914(例えば、図1のカメラ102,104と類似または同一)及び光源916,918(例えば、図1の光源108,110と類似または同一)を使用した実装になり得る。
FIG. 9 shows a
カメラ912,914の視野内でユーザが手または他の物体を動かすと、上述のように、動きが検出される。この場合、背景は、おそらくユーザ自身の体であり、タブレット・コンピュータ900から大体25〜30センチメートルの距離となる。ユーザは、ディスプレイ902から例えば5〜10センチメートルという短い距離で、手または他の物体を保持し得る。ユーザの手がユーザの体よりも光源916,918に著しく近い(例えば、半分の距離)限り、本明細書に記載の照明に基づいたコントラストの改善技術が、背景画素から対象画素を区別するために使用され得る。画像解析とその後の入力ジェスチャとしての解釈は、タブレットコンピュータ900内(例えば、オペレーティングシステムまたはカメラ912,914から得られるデータを解析するための他のソフトウェアを実行するためのメインプロセッサの活用)で行われ得る。ユーザは、これにより、3D空間内のジェスチャを用いてタブレット900とやりとりし得る。
As the user moves a hand or other object within the field of view of the
図10に示すゴーグルシステム1000も、本発明の実施形態に係る動き検出器を含み得る。ゴーグルシステム1000は、例えば、仮想現実及び/または拡張現実環境に関連して使用され得る。ゴーグルシステム1000は、従来の眼鏡と同様に、ユーザが着用可能なゴーグル1002を含む。ゴーグル1002は、ユーザの左右の目に画像(例えば、仮想現実環境の画像)を与える小型の表示画面を含み得る接眼レンズ1004,1006を含む。これらの画像は、ゴーグル1002と有線または無線チャネルのいずれかを介して通信するベースユニット1008(例えば、コンピュータシステム)によって与えられ得る。カメラ1010,1012(例えば、図1のカメラ102,104と類似または同一)は、それらがユーザの視界を不明瞭にしないように、ゴーグル1002のフレーム部に設けられ得る。光源1014,1016は、ゴーグル1002のフレーム部におけるカメラ1010,1012の両側に設けられ得る。カメラ1010,1012によって収集された画像は、解析及び仮想または拡張環境とのユーザのやりとりを示すジェスチャとしての解釈のために、ベースユニット1008に送信され得る。(いくつかの実施形態では、接眼レンズ1004,1006を介して提示される仮想または拡張環境は、ユーザの手の表示を含み得るとともに、その表示はカメラ1010,1012によって収集された画像に基づき得る。)
The
カメラ1010,1012の視野内でユーザが手または他の物体を使用してジェスチャをすると、上述のように動きが検出される。この場合、背景は、おそらくユーザが居る部屋の壁であり、ユーザは、きっと壁から多少の距離のところで座るまたは立っている。ユーザの手がユーザの体よりも光源1014,1016に著しく近い(例えば、半分の距離)限り、本明細書に記載の照明に基づいたコントラストの改善技術が、背景画素からの対象画素の区別を容易にする。画像解析とその後の入力ジェスチャとしての解釈は、ベースユニット1008内で行われ得る。
When the user makes a gesture using the hand or other object within the field of view of the
当然であるが、図8〜10に示した動き検出器の実装は例示であって、変更や修正は可能である。例えば、動き検出器またはその構成要素は、キーボードやトラックパッドなどの他のユーザ入力デバイスを有する単一のハウジング内に組み込まれ得る。別の例では、動き検出器は、例えば、上向きのカメラ及び光源がラップトップキーボードと同一の平面に組み入れられた(例えば、キーボードの一方側、または前、または背後)または前向きのカメラ及び光源がラップトップの表示画面を囲むベゼルに組み入れられたラップトップコンピュータに含まれる。さらに別の例では、着用可能な動き検出器は、例えば、アクティブディスプレイや光学部品が含まれていないヘッドバンドやヘッドセットなどとして実装され得る。 Of course, the motion detector implementations shown in FIGS. 8-10 are exemplary and can be changed or modified. For example, the motion detector or its components can be incorporated into a single housing with other user input devices such as a keyboard and trackpad. In another example, the motion detector may have, for example, an upward facing camera and light source incorporated in the same plane as the laptop keyboard (eg, one side of the keyboard, or in front or behind) or a forward facing camera and light source. Included in a laptop computer incorporated in a bezel that surrounds a laptop display screen. In yet another example, the wearable motion detector may be implemented as, for example, a headband or headset that does not include an active display or optical components.
図11に示すように、動き情報は、本発明の実施形態に係るコンピュータシステムまたは他のシステムを制御するためのユーザ入力として使用され得る。処理1100は、例えば図8〜10に示すようなコンピュータシステムで実行され得る。ブロック1102において、動き検出器の光源及びカメラを使用して画像が撮像される。上述のように、画像の撮像は、光源(及びカメラ)に近い物体がさらに遠くの物体よりもより明るく照明されるようなカメラの視野を照明するための光源の使用を含み得る。
As shown in FIG. 11, motion information may be used as user input to control a computer system or other system according to embodiments of the present invention.
ブロック1104において、撮像された画像は、輝度の変化に基づいて物体のエッジを検出するために解析される。例えば、上述のように、この解析には、各画素の輝度と閾値との比較、隣接する画素におけるローレベルからハイレベルへの輝度の遷移の検出及び/または光源による照明がある状態及びない状態で撮像された一連の画像の比較が、含まれ得る。ブロック1106において、エッジベースアルゴリズムは、物体の位置及び/または動きを決定するために使用される。このアルゴリズムは、例えば、上述の第13/414485出願に記載の任意の接線ベースアルゴリズムであり得る。他のアルゴリズムも使用され得る。
At
ブロック1108において、ジェスチャは、物体の位置及び/または動きに基づいて識別される。例えば、ジェスチャのライブラリが、ユーザの指の位置及び/または動きに基づいて定義され得る。「タップ」は、表示画面に向かって伸びた指の速い動きに基づいて定義され得る。「トレース」は、表示画面に対して大体平行な平面内における伸びた指の動きとして定義され得る。内側ピンチは、互いに近づくように動く2本の伸びた指として定義され得るとともに、外側ピンチは、さらに開くように動く2本の伸びた指として定義され得る。スワイプジェスチャは、特定の方向(例えば、上、下、左、右)に対する手全体の動きに基づいて定義され得るとともに、別のスワイプジェスチャは、伸びた指の本数(例えば、1本、2本、すべて)に基づいてさらに定義され得る。他のジェスチャも定義され得る。ライブラリに検出された動きを比較することによって、検出された位置及び/または動きに関連付けられた特定のジェスチャが決定され得る。
At
ブロック1110において、ジェスチャは、コンピュータシステムが処理し得るユーザ入力として解釈される。特定の処理は、一般的にコンピュータシステム上で現在実行されているアプリケーションプログラム及びこれらのプログラムの特定の入力に対する応答の構成方法によって決まる。例えば、ブラウザプログラム内のタップは、指が指示するリンクの選択として解釈され得る。文書処理プログラム内のタップは、指が指示する位置へのカーソルの設置としてまたはメニュー項目あるいは画面上に見え得る他のグラフィック制御要素の選択として解釈され得る。特定のジェスチャ及び解釈は、オペレーティングシステム及び/または必要なアプリケーションのレベルで決定され得るものであり、任意のジェスチャの特定の解釈は不要である。
At
全身の動きが、キャプチャされるとともに同様の目的に使用され得る。このような実施形態では、解析及び再構成が、およそリアルタイム(例えば、人の反応時間に匹敵する時間)で都合良く行われることで、ユーザは機器との自然なやりとりを体験する。他の用途では、モーションキャプチャは、リアルタイムで行われないデジタルレンダリング(例えば、コンピュータアニメーションムービーなど)のために使用され得る。このような場合、解析は必要な長さをとり得る。 Whole body motion can be captured and used for similar purposes. In such an embodiment, analysis and reconstruction is conveniently performed in approximately real time (eg, time comparable to human reaction time) so that the user experiences natural interactions with the device. In other applications, motion capture may be used for digital rendering that is not performed in real time (eg, computer animated movies, etc.). In such cases, the analysis can take the required length.
本明細書で説明する実施形態は、距離に応じた光強度の減少を利用することによって、撮像された画像内の物体及び背景の効率的な区別を与える。背景よりも物体に著しく近い(例えば、2倍以上)1以上の光源を用いて物体を明るく照明することで、物体及び背景の間のコントラストが増大し得る。いくつかの例では、フィルタが、意図した光源以外の光源からの光を除去するために使用され得る。赤外光を使用することで、不要な「ノイズ」やおそらく画像が撮像される環境内に存在する見える光源からの輝点を低減し得るとともに、ユーザ(赤外線を見ることが不可能であろう人)の気が散ることをも低減し得る。 The embodiments described herein provide an efficient distinction between objects and background in a captured image by utilizing a decrease in light intensity as a function of distance. Illuminating an object brightly using one or more light sources that are significantly closer to the object than the background (eg, twice or more) can increase the contrast between the object and the background. In some examples, a filter may be used to remove light from light sources other than the intended light source. Using infrared light can reduce unwanted "noise" and possibly bright spots from visible light sources that are present in the environment where the image is captured, and the user (will not be able to see the infrared light) It can also reduce distraction of people.
上述の実施形態は、対象の物体の画像を撮像するために使用されるカメラの両側に1つ配置された、2つの光源を備える。この配置は、位置及び動きの解析がそれぞれのカメラから見た物体のエッジの情報に依拠しており、光源がそれらのエッジを照明する場合において、特に有用になり得る。しかしながら、他の配置も使用され得る。例えば、図12は、単一のカメラ1202及びカメラ1202の両側に配置される2つの光源1204,1206を有するシステム1200を示している。この配置は、物体1208の画像を撮像するために使用され得るものであり、平坦な背景領域1210に対して物体1208の影が掛かかる。この実施形態では、対象画素及び背景画素が容易に区別され得る。さらに、背景1210は物体1208からそれほど遠くないが、依然として、影の掛かっている背景領域の画素及び影の掛かっていない背景領域の画素の両者の区別を可能にするために十分なコントラストが与えられている。物体及びその影の画像を用いて位置及び動きを検出するアルゴリズムは、上述の第13/414485出願に記載されており、システム1200は、物体とその影のエッジの位置を含む入力情報を、そのようなアルゴリズムへ与え得る。
The embodiment described above comprises two light sources, one arranged on each side of the camera used to take an image of the object of interest. This arrangement can be particularly useful when the position and motion analysis relies on object edge information viewed from the respective cameras and the light source illuminates those edges. However, other arrangements can be used. For example, FIG. 12 shows a
単一のカメラの実装1200では、カメラ1202のレンズの前に配置されたホログラフィック回折格子1215を含めることから効果が得られ得る。格子1215は、ゴーストシルエット及び/または物体1208の接線として現れる干渉縞パターンを作出する。特に、分離可能な場合(即ち、オーバーラップが過剰ではない場合)、これらのパターンは、背景からの物体の区別を容易にする高いコントラストを有する。例えば、回折格子ハンドブック(ニューポートコーポレーション、2005年1月、http://gratings.newport.com/library/handbook/handbook.aspで利用可能)を参照し、その開示全体は参照として本明細書に援用される。
A
図13は、2つのカメラ1302,1304及びカメラの間に配置された1つの光源1306を有する別のシステム1300を示す。システム1300は、背景1310に対して、物体1308の画像を撮像し得る。システム1300は、一般的には図1のシステム100よりもエッジの照明について信頼性が低い。しかしながら、すべての位置及び動きを決定するためのアルゴリズムが、物体のエッジの正確な情報に依拠するのではない。したがって、システム1300は、例えば、あまり精度が必要ではない状況でエッジベースアルゴリズムが使用され得る。システム1300では、非エッジベースアルゴリズムも使用され得る。
FIG. 13 shows another
特定の実施形態に関して本発明を説明してきたが、当業者は多数の変更が可能であることを認識するであろう。カメラ及び光源の数及び配置は変更され得る。フレームレート、空間分解能及び強度分解能を含むカメラの能力も、必要に応じて変更され得る。光源は、連続またはパルスモードで動作し得る。本明細書で説明するシステムは、物体及び背景の区別を容易にするために両者の間のコントラストを改善した画像を与え、この情報は多数の目的に使用され得るものであり、位置及び/または動き検出は多数の可能性の中の1つに過ぎない。 Although the present invention has been described with respect to particular embodiments, those skilled in the art will recognize that many variations are possible. The number and arrangement of cameras and light sources can be varied. Camera capabilities including frame rate, spatial resolution, and intensity resolution can also be varied as needed. The light source can operate in continuous or pulsed mode. The system described herein provides an image with improved contrast between the two to facilitate the distinction between object and background, and this information can be used for a number of purposes, such as position and / or Motion detection is just one of many possibilities.
背景から物体を識別するためのカットオフ閾値及び他の具体的な基準は、特定のカメラ及び特定の環境に適合され得る。上述のように、比rB/rOが増大するについて、コントラストが増大すると予想される。いくつかの実施形態において、システムは、例えば光源の輝度、閾値基準などの調整により、特定の環境に較正され得る。高速アルゴリズムに実装され得る単純な基準の使用は、他の用途のための所定のシステムにおける処理能力を解放し得る。 Cut-off thresholds and other specific criteria for identifying objects from the background can be adapted to specific cameras and specific environments. As mentioned above, the contrast is expected to increase as the ratio r B / r O increases. In some embodiments, the system can be calibrated to a particular environment, for example, by adjusting light source brightness, threshold criteria, and the like. The use of simple criteria that can be implemented in a fast algorithm can free up processing power in a given system for other applications.
任意のタイプの物体が、これらの技術を用いてモーションキャプチャの対象となり得るとともに、特定の物体に対して実装の様々な面が最適化され得る。例えば、カメラ及び/または光源のタイプ及び位置は、動きがキャプチャされるべき物体の大きさ及び/または動きがキャプチャされるべき空間の大きさに基づいて最適化され得る。本発明の実施形態に係る解析技術は、任意の適切なコンピュータ言語のアルゴリズムとして実装され得るとともに、プログラム可能なプロセッサ上で実行される。あるいは、アルゴリズムの一部または全部は、固定機能のロジック回路に実装され得るとともに、このような回路が従来のまたは他のツールを使用して設計及び製造され得る。 Any type of object can be targeted for motion capture using these techniques, and various aspects of the implementation can be optimized for a particular object. For example, the type and position of the camera and / or light source may be optimized based on the size of the object for which motion is to be captured and / or the size of the space for which motion is to be captured. The analysis techniques according to embodiments of the present invention can be implemented as any suitable computer language algorithm and run on a programmable processor. Alternatively, some or all of the algorithms can be implemented in fixed function logic circuits, and such circuits can be designed and manufactured using conventional or other tools.
本発明の様々な特徴を含むコンピュータプログラムは、様々なコンピュータ可読記憶媒体で符号化され得る。適切な媒体は、磁気ディスクまたはテープ、コンパクトディスク(CD)またはDVD(デジタル多用途ディスク)などの光学記憶媒体、フラッシュメモリ及びコンピュータが読取可能な形式でデータを保持する任意の他の非一時媒体などを含む。プログラムコードで符号化されるコンピュータが読取可能な記憶媒体は、互換性のある装置と共にパッケージまたは他の装置とは別に備えられ得る。さらに、プログラムコードは、符号化されて光学の有線及び/または様々なプロトコルに準拠する無線ネットワーク(例えば、インターネットダウンロードを介して配信が可能なインターネットを含む)を介して送信され得る。 A computer program containing various features of the present invention may be encoded on various computer readable storage media. Suitable media include optical storage media such as magnetic disks or tapes, compact disks (CDs) or DVDs (digital versatile discs), flash memory and any other non-transitory media that holds data in a computer readable form. Etc. A computer readable storage medium encoded with the program code may be provided separately from the package or other device together with a compatible device. Further, the program code may be transmitted over an optical wired and / or wireless network that complies with various protocols (eg, including the Internet that can be distributed via Internet download).
以上のように、本発明を特定の実施形態について説明したが、当然ながら、本発明は、以下の請求項の範囲内での変更及び均等物の全てを網羅することを意図したものである。 Although the invention has been described with reference to specific embodiments, it will be understood that the invention is intended to cover all modifications and equivalents within the scope of the following claims.
Claims (24)
視野に向けられた少なくとも1つのカメラと、
前記カメラと同じ前記視野側に配置されて前記視野を照明するように向けられた少なくとも1つの光源と、
前記カメラ及び少なくとも1つの前記光源と結合された画像解析装置と、を備え、
前記画像解析装置は、
少なくとも1つの前記光源が前記視野を照明すると同時に撮像される第1画像を含む、一連の画像を撮像するために少なくとも1つの前記カメラを動作させ、
背景ではなく前記物体に対応する画素を識別し、
識別された画素に基づき、前記物体の位置及び形状を含む前記物体の3Dモデルを構築して、それが対象の前記物体に対応するか否かを幾何学的に決定するように構成されているシステム。 An image imaging analysis system for identifying a target object from a digitally displayed image scene,
At least one camera directed at the field of view;
At least one light source disposed on the same field side as the camera and directed to illuminate the field;
An image analyzer coupled to the camera and at least one of the light sources;
The image analysis device includes:
Operating at least one of the cameras to capture a series of images including a first image captured at the same time as the at least one light source illuminates the field of view;
Identify pixels corresponding to the object, not the background,
Based on the identified pixels, it is configured to construct a 3D model of the object including the position and shape of the object and geometrically determine whether it corresponds to the object of interest. system.
前記近接領域は、少なくとも1つの前記カメラから広がるとともに、少なく1つの前記カメラと前記前景画像成分に対応する前記物体との間の予測最大距離の少なくとも2倍となる奥行を有し、
前記遠隔領域は、少なくとも1つの前記カメラに対して前記近接領域を越えた位置に存在している請求項1に記載のシステム。 The image analysis device includes: (i) a foreground image component corresponding to the object located in a proximity region of the visual field; and (ii) a background image component corresponding to the object located in a remote region of the visual field. Is to distinguish
The proximity region extends from at least one of the cameras and has a depth that is at least twice the predicted maximum distance between at least one of the cameras and the object corresponding to the foreground image component;
The system according to claim 1, wherein the remote area is located beyond the proximity area with respect to at least one of the cameras.
前記第2画像は前記第1画像の前に撮像され、前記第3画像は前記第2画像の後に撮像される請求項1に記載のシステム。 The image analysis apparatus operates at least one of the cameras when at least one of the light sources is not illuminating the field of view to capture the second and third images, and the difference between the first and second images. Identifying a pixel corresponding to the object based on the difference between the first and third images;
The system according to claim 1, wherein the second image is captured before the first image, and the third image is captured after the second image.
対象の物体を含む視野を照明する少なくとも1つの光源の駆動と、
少なくとも1つの前記光源の駆動と同時にカメラを使用することによる、前記視野の一連のデジタル画像の撮像と、
背景ではなく前記物体に対応する画素の識別と、のステップを備え、
識別された画素に基づき、前記物体の位置及び形状を含む前記物体の3Dモデルを構築して、それが対象の前記物体に対応するか否かを幾何学的に決定する方法。 A method of image capture analysis, the driving of at least one light source for illuminating a field of view including a target object;
Taking a series of digital images of the field of view by using a camera simultaneously with driving at least one of the light sources;
Identifying the pixels corresponding to the object rather than the background, and
A method of constructing a 3D model of the object including the position and shape of the object based on the identified pixels and geometrically determining whether it corresponds to the object of interest.
前記近接領域は、前記カメラから、前記カメラと対象の前記物体との間の予測最大距離の少なくとも2倍となる距離まで広がる請求項11に記載の方法。 At least one of the light sources is arranged such that the object of interest is located within a proximity region;
The method of claim 11, wherein the proximity region extends from the camera to a distance that is at least twice a predicted maximum distance between the camera and the object of interest.
前記第2及び第1画像の差分と、前記第2及び第3画像の差分と、に基づいて前記物体に対応する画素が識別される請求項11に記載の方法。 A first image when at least one light source is not driven, a second image when at least one light source is driven, and a third image when at least one light source is not driven. Further comprising imaging of
The method of claim 11, wherein a pixel corresponding to the object is identified based on a difference between the second and first images and a difference between the second and third images.
対象の物体を含む視野を照明する少なくとも1つの光源の駆動と、
少なくとも1つの前記光源が前記視野を照明すると同時に撮像される第1画像を含む、一連の画像を撮像するための前記カメラの動作と、
前記視野内における丸形物体を示すガウシアン輝度減衰パターンを検出するための前記画像の解析と、
のステップを備える方法。 A method for positioning a round object in a digital image, driving at least one light source that illuminates a field of view including the object of interest;
Operation of the camera to capture a series of images, including a first image captured at the same time as the at least one light source illuminates the field of view;
Analysis of the image to detect a Gaussian luminance decay pattern indicating a round object in the field of view;
A method comprising the steps of:
視野に向けられた少なくとも1つのカメラと、
前記カメラと同じ前記視野側に配置されて前記視野を照明するように向けられた少なくとも1つの光源と、
前記カメラ及び少なくとも1つの前記光源と結合された画像解析装置と、を備え、
前記画像解析装置は、
少なくとも1つの前記光源が前記視野を照明すると同時に撮像される第1画像を含む、一連の画像を撮像するために少なくとも1つの前記カメラを動作させ、
前記視野内における丸形物体を示すガウシアン輝度減衰パターンを検出するために前記画像を解析するように構成されているシステム。 An image capturing and analyzing system for positioning a round object in a field of view,
At least one camera directed at the field of view;
At least one light source disposed on the same field side as the camera and directed to illuminate the field;
An image analyzer coupled to the camera and at least one of the light sources;
The image analysis device includes:
Operating at least one of the cameras to capture a series of images including a first image captured at the same time as the at least one light source illuminates the field of view;
A system configured to analyze the image to detect a Gaussian luminance decay pattern indicative of a round object in the field of view.
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261587554P | 2012-01-17 | 2012-01-17 | |
US61/587,554 | 2012-01-17 | ||
US13/414,485 US20130182079A1 (en) | 2012-01-17 | 2012-03-07 | Motion capture using cross-sections of an object |
US13/414,485 | 2012-03-07 | ||
US201261724068P | 2012-11-08 | 2012-11-08 | |
US201261724091P | 2012-11-08 | 2012-11-08 | |
US61/724,068 | 2012-11-08 | ||
US61/724,091 | 2012-11-08 | ||
US13/724,357 | 2012-12-21 | ||
US13/724,357 US9070019B2 (en) | 2012-01-17 | 2012-12-21 | Systems and methods for capturing motion in three-dimensional space |
PCT/US2013/021713 WO2013109609A2 (en) | 2012-01-17 | 2013-01-16 | Enhanced contrast for object detection and characterization by optical imaging |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016104145A Division JP2016186793A (en) | 2012-01-17 | 2016-05-25 | Enhanced contrast for object detection and characterization by optical imaging |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015510169A true JP2015510169A (en) | 2015-04-02 |
Family
ID=48799803
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014552391A Pending JP2015510169A (en) | 2012-01-17 | 2013-01-16 | Feature improvement by contrast improvement and optical imaging for object detection |
JP2016104145A Pending JP2016186793A (en) | 2012-01-17 | 2016-05-25 | Enhanced contrast for object detection and characterization by optical imaging |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016104145A Pending JP2016186793A (en) | 2012-01-17 | 2016-05-25 | Enhanced contrast for object detection and characterization by optical imaging |
Country Status (4)
Country | Link |
---|---|
JP (2) | JP2015510169A (en) |
CN (2) | CN104145276B (en) |
DE (1) | DE112013000590B4 (en) |
WO (1) | WO2013109609A2 (en) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
JP6271444B2 (en) | 2012-02-24 | 2018-01-31 | トーマス ジェイ モスカリッロMOSCARILLO, Thomas, J. | Gesture recognition apparatus and method |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
DE102014201313A1 (en) * | 2014-01-24 | 2015-07-30 | Myestro Interactive Gmbh | Method for detecting a movement path of at least one moving object within a detection area, method for gesture recognition using such a detection method, and device for carrying out such a detection method |
US10092220B2 (en) | 2014-03-20 | 2018-10-09 | Telecom Italia S.P.A. | System and method for motion capture |
CN204480228U (en) | 2014-08-08 | 2015-07-15 | 厉动公司 | motion sensing and imaging device |
US9652653B2 (en) * | 2014-12-27 | 2017-05-16 | Hand Held Products, Inc. | Acceleration-based motion tolerance and predictive coding |
CN104586404A (en) * | 2015-01-27 | 2015-05-06 | 深圳泰山在线科技有限公司 | Method and system for identifying posture of fitness and health monitoring |
CN107532885B (en) * | 2015-02-25 | 2020-03-03 | 脸谱科技有限责任公司 | Intensity variation in light patterns for depth mapping of objects in a volume |
DE102015207768B4 (en) | 2015-04-28 | 2020-03-12 | Volkswagen Aktiengesellschaft | Improved gesture recognition for a vehicle |
CN113433775B (en) | 2015-11-10 | 2023-01-17 | 亮锐控股有限公司 | Adaptive light source |
FR3046519B1 (en) * | 2016-01-04 | 2022-11-04 | Netatmo | AUTOMATIC LIGHTING DEVICE |
DE102016201704A1 (en) | 2016-02-04 | 2017-08-10 | Bayerische Motoren Werke Aktiengesellschaft | A gesture recognition apparatus and method for detecting a gesture of an occupant of a vehicle |
US10671881B2 (en) | 2017-04-11 | 2020-06-02 | Microsoft Technology Licensing, Llc | Image processing system with discriminative control |
DE102017125799A1 (en) * | 2017-11-06 | 2019-05-09 | Carl Zeiss Industrielle Messtechnik Gmbh | Reduction of picture disturbances in pictures |
TWI672957B (en) | 2018-03-29 | 2019-09-21 | 瑞昱半導體股份有限公司 | Image processing device and image processing method |
US10616550B1 (en) * | 2018-09-14 | 2020-04-07 | Facebook Technologies, Llc | Generating a representation of an object from depth information determined in parallel from images captured by multiple cameras |
WO2020121174A1 (en) | 2018-12-10 | 2020-06-18 | Gentex Corporation | Scanning apparatus for reducing field of view search space |
JP7286815B2 (en) * | 2019-06-20 | 2023-06-05 | ジェンテックス コーポレイション | Illumination system and method for object tracking |
JP2021051042A (en) * | 2019-09-26 | 2021-04-01 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, electronic apparatus, image processing method, and program |
US11418742B2 (en) * | 2020-01-16 | 2022-08-16 | GM Global Technology Operations LLC | System and method for analyzing camera performance degradation due to lens abrasion |
JP7401129B1 (en) | 2022-11-15 | 2023-12-19 | 株式会社SEtech | Product display shelf |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02236407A (en) * | 1989-03-10 | 1990-09-19 | Agency Of Ind Science & Technol | Method and device for measuring shape of object |
JPH08261721A (en) * | 1995-03-22 | 1996-10-11 | Teijin Ltd | Deterioration detecting method for image processing illuminating means |
JPH09259278A (en) * | 1996-03-25 | 1997-10-03 | Matsushita Electric Ind Co Ltd | Image processor |
JP2000023038A (en) * | 1998-06-30 | 2000-01-21 | Toshiba Corp | Image extractor |
JP2002133400A (en) * | 2000-10-24 | 2002-05-10 | Oki Electric Ind Co Ltd | Object extraction image processor |
JP2003256814A (en) * | 2002-02-27 | 2003-09-12 | Olympus Optical Co Ltd | Substrate checking device |
JP2004246252A (en) * | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | Apparatus and method for collecting image information |
JP2006259829A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Image processing system, image processor and processing method, recording medium, and program |
JP2007272596A (en) * | 2006-03-31 | 2007-10-18 | Denso Corp | Operation object extracting device for mobile body |
JP2008227569A (en) * | 2007-03-08 | 2008-09-25 | Seiko Epson Corp | Photographing device, electronic device, photography control method and photography control program |
US20090103780A1 (en) * | 2006-07-13 | 2009-04-23 | Nishihara H Keith | Hand-Gesture Recognition Method |
JP2011010258A (en) * | 2009-05-27 | 2011-01-13 | Seiko Epson Corp | Image processing apparatus, image display system, and image extraction device |
US8059153B1 (en) * | 2004-06-21 | 2011-11-15 | Wyse Technology Inc. | Three-dimensional object tracking using distributed thin-client cameras |
US8059894B1 (en) * | 2006-12-19 | 2011-11-15 | Playvision Technologies, Inc. | System and associated methods of calibration and use for an interactive imaging environment |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5282067A (en) * | 1991-10-07 | 1994-01-25 | California Institute Of Technology | Self-amplified optical pattern recognition system |
DE10326035B4 (en) * | 2003-06-10 | 2005-12-22 | Hema Electronic Gmbh | Method for adaptive error detection on a structured surface |
EP1639546B1 (en) * | 2003-06-17 | 2011-05-04 | Brown University | Method and apparatus for model-based detection of structure in projection data |
US8180114B2 (en) * | 2006-07-13 | 2012-05-15 | Northrop Grumman Systems Corporation | Gesture recognition interface system with vertical display |
US20100027845A1 (en) * | 2008-07-31 | 2010-02-04 | Samsung Electronics Co., Ltd. | System and method for motion detection based on object trajectory |
US8199248B2 (en) * | 2009-01-30 | 2012-06-12 | Sony Corporation | Two-dimensional polynomial model for depth estimation based on two-picture matching |
KR101307341B1 (en) * | 2009-12-18 | 2013-09-11 | 한국전자통신연구원 | Method and apparatus for motion capture of dynamic object |
CN102044151B (en) * | 2010-10-14 | 2012-10-17 | 吉林大学 | Night vehicle video detection method based on illumination visibility identification |
JP5397426B2 (en) * | 2011-07-22 | 2014-01-22 | カシオ計算機株式会社 | Imaging apparatus, focusing method, and program |
-
2013
- 2013-01-16 CN CN201380012276.5A patent/CN104145276B/en active Active
- 2013-01-16 WO PCT/US2013/021713 patent/WO2013109609A2/en active Application Filing
- 2013-01-16 JP JP2014552391A patent/JP2015510169A/en active Pending
- 2013-01-16 CN CN201710225106.5A patent/CN107066962B/en active Active
- 2013-01-16 DE DE112013000590.5T patent/DE112013000590B4/en active Active
-
2016
- 2016-05-25 JP JP2016104145A patent/JP2016186793A/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02236407A (en) * | 1989-03-10 | 1990-09-19 | Agency Of Ind Science & Technol | Method and device for measuring shape of object |
JPH08261721A (en) * | 1995-03-22 | 1996-10-11 | Teijin Ltd | Deterioration detecting method for image processing illuminating means |
JPH09259278A (en) * | 1996-03-25 | 1997-10-03 | Matsushita Electric Ind Co Ltd | Image processor |
JP2000023038A (en) * | 1998-06-30 | 2000-01-21 | Toshiba Corp | Image extractor |
JP2002133400A (en) * | 2000-10-24 | 2002-05-10 | Oki Electric Ind Co Ltd | Object extraction image processor |
JP2003256814A (en) * | 2002-02-27 | 2003-09-12 | Olympus Optical Co Ltd | Substrate checking device |
JP2004246252A (en) * | 2003-02-17 | 2004-09-02 | Takenaka Komuten Co Ltd | Apparatus and method for collecting image information |
US8059153B1 (en) * | 2004-06-21 | 2011-11-15 | Wyse Technology Inc. | Three-dimensional object tracking using distributed thin-client cameras |
JP2006259829A (en) * | 2005-03-15 | 2006-09-28 | Omron Corp | Image processing system, image processor and processing method, recording medium, and program |
JP2007272596A (en) * | 2006-03-31 | 2007-10-18 | Denso Corp | Operation object extracting device for mobile body |
US20090103780A1 (en) * | 2006-07-13 | 2009-04-23 | Nishihara H Keith | Hand-Gesture Recognition Method |
US8059894B1 (en) * | 2006-12-19 | 2011-11-15 | Playvision Technologies, Inc. | System and associated methods of calibration and use for an interactive imaging environment |
JP2008227569A (en) * | 2007-03-08 | 2008-09-25 | Seiko Epson Corp | Photographing device, electronic device, photography control method and photography control program |
JP2011010258A (en) * | 2009-05-27 | 2011-01-13 | Seiko Epson Corp | Image processing apparatus, image display system, and image extraction device |
Also Published As
Publication number | Publication date |
---|---|
CN107066962A (en) | 2017-08-18 |
DE112013000590B4 (en) | 2016-05-04 |
DE112013000590T5 (en) | 2014-11-06 |
WO2013109609A2 (en) | 2013-07-25 |
WO2013109609A3 (en) | 2013-10-31 |
CN104145276B (en) | 2017-05-03 |
CN104145276A (en) | 2014-11-12 |
CN107066962B (en) | 2020-08-07 |
JP2016186793A (en) | 2016-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11782516B2 (en) | Differentiating a detected object from a background using a gaussian brightness falloff pattern | |
JP2016186793A (en) | Enhanced contrast for object detection and characterization by optical imaging | |
US9285893B2 (en) | Object detection and tracking with variable-field illumination devices | |
US20140028861A1 (en) | Object detection and tracking | |
US10609285B2 (en) | Power consumption in motion-capture systems | |
US10936022B2 (en) | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation | |
JP6240609B2 (en) | Vision-based interactive projection system | |
JP2016038889A (en) | Extended reality followed by motion sensing | |
US9392196B2 (en) | Object detection and tracking with reduced error due to background illumination | |
KR20130015488A (en) | System and method for interface | |
Danciu et al. | Shadow removal in depth images morphology-based for kinect cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150929 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160126 |