WO2011142313A1 - 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体 - Google Patents

物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体 Download PDF

Info

Publication number
WO2011142313A1
WO2011142313A1 PCT/JP2011/060649 JP2011060649W WO2011142313A1 WO 2011142313 A1 WO2011142313 A1 WO 2011142313A1 JP 2011060649 W JP2011060649 W JP 2011060649W WO 2011142313 A1 WO2011142313 A1 WO 2011142313A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
object recognition
region
reference color
Prior art date
Application number
PCT/JP2011/060649
Other languages
English (en)
French (fr)
Inventor
聡 味香
陽子 波田
Original Assignee
日本システムウエア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本システムウエア株式会社 filed Critical 日本システムウエア株式会社
Priority to JP2012514787A priority Critical patent/JP5887264B2/ja
Publication of WO2011142313A1 publication Critical patent/WO2011142313A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to an apparatus for recognizing an object in an image, an object recognition method performed by the apparatus, a program for causing a computer to execute the method, and a computer-readable medium storing the software. More specifically, the present invention relates to an apparatus capable of recognizing a moving object in a moving image with a simple configuration, an object recognition method performed by the apparatus, a program for causing a computer to execute the method, and a computer storing the software It relates to a readable medium.
  • a user interface device When inputting predetermined information to a processing device such as a personal computer, a user interface device is usually used.
  • Major examples of this device include a keyboard, a trackball, a joystick, and the like. With these devices, a user can easily input desired information to the processing apparatus.
  • the gesture recognition device is mainly implemented by a camera and a program, recognizes the shape and motion of a user's hand or finger, and causes the processing device to perform processing according to the shape and motion.
  • This gesture recognition device performs predetermined processing on an image captured by a camera, and recognizes the position and shape of a user's hand or finger shown in the image.
  • the most common image processing technology is template matching.
  • Template matching is a technique in which an image of a human hand or the like is prepared in advance as a template image and a search is made as to whether or not the captured image has the same portion as the template image (see Patent Document 1).
  • a part having the same color as the target object is detected from the image captured by the camera (a skin color part if the target object is a human hand), and it is determined that the target object exists at the detected location.
  • a color detection technique see Patent Document 2.
  • Patent No. 4444583 Japanese Patent No. 4126721
  • the above method has the following disadvantages to be improved.
  • both the template pixel and the pixel captured by the camera are compared with each other, so that the process takes a considerable amount of time.
  • the amount of processing becomes enormous, and the processing of the processing apparatus may not be able to follow the frame rate of the moving image.
  • a single hue is usually used to reduce the amount of processing.
  • an object that looks like a single color is actually composed of a plurality of hues.
  • the color of the object varies depending on the viewing angle due to the influence of ambient light such as sunlight and fluorescent light.
  • the non-target object is erroneously detected. Therefore, there is a possibility that such a color detection technique cannot accurately detect the target object.
  • the present invention was devised in order to improve the above inconveniences, and an object of the present invention is performed by an apparatus capable of accurately recognizing a moving object in a moving image with a simple configuration.
  • An object recognition method, a program for causing a computer to execute the method, and a computer-readable medium storing the software are provided.
  • the invention of claim 1 devised to solve the above-mentioned problem is an object recognition apparatus for recognizing an object from a moving image including a target object.
  • the object recognition apparatus creates a first reference color, which is a hue that occupies the widest area among hues of an object in a frame image to be processed, and an RGB histogram of the frame image to be processed.
  • a first reference color which is a hue that occupies the widest area among hues of an object in a frame image to be processed
  • an RGB histogram of the frame image to be processed Present in the frame image by edge detection and reference color specifying means for specifying a second reference color that is equal to or higher than a predetermined threshold of the histogram and that is the most distant peak with respect to the first hue.
  • a closed region specifying means for specifying a closed region, and the first and second reference colors specified in an image frame processed in the closed region immediately before the frame image
  • Target object recognition means for recognizing a closed region at least partially overlapping with an area corresponding to the closed region recognized as the object in the previous image frame as the object.
  • invention of Claim 2 created in order to solve the said subject includes the closed area
  • the object recognition apparatus of Claim 1 includes the said,
  • the image processing apparatus further includes processing target area determination means for setting an area smaller than the entire area of the frame image as a processing target area, and the reference color specifying means, the closed area specifying means, and the target object recognition means are only for the processing target area.
  • the object recognition method which recognizes this object from the moving image containing the object used as object.
  • the object recognition method includes a first reference color specifying step of specifying a first reference color that is a hue that occupies the widest area among hues of a frame image to be processed, and RGB of the frame image to be processed
  • a target object recognition stage for recognizing a closed area at least partially overlapping an area corresponding to the closed area recognized as the object in the previous image frame , Including the.
  • the object recognition method of Claim 4 includes the closed area
  • the invention of claim 8 devised to solve the above-mentioned problem is a gesture recognition device equipped with the electronic circuit of claim 7.
  • the invention of claim 10 devised to solve the above problem is a computer readable medium storing the program according to claim 9.
  • the conventional color detection method uses a predetermined single color as a reference color.
  • a predetermined single color is used.
  • two kinds of reference colors are used. Further, the accuracy of color detection is improved by using the first reference color obtained from the hue and the second reference color obtained from RGB as the reference color.
  • the color of the same object may appear to change over time due to the position angle and the influence of ambient light such as sunlight and fluorescent light. Therefore, if the reference color is fixed, accurate color detection may not be possible.
  • the reference color is obtained for each frame image, and the target frame is processed using the reference color obtained from the frame image immediately before the target frame image. Therefore, it is possible to cope with a color change with time of the object.
  • the conventional color detection recognizes the object and the other object as a single object.
  • edge detection is performed, and even when a plurality of objects having the same color overlap each other, they are handled as independent closed regions.
  • a closed region that exists at a position at least partially overlapping with the object recognized in the frame image immediately before the target frame image is identified as the object to be recognized. This is because a normal moving image is composed of a group of frame images captured several tens or more per second, so even if an object moves at a certain speed, the object is always displayed in the adjacent frame image. This is based on the grounds that it has a portion overlapping with an object in the frame image.
  • the processing target area is expanded to the entire frame of the frame image and the processing is performed again. Thereby, the accuracy of object recognition is improved.
  • the present invention can be provided in the form of an electronic circuit.
  • the present invention can be provided in the form of a gesture recognition device.
  • Claim 9 makes it possible to provide the present invention in the form of a program.
  • a complex algorithm is not required, and thus a device capable of accurately recognizing a moving object in a moving image with a simple configuration, an object recognition method performed by the device, and a computer executing the method. It has become possible to provide a program and a computer-readable medium storing the software.
  • FIG. 1 It is a diagram for explaining an overlapping region determination method according to an embodiment of the present invention
  • (a) is a diagram in which the object of the image frame to be processed and the object of the previous frame image are superimposed
  • (B) is a diagram showing only the overlapping region in (a)
  • (c) is a diagram showing the entire image frame to be processed and the overlapping region.
  • (a) is a frame image
  • (b) is an area
  • (c) is a process target area
  • This object recognition device has a function of recognizing the position of an object in a moving image, particularly a moving object.
  • the configuration and function of the object recognition device are described on the assumption that the object to be recognized is a human hand moving in free space.
  • the target object is not limited to a human hand. Any object can be recognized.
  • the object recognition apparatus according to an embodiment of the present invention mainly executes the following four processes. First, the characteristics of each process will be described below.
  • the predetermined area As the predetermined area is larger, the accuracy of recognizing an object is improved, but on the other hand, the load amount to be processed is increased. Select the optimum value in consideration of the moving speed of the object and the computing capability of the device. Detailed functional elements of the object recognition apparatus of the present invention that perform the above four processes will be described below.
  • FIG. 5 shows a functional block diagram of the object recognition apparatus 1000 according to an embodiment of the present invention.
  • the object recognition apparatus 1000 includes, as functional elements, a frame image receiving unit 10, a processing target region extracting unit 20, a reference color obtaining unit 30, a binary image generating unit 40, and a closed region specifying unit 50. And an overlapping closed region selection unit 60, a processing target region determination unit 70, a reference color determination unit 80, and a storage unit 90.
  • the object recognition device 1000 is implemented by a processing device such as a personal computer.
  • an imaging device is connected to the input unit, and a subsequent device is connected to the output unit.
  • the imaging device has a function of capturing an object to be recognized at a predetermined frame rate and outputting the captured data as moving image data in a predetermined format.
  • a general-purpose video camera may be used for this imaging device.
  • the processing target area extraction unit 20 has a function of extracting only an image of a portion corresponding to the processing target area from the frame image received from the frame image receiving unit 10. This processing target area is uniquely obtained for each frame image, is determined by a processing target area determination unit 70 described later, and is stored in the storage unit 90. Note that the processing target area to be used is obtained from the image frame processed before the image frame to be processed. The extracted image portion is sent to the binary image generation unit 40.
  • the closed region specifying unit 50 has a function of detecting a closed region in the binary image created by the binary image generating unit 40 and labeling the closed region.
  • the labeled image is sent to the overlapping closed region selection unit 60.
  • the overlapped closed area selecting unit 60 has a function of selecting a closed area corresponding to an object recognized from the closed areas labeled by the closed area specifying unit 50. Specifically, an area occupied by the object (hand) recognized in the previous frame image using the information of the previous frame image stored in the storage unit 90, and a closed region specifying unit 50 is compared with the labeled closed region, and it is determined that the object recognizes the closed region that overlaps the area of the object. Next, the coordinates of all the pixels constituting the closed region corresponding to the object are obtained, and this coordinate information is output to a subsequent apparatus and stored in the storage unit 90.
  • the processing target area determination unit 70 has a function of obtaining a processing target area in the next image frame based on the closed area determined as an object to be recognized by the overlapping closed area selection unit 60.
  • the obtained processing target area is stored in the storage unit 90.
  • the reference color determination unit 80 has a function of obtaining the first and second reference colors used in the processing of the next image frame from the closed region determined as an object to be recognized by the overlapping closed region selection unit 60.
  • the obtained first and second reference colors are stored in the storage unit 90.
  • the storage unit 90 has a function of storing the pixel coordinates of the recognized object, the first and second reference colors, the processing target area, and the like, and is implemented by a hard disk, a memory, various disks, and the like.
  • the above is the main function of the object recognition apparatus 1000 according to an embodiment of the present invention.
  • an object recognition method executed by the object recognition apparatus 1000 will be described.
  • initial setting must be performed first.
  • the initial setting is intended to indicate to the object recognition apparatus 1000 the intention to start processing and to grasp the object to be recognized.
  • the initial setting will be described with reference to the flowcharts of FIGS.
  • the user faces an imaging device connected to the object recognition device 1000, and the right hand, which is the object to be recognized, falls within a predetermined area (first area) defined in an image captured by the imaging device. (See FIG. 6B) (step S10).
  • the user may move and adjust the position of the right hand so that the right hand is sufficiently within the area, or the zoom of the imaging apparatus may be adjusted. Also, make sure that your right hand does not overlap your face and that there are no other objects in the background of your right hand as much as possible.
  • the position of the face may be specified by face recognition, and the process may be started by opening the target hand on the right side of the face.
  • the imaging apparatus captures an image of the user, and the object recognition apparatus 1000 receives the image (step S20).
  • a first processing target area obtained by enlarging the first area by a predetermined area is obtained from the captured image (step S30).
  • the first first and second reference colors of the right hand that are objects to be recognized in the captured image are obtained (step S40).
  • a closed region in the second area is obtained (step S50).
  • the detected closed region corresponds to the user's right hand.
  • Information on the first and second reference colors, the first processing target area, and the pixel coordinates of the object obtained last is stored in the storage unit 90 (step S60).
  • the object recognition apparatus 1000 performs the object recognition method.
  • the procedure of this method is shown in the flowchart of FIG. First, the imaging device continuously captures the right hand and sends the captured moving image to the frame image receiving unit 10.
  • the frame image receiving unit 10 receives the moving image (step S100)
  • the frame images constituting the moving image are sequentially transferred to the processing target region extracting unit 20.
  • the processing target area extraction unit 20 that has received the frame image accesses the storage unit 90 and acquires information on the processing target area obtained from the previous frame image (step S110). Then, the image portion of the area corresponding to the processing target area obtained from the received frame image is extracted and passed to the binary image generating unit 40 (step S120). At the same time, the reference color acquisition unit 30 accesses the storage unit 90 to acquire information on the first reference color and the second reference color obtained from the previous frame image, and obtains this information as a binary image generation unit. 40 (step S130).
  • the binary image generation unit 40 performs binary image processing on the image received from the processing target region extraction unit 20 using the first and second reference colors received from the reference color acquisition unit 30 (step S140). ).
  • the closed region specifying unit 50 identifies all closed regions in the binary image (step S150).
  • the overlapping closed region selection unit 60 accesses the storage unit 90 to obtain the pixel coordinates of the right hand recognized in the previous frame image, and whether there is a closed region overlapping with the area formed by the pixel coordinates. (Step S160).
  • Step S170 If there is an overlapping closed region (“YES” in step S170), it is determined that the overlapping closed region is the right hand, that is, an object to be recognized (step S180). Then, the pixel coordinates of the recognized object are output to a subsequent apparatus and stored in the storage unit 90. On the other hand, if there is no overlapping closed region (“NO” in step S170), this means that the object to be recognized has moved out of the processing target region, so the processing target region is expanded to the entire frame of the image frame. (Step S190), the processing of Steps S140 to S180 is performed again.
  • a processing target area used in the next frame image is obtained based on the size of the object recognized by the processing target area determination unit 70 (step S200), and the next frame image is obtained from the object recognized by the reference color determination unit 80.
  • First and second reference colors to be used are obtained (step S210), and the obtained processing target area and the first and second reference colors are stored in the storage unit 90 (step S220). This completes the object recognition process.
  • the present invention is not limited to this embodiment.
  • the first reference color that is the maximum hue and the second reference color that is the peak value of RGB are used, but the present invention is limited to this content. is not.
  • color detection may be performed by setting the second highest hue or the second peak value of RGB as the third and fourth reference colors. Using three or more reference colors in this way is particularly useful when the object to be recognized is composed of a combination of a plurality of colors.
  • the process target region is expanded to the frame of the frame image in step S190.
  • the processing target region may be enlarged stepwise by a predetermined ratio, for example, 10% by area ratio, and steps S140 to S180 may be repeated until an overlapping closed region is found.
  • the object recognition apparatus 1000 has a function of detecting the position of an object to be recognized, but the present invention is not limited to this function.
  • the object recognition apparatus 1000 of the present invention may detect the shape of the object in addition to the position of the object to be recognized.
  • a function such as obtaining the center of gravity and edge of the right hand region, identifying the shape of the right hand, for example, par, goo, etc., executing a command corresponding to this shape, or outputting a pulse waveform. .
  • the object recognition apparatus 1000 can be suitably applied to a gesture recognition apparatus for a user interface, but its application is not limited to a specific object, and various objects are recognized. It can be used for
  • the functions of the object recognition apparatus 1000 are not limited to specific hardware resources or software processing. That is, as long as this function can be realized, any hardware (electronic circuit or the like), software (program), or a combination thereof may be used.
  • the object recognition method according to the embodiment of the present invention described above is implemented as a program
  • the program is downloaded from an external server or the like to an information processing apparatus that executes the method, or in the form of a computer-readable medium It is preferable that it is distributed by.
  • the computer-readable medium include CD-ROM, DVD, magnetic tape, flexible disk, magneto-optical disk, hard disk, memory medium, and the like.

Abstract

【課題】単純な構成で動画像内の移動物体を正確に認識することが可能な物体認識装置を提供する。 【解決手段】本発明の物体認識装置(1000)は、処理対象のフレーム画像を構成する色相の中で最も広い面積を占める色相である第1の基準色と、該処理対象のフレーム画像のRGBヒストグラムを作成し、そのヒストグラムの所定の閾値以上で、かつ前記第1の色相に対して最も離れたピークを示す第2の基準色とを特定する基準色特定手段(80)と、エッジ検出により、前記フレーム画像の中に存在する閉領域を特定する閉領域特定手段(50)と、前記閉領域の中で、前記フレーム画像の1つ前に処理を行った画像フレームで特定された前記第1および第2の基準色を含み、かつ前記1つ前の画像フレームで前記物体として認識された閉領域に相当するエリアと少なくとも一部が重複する閉領域を前記物体として認識する対象物体認識手段(60)とを備える。

Description

物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
 本発明は、画像内の物体を認識するための装置、該装置によって行われる物体認識方法、該方法をコンピュータに実行させるプログラム、および該ソフトウェアを格納したコンピュータ可読媒体に関する。より詳細には、本発明は、単純な構成で動画像内の移動物体を認識可能な装置、該装置によって行われる物体認識方法、該方法をコンピュータに実行させるプログラム、および該ソフトウェアを格納したコンピュータ可読媒体に関する。
 パーソナルコンピュータなどの処理装置に所定の情報を入力する場合に、通常、ユーザインターフェース用のデバイスが使用される。このデバイスの主な例としては、キーボード、トラックボール、ジョイスティックなどが挙げられ、これらのデバイスによりユーザは容易に所望の情報を処理装置に入力することができる。
 しかし、処理装置を狭い机の上で使用する場合、あるいはハンディ機器として野外で使用する場合など、ユーザインターフェース用デバイスを使用するための十分な領域を確保できない場合がある。このような場合、近年ではジェスチャー認識装置が利用されている。ジェスチャー認識装置とは主にカメラとプログラムとによって実装され、ユーザの手や指の形状や動作を認識し、その形状や動作に従った処理を処理装置に行わせるものである。
 このジェスチャー認識装置は、カメラで撮像した画像に所定の処理を施し、その画像に写っているユーザの手や指の位置や形状を認識している。この画像処理技術で最も一般的なものとしてはテンプレートマッチングが挙げられる。テンプレートマッチングは、予めテンプレート画像として人間の手などの画像を用意し、撮像した画像に当該テンプレート画像と同一の部分があるかどうかを探索する手法である(特許文献1参照)。
 また、カメラが撮像した画像の中から対象の物体と同色の部分(対象の物体が人間の手ならば肌色の部分)を検出し、検出した箇所に対象の物体が存在していると判断する色検出技術もある(特許文献2参照)。
特許第4444583号 特許第4126721号
 上記の手法には以下のような改善すべき不都合点がある。
 テンプレートマッチング処理では、テンプレート画素と
カメラが撮像した画素の両画素を総当りで比較することになるため、処理に相当の時間が掛かってしまう。特に、動画像から移動物体を検出する場合には、処理量が膨大になり、処理装置の処理が動画像のフレームレートに追従できない可能性がある。
 色検出技術では、通常、処理量を抑えるために単一の色相を用いる。しかし、単色に見える物体でも実際には複数の色相から構成されている。また、太陽光、蛍光灯光などの外乱光の影響などで見る角度で物体の色が異なってしまう。また、画像内に対象の物体とほぼ同一の色相を有する対象外の物体が存在する場合には、その対象外の物体を誤って検出してしまう可能性がある。そのため、このような色検出技術では正確に対象の物体を検出できない恐れがある。
 本発明は上記の不都合を改善するために創案されたものであり、本発明の目的は、単純な構成で動画像内の移動物体を正確に認識することが可能な装置、該装置によって行われる物体認識方法、該方法をコンピュータに実行させるプログラム、および該ソフトウェアを格納したコンピュータ可読媒体を提供することである。
 前記課題を解決するために創案された請求項1の発明は、対象となる物体が含まれた動画像から該物体を認識する物体認識装置である。当該物体認識装置は、処理対象のフレーム画像内の対象物が有する色相の中で最も広い面積を占める色相である第1の基準色と、該処理対象のフレーム画像のRGBヒストグラムを作成し、そのヒストグラムの所定の閾値以上で、かつ前記第1の色相に対して最も離れたピークを示す第2の基準色とを特定する基準色特定手段と、エッジ検出により、前記フレーム画像の中に存在する閉領域を特定する閉領域特定手段と、前記閉領域の中で、前記フレーム画像の1つ前に処理を行った画像フレームで特定された前記第1および第2の基準色を含み、かつ前記1つ前の画像フレームで前記物体として認識された閉領域に相当するエリアと少なくとも一部が重複する閉領域を前記物体として認識する対象物体認識手段と、を備える。
前記課題を解決するために創案された請求項2の発明は、請求項1に記載の物体認識装置が、前記1つ前の画像フレームで前記物体として認識された閉領域を包含し、かつ前記フレーム画像の全領域よりも小さいエリアを処理対象領域とする処理対象領域決定手段をさらに備え、前記基準色特定手段と、前記閉領域特定手段と、前記対象物体認識手段は、前記処理対象領域のみに処理を行う。
前記課題を解決するために創案された請求項3の発明は、請求項2に記載の物体認識装置において、前記対象物体認識手段が前記処理対象領域内に前記物体が存在しないと判断した場合に、前記処理対象領域決定手段が前記処理対象領域を前記フレーム画像の全領域まで拡大して、該拡大した領域内を基準色特定手段と、閉領域特定手段と、対象物体認識手段とが再度処理を行う。
前記課題を解決するために創案された請求項4の発明は、対象となる物体が含まれた動画像から該物体を認識する物体認識方法である。当該物体認識方法は、処理対象のフレーム画像が有する色相の中で最も広い面積を占める色相である第1の基準色を特定する第1の基準色特定段階と、前記処理対象のフレーム画像のRGBヒストグラムを作成し、そのヒストグラムの所定の閾値以上で、かつ前記第1の色相に対して最も離れたピークを示す第2の基準色を特定する第2の基準色特定段階と、エッジ検出により、前記フレーム画像の中に存在する閉領域を特定する閉領域特定段階と、前記閉領域の中で、前記フレーム画像の1つ前に処理を行った画像フレームで特定された前記第1および第2の基準色を含み、かつ前記1つ前の画像フレームで前記物体として認識された閉領域に相当するエリアと少なくとも一部が重複する閉領域を前記物体として認識する対象物体認識段階と、を含む。
前記課題を解決するために創案された請求項5の発明は、請求項4に記載の物体認識方法が、前記1つ前の画像フレームで前記物体として認識された閉領域を包含し、かつ前記フレーム画像の全領域よりも小さいエリアを処理対象領域とする処理対象領域決定段階をさらに含み、前記第1の基準色特定段階の処理と、前記第2の基準色特定段階の処理と、前記閉領域特定段階の処理と、前記対象物体認識段階の処理は、前記処理対象領域のみに行われる。
前記課題を解決するために創案された請求項6の発明は、請求項5に記載の物体認識方法において、前記対象物体認識段階で前記処理対象領域内に前記物体が存在しないと判断された場合に、前記処理対象領域を前記画像フレームの全領域まで拡大して、該拡大した領域内で前記第1の基準色特定段階の処理と、前記第2の基準色特定段階の処理と、前記閉領域特定手段の処理と、前記対象物体認識手段の処理とが再度行われる。
前記課題を解決するために創案された請求項7の発明は、請求項4ないし6の何れか一項に記載の物体認識方法を実行する電子回路である。
前記課題を解決するために創案された請求項8の発明は、請求項7に記載の電子回路を搭載したジェスチャー認識装置である。
前記課題を解決するために創案された請求項9の発明は、請求項4ないし6の何れか一項に記載の物体認識方法を処理装置に実行させるプログラムである。
前記課題を解決するために創案された請求項10の発明は、請求項9に記載のプログラムを格納したコンピュータ可読媒体である。
 従来の色検出の手法は、予め決められた単一の色を基準色として用いる。しかし、物体は単色に見えるものでも実際には複数の色で構成されているため、単一の基準色では確度の高い物体認識を行うことが難しい。そのため、請求項1および4の発明では2種類の基準色を用いている。また、この基準色として、色相から求めた第1の基準色と、RGBから求めた第2の基準色とを用いることで色検出の精度を高めている。
 位置する角度や、太陽光や蛍光灯光等の外乱光の影響により、同一の物体でも経時的にその色が変化して見える場合がある。そのため、基準色を固定してしまうと正確に色検出ができなくなる恐れがある。しかし、本発明では、フレーム画像毎に基準色を求め、対象のフレーム画像の1つ前のフレーム画像で求めた基準色を用いて当該対象のフレームを処理している。そのため、物体の経時的な色変化にも対応することができる。
 また、認識対象の物体が同一の色を有する他の物体と重なって位置した場合に、従来の色検出ではその物体と他の物体とを単一の物体として認識してしまう。しかし、本発明ではエッジ検出を行い、このような同一色を有する複数の物体が重なった場合でもそれぞれ独立した閉領域として取り扱う。
 さらに、認識対象の物体と同一の色を有する他の物体が存在する場合には、従来はどちらの物体が認識対象の物体か識別することが困難であった。しかし、本発明では、対象のフレーム画像の1つ前のフレーム画像で認識した物体と少なくとも一部が重複した位置に存在する閉領域を認識対象の物体として識別している。これは、通常の動画像は1秒間に数10枚以上撮像されるフレーム画像の群から構成されるため、たとえ物体がある程度の速度で移動しても、隣接するフレーム画像では必ずその物体は前のフレーム画像内の物体と重複する部分を有するという根拠に基づいている。
動画像を取り扱う場合、1秒間に数10枚以上撮像されるフレーム画像をリアルタイムで処理せねばならない。したがって、物体認識装置の演算能力が低い場合には処理速度が動画像のフレームレートに追従できない可能性がある。そのため、請求項2および5の発明では、フレーム画像中の処理を行うエリアを限定して、物体認識装置の演算負荷を低減させている。
 しかし、仮に認識すべき物体が処理対象領域の外に移動してしまった場合は物体の認識が不可能となる。そのため、請求項3および6の発明では、処理対象領域内に認識対象の物体が存在しない場合には、処理対象領域をフレーム画像の全枠まで拡大させて再度処理を行う。これにより、物体認識の確度を向上させている。
 請求項7により、本発明を電子回路の形態で提供することが可能となる。
 請求項8により、本発明をジェスチャー認識装置の形態で提供することが可能となる。
 請求項9により、本発明をプログラムの形態で提供することが可能となる。
 請求項10により、本発明をコンピュータ可読媒体の形態で提供することが可能となる。
 本発明によって、複雑なアルゴリズムが不要で、それゆえ単純な構成で動画像内の移動物体を正確に認識することが可能な装置、該装置によって行われる物体認識方法、該方法をコンピュータに実行させるプログラム、および該ソフトウェアを格納したコンピュータ可読媒体を提供することが可能となった。
本発明の一実施形態に係る色検出方法を説明するための図であり、(a)は検出対象の掌の画像であり、(b)は従来の単色検出方法で得られる掌画像であり、(c)は本発明の一実施形態に係る色検出方法で得られる掌画像である。 本発明の一実施形態に係る閉領域特定方法を説明するための図であり、(a)は撮像対象であり、(b)は撮像した画像フレームと処理対象領域であり、(c)はラベリングした閉領域である。 本発明の一実施形態に係る重複領域決定方法を説明するための図であり、(a)は処理する画像フレームの物体と、1つ前のフレーム画像の物体とを重ね合わせた図であり、(b)は(a)における重複領域のみを示した図であり、(c)は処理する画像フレーム全体と、重複領域とを示した図である。 本発明の一実施形態に係る処理対象領域を説明するための図であり、(a)はフレーム画像であり、(b)は認識する物体を囲んだ領域であり、(c)は処理対象領域である。 本発明の一実施形態に係る物体認識装置の機能ブロック図である。 本発明の一実施形態に係る物体認識方法の初期設定を説明するための図であり、(a)は初期設定直前の画像であり、(b)は初期設定中の画像である。 本発明の一実施形態に係る物体認識方法の初期設定の手順を示すフロー図である。 本発明の一実施形態に係る物体認識方法の手順を示すフロー図である。
 本発明の一実施形態に係る物体認識装置の構成や機能について添付図面を参照して以下に詳細に説明する。この物体認識装置は動画像内の物体、特に移動物体の位置を認識する機能を有する。
 本実施形態では認識の対象とする物体が自由空間を動く人間の手であることを前提として物体認識装置の構成及び機能を説明するが、対象の物体は人間の手に限定されるものではなく、如何なる物体も認識することが可能である。
 本発明の一実施形態に係る物体認識装置は主に以下の4つの処理を実行している。まず、それぞれの処理の特徴について以下に説明する。
[2つの基準色を用いた色検出処理]
 図1(a)は認識対象の物体である人間の手が写った画像の例である。従来の技術において、画像内の人間の手を色検出する場合には、例えば0~30°程度の色相を人間の肌色と仮定し、これに該当する色相部分を検索する。この手法により検索を行い、二値画像にした例を図1(b)に示す。このように、従来の色検出技術では、正確に人間の手を検出することができない。なぜならば、人間の手の肌色の度合いは、掌、甲など部分により異なり、また、太陽、蛍光灯光など外乱光の影響により経時的に変化する。したがって、本発明の一実施形態に係る物体認識装置は第1の基準色と第2の基準色とからなる2つの基準色を用いて色検出を行う。
 第1の基準色とは、画像内の認識対象の物体が有する色相のうち、最も広い範囲を占める色相である。第2の基準色とは、画像内の認識対象の物体を構成するすべての画素についてRGBのヒストグラムを生成し、所定の閾値を超える複数のピーク値の中から第1の基準色と最も離れたピークの色である。RGBのヒストグラムは、三原色のすべてを併せた画素数で作成する。また、所定の閾値は特に限定するものではないが、例えばピーク値の50%の値でよい。この手法により検出を行い、二値画像にした例を図1(c)に示すこのように、従来の色検出手法とは異なり、本発明の色検出手法を用いれば好適に物体を検出することができる。また、第1および第2の基準色は予め決定されるものではなく、フレーム画像ごとに求められる。これにより、色の経時変化にも対応することができる。
[閉領域検出処理]
 上記の色検出処理では、対象の物体とこの物体と同一の色を有する他の物体とが相互に接触した状態で配置されていた場合に、これらの物体を単一の物体として検出してしまう。例えば、図2(a)に示す状態で矩形の枠で囲まれた領域を撮像して得られた画像に上述の色検出処理を行うと、図2(b)に示す二値画像が得られる。この画像では、人間の手と顔の区分けができていないため、手および顔が単一の物体となり、手の部分だけを検出することができない。そこで、色検出で得られた領域に対してエッジ検出を行って複数の領域に分割する。詳細には、各画素における色情報を分析し、連結している画像に同一ラベルを付加することで複数の閉領域をグループ分けする。図2(c)は、この閉領域特定部50が閉領域をグループ分けして、ラベリングした例である。この図では、5つのグループが形成されており、認識対象の物体である手の部分はグループ1である。このように、認識対象の物体の周囲に同一色の別の物体と重なって存在しても混同すること無く、それぞれ区分けすることが可能となる。
[重複閉領域検出処理]
 上述の閉領域検出処理では、複数の閉領域が存在する場合にこの中のどの領域が対象の物体に相当するか判断することができない。そこで、現行のフレーム画像の1つ前に処理をしたフレーム画像の情報を用いて対象の物体に相当する閉領域を識別する。図3(a)に示すように、人間の手を自由空間で移動させた場合に、それを撮像した動画像の時間的に隣接する2つのフレーム画像を重ね合わせる。すると、図3(b)に示すような重複した部分が形成される。そこで、図3(c)のように、この重複した部分を有する閉領域を対象の物体として検出する。
[処理対象領域画定処理]
 この処理はオプションであり、処理全体に伴う装置の演算負荷を低減させることを目的とする。図4(a)に示したフレーム画像中に存在する対象の物体の位置を認識すると、図4(b)の点線で示すようにこの物体のエッジに隣接する矩形の領域を求める。次に、図4(c)に示すように、図4(b)の点線の領域よりも所定の面積だけ拡大した太字で示された領域を求め、この領域を処理対象領域とし、次のフレーム画像では上述のすべての処理はこの処理対象領域のみに行う。なお、ここで拡大する所定の面積は、特定の値に限定されるものではないが、本実施形態では20~50%の範囲であることが望ましい。所定の面積が大きいほど物体を認識する確度は向上するが、その反面、処理する負荷量が増大してしまう。物体の移動速度や装置の演算能力などを考慮して最適な値を選択されたい。
 以上の4つの処理を行う、本発明の物体認識装置の詳細な機能要素について以下に説明する。
 図5は、本発明の一実施形態に係る物体認識装置1000の機能ブロック図を示している。図示のように、物体認識装置1000は、機能要素として、フレーム画像受信部10と、処理対象領域抽出部20と、基準色取得部30と、二値画像生成部40と、閉領域特定部50と、重複閉領域選択部60と、処理対象領域決定部70と、基準色決定部80と、記憶部90と、から構成される。物体認識装置1000はパーソナルコンピュータ等の処理装置によって実装される。また、入力部には撮像装置が接続され、出力部には後段の装置が接続されている。撮像装置は、認識する対象の物体を所定のフレームレートで撮像し、その撮像したデータを所定の形式の動画像データとして出力する機能を有する。この撮像装置には汎用ビデオカメラを用いてよい。
 [フレーム画像受信部]
 フレーム画像受信部10は、撮像装置から動画像データを受け取る機能を有する。具体的には、撮像装置が生成した所定の形式の動画像データを受け取り、必要に応じてその動画像データを後段の機能要素が処理可能なデータ形式に変換する。
 [処理対象領域抽出部]
 処理対象領域抽出部20は、フレーム画像受信部10から受け取ったフレーム画像から処理対象領域に相当する部分の画像のみを抽出する機能を有する。この処理対象領域はフレーム画像ごとに一意に求められ、後述する処理対象領域決定部70によって決定され、記憶部90に格納されている。なお、使用される処理対象領域は、処理を行う画像フレームの1つ前に処理を行った画像フレームから求められたものである。抽出された画像部分は二値画像生成部40に送られる。
 [基準色取得部]
 基準色取得部30は、記憶部90にアクセスして、該記憶部90に格納された第1の基準色と第2の基準色とを取得する機能を有する。この第1の基準色および第2の基準色はフレーム画像ごとに一意に求められ、後述する基準色決定部80によって決定され、記憶部90に格納されている。なお、使用される第1の基準色および第2の基準色は、処理を行う画像フレームの1つ前に処理を行った画像フレームから求められたものである。取得された第1の基準色と第2の基準色とは二値画像生成部40に送られる。
 [二値画像生成部]
 二値画像生成部40は、処理対象領域抽出部20から受け取った画像部分を、基準色取得部30から受け取った第1の基準色および第2の基準色を用いて二値画像に変換する機能を有する。生成された二値画像は閉領域特定部50に送られる。
 [閉領域特定部]
 閉領域特定部50は、二値画像生成部40が作成した二値画像の中の閉領域を検出し、その閉領域にラベリングをする機能を有する。ラベリングをした画像は重複閉領域選択部60へ送られる。
 [重複閉領域選択部]
 重複閉領域選択部60は、閉領域特定部50がラベリングした閉領域の中から認識する物体に相当する閉領域を選択する機能を有する。具体的には、記憶部90に格納された1つ前に処理を行ったフレーム画像の情報を用い、当該1つ前のフレーム画像で認識した物体(手)が占めるエリアと、閉領域特定部50がラベリングした閉領域とを比較し、該物体のエリアと重なり合う閉領域を認識する物体と判断する。次いで、その物体に相当する閉領域を構成するすべての画素の座標を求め、この座標情報を後段の装置に出力すると共に、記憶部90に格納する。
 [処理対象領域決定部]
 処理対象領域決定部70は、重複閉領域選択部60が認識すべき物体として判断した閉領域を基に、次の画像フレームにおける処理対象領域を求める機能を有する。求めた処理対象領域は記憶部90に格納される。
 [基準色決定部]
 基準色決定部80は、重複閉領域選択部60が認識すべき物体として判断した閉領域から次の画像フレームの処理で用いる第1および第2基準色を求める機能を有する。求めた第1および第2基準色は記憶部90に格納される。
 [記憶部]
 記憶部90は、認識した物体の画素座標、第1および第2の基準色、処理対象領域などを格納する機能を有し、ハードディスク、メモリ、各種のディスク等で実装される。
 以上が本発明の一実施形態に係る物体認識装置1000の有する主な機能である。次に、この物体認識装置1000が実行する物体認識方法について説明する。
 本発明の一実施形態に係る物体認識方法では、最初に初期設定を行わなければならない。初期設定は、物体認識装置1000に処理の開始の意志を示し、認識対象となる物体を把握させることを目的とする。以下、図7および図8のフロー図を参照して、この初期設定について説明する。
 まず、ユーザは、物体認識装置1000に接続された撮像装置に対向し、その撮像装置が撮像する画像内に画定された所定のエリア(第1エリア)内に認識対象の物体である右手が収まるように配置させる(図6(b)参照)(ステップS10)。このとき、エリア内に右手が十分に収まるように、ユーザが移動して右手の位置を調整してもよく、あるいは撮像装置のズームを調整してもよい。また、右手が顔と重ならないようにし、できる限り右手の背景には他の物体が存在しないようにする。
 また、ユーザが正対した時、顔認識により顔の位置を特定し、顔の右側に対象となる手を開いてかざすことにより開始する様にしてもよい。
 以上の状態で撮像装置がユーザを撮像して、その画像を物体認識装置1000が受け取る(ステップS20)。この撮像画像から第1エリアを所定面積だけ拡大した最初の処理対象領域を求める(ステップS30)。次いで、撮像画像内の認識対象の物体である右手の最初の第1および第2の基準色を求める(ステップS40)。さらに、当該第2エリア内の閉領域を求める(ステップS50)。ここで、第1エリア内にはユーザの右手以外の物体は存在しないため、検出された閉領域はユーザの右手に相当する。最後に求めた最初の第1および第2の基準色および最初の処理対象領域、並びに物体の画素座標の情報を記憶部90に格納する(ステップS60)。
 以上の所定設定が終了すると、物体認識装置1000が物体認識方法を行う。この方法の手順を図8のフロー図に示す。
 最初に、撮像装置が右手を継続的に撮像し、撮像した動画像をフレーム画像受信部10に送付する。フレーム画像受信部10がその動画像を受け取ると(ステップS100)、この動画像を構成するフレーム画像を順次、処理対象領域抽出部20に転送する。
 フレーム画像を受け取った処理対象領域抽出部20は、記憶部90にアクセスして1つ前のフレーム画像で求めた処理対象領域に関する情報を取得する(ステップS110)。そして、受け取ったフレーム画像から所得した処理対象領域に相当するエリアの画像部分を抽出して二値画像生成部40に渡す(ステップS120)。それと同時に、基準色取得部30は、記憶部90にアクセスして1つ前のフレーム画像で求めた第1の基準色および第2の基準色に関する情報を取得し、これを二値画像生成部40に転送する(ステップS130)。
 二値画像生成部40は、基準色取得部30から受け取った第1および第2の基準色を用いて、処理対象領域抽出部20から受け取った画像に対して二値画像処理を行う(ステップS140)。
 二値画像生成部40が二値画像を生成すると、閉領域特定部50がその二値画像内におけるすべての閉領域を識別する(ステップS150)。次いで、重複閉領域選択部60が記憶部90にアクセスして1つ前のフレーム画像で認識した右手の画素座標を取得し、この画素座標で形成されるエリアと重複する閉領域があるかどうかを調べる(ステップS160)。
 重複した閉領域が存在する場合には(ステップS170で「YES」)、その重複した閉領域が右手、すなわち認識すべき物体であると判断する(ステップS180)。そして、認識した物体の画素座標を後段の装置に出力すると共に記憶部90に格納する。一方、重複した閉領域が存在しない場合には(ステップS170で「NO」)、認識すべき物体が処理対象領域外に移動したことを意味するため、処理対象領域を画像フレームの枠全体まで拡大して(ステップS190)、再度ステップS140ないしS180の処理を行う。
 最後に、処理対象領域決定部70が認識した物体の大きさを基に次のフレーム画像で用いる処理対象領域を求め(ステップS200)、基準色決定部80が認識した物体から次のフレーム画像で用いる第1および第2の基準色を求め(ステップS210)、求めた処理対象領域と第1および第2の基準色を記憶部90に格納する(ステップS220)。以上で物体認識処理を終了する。
 以上に渡って本発明の一実施形態に係る物体認識装置1000およびこの装置によって行われる物体認識方法について説明をしたが、本発明はこの実施形態に限定されるものではない。
 例えば、物体認識装置1000が行う色検出では、最大色相である第1の基準色と、RGBのピーク値である第2の基準色を用いているが、本発明はこの内容に限定されるものではない。代替的に、2番目に高い色相やRGBの2番目のピーク値がなどを第3、第4の基準色と設定して色検出を行ってもよい。このように3種以上の基準色を用いることは、認識する物体が複数の色の組み合わせから構成される場合には特に有用である。
 また、本実施形態では、図8のフロー図のステップS170の処理で重複する閉領域が存在しない場合、ステップS190で処理対象領域をフレーム画像の枠まで拡大する処理を行っているが、本発明はこの手順に限定されるものではない。代替的に、処理対象領域を所定の割合、例えば面積比で10%ずつ段階的に拡大させて、重複する閉領域が見つかるまでステップS140ないしS180の手順を繰り返してもよい。
 本発明の一実施形態に係る物体認識装置1000は、認識する物体の位置を検出する機能を有しているが、本発明はこの機能に限定されるものでない。例えば、本発明の物体認識装置1000は、認識する物体の位置に加えてその形状を検出してもよい。例えば、右手の領域の重心およびエッジを求めて右手の形状、例えば、パー、グーなどを識別し、この形状に対応するコマンドの実行、あるいはパルス波形を出力するなどの機能を追加してもよい。
 本発明の一実施形態に係る物体認識装置1000は、ユーザインターフェース用のジェスチャー認識装置に好適に適用することができるが、その用途は特定のものに限定されるものではなく、様々な物体を認識する用途に用いることができる。
 本発明の一実施形態に係る物体認識装置1000が有する機能は、特定のハードウェア資源またはソフトウェア処理に限定されないことに留意されたい。すなわち、この機能を実現できる限り、如何なるハードウェア(電子回路等)、ソフトウェア(プログラム)、あるいはそれらの組み合わせ等を用いてよい。
 上述した本発明の一実施形態に係る物体認識方法を、プログラムとして実装する場合には、このプログラムを外部のサーバ等から該方法を実行する情報処理装置にダウンロードするか、あるいはコンピュータ可読媒体の形態で分配されることが好ましい。コンピュータ可読媒体の例としては、CD-ROM、DVD、磁気テープ、フレキシブルディスク、光磁気ディスク、ハードディスク、メモリ媒体などが挙げられる。
 以上、本発明を図面に示した実施形態を用いて説明したが、これらは例示的なものに過ぎず、本技術分野の当業者ならば、本発明の範囲および趣旨から逸脱しない範囲で多様な変更および変形が可能なことは理解できるであろう。したがって、本発明の範囲は、説明された実施形態によって定められず、特許請求の範囲に記載された技術的趣旨により定められねばならない。
 10  フレーム画像受信部
 20  処理対象領域抽出部
 30  基準色取得部
 40  二値画像生成部
 50  閉領域特定部
 60  重複閉領域選択部
 70  処理対象領域決定部
 80  基準色決定部
 90  記憶部
 1000 物体認識装置
 

Claims (10)

  1.  対象となる物体が含まれた動画像から該物体を認識する物体認識装置であって、
     処理対象のフレーム画像が有する色相の中で最も広い面積を占める色相である第1の基準色と、該処理対象のフレーム画像のRGBヒストグラムを作成し、そのヒストグラムの所定の閾値以上で、かつ前記第1の色相に対して最も離れたピークを示す第2の基準色とを特定する基準色特定手段と、
     エッジ検出により、前記フレーム画像の中に存在する閉領域を特定する閉領域特定手段と、
     前記閉領域の中で、前記フレーム画像の1つ前に処理を行った画像フレームで特定された前記第1および第2の基準色を含み、かつ前記1つ前の画像フレームで前記物体として認識された閉領域に相当するエリアと少なくとも一部が重複する閉領域を前記物体として認識する対象物体認識手段と、
    を備えることを特徴とする物体認識装置。
  2.  前記1つ前の画像フレームで前記物体として認識された閉領域を包含し、かつ前記フレーム画像の全領域よりも小さいエリアを処理対象領域とする処理対象領域決定手段をさらに備え、
     前記基準色特定手段と、前記閉領域特定手段と、前記対象物体認識手段は、前記処理対象領域のみに処理を行うことを特徴とする請求項1に記載の物体認識装置。
  3.  前記対象物体認識手段が前記処理対象領域内に前記物体が存在しないと判断した場合に、前記処理対象領域決定手段が前記処理対象領域を前記フレーム画像の全領域まで拡大して、該拡大した領域内を基準色特定手段と、閉領域特定手段と、対象物体認識手段とが再度処理を行うことを特徴とする請求項2記載の物体認識装置。
  4.  対象となる物体が含まれた動画像から該物体を認識する物体認識方法であって、
     処理対象のフレーム画像が有する色相の中で最も広い面積を占める色相である第1の基準色を特定する第1の基準色特定段階と、
     前記処理対象のフレーム画像のRGBヒストグラムを作成し、そのヒストグラムの所定の閾値以上で、かつ前記第1の色相に対して最も離れたピークを示す第2の基準色を特定する第2の基準色特定段階と、
     エッジ検出により、前記フレーム画像の中に存在する閉領域を特定する閉領域特定段階と、
     前記閉領域の中で、前記フレーム画像の1つ前に処理を行った画像フレームで特定された前記第1および第2の基準色を含み、かつ前記1つ前の画像フレームで前記物体として認識された閉領域に相当するエリアと少なくとも一部が重複する閉領域を前記物体として認識する対象物体認識段階と、
    を含むことを特徴とする物体認識方法。
  5.  前記1つ前の画像フレームで前記物体として認識された閉領域を包含し、かつ前記フレーム画像の全領域よりも小さいエリアを処理対象領域とする処理対象領域決定段階をさらに含み、
     前記第1の基準色特定段階の処理と、前記第2の基準色特定段階の処理と、前記閉領域特定段階の処理と、前記対象物体認識段階の処理は、前記処理対象領域のみに行われることを特徴とする請求項4に記載の物体認識方法。
  6.  前記対象物体認識段階で前記処理対象領域内に前記物体が存在しないと判断された場合に、前記処理対象領域を前記画像フレームの全領域まで拡大して、該拡大した領域内で前記第1の基準色特定段階の処理と、前記第2の基準色特定段階の処理と、前記閉領域特定手段の処理と、前記対象物体認識手段の処理とが再度行われることを特徴とする請求項5に記載の物体認識方法。
  7.  請求項4ないし6の何れか一項に記載の物体認識方法を実行する電子回路。
  8.  請求項7に記載の電子回路を搭載したジェスチャー認識装置。
  9.  請求項4ないし6の何れか一項に記載の物体認識方法を処理装置に実行させるプログラム。
  10.  請求項9に記載のプログラムを格納したコンピュータ可読媒体。
     
PCT/JP2011/060649 2010-05-11 2011-05-09 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体 WO2011142313A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012514787A JP5887264B2 (ja) 2010-05-11 2011-05-09 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-109409 2010-05-11
JP2010109409 2010-05-11

Publications (1)

Publication Number Publication Date
WO2011142313A1 true WO2011142313A1 (ja) 2011-11-17

Family

ID=44914369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/060649 WO2011142313A1 (ja) 2010-05-11 2011-05-09 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体

Country Status (2)

Country Link
JP (1) JP5887264B2 (ja)
WO (1) WO2011142313A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013143749A (ja) * 2012-01-12 2013-07-22 Toshiba Corp 電子機器および電子機器の制御方法
JP2014120066A (ja) * 2012-12-18 2014-06-30 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2014154160A (ja) * 2013-02-06 2014-08-25 Fujitsu Ltd 画像処理装置及び方法
JP2014182662A (ja) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd 操作装置及び操作方法
JP2014198202A (ja) * 2013-03-29 2014-10-23 富士通株式会社 脈波検出装置、脈波検出方法及び脈波検出プログラム
EP2916261A2 (en) 2014-03-07 2015-09-09 Fujitsu Limited Detecting device and detecting method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6542416B1 (ja) * 2018-03-12 2019-07-10 東芝エレベータ株式会社 ロープ検査システム、ロープ検査方法、およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028608A (ja) * 2008-07-23 2010-02-04 Sanyo Electric Co Ltd 画像処理装置、撮像装置、再生装置及び画像処理方法
JP2010040052A (ja) * 2009-09-18 2010-02-18 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5099434B2 (ja) * 2008-02-28 2012-12-19 国立大学法人秋田大学 オブジェクト領域の抽出システムおよび方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010028608A (ja) * 2008-07-23 2010-02-04 Sanyo Electric Co Ltd 画像処理装置、撮像装置、再生装置及び画像処理方法
JP2010040052A (ja) * 2009-09-18 2010-02-18 Toshiba Corp 画像処理装置、画像処理方法、画像処理プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013143749A (ja) * 2012-01-12 2013-07-22 Toshiba Corp 電子機器および電子機器の制御方法
JP2014120066A (ja) * 2012-12-18 2014-06-30 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2014154160A (ja) * 2013-02-06 2014-08-25 Fujitsu Ltd 画像処理装置及び方法
JP2014182662A (ja) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd 操作装置及び操作方法
JP2014198202A (ja) * 2013-03-29 2014-10-23 富士通株式会社 脈波検出装置、脈波検出方法及び脈波検出プログラム
EP2916261A2 (en) 2014-03-07 2015-09-09 Fujitsu Limited Detecting device and detecting method
US9727145B2 (en) 2014-03-07 2017-08-08 Fujitsu Limited Detecting device and detecting method

Also Published As

Publication number Publication date
JP5887264B2 (ja) 2016-03-16
JPWO2011142313A1 (ja) 2013-07-22

Similar Documents

Publication Publication Date Title
JP5887264B2 (ja) 物体認識装置、方法、プログラム、および該ソフトウェアを格納したコンピュータ可読媒体
US9690388B2 (en) Identification of a gesture
JP6417702B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US8442269B2 (en) Method and apparatus for tracking target object
JP5703194B2 (ja) ジェスチャ認識装置、その方法、及び、そのプログラム
JP2006350434A (ja) 手形状認識装置及びその方法
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
JP6028589B2 (ja) 入力プログラム、入力装置および入力方法
US9747023B2 (en) Information processing apparatus and method thereof
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US10269136B2 (en) System and method for processing depth images which capture an interaction of an object relative to an interaction plane
JP2013037539A (ja) 画像特徴量抽出装置およびそのプログラム
JP6530432B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9286513B2 (en) Image processing apparatus, method, and storage medium
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9727145B2 (en) Detecting device and detecting method
CN107357424B (zh) 一种手势操作的识别方法、设备及计算机可读存储介质
JP5747695B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR101200009B1 (ko) 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
JP6467994B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
EP2784720B1 (en) Image processing device and method
KR101465940B1 (ko) 영상에서 컬러 객체를 검출하는 방법, 영상에서 컬러 객체를 검출하는 장치 및 영상에서 복수의 컬러 객체를 검출하는 방법
KR101465933B1 (ko) 영상에서 컬러 객체를 검출하는 방법, 영상에서 컬러 객체를 검출하는 장치 및 영상에서 복수의 컬러 객체를 검출하는 방법
KR101481370B1 (ko) 영상에서 컬러 객체를 검출하는 방법 및 영상에서 컬러 객체를 검출하는 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11780570

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012514787

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11780570

Country of ref document: EP

Kind code of ref document: A1