WO2013047083A1 - 画像処理装置、画像処理方法、プログラム、および画像処理システム - Google Patents
画像処理装置、画像処理方法、プログラム、および画像処理システム Download PDFInfo
- Publication number
- WO2013047083A1 WO2013047083A1 PCT/JP2012/072165 JP2012072165W WO2013047083A1 WO 2013047083 A1 WO2013047083 A1 WO 2013047083A1 JP 2012072165 W JP2012072165 W JP 2012072165W WO 2013047083 A1 WO2013047083 A1 WO 2013047083A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- person
- unit
- region
- distance
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K2207/00—Other aspects
- G06K2207/1013—Multi-focal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Definitions
- the image processing apparatus for example, the imaging apparatus 20
- a region of interest determination unit that determines a region of interest from a captured image acquired by an imaging device that captures the target space based on the analysis result of the distance image in which the distance of each position in the target space acquired by the distance image sensor is expressed.
- An image analysis unit (264) that performs image analysis on the region of interest determined by the region of interest determination unit.
- the imaging device 20 acquires a captured image of the target space by imaging the target space of the distance image sensor 10. For example, the imaging device 20 collects light emitted from the target space to form an optical image on the imaging surface, and acquires the captured image by converting the optical image formed on the imaging surface into an electrical image signal. To do.
- the human face detection process according to the comparative example mainly includes a matching process for confirming whether or not each area in the captured image matches a predetermined face pattern, and the matching area is analyzed in detail by face authentication or the like. Includes analysis processing.
- the image compression unit 284 compresses the captured image acquired by the imaging unit 210. More specifically, the image compression unit 284 compresses the captured image so that the data rate of the peripheral area of the attention area is lower than the data rate of the attention area. For example, the image compression unit 284 may compress only the peripheral area without reducing the data rate of the attention area.
- the data correction unit 288 corrects the world coordinate conversion data stored in the storage unit 250 according to the image analysis result by the image analysis unit 264. For example, when the orientation of the image capturing unit 210 changes, the correspondence between the position information (x, y, z) in the world coordinate system and each region in the captured image also changes. Correction to reflect the change in the orientation of the data in the world coordinate conversion data.
- the function of the image compression unit 284 reduces the recording capacity while maintaining high resolution for the attention area in the scene where the captured image is recorded. It is possible. Similarly, in the case of transferring a captured image, it is possible to reduce the amount of communication traffic while maintaining high resolution for the attention area.
- the detection information storage unit 320 stores human detection information received by the communication unit 310.
- the person detection information will be described in detail with reference to FIG.
- FIG. 17 is an explanatory diagram showing a specific example of detection information.
- the person detection information includes, for example, a detection ID, a feature amount, a detection position, and a detection time.
- the detection ID is an ID for identifying each detection information
- the feature amount indicates a feature of the person obtained by analyzing the captured image
- the detection place is a place where the person is detected, that is, a transmission source of the detection information.
- the location of the imaging device 20-4 is shown, and the detection time indicates the time when a person is detected.
- the detection information “1” indicates that a person having the feature amount A is detected at 10:05 on August 1, 2011 at the place P1.
- the behavior detection unit 340 detects the movement route of the person based on the history of the detection locations of the same person. More specifically, the identity determination unit 330 uses the detection information “1”, the detection information “3”, and the detection information “4” regarding the person J so that the person J has P1 ⁇ P2 ⁇ P4 shown in FIG. It detects that it moved on route A. Similarly, the identity determination unit 330 is based on the detection information “2”, the detection information “5”, and the detection information “6” regarding the person K, and the person K follows the route B of P1 ⁇ P3 ⁇ P4 shown in FIG. Detect that it has moved.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
- Geophysics And Detection Of Objects (AREA)
- Studio Devices (AREA)
Abstract
距離画像センサにより取得される対象空間における各位置の距離が表現された距離画像の解析結果に基づき、前記対象空間を撮像する撮像装置により取得される撮像画像から注目領域を決定する注目領域決定部と、前記注目領域決定部により決定された前記注目領域を画像解析する画像解析部と、を備える画像処理装置。
Description
本発明は、画像処理装置、画像処理方法、プログラム、および画像処理システムに関する。
近日、撮像装置により取得された画像を解析し、画像に含まれる人物を検出する画像処理技術が広く普及している。このような画像処理技術によれば、例えば、駅、空港、アミューズメントエリア、劇場、およびホールなどの入退場ゲートに撮像装置を設置することにより、入退場ゲートの通過人数をカウントすることが可能である。また、特許文献1に記載されているように、画像処理を用いて人物追跡を実現することも可能である。
ここで、画像処理による人物の顔検出について簡単に説明する。人物の顔検出の過程は、主に、画像中の各領域について所定の顔パターンに合致するか否かを確認するマッチング処理、および、合致する領域を顔認証などにより詳細に解析する解析処理を含む。なお、人物の撮像距離によって画像における顔の大きさは変化するので、上記のマッチング処理は多様なサイズの顔パターンについて行われる。
一方、例えば特許文献2に開示されているように、対象空間における各位置の距離が表現された距離画像を生成する距離画像センサの開発も進められている。この距離画像センサは、例えば画素に対応した受光素子がマトリクス状に配置されている。そして、距離画像センサは、光を照射し、対象に反射した光が戻るまでの時間を画素ごとに計測することにより、対象空間における画素に対応した各位置の、光を反射した対象と距離画像センサとの相対距離を測定することが可能である。
上述した顔検出処理は、処理負荷および検出精度の観点で問題がある。例えば、顔検出のためのマッチング処理は、上述したように、画像中の各領域と多様なサイズの顔パターンの組合せ全てについて行われるので、処理負荷が高くなる。また、画像中の顔パターンを顔として検出するため、顔写真が印刷されたシャツを着用している人物がいた場合、顔写真の部分が顔領域として誤検出されてしまうことが予想される。あるいは、撮影装置の直近に置かれた人形の顔と、遠方に居る人物の顔とは、画像中では同じようなサイズとなり、顔検出のためのマッチング処理では、両者を区別できないことが予想される。
本発明は、上記問題に鑑みてなされたものである。本発明の目的は、画像解析の処理負荷および精度を改善することが可能な、新規かつ改良された画像処理装置、画像処理方法、プログラム、および画像処理システムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、距離画像センサによって取得された解析すべき撮影画像に対応する対象空間の形状情報である距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定し、当該注目空間領域に対応する撮影画像中の注目領域を特定する注目領域決定部と、前記特定された注目領域と他の画像領域では異なる画像解析を行う画像解析部と、を備える画像処理装置が提供される。
前記画像解析部が、前記注目領域に対してマッチング処理による解析処理をおこなってもよい。
前記画像解析部が、前記撮影画像を供給する撮影装置と前記距離画像に基づいて特定された前記注目空間領域との相対距離情報に基づいて、前記注目領域のパターン認識による解析処理に用いるパターンの選択範囲を変更してもよい。
前記距離画像の解析結果は、前記距離画像から検出された人物の位置情報を含み、前記注目領域決定部は、前記撮像画像中で前記人物の位置情報に対応する領域を前記注目領域に決定してもよい。
前記人物の位置情報は、第1の座標変換用データに基づき、前記人物の前記距離画像におけるセンサ座標系の位置情報が変換された3次元座標系の位置情報であり、前記画像処理装置は、前記3次元座標系の位置情報と前記撮像画像中の各領域との対応関係を示す第2の座標変換用データを記憶する記憶部をさらに備え、前記注目領域決定部は、前記第2の座標変換用データに基づき、前記人物の3次元座標系の位置情報に対応する前記撮像画像中の領域を判定して前記注目領域を決定してもよい。
前記注目領域決定部は、前記注目領域の大きさを、前記人物の3次元座標系の位置情報から推定される前記人物と前記撮像装置との相対距離に応じて決定してもよい。
前記画像処理装置は、前記画像解析部による前記注目領域の解析結果に基づいて前記第1の座標変換用データまたは前記第2の座標変換用データの信頼性を評価する評価部と、前記評価部により、前記第1の座標変換用データまたは前記第2の座標変換用データの信頼性が損なわれたと評価された場合に異常を通知する通知部と、をさらに備えてもよい。
前記画像処理装置は、前記第1の座標変換用データまたは前記第2の座標変換用データをキャリブレーションにより取得するキャリブレーション実行部と、前記キャリブレーション実行部により取得された前記第1の座標変換用データまたは前記第2の座標変換用データを前記画像解析部による前記注目領域の解析結果に基づいて補正するデータ補正部と、をさらに備えてもよい。
1つの前記距離画像センサに対して、前記対象空間を異なる方向から撮像する複数の前記撮像装置が配置され、前記注目領域決定部は、前記複数の撮像装置のうちで、前記人物の顔の向きに存在する撮像装置により取得された撮像画像の注目領域を決定してもよい。
前記画像処理装置は、複数組の前記距離画像センサおよび前記撮像装置と通信する通信部と、1の前記撮像装置により取得された撮像画像に含まれる人物の解析結果と、他の前記撮像装置により取得された撮像画像に含まれる人物の解析結果とを比較し、双方の撮像画像に含まれる人物の同一性を判断する同一人物判断部をさらに備えてもよい。
前記画像処理装置は、前記注目領域の周辺領域のデータレートが前記注目領域のデータレートより低くなるように前記撮像画像を圧縮する画像圧縮部をさらに備えてもよい。
また、上記課題を解決するために、本発明の別の観点によれば、距離画像センサによって取得された解析すべき撮影画像に対応する対象空間の形状情報である距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定し、当該注目空間領域に対応する撮影画像中の注目領域を特定するステップと、前記特定された注目領域と他の画像領域では異なる画像解析を行うステップと、を含む画像処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、距離画像センサによって取得された解析すべき撮影画像に対応する対象空間の形状情報である距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定し、当該注目空間領域に対応する撮影画像中の注目領域を特定する注目領域決定部と、前記特定された注目領域と他の画像領域では異なる画像解析を行う画像解析部と、を備える画像処理装置として機能させるための、プログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、対象空間における各位置の距離が表現された距離画像を取得する距離画像センサと、前記対象空間を撮像する撮像装置と、を有する画像処理システムであって、前記距離画像センサによって取得される前記距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定する処理、前記撮像装置により取得される撮像画像から、前記注目空間領域に対応する当該撮影画像中の注目領域を決定する処理、および、前記注目領域を画像解析する処理、を行う、画像処理システムが提供される。
以上説明したように本発明によれば、画像解析の処理負荷を軽減すると共に、画像解析の精度を改善することができる。
以下に、上記図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び各図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
<1.本実施形態の概要>
本発明は、一例として「3.第1の実施形態」~「6.第4の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態による画像処理装置(例えば、撮像装置20)は、
A.距離画像センサにより取得される対象空間における各位置の距離が表現された距離画像の解析結果に基づき、前記対象空間を撮像する撮像装置により取得される撮像画像から注目領域を決定する注目領域決定部(260)と、
B.前記注目領域決定部により決定された前記注目領域を画像解析する画像解析部(264)と、を備える。
本発明は、一例として「3.第1の実施形態」~「6.第4の実施形態」において詳細に説明するように、多様な形態で実施され得る。また、各実施形態による画像処理装置(例えば、撮像装置20)は、
A.距離画像センサにより取得される対象空間における各位置の距離が表現された距離画像の解析結果に基づき、前記対象空間を撮像する撮像装置により取得される撮像画像から注目領域を決定する注目領域決定部(260)と、
B.前記注目領域決定部により決定された前記注目領域を画像解析する画像解析部(264)と、を備える。
上記のような画像処理装置を備える画像処理システムは、例えば、対象空間に存在する人物を高精度に検出することが可能である。したがって、本実施形態による画像処理システムは、多様な用途に適用可能である。
例えば、本実施形態による画像処理システムは、駅、空港、アミューズメントエリア、劇場、およびホールなどの入退場ゲートを通過する人数をカウントする用途に適用可能である。また、本実施形態による画像処理システムは、工場内の危険エリアや鉄道駅のプラットフォームと線路(又は線路上)との境などの危険な場所に人物などが誤侵入しないように監視する用途に適用可能である。さらに、本実施形態による画像処理システムは、エレベータや駅の構内、銀行ATM付近、コンビニエンスストアなどの小売店舗で、人物の通過や滞留などを検知するいわゆる人物監視の用途にも適用可能である。また、本実施形態は、人物の顔検出に関するものであるが、本発明は人物以外の自動車等の高精度な検出にも、適用することができる。
以下では、まず、このような各実施形態において共通する画像処理システムの基本構成について説明した後に、本発明の各実施形態について順次詳細に説明する。
<2.画像処理システムの基本構成>
図1は、本発明の実施形態による画像処理システムの構成を示した説明図である。図1に示したように、本発明の実施形態による画像処理システムは、距離画像センサ10と、撮像装置20と、を備える。
図1は、本発明の実施形態による画像処理システムの構成を示した説明図である。図1に示したように、本発明の実施形態による画像処理システムは、距離画像センサ10と、撮像装置20と、を備える。
(距離画像センサ10)
距離画像センサ10は、光を照射し、対象に反射した光が戻るまでの時間を画素ごとに計測することにより、対象空間における画素に対応した各位置の、光を反射した対象と距離画像センサ10との相対距離を測定する。そして、距離画像センサ10は、測定して得られた相対距離情報を統合して、対象空間の3次元的の形状情報が表現された距離画像を生成する。ここで、図2を参照して、距離画像についてより具体的に説明する。
距離画像センサ10は、光を照射し、対象に反射した光が戻るまでの時間を画素ごとに計測することにより、対象空間における画素に対応した各位置の、光を反射した対象と距離画像センサ10との相対距離を測定する。そして、距離画像センサ10は、測定して得られた相対距離情報を統合して、対象空間の3次元的の形状情報が表現された距離画像を生成する。ここで、図2を参照して、距離画像についてより具体的に説明する。
図2は、距離画像の具体例を示した説明図である。なお、図2においては、色の薄い領域ほど距離画像センサ10との距離が近く、色の濃い領域ほど距離画像センサ10との距離が遠いことを示す。
図2に示したように、距離画像センサ10が人物の真上から距離測定を行った場合、床面に比べて人物の肩および頭部が距離画像センサ10に近い。このため、図2に示したように、人物の両肩S1およびS2と頭部S3が他の領域である床面よりも薄い色で表現された距離画像が得られる。なお、図面作成の制約上、図2では各位置の距離が色の濃淡で表現される例を示しているが、距離画像センサ10は、各位置の距離を色によって表現することも可能である。本実施形態による距離画像センサ10は、このような距離画像を解析し、解析結果を撮像装置20に送信する。
(撮像装置20)
一方、撮像装置20は、距離画像センサ10の対象空間を撮像することにより対象空間の撮像画像を取得する。例えば、撮像装置20は、対象空間から発せられる光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより撮像画像を取得する。
一方、撮像装置20は、距離画像センサ10の対象空間を撮像することにより対象空間の撮像画像を取得する。例えば、撮像装置20は、対象空間から発せられる光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより撮像画像を取得する。
図3は、撮像装置20により取得される撮像画像の具体例を示した説明図である。図3に示した撮像画像には、人物Aと、人物Aより前面に位置し、顔写真が印刷されたシャツを着用した人物Bが含まれる。詳細については後述するが、本実施形態による撮像装置20は、このような撮像画像から、処理負荷を軽減しつつ高精度に人物の顔を検出することが可能である。
なお、本実施形態においては、距離画像センサ10により取得される距離画像を人物の位置検出の用途で用い、撮像装置20により取得される撮像画像を人物認識の用途で用いる。このため、距離画像センサ10は、人物のオクルージョンが発生しないように、図1に示したように鉛直方向に近い方向から対象空間を測定することが望まれる。一方、撮像装置は、人物の顔画像が得られるように、図1に示したように少なくとも鉛直方向と交差する方向から対象空間を撮像することが望まれる。
(背景)
ここで、本発明の比較例による人物の顔検出処理を説明する。比較例による人物の顔検出処理は、主に、撮像画像中の各領域について所定の顔パターンに合致するか否かを確認するマッチング処理、および、合致する領域を顔認証などにより詳細に解析する解析処理を含む。
ここで、本発明の比較例による人物の顔検出処理を説明する。比較例による人物の顔検出処理は、主に、撮像画像中の各領域について所定の顔パターンに合致するか否かを確認するマッチング処理、および、合致する領域を顔認証などにより詳細に解析する解析処理を含む。
しかし、図3に示したように、人物の撮像距離によって撮像画像における顔の大きさは変化するので、上記のマッチング処理は多様なサイズの顔パターンについて行う必要があった。また、図3に示したように、顔写真が印刷されたシャツを着用している人物が存在する場合、比較例による顔検出処理では、シャツに印刷された顔写真を人物の顔として認識してしまう場合があった。すなわち、比較例による人物の顔検出処理は、処理負荷および顔の検出精度の観点から問題があった。
そこで、上記事情を一着眼点にして本実施形態による画像処理装置を創作するに至った。本実施形態による画像処理システムは、撮像画像から、処理負荷を軽減しつつ高精度に人物の顔を検出することが可能である。以下、このような各実施形態について順次詳細に説明する。
<3.第1の実施形態>
[3-1.第1の実施形態による距離画像センサの構成]
図4は、第1の実施形態による距離画像センサ10-1の構成を示した機能ブロック図である。図4に示したように、第1の実施形態による距離画像センサ10-1は、発光部110と、受光部120と、距離画像取得部130と、キャリブレーション実行部140と、記憶部150と、人物検出部160と、座標変換部170と、通信部180と、を備える。
[3-1.第1の実施形態による距離画像センサの構成]
図4は、第1の実施形態による距離画像センサ10-1の構成を示した機能ブロック図である。図4に示したように、第1の実施形態による距離画像センサ10-1は、発光部110と、受光部120と、距離画像取得部130と、キャリブレーション実行部140と、記憶部150と、人物検出部160と、座標変換部170と、通信部180と、を備える。
発光部110は、距離測定の対象空間に対して、赤外線のような肉眼では見えない波長の光を照射する。受光部120は、発光部110により照射された光の対象空間からの反射光を受光する。
距離画像取得部130は、受光部120による受光結果に基づいて対象空間上の各位置の距離を推定し、図2に示したように、対象空間上の各位置の距離が色や濃淡により表現された距離画像を取得する。
キャリブレーション実行部140は、キャリブレーションを実行することにより、距離画像取得部130により取得される距離画像においてセンサ座標系で表現される位置情報を、世界座標系のような3次元座標系の位置情報に変換するためのセンサ座標変換用データ(第1の座標変換用データ)を取得する。ここで、図5を参照し、センサ座標系および世界座標系の関係およびキャリブレーションについて説明する。
図5は、センサ座標系および世界座標系の関係を示した説明図である。なお、位置Pは距離画像センサ10-1の設置位置である。図5に示したように、距離画像取得部130によれば、対象空間の任意の位置をセンサ座標系(X、Y、Z)で取得することができる。しかし、このセンサ座標系は、任意の位置を、距離画像センサとの相対距離で表したものであり、世界座標系(x、y、z)と異なる。このため、キャリブレーション実行部140は、センサ座標系(X、Y、Z)を世界座標系(x、y、z)に変換するためのセンサ座標変換用データをキャリブレーションにより取得する。
なお、キャリブレーションの方法は特に限定されない。例えば、キャリブレーション実行部140は、床面上の任意の3つ以上の点について取得されるセンサ座標系(X、Y、Z)の値に基づき、例えば図5に示したような距離画像センサ10-1の設置高さh、俯角θ、および回転角ωなどを推定し、これら設置高さh、俯角θ、および回転角ωなどに基づくセンサ座標変換用データを取得してもよい。さらに、センサ座標変換用データは、人的に設定することも可能である。
ここで、図4を参照して距離画像センサ10-1の構成の説明に戻ると、記憶部150は、キャリブレーション実行部140により取得されたセンサ座標変換用データを記憶する。なお、記憶部150は、不揮発性メモリ、磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどの記憶媒体であってもよい。不揮発性メモリとしては、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、EPROM(Erasable Programmable ROM)があげられる。また、磁気ディスクとしては、ハードディスクおよび円盤型磁性体ディスクなどがあげられる。また、光ディスクとしては、CD(Compact Disc)、DVD-R(Digital Versatile Disc Recordable)およびBD(Blu-Ray Disc(登録商標))などがあげられる。
人物検出部160は、距離画像取得部130により取得された距離画像に存在する物体の形状やサイズに基づいて、人物が存在する可能性が高い空間を注目空間領域として検出する。例えば、人物検出部160は、距離画像とゲートや設置物のような背景物体との差分を抽出し、差分画像に対して2値化、ラベリングおよびクラスタリングなどの処理を施すことにより、距離画像から人物を検出してもよい。また、人物検出部160は、Haar-like特徴検出に従い、例えば図2に示したような肩S1、頭部S3、肩S2という並びに基づいて人物を検出してもよい。なお、図1に示したように距離画像センサ10が人物の真上から距離測定を行う場合、人物検出部160は、人物の頭部の位置を高い精度で検出することが可能である。
座標変換部170は、人物検出部160により検出された人物のセンサ座標系の位置情報(X、Y、Z)を、記憶部150に記憶されているセンサ座標変換用データを用いて、世界座標系の位置情報(x、y、z)に変換する。なお、座標変換部170は、例えば図6に示したように距離画像中の領域Fで人物が検出された場合、領域Fの範囲を示す位置情報(X、Y、Z)を世界座標系の位置情報(x、y、z)に変換してもよいし、領域Fの中心を示す位置情報(X、Y、Z)を世界座標系の位置情報(x、y、z)に変換してもよい。以下では、人物が検出された領域Fに対応する1つの世界座標系の位置情報(x、y、z)が座標変換部170により得られるものとして説明を進める。
通信部180は、撮像装置20-1とのインタフェースであって、撮像装置20-1と無線LANのような無線または有線により通信する。特に、本実施形態による通信部180は、座標変換部170により得られた人物の世界座標系の位置情報(x、y、z)を撮像装置20-1に送信する。
[3-2.第1の実施形態による撮像装置の構成]
以上、図4~図6を参照して第1の実施形態による距離画像センサ10-1の構成を説明した。続いて、図7を参照し、第1の実施形態による撮像装置20-1の構成を説明する。
以上、図4~図6を参照して第1の実施形態による距離画像センサ10-1の構成を説明した。続いて、図7を参照し、第1の実施形態による撮像装置20-1の構成を説明する。
図7は、第1の実施形態による撮像装置20-1の構成を示した機能ブロック図である。図7に示したように、第1の実施形態による撮像装置20-1は、撮像部210と、キャリブレーション実行部240と、記憶部250と、注目領域決定部260と、画像解析部264と、座標変換部270と、通信部280と、を備える。
撮像部210は、被写体から発せられる光を集光する撮影レンズおよびズームレンズなどの撮像光学系、および、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を有する。撮像部210においては、撮像光学系により撮像素子の撮像面に被写体像が形成され、撮像面に形成された被写体像を撮像素子が電気的な画像信号に変換することにより、撮像画像が取得される。
キャリブレーション実行部240は、キャリブレーションを実行することにより、世界座標系の位置情報(x、y、z)と撮像部210により取得される撮像画像中の各領域との対応関係を示す世界座標変換用データ(第2の座標変換用データ)を取得する。すなわち、画像解析を行う対象空間の3次元上の任意の空間領域が、2次元の撮影画像中の何れの領域に該当するかの対応付けを行う。一例として、キャリブレーション実行部240は、距離画像センサ10-1と協働してキャリブレーションを実行することができる。以下、この点について図8を参照してより具体的に説明する。
図8は、撮像装置20-1のキャリブレーションの具体例を示した説明図である。まず、図8の左図に示したように、4箇所にマーカー#1~#4が配置されると、撮像装置20-1は、マーカー#1~#4の世界座標系の位置情報(x、y、z)をキャリブレーション済みの距離画像センサ10-1から受信する。
そして、図8の右図に示したように、キャリブレーション実行部240は、マーカー#1~#4の各々の位置情報(x、y、z)と、撮像画像におけるマーカー#1~#4の位置との関係によって、世界座標変換用データを取得する。この世界座標変換用データは、記憶部250に記憶される。
なお、上記ではマーカー#1~#4の世界座標系の位置情報(x、y、z)が距離画像センサ10-1から受信される例を説明したが、世界座標系の位置情報(x、y、z)は人的に入力されてもよい。さらに、世界座標変換用データは、人的に設定することも可能である。
通信部280は、距離画像センサ10-1とのインタフェースであって、距離画像センサ10-1と、無線LANのような無線または有線により通信する。特に、本実施形態による通信部280は、キャリブレーション処理時、または、人物の検出処理時に、距離画像センサ10-1により世界座標系の位置情報(x、y、z)を受信する。
座標変換部270は、通信部280により距離画像センサ10-1から受信された、注目空間領域である人物の位置を示す世界座標系の位置情報(x、y、z)を、記憶部250に記憶されている世界座標変換用データに基づき、撮像画像中の画素位置を示す位置情報に変換する。このため、座標変換部270により得られた位置情報の示す位置には、人物が写っていることが期待される。
注目領域決定部260は、座標変換部270により得られた位置情報に基づき、撮像画像から注目領域を決定する。例えば、注目領域決定部260は、座標変換部270により得られた位置情報の示す画素位置を含む矩形領域を注目領域として決定してもよい。以下、図9を参照し、注目領域決定部260により決定される注目領域の具体例を説明する。
図9は、注目領域の具体例を示した説明図である。図9に示したように、注目領域決定部260は、遠方の人物Aの頭部を含む領域G1、および直近の人物Bの頭部を含む領域G2を注目領域として決定することができる。一方、人物Bの着用しているシャツの顔写真は、距離画像センサ10-1によって人物として検出されないので、顔写真の部分は注目領域とならない。
なお、図9に示したように、人物の撮像距離によって撮像画像における顔の大きさは異なる。そこで、注目領域決定部260は、注目領域のサイズを、世界座標系の位置情報(x、y、z)に基づいて推定される人物と撮像装置20-1との距離に応じて決定してもよい。例えば、注目領域決定部260は、図9に示したように、人物Aよりも前面に位置する人物Bの注目領域G2のサイズを、人物Aの注目領域G1より大きくしてもよい。
画像解析部264は、注目領域決定部260により決定された注目領域内の画像について、他の画像領域と区別した異なる解析をおこなう。すなわち、注目領域には人物の顔画像が含まれていることが期待されるので、画像解析部264は、注目領域に絞った解析することにより、人物の検出に加え、人物の性別、年齢、身長、および顔パターンなどの特徴量を得ることが可能である。さらに、画像解析部264は、注目領域の下方の領域を解析することにより、当該人物の服装に関する特徴量を得ることもできる。
なお、画像解析部264は、注目領域に対してマッチング処理による解析処理を行う場合、上述した人物の撮像距離によって注目領域のサイズを変更するのと同様に、特定された注目空間領域との相対距離情報や形状に基づいて、マッチング処理による解析処理に用いるパターンの選択範囲を変更しても良い。例えば、画像解析部264は、奥の人物Aの注目領域G1については、比較的サイズの小さいパターンのみを利用し、手前の人物Bの注目領域G2については、比較的サイズの大きいパターンのみを利用してもよい。
以上説明したように、本発明の第1の実施形態によれば、撮像装置20-1が、距離画像センサ10-1により取得された距離画像の解析結果に基づいて撮像画像から注目領域を決定し、撮像画像中の注目領域を解析する。かかる構成により、撮像画像中から顔を検出するための処理負荷を抑制しつつ、シャツに印刷された顔写真の誤検出を防止することができる。同様に、本発明の第1の実施形態によれば、距離画像および撮像画像を補間的に用いることにより、車いすの利用者、および幼児を抱えて連れている人物などの検出精度を向上することが可能である。
[3-3.第1の実施形態による画像処理システムの動作]
続いて、図10を参照し、第1の実施形態による画像処理システムの動作を整理する。
続いて、図10を参照し、第1の実施形態による画像処理システムの動作を整理する。
図10は、第1の実施形態による画像処理システムの動作を示したシーケンス図である。図10に示したように、まず、距離画像センサ10-1のキャリブレーション実行部140がキャリブレーションを実行してセンサ座標変換用データを取得し、撮像装置20-1のキャリブレーション実行部240がキャリブレーションを実行して世界座標変換用データを取得する(S404)。なお、距離画像センサ10-1および撮像装置20-1は、このキャリブレーションを距離画像センサ10-1および撮像装置20-1の設置時に行ってもよいし、距離画像センサ10-1および撮像装置20-1の設置後に定期的に行ってもよい。
その後、距離画像センサ10-1の距離画像取得部130が距離画像の取得を開始し(S408)、撮像装置20-1の撮像部210が撮像画像の取得を開始する(S412)。
そして、距離画像センサ10-1の人物検出部160により距離画像から人物が注目空間領域として検出されると(S416)、座標変換部170が、検出されたセンサ座標系の人物の位置情報(X、Y、Z)を、記憶部150に記憶されているセンサ座標変換用データを用いて、世界座標系の位置情報(x、y、z)に変換する。
続いて、通信部180が、座標変換部170により得られた人物の位置情報(x、y、z)を撮像装置20-1に送信する(S424)。なお、距離画像センサ10-1は、人物の位置情報(x、y、z)を撮像装置20-1に送信し続けてもよいし、撮像装置20-1からの要求に応じて送信してもよい。例えば、撮像装置20-1は、撮像画面の変化の有無を検出し、撮像画面に変化があった場合に距離画像センサ10-1に人物の位置情報(x、y、z)の送信を要求してもよい。
一方、撮像装置20-1の座標変換部270は、記憶部250に記憶されている世界座標変換用データを用い、距離画像センサ10-1から受信された人物の位置情報(x、y、z)を、撮像画像中の画素位置に変換する(S428)。
そして、撮像装置20-1の注目領域決定部260が、座標変換部270により得られた画素位置に基づいて撮像画像から注目領域を決定する(S432)。さらに、画像解析部264が、注目領域決定部260により決定された注目領域を画像解析することにより、人物の検出し、人物の特徴量を取得する(S436)。
[3-4.変形例]
なお、上記では、撮像装置20-1が注目領域の決定や画像解析を行う画像処理装置として機能する例を説明したが、他の装置を本実施形態による画像処理装置として機能させることも可能である。例えば、注目領域決定部260および画像解析部264などを距離画像センサ10-1および撮像装置20-1と通信する他の装置に設けることにより、他の装置を本実施形態による画像処理装置として機能させることができる。同様に、注目領域決定部260および画像解析部264などを距離画像センサ10-1に設けることにより、距離画像センサ10-1を本実施形態による画像処理装置として機能させることができる。以下、図11を参照し、距離画像センサ10-1が本実施形態による画像処理装置として機能する場合の動作を変形例として補足する。
なお、上記では、撮像装置20-1が注目領域の決定や画像解析を行う画像処理装置として機能する例を説明したが、他の装置を本実施形態による画像処理装置として機能させることも可能である。例えば、注目領域決定部260および画像解析部264などを距離画像センサ10-1および撮像装置20-1と通信する他の装置に設けることにより、他の装置を本実施形態による画像処理装置として機能させることができる。同様に、注目領域決定部260および画像解析部264などを距離画像センサ10-1に設けることにより、距離画像センサ10-1を本実施形態による画像処理装置として機能させることができる。以下、図11を参照し、距離画像センサ10-1が本実施形態による画像処理装置として機能する場合の動作を変形例として補足する。
図11は、第1の実施形態の変形例による動作を示したシーケンス図である。図11に示したように、まず、距離画像センサ10-1のキャリブレーション実行部140がキャリブレーションを実行してセンサ座標変換用データを取得し、撮像装置20-1のキャリブレーション実行部240がキャリブレーションを実行して世界座標変換用データを取得する(S404)。そして、撮像装置20-1が、キャリブレーションにより取得した世界座標変換用データを距離画像センサ10-1に送信する(S406)。
その後、距離画像センサ10-1の距離画像取得部130が距離画像の取得を開始し(S408)、撮像装置20-1の撮像部210が撮像画像の取得を開始する(S412)。撮像装置20-1の撮像部210により取得された撮像画像は、撮像装置20-1の通信部280から距離画像センサ10-1に送信される(S414)。
そして、距離画像センサ10-1の人物検出部160により距離画像から人物が注目空間領域として検出されると(S416)、座標変換部170が、検出されたセンサ座標系の人物の位置情報(X、Y、Z)を、センサ座標変換用データおよび世界座標変換用データに基づき、撮像画像中の画素位置に変換する(S422)。
そして、距離画像センサ10-1は、撮像装置20-1から受信される撮像画像において、座標変換部170により得られた画素位置に基づいて注目領域を決定する(S426)。さらに、距離画像センサ10-1は、注目領域を画像解析することにより、人物の検出し、人物の特徴量を取得する(S430)。
以上説明したように、本実施形態による画像処理装置としての機能を実現する主体は撮像装置20-1に限定されず、距離画像センサ10-1や他の装置によっても本実施形態による画像処理装置としての機能を実現することが可能である。
<4.第2の実施形態>
続いて、本発明の第2の実施形態を説明する。本発明の第2の実施形態による撮像装置20-2は、第1の実施形態による撮像装置20-1に無い幾つかの追加的な機能を有する。以下、このような第2の実施形態による撮像装置20-2について詳細に説明する。
続いて、本発明の第2の実施形態を説明する。本発明の第2の実施形態による撮像装置20-2は、第1の実施形態による撮像装置20-1に無い幾つかの追加的な機能を有する。以下、このような第2の実施形態による撮像装置20-2について詳細に説明する。
図12は、第2の実施形態による撮像装置20-2の構成を示した機能ブロック図である。図12に示したように、第2の実施形態による撮像装置20-2は、撮像部210と、キャリブレーション実行部240と、記憶部250と、注目領域決定部260と、画像解析部264と、座標変換部270と、通信部280と、画像圧縮部284と、データ補正部288と、評価部292と、通知部296と、を備える。なお、撮像部210、キャリブレーション実行部240、記憶部250、注目領域決定部260、画像解析部264、座標変換部270、および通信部280については第1の実施形態で説明した通りであるので、ここでの詳細な説明を省略する。
(画像圧縮)
画像圧縮部284は、撮像部210により取得された撮像画像を圧縮する。より詳細には、画像圧縮部284は、注目領域の周辺領域のデータレートが注目領域のデータレートより低くなるように撮像画像を圧縮する。例えば、画像圧縮部284は、注目領域のデータレートは下げずに、周辺領域のみを圧縮してもよい。
画像圧縮部284は、撮像部210により取得された撮像画像を圧縮する。より詳細には、画像圧縮部284は、注目領域の周辺領域のデータレートが注目領域のデータレートより低くなるように撮像画像を圧縮する。例えば、画像圧縮部284は、注目領域のデータレートは下げずに、周辺領域のみを圧縮してもよい。
かかる構成によれば、撮像画像を記録する場面において、注目領域については高解像度を維持しつつ、記録容量を低減することが可能である。また、撮像画像を転送する場面でも同様に、注目領域については高解像度を維持しつつ、通信トラフィック量を低減することが可能である。
(座標変換用データの補正)
データ補正部288は、記憶部250に記憶されている世界座標変換用データを、画像解析部264による画像の解析結果に応じて補正する。例えば、撮像部210の向きが変化した場合、世界座標系の位置情報(x、y、z)と撮像画像中の各領域との対応関係も変化するので、データ補正部288は、撮像部210の向きの変化を世界座標変換用データに反映させる補正を行う。
データ補正部288は、記憶部250に記憶されている世界座標変換用データを、画像解析部264による画像の解析結果に応じて補正する。例えば、撮像部210の向きが変化した場合、世界座標系の位置情報(x、y、z)と撮像画像中の各領域との対応関係も変化するので、データ補正部288は、撮像部210の向きの変化を世界座標変換用データに反映させる補正を行う。
具体例として、世界座標系の位置情報(x、y、z)と撮像画像中の各領域との対応関係が変化した場合、図13に示したように、人物Bの頭部と異なる領域G3が注目領域として決定されると考えられる。この場合、画像解析部264は、注目領域G3を解析しても人物Bを検出することができない。人物Bは、画像解析部264が撮像画像全域を解析することにより検出される。
そこで、データ補正部288は、距離画像センサ10-1から受信された世界座標系の位置情報(x、y、z)が、画像解析部264により検出された人物Bの頭部に対応するように世界座標変換用データを補正してもよい。かかる構成により、世界座標変換用データの信頼性を維持することが可能である。
なお、距離画像センサ10-1の測定方向が変化した場合にも、センサ座標系の位置情報(X、Y、Z)と世界座標系の位置情報(x、y、z)との対応関係が変化する。このような場合、撮像装置20-1は、距離画像センサ10-1にセンサ座標変換データの補正または再キャリブレーションを要求してもよい。
(異常の通知)
上述したように、撮像方向や設置位置が多少変化した場合には、座標変換用データを補正することで対応することが可能である。一方、撮像方向や設置位置が大きく変化し、撮像画像に対象の人物が全く写っていないような場合には、上述の補正を行うことが困難である。
上述したように、撮像方向や設置位置が多少変化した場合には、座標変換用データを補正することで対応することが可能である。一方、撮像方向や設置位置が大きく変化し、撮像画像に対象の人物が全く写っていないような場合には、上述の補正を行うことが困難である。
そこで、評価部292は、画像解析部264による画像の解析結果に基づいてセンサ座標変換用データまたは世界座標変換用データの信頼性を評価する。そして、距離画像または撮像画像の一方に含まれる人物が他方に全く含まれていない場合、センサ座標変換用データまたは世界座標変換用データの信頼性が損なわれたと評価する。
通知部296は、評価部292によりセンサ座標変換用データまたは世界座標変換用データの信頼性が損なわれたと評価された場合、異常の発生を通知する。例えば、通知部296は、所定の宛先に異常発生を通知する情報を送信してもよいし、異常の発生をアラーム音により通知してもよい。また、通知部296は、所定のLEDの発光などにより外部から視覚的に把握できるように異常の発生を通知してもよい。
かかる構成により、画像処理システムの管理者が異常の発生を認知し、センサ座標変換用データまたは世界座標変換用データを再取得するためのキャリブレーションを行うことが期待される。
(第2の実施形態の整理)
以上説明したように、本発明の第2の実施形態によれば、画像圧縮部284の機能により、撮像画像を記録する場面において、注目領域については高解像度を維持しつつ、記録容量を低減することが可能である。また、撮像画像を転送する場面でも同様に、注目領域については高解像度を維持しつつ、通信トラフィック量を低減することが可能である。
以上説明したように、本発明の第2の実施形態によれば、画像圧縮部284の機能により、撮像画像を記録する場面において、注目領域については高解像度を維持しつつ、記録容量を低減することが可能である。また、撮像画像を転送する場面でも同様に、注目領域については高解像度を維持しつつ、通信トラフィック量を低減することが可能である。
また、データ補正部288、評価部292、および通知部296は、センサ座標変換用データおよび世界座標変換用データの信頼性を維持するための機能を発揮することが可能である。
<5.第3の実施形態>
第1の実施形態および第2の実施形態では、1つの距離画像センサ10に対して1つの撮像装置20が配置される例を説明したが、第3の実施形態として説明するように、1つの距離画像センサ10に対して複数の撮像装置20を配置することも可能である。以下、詳細に説明する。
第1の実施形態および第2の実施形態では、1つの距離画像センサ10に対して1つの撮像装置20が配置される例を説明したが、第3の実施形態として説明するように、1つの距離画像センサ10に対して複数の撮像装置20を配置することも可能である。以下、詳細に説明する。
図14は、第3の実施形態による画像処理システムの構成を示した説明図である。図14に示したように、第3の実施形態による画像処理システムは、距離画像センサ10―3と、撮像装置20-3Aおよび撮像装置20-3Bを備える。
距離画像センサ10―3は、図4に示した第1の実施形態による距離画像センサ10-1と共通する機能ブロックを有する。すなわち、距離画像センサ10―3においては、距離画像取得部130が対象空間の距離画像を取得し、人物検出部160が距離画像から人物を注目空間領域として検出し、座標変換部170が人物位置をセンサ座標系から世界座標系に変換する。そして、第2の実施形態による距離画像センサ10―3の通信部180は、世界座標系に変換された人物位置を、撮像装置20-3Aおよび撮像装置20-3Bに送信する。例えば、通信部180は、世界座標系に変換された人物位置を、無線または有線により、撮像装置20-3Aおよび撮像装置20-3Bに直接ブロードキャスト、またはマルチキャストしてもよい。
撮像装置20-3Aおよび撮像装置20-3Bは、距離画像センサ10の対象空間を各々異なる方向から撮像する。また、撮像装置20-3Aおよび撮像装置20-3Bは、図7に示した第1の実施形態による撮像装置20-1と共通する機能ブロックを有する。
すなわち、撮像装置20-3Aおよび撮像装置20-3Bにおいては、座標変換部270が距離画像センサ10―3から受信された人物の位置情報を撮像画像中の画素位置に変換し、注目領域決定部260が座標変換部270により得られた画素位置に基づいて注目領域を決定し、画像解析部264が注目領域を画像解析する。
このように、第3の実施形態では、異なる方向から対象空間を撮像して得られる複数の撮像画像から人物検出を行う。このため、いずれかの撮像画像では人物が陰に隠れている場合や、いずれかの撮像画像では人物の背面が写っている場合であっても、他の撮像画像では人物を捉えられる可能性がある。したがって、第3の実施形態によれば、対象空間に存在するより多くの人物を検出し、各人物の特徴量を得ることが可能となる。
(補足)
なお、図14においては、1の距離画像センサ10―3に対して2つの撮像装置20-3を配置する例を説明したが、1の距離画像センサ10―3に対して配置する撮像装置20-3の数は2つに限定されない。例えば、1の距離画像センサ10―3に対して、対象空間を囲むように6つの撮像装置20-3を配置してもよいし、さらに多数の撮像装置20-3を配置してもよい。
なお、図14においては、1の距離画像センサ10―3に対して2つの撮像装置20-3を配置する例を説明したが、1の距離画像センサ10―3に対して配置する撮像装置20-3の数は2つに限定されない。例えば、1の距離画像センサ10―3に対して、対象空間を囲むように6つの撮像装置20-3を配置してもよいし、さらに多数の撮像装置20-3を配置してもよい。
また、上記では、距離画像センサ10―3が人物の位置情報を複数の撮像装置20-3に直接送信する例を説明したが、本実施形態はかかる例に限定されない。例えば、距離画像センサ10―3は、システムを管理する管理サーバに人物の位置情報を送信し、管理サーバが複数の撮像装置20-3に人物の位置情報を送信してもよい。
この時、距離画像センサ10-3が例えばHaar-likeフィルタにより人物の向きの検出にも成功した場合、管理サーバは、人物の向きに基づき、人物の顔を撮像可能な位置に配置されている撮像装置20-3にのみ人物の位置情報を送信してもよい。
あるいは、複数の撮像装置20-3によって取得された各撮像画像も管理サーバに集められる場合、管理サーバは、人物の顔を撮像可能な位置に配置されている撮像装置20-3により取得された撮像画像を処理対象(注目領域の決定および画像解析の対象)として選択してもよい。
<6.第4の実施形態>
続いて、本発明の第4の実施形態を説明する。第4の実施形態は、複数箇所に距離画像センサ10と撮像装置20の組を配置することにより、人物の行動パターンを検出することが可能である。以下、第4の実施形態について詳細に説明する。
続いて、本発明の第4の実施形態を説明する。第4の実施形態は、複数箇所に距離画像センサ10と撮像装置20の組を配置することにより、人物の行動パターンを検出することが可能である。以下、第4の実施形態について詳細に説明する。
(システム構成)
図15は、第4の実施形態による画像処理システムの構成を示した説明図である。図15に示したように、第4の実施形態による画像処理システムは、距離画像センサ10-4A~10-4Dと、撮像装置20-4A~20-4Dと、管理サーバ30と、を備える。
図15は、第4の実施形態による画像処理システムの構成を示した説明図である。図15に示したように、第4の実施形態による画像処理システムは、距離画像センサ10-4A~10-4Dと、撮像装置20-4A~20-4Dと、管理サーバ30と、を備える。
距離画像センサ10-4A~10-4Dと、撮像装置20-4A~20-4Dは、複数箇所に分散して配置される。例えば、図15に示したように、場所P1に距離画像センサ10-4Aおよび撮像装置20-4Aの組が配置され、場所P2に距離画像センサ10-4Bおよび撮像装置20-4Bの組が配置され、場所P3に距離画像センサ10-4Cおよび撮像装置20-4Cの組が配置され、場所P4に距離画像センサ10-4Dおよび撮像装置20-4Dの組が配置される。
なお、各距離画像センサ10-4および各撮像装置20-4は、第1の実施形態で説明したように、各場所を通過する人物を協調して検出する。そして、各撮像装置20-4は、人物の特徴量を含む検出情報を管理サーバ30に送信する。
管理サーバ30は、各撮像装置20-4から受信される検出情報を蓄積し、蓄積した検出情報に基づいて同一人物の行動パターンを解析する。以下、図16を参照し、この管理サーバ30の構成を説明する。
(管理サーバの構成)
図16は、管理サーバ30の構成を示した機能ブロック図である。図16に示したように、管理サーバ30は、通信部310と、検出情報記憶部320と、同一性判断部330と、行動検出部340と、を備える。
図16は、管理サーバ30の構成を示した機能ブロック図である。図16に示したように、管理サーバ30は、通信部310と、検出情報記憶部320と、同一性判断部330と、行動検出部340と、を備える。
通信部310は、距離画像センサ10-4や撮像装置20-4とのインタフェースであって、距離画像センサ10-4や撮像装置20-4と有線または無線により通信する。特に、本実施形態による通信部310は、例えば撮像装置20-4から人物の検出情報を受信する。
検出情報記憶部320は、通信部310によって受信された人物の検出情報を記憶する。以下、図17を参照して人物の検出情報について具体的に説明する。
図17は、検出情報の具体例を示した説明図である。図17に示したように、人物の検出情報は、例えば、検出ID、特徴量、検出位置および検出時刻などを含む。検出IDは各検出情報を識別するためのIDであり、特徴量は撮像画像の解析により得られた人物の特徴を示し、検出場所は人物が検出された場所、すなわち、検出情報の送信元の撮像装置20-4の配置場所を示し、検出時刻は人物が検出された時刻を示す。例えば、検出情報「1」は、特徴量Aを有する人物が、場所P1において2011年8月1日10時5分に検出されたことを示す。
図16に示した同一性判断部330は、検出情報記憶部320に蓄積された各検出情報の特徴量を比較し、各検出情報にかかる人物の同一性を判断する。例えば、特徴量A、特徴量A’および特徴量aが同一または類似する場合、同一性判断部330は、各特徴量を含む図17に示した検出情報「1」、検出情報「3」および検出情報「4」が同一人物Jの検出情報であると判断する。そして、同一性判断部330は、検出情報「1」、検出情報「3」および検出情報「4」に同一の人物IDを付与する。同様に、同一性判断部330は、検出情報「2」、検出情報「6」および検出情報「7」が同一人物Kの検出情報であると判断する。
行動検出部340は、同一性判断部330により判断された同一人物の検出情報に基づき、当該人物の行動パターンを検出する。
例えば、行動検出部340は、同一人物の検出場所の履歴によって、当該人物の移動ルートを検出する。より具体的には、同一性判断部330は、人物Jに関する検出情報「1」、検出情報「3」および検出情報「4」に基づき、人物Jが図15に示したP1→P2→P4というルートAで移動したことを検出する。同様に、同一性判断部330は、人物Kに関する検出情報「2」、検出情報「5」および検出情報「6」に基づき、人物Kが図15に示したP1→P3→P4というルートBで移動したことを検出する。
また、行動検出部340は、同一人物の検出場所および検出時刻の履歴によって、当該人物の移動速度や立ち寄り場所を検出することも可能である。
このように、第4の実施形態によれば、複数箇所に距離画像センサ10-4と撮像装置20-4の組を配置することにより、人物の行動パターンを検出することが可能である。また、行動パターンの検出結果を多様な用途に活用することが可能となる。例えば、行動パターンの検出結果を用い、各人物に最適なサービスを提供することができる。また、対象エリア内での移動、交通状況を把握することや、セキュリティ性の向上を図ることも可能である。
<7.むすび>
以上説明したように、本発明の第1の実施形態によれば、撮像装置20-1が、距離画像センサ10-1により取得された距離画像の解析結果に基づいて撮像画像から注目領域を決定し、撮像画像中の注目領域を解析する。かかる構成により、撮像画像中から顔を検出するための処理負荷を抑制しつつ、シャツに印刷された顔写真の誤検出を防止することができる。同様に、本発明の第1の実施形態によれば、距離画像および撮像画像を補間的に用いることにより、車いすの利用者、および幼児を抱えて連れている人物などの検出精度を向上することが可能である。
以上説明したように、本発明の第1の実施形態によれば、撮像装置20-1が、距離画像センサ10-1により取得された距離画像の解析結果に基づいて撮像画像から注目領域を決定し、撮像画像中の注目領域を解析する。かかる構成により、撮像画像中から顔を検出するための処理負荷を抑制しつつ、シャツに印刷された顔写真の誤検出を防止することができる。同様に、本発明の第1の実施形態によれば、距離画像および撮像画像を補間的に用いることにより、車いすの利用者、および幼児を抱えて連れている人物などの検出精度を向上することが可能である。
また、本発明の第2の実施形態によれば、画像圧縮部284の機能により、撮像画像を記録する場面において、注目領域については高解像度を維持しつつ、記録容量を低減することが可能である。また、撮像画像を転送する場面でも同様に、注目領域については高解像度を維持しつつ、通信トラフィック量を低減することが可能である。また、第2の実施形態によるデータ補正部288、評価部292、および通知部296は、センサ座標変換用データおよび世界座標変換用データの信頼性を維持するための機能を発揮することが可能である。
また、本発明の第3の実施形態では、異なる方向から対象空間を撮像して得られる複数の撮像画像から人物検出を行う。このため、いずれかの撮像画像では人物が陰に隠れている場合や、いずれかの撮像画像では人物の背面が写っている場合であっても、他の撮像画像では人物を捉えられる可能性がある。したがって、第3の実施形態によれば、対象空間に存在するより多くの人物を検出し、各人物の特徴量を得ることが可能となる。
また、本発明の第4の実施形態によれば、複数箇所に距離画像センサ10-4と撮像装置20-4の組を配置することにより、人物の行動パターンを検出することが可能である。
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、距離画像センサ10および撮像装置20は、移動可能なテーブルやレールに配置されてもよい。かかる構成によれば、距離画像センサ10および撮像装置20を適宜移動させることにより、人物の重なりなどを回避することが可能となる。
また、上記では、距離画像センサ10のセンサ座標系の位置情報を、世界座標系を介して撮像画像中の画素位置に変換する例を説明したが、本発明はかかる例に限定されない。
例えば、撮像装置20は、距離画像センサ10のセンサ座標系を直接撮像画像中の画素位置に変換するための座標変換用データをキャリブレーションにより取得してもよい。このキャリブレーションは、例えば、距離画像センサ10がマーカーのセンサ座標系の位置情報を撮像装置20に送信し、撮像装置20が撮像画像中のマーカーの位置とマーカーのセンサ座標系の位置情報とを比較することにより行うことが可能である。
例えば、撮像装置20は、距離画像センサ10のセンサ座標系を直接撮像画像中の画素位置に変換するための座標変換用データをキャリブレーションにより取得してもよい。このキャリブレーションは、例えば、距離画像センサ10がマーカーのセンサ座標系の位置情報を撮像装置20に送信し、撮像装置20が撮像画像中のマーカーの位置とマーカーのセンサ座標系の位置情報とを比較することにより行うことが可能である。
また、本明細書の画像処理システム、または距離画像センサ10および撮像装置20の処理における各ステップは、必ずしもシーケンス図として記載された順序に沿って時系列に処理する必要はない。例えば、距離画像センサ10および撮像装置20の処理における各ステップは、シーケンス図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、距離画像センサ10および撮像装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した距離画像センサ10および撮像装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
10 距離画像センサ
20 撮像装置
30 管理サーバ
110 発光部
120 受光部
130 距離画像取得部
140、240 キャリブレーション実行部
150、250 記憶部
160 人物検出部
170、270 座標変換部
180、280、310 通信部
210 撮像部
260 注目領域決定部
264 画像解析部
284 画像圧縮部
288 データ補正部
292 評価部
296 通知部
320 検出情報記憶部
330 同一性判断部
340 行動検出部
20 撮像装置
30 管理サーバ
110 発光部
120 受光部
130 距離画像取得部
140、240 キャリブレーション実行部
150、250 記憶部
160 人物検出部
170、270 座標変換部
180、280、310 通信部
210 撮像部
260 注目領域決定部
264 画像解析部
284 画像圧縮部
288 データ補正部
292 評価部
296 通知部
320 検出情報記憶部
330 同一性判断部
340 行動検出部
Claims (14)
- 距離画像センサによって取得された解析すべき撮影画像に対応する対象空間の形状情報である距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定し、当該注目空間領域に対応する撮影画像中の注目領域を特定する注目領域決定部と、
前記特定された注目領域と他の画像領域では異なる画像解析を行う画像解析部と、
を備える、画像処理装置。 - 前記画像解析部が、前記注目領域に対してマッチング処理による解析処理を行うことを特徴とする、請求項1に記載の画像処理装置。
- 前記画像解析部が、前記撮影画像を供給する撮影装置と前記距離画像に基づいて特定された前記注目空間領域との相対距離情報に基づいて、前記注目領域のパターン認識による解析処理に用いるパターンの選択範囲を変更することを特徴とする、請求項2に記載の画像処理装置。
- 前記距離画像の解析結果は、前記距離画像から検出された人物の位置情報を含み、
前記注目領域決定部は、前記撮像画像中で前記人物の位置情報に対応する領域を前記注目領域に決定する、請求項1に記載の画像処理装置。 - 前記人物の位置情報は、第1の座標変換用データに基づき、前記人物の前記距離画像におけるセンサ座標系の位置情報が変換された3次元座標系の位置情報であり、
前記画像処理装置は、
前記3次元座標系の位置情報と前記撮像画像中の各領域との対応関係を示す第2の座標変換用データを記憶する記憶部をさらに備え、
前記注目領域決定部は、前記第2の座標変換用データに基づき、前記人物の3次元座標系の位置情報に対応する前記撮像画像中の領域を判定して前記注目領域を決定する、請求項4に記載の画像処理装置。 - 前記注目領域決定部は、前記注目領域の大きさを、前記人物の3次元座標系の位置情報から推定される前記人物と前記撮像装置との相対距離に応じて決定する、請求項5に記載の画像処理装置。
- 前記画像処理装置は、
前記画像解析部による前記注目領域の解析結果に基づいて前記第1の座標変換用データまたは前記第2の座標変換用データの信頼性を評価する評価部と、
前記評価部により、前記第1の座標変換用データまたは前記第2の座標変換用データの信頼性が損なわれたと評価された場合に異常を通知する通知部と、
をさらに備える、請求項5に記載の画像処理装置。 - 前記画像処理装置は、
前記第1の座標変換用データまたは前記第2の座標変換用データをキャリブレーションにより取得するキャリブレーション実行部と、
前記キャリブレーション実行部により取得された前記第1の座標変換用データまたは前記第2の座標変換用データを前記画像解析部による前記注目領域の解析結果に基づいて補正するデータ補正部と、
をさらに備える、請求項5に記載の画像処理装置。 - 1つの前記距離画像センサに対して、前記対象空間を異なる方向から撮像する複数の前記撮像装置が配置され、
前記注目領域決定部は、前記複数の撮像装置のうちで、前記人物の顔の向きに存在する撮像装置により取得された撮像画像の注目領域を決定する、請求項4に記載の画像処理装置。 - 前記画像処理装置は、
複数組の前記距離画像センサおよび前記撮像装置と通信する通信部と、
1の前記撮像装置により取得された撮像画像に含まれる人物の解析結果と、他の前記撮像装置により取得された撮像画像に含まれる人物の解析結果とを比較し、双方の撮像画像に含まれる人物の同一性を判断する同一人物判断部をさらに備える、請求項4に記載の画像処理装置。 - 前記画像処理装置は、前記注目領域の周辺領域のデータレートが前記注目領域のデータレートより低くなるように前記撮像画像を圧縮する画像圧縮部をさらに備える、請求項1に記載の画像処理装置。
- 距離画像センサによって取得された解析すべき撮影画像に対応する対象空間の形状情報である距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定し、当該注目空間領域に対応する撮影画像中の注目領域を特定するステップと
前記特定された注目領域と他の画像領域では異なる画像解析を行うステップと、
を含む、画像処理方法。 - コンピュータを、
距離画像センサによって取得された解析すべき撮影画像に対応する対象空間の形状情報である距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定し、当該注目空間領域に対応する撮影画像中の注目領域を特定する注目領域決定部と、
前記特定された注目領域と他の画像領域では異なる画像解析を行う画像解析部と、
を備える画像処理装置として機能させるための、プログラム。 - 対象空間における各位置の距離が表現された距離画像を取得する距離画像センサと、前記対象空間を撮像する撮像装置と、を有する画像処理システムであって、
前記距離画像センサによって取得される前記距離画像に基づいて、解析対象となる物体が存在する可能性が高い注目空間領域を特定する処理、
前記撮像装置により取得される撮像画像から、前記注目空間領域に対応する当該撮影画像中の注目領域を決定する処理、および、
前記注目領域を画像解析する処理、
を行う、画像処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/348,576 US9489565B2 (en) | 2011-09-28 | 2012-08-31 | Image processing apparatus, image processing method, program, and image processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011-212691 | 2011-09-28 | ||
JP2011212691A JP5879877B2 (ja) | 2011-09-28 | 2011-09-28 | 画像処理装置、画像処理方法、プログラム、および画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2013047083A1 true WO2013047083A1 (ja) | 2013-04-04 |
Family
ID=47995131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/072165 WO2013047083A1 (ja) | 2011-09-28 | 2012-08-31 | 画像処理装置、画像処理方法、プログラム、および画像処理システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9489565B2 (ja) |
JP (1) | JP5879877B2 (ja) |
WO (1) | WO2013047083A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915948A (zh) * | 2014-03-11 | 2015-09-16 | 通用汽车环球科技运作有限责任公司 | 用于使用范围传感器选择二维兴趣区域的系统和方法 |
CN104933711A (zh) * | 2015-06-10 | 2015-09-23 | 南通大学 | 一种肿瘤病理图像自动快速分割方法 |
JP2022526382A (ja) * | 2019-09-30 | 2022-05-24 | 深▲セン▼市商▲湯▼科技有限公司 | 行動分析方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9953304B2 (en) * | 2012-12-30 | 2018-04-24 | Buzd, Llc | Situational and global context aware calendar, communications, and relationship management |
JP2015052534A (ja) * | 2013-09-06 | 2015-03-19 | パナソニック株式会社 | 移動体検知装置及び移動体検知システム |
US20150116501A1 (en) * | 2013-10-30 | 2015-04-30 | Sony Network Entertainment International Llc | System and method for tracking objects |
CN103714698B (zh) * | 2013-12-26 | 2016-09-21 | 苏州清研微视电子科技有限公司 | 基于距离图像的公交车辆客流量统计系统及方法 |
JP5950122B2 (ja) * | 2013-12-27 | 2016-07-13 | 株式会社国際電気通信基礎技術研究所 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
DE102014106854A1 (de) | 2014-05-15 | 2016-01-28 | Odos Imaging Ltd. | Bildgebendes System und Verfahren zum Überwachen eines Sichtfeldes |
US9429398B2 (en) | 2014-05-21 | 2016-08-30 | Universal City Studios Llc | Optical tracking for controlling pyrotechnic show elements |
US9600999B2 (en) * | 2014-05-21 | 2017-03-21 | Universal City Studios Llc | Amusement park element tracking system |
US10061058B2 (en) | 2014-05-21 | 2018-08-28 | Universal City Studios Llc | Tracking system and method for use in surveying amusement park equipment |
US10207193B2 (en) | 2014-05-21 | 2019-02-19 | Universal City Studios Llc | Optical tracking system for automation of amusement park elements |
US9433870B2 (en) | 2014-05-21 | 2016-09-06 | Universal City Studios Llc | Ride vehicle tracking and control system using passive tracking elements |
US9616350B2 (en) * | 2014-05-21 | 2017-04-11 | Universal City Studios Llc | Enhanced interactivity in an amusement park environment using passive tracking elements |
US10025990B2 (en) | 2014-05-21 | 2018-07-17 | Universal City Studios Llc | System and method for tracking vehicles in parking structures and intersections |
KR102101438B1 (ko) * | 2015-01-29 | 2020-04-20 | 한국전자통신연구원 | 연속 시점 전환 서비스에서 객체의 위치 및 크기를 유지하기 위한 다중 카메라 제어 장치 및 방법 |
US10332066B1 (en) | 2015-03-30 | 2019-06-25 | Amazon Technologies, Inc. | Item management system using weight |
CN112850406A (zh) * | 2015-04-03 | 2021-05-28 | 奥的斯电梯公司 | 用于乘客运输的通行列表产生 |
JP6606397B2 (ja) * | 2015-10-28 | 2019-11-13 | 日本放送協会 | 多視点ロボットカメラ制御装置及びそのプログラム |
JP6746050B2 (ja) * | 2015-11-25 | 2020-08-26 | 株式会社国際電気通信基礎技術研究所 | キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム |
EP3392740A4 (en) * | 2015-12-18 | 2018-12-19 | Sony Corporation | Information processing device, information processing method, and program |
DE102016201741A1 (de) * | 2016-02-04 | 2017-08-10 | Hella Kgaa Hueck & Co. | Verfahren zur Höhenerkennung |
CN105913367A (zh) * | 2016-04-07 | 2016-08-31 | 北京晶众智慧交通科技股份有限公司 | 基于人脸识别和位置定位的公交客流量检测系统与方法 |
CN105847763B (zh) * | 2016-05-19 | 2019-04-16 | 北京小米移动软件有限公司 | 监控方法及装置 |
JP6574461B2 (ja) * | 2016-08-04 | 2019-09-11 | 株式会社フォーディーアイズ | 点群データ変換システム及びその方法 |
WO2018025842A1 (ja) * | 2016-08-04 | 2018-02-08 | 株式会社Hielero | 点群データ変換システム、その方法、及びプログラム |
TWI616849B (zh) * | 2016-11-11 | 2018-03-01 | 南開科技大學 | 智慧公車系統及其實施方法 |
CN107742298B (zh) * | 2017-09-28 | 2020-03-27 | 北京华航无线电测量研究所 | 一种角反射体自动识别方法 |
JP2022028982A (ja) * | 2018-12-05 | 2022-02-17 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置、信号処理チップ、および、電子機器 |
CN110599465B (zh) * | 2019-08-28 | 2022-07-26 | 上海联影智能医疗科技有限公司 | 图像定位方法、装置、计算机设备和存储介质 |
JP2021157359A (ja) * | 2020-03-26 | 2021-10-07 | 住友重機械工業株式会社 | 情報処理装置、作業機械、情報処理装置の制御方法及び制御プログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001145101A (ja) * | 1999-11-12 | 2001-05-25 | Mega Chips Corp | 人物画像圧縮装置 |
JP2004265432A (ja) * | 2004-04-05 | 2004-09-24 | Hitachi Ltd | 走行環境認識装置 |
JP2006048435A (ja) * | 2004-08-05 | 2006-02-16 | Nissan Motor Co Ltd | 車両用画像処理装置 |
JP2009156776A (ja) * | 2007-12-27 | 2009-07-16 | Ihi Corp | 人体検出装置及び人体検出方法 |
JP2011518383A (ja) * | 2008-04-18 | 2011-06-23 | テレ アトラス ベスローテン フエンノートシャップ | レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法 |
JP2011185664A (ja) * | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | 対象物検出装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6639998B1 (en) * | 1999-01-11 | 2003-10-28 | Lg Electronics Inc. | Method of detecting a specific object in an image signal |
CN1321394C (zh) * | 2002-07-26 | 2007-06-13 | 三菱电机株式会社 | 图像处理装置 |
JP4466366B2 (ja) * | 2004-12-27 | 2010-05-26 | パナソニック電工株式会社 | 距離画像を用いた人体検知方法および人体検知装置 |
WO2008057285A2 (en) * | 2006-10-27 | 2008-05-15 | Vidient Systems, Inc. | An apparatus for image capture with automatic and manual field of interest processing with a multi-resolution camera |
JP4504433B2 (ja) * | 2008-01-29 | 2010-07-14 | 株式会社東芝 | オブジェクト探索装置及び方法 |
US8265425B2 (en) * | 2008-05-20 | 2012-09-11 | Honda Motor Co., Ltd. | Rectangular table detection using hybrid RGB and depth camera sensors |
JP5101429B2 (ja) * | 2008-08-11 | 2012-12-19 | セコム株式会社 | 画像監視装置 |
JP2010063001A (ja) | 2008-09-05 | 2010-03-18 | Mitsubishi Electric Corp | 人物追跡装置および人物追跡プログラム |
JP5799211B2 (ja) | 2009-04-24 | 2015-10-21 | パナソニックIpマネジメント株式会社 | 距離画像センサ |
JP5493108B2 (ja) * | 2010-09-09 | 2014-05-14 | オプテックス株式会社 | 距離画像カメラを用いた人体識別方法および人体識別装置 |
-
2011
- 2011-09-28 JP JP2011212691A patent/JP5879877B2/ja not_active Expired - Fee Related
-
2012
- 2012-08-31 US US14/348,576 patent/US9489565B2/en active Active
- 2012-08-31 WO PCT/JP2012/072165 patent/WO2013047083A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001145101A (ja) * | 1999-11-12 | 2001-05-25 | Mega Chips Corp | 人物画像圧縮装置 |
JP2004265432A (ja) * | 2004-04-05 | 2004-09-24 | Hitachi Ltd | 走行環境認識装置 |
JP2006048435A (ja) * | 2004-08-05 | 2006-02-16 | Nissan Motor Co Ltd | 車両用画像処理装置 |
JP2009156776A (ja) * | 2007-12-27 | 2009-07-16 | Ihi Corp | 人体検出装置及び人体検出方法 |
JP2011518383A (ja) * | 2008-04-18 | 2011-06-23 | テレ アトラス ベスローテン フエンノートシャップ | レーザースキャンされたポイントの集合体を用いて選択的圧縮マスクを生成する方法 |
JP2011185664A (ja) * | 2010-03-05 | 2011-09-22 | Panasonic Electric Works Co Ltd | 対象物検出装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915948A (zh) * | 2014-03-11 | 2015-09-16 | 通用汽车环球科技运作有限责任公司 | 用于使用范围传感器选择二维兴趣区域的系统和方法 |
CN104933711A (zh) * | 2015-06-10 | 2015-09-23 | 南通大学 | 一种肿瘤病理图像自动快速分割方法 |
JP2022526382A (ja) * | 2019-09-30 | 2022-05-24 | 深▲セン▼市商▲湯▼科技有限公司 | 行動分析方法、装置、電子機器、記憶媒体およびコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20140314278A1 (en) | 2014-10-23 |
US9489565B2 (en) | 2016-11-08 |
JP2013073459A (ja) | 2013-04-22 |
JP5879877B2 (ja) | 2016-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013047083A1 (ja) | 画像処理装置、画像処理方法、プログラム、および画像処理システム | |
JP6264477B2 (ja) | 射影空間監視のための方法および装置 | |
CN102833478B (zh) | 容错背景模型化 | |
JP5453429B2 (ja) | 監視カメラ端末 | |
US9292923B2 (en) | Methods, apparatus and articles of manufacture to monitor environments | |
JP6554169B2 (ja) | 物体認識装置及び物体認識システム | |
KR101740231B1 (ko) | 3차원 얼굴 위치 추정 방법 및 장치 | |
EP2582127B1 (en) | Image processing apparatus and image processing method | |
JP2018130793A (ja) | 監視システム、監視装置、および監視方法 | |
KR101687530B1 (ko) | 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체 | |
JP2006268345A (ja) | 画像処理装置および画像処理方法 | |
TWI507998B (zh) | 視訊分析 | |
JP2013156109A (ja) | 距離計測装置 | |
JP6094903B2 (ja) | 受信装置及び受信側画像処理方法 | |
JPWO2004012142A1 (ja) | 画像処理装置 | |
JP6544257B2 (ja) | 情報処理システム、情報処理方法及び情報処理プログラム | |
CN107005655A (zh) | 图像处理方法 | |
JP2011193187A (ja) | 監視カメラ端末 | |
TW201415415A (zh) | 對象物偵測裝置、對象物偵測方法及程式 | |
CN112784680A (zh) | 一种人流密集场所锁定密集接触者的方法和系统 | |
CN108190774A (zh) | 一种基于投影的排绳故障检测方法及其装置 | |
CN112084813A (zh) | 异常目标的检测方法、装置及存储介质 | |
JP7030451B2 (ja) | 画像処理装置 | |
KR20130062489A (ko) | 객체추적 시스템 및 그 운영방법 | |
JP5679456B2 (ja) | 人検出装置、人検出方法及び人検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12835684 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14348576 Country of ref document: US |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 12835684 Country of ref document: EP Kind code of ref document: A1 |