JP2018169811A - 対象物判定装置および対象物判定プログラム - Google Patents

対象物判定装置および対象物判定プログラム Download PDF

Info

Publication number
JP2018169811A
JP2018169811A JP2017066802A JP2017066802A JP2018169811A JP 2018169811 A JP2018169811 A JP 2018169811A JP 2017066802 A JP2017066802 A JP 2017066802A JP 2017066802 A JP2017066802 A JP 2017066802A JP 2018169811 A JP2018169811 A JP 2018169811A
Authority
JP
Japan
Prior art keywords
distance measurement
image recognition
likelihood
image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017066802A
Other languages
English (en)
Other versions
JP6830656B2 (ja
Inventor
和宏 久野
Kazuhiro Kuno
和宏 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2017066802A priority Critical patent/JP6830656B2/ja
Priority to US16/499,614 priority patent/US20200110963A1/en
Priority to PCT/JP2018/010039 priority patent/WO2018180501A1/ja
Priority to CN201880022195.6A priority patent/CN110546683A/zh
Priority to EP18777146.4A priority patent/EP3605458A4/en
Publication of JP2018169811A publication Critical patent/JP2018169811A/ja
Application granted granted Critical
Publication of JP6830656B2 publication Critical patent/JP6830656B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】画像認識の結果と測距データとを融合して対象物を判定することにより、該判定を高速かつ高精度に行うことができる対象物判定装置および対象物判定プログラムを提供する。
【解決手段】対象物判定装置は、カメラで取得した画像から算出された画認スコアと、測距センサで取得された測距値とを対応付ける。その測距値をグループ化してオブジェクトを生成し、そのオブジェクトの測距値および画認スコアをオブジェクトテーブルに記憶する。そして、オブジェクトテーブルの値から算出した測距尤度βと画像認識尤度αとマッチ率γとに基づいて、オブジェクトが人物か物体かを認識する。カメラから取得した画像の画認スコアと測距センサから取得した測距値とを融合して、オブジェクトが人物か物体かを認識するので、その認識処理を高速、かつ、高精度に行うことができる。
【選択図】図5

Description

本発明は、画像認識の結果と測距データとを融合して対象物を判定する対象物判定装置および対象物判定プログラムに関するものである。
対象物の判定に際し、画像処理の負荷を軽減するために、対象物を撮影した画像だけでなく、対象物までの距離を加味して判定する技術が知られている。特許文献1の車載用物体検知装置100は、自車と物体との相対距離を計測する計測装置1と、自車の前方画像を撮像する画像取込装置2とを備え、物体の距離と前方画像とに基づいて前方画像内に画像処理領域を設定し、該画像処理領域内の画像に対して画像処理を実行することによって物体から処理候補を選定する。そして、その処理候補の距離と前方画像とに基づいて前方画像内に画像処理領域を設定し、該画像処理領域の画像に対して画像処理を実行することによって、処理候補が予め設定された所定の立体物であるかを判定する。この車載用物体検知装置100によれば、画像処理の負荷を軽減しつつ非立体物に対する誤検知を低減できる。
特開2009−276200号公報
しかしながら、上記特許文献1では、対象物の判定に、該対象物までの距離データを使用するものの、その距離データは画像処理の領域設定に使用されるのみであり、対象物の判定はすべて画像処理によって行われる。よって、依然として画像処理の負荷は大きく、その処理時間も長いままであるという問題点があった。
本発明は、上述した問題点を解決するためになされたものであり、画像認識の結果と測距データとを融合して対象物を判定することにより、該判定を高速かつ高精度に行うことができる対象物判定装置および対象物判定プログラムを提供することを目的としている。
この目的を達成するために本発明の対象物判定装置は、画像を撮影する撮影手段と、対象物までの距離を測距する測距手段と、前記撮影手段により撮影された画像中の前記対象物について画像認識を実行する画像認識手段と、その画像認識手段による画像認識の結果を、前記測距手段により測距された測距データに対応付けする画認対応付手段と、所定条件下にある複数の前記測距データを1の対象物としてグループ化するグループ化手段と、そのグループ化手段によりグループ化された1の対象物を構成する測距データまたは、その測距データに前記画認対応付手段により対応付けされた画像認識の結果に基づいて、前記所定物の尤度を算出する尤度算出手段と、前記グループ化手段によりグループ化された1の対象物を構成する測距データに前記画認対応付手段により対応付けされた画像認識の結果に基づいて前記所定物のマッチ率を算出するマッチ率算出手段と、そのマッチ率算出手段により算出されたマッチ率と、前記尤度算出手段により算出された尤度とに基づいて、前記グループ化手段によりグループ化された1の対象物が前記所定物であるかを判定する判定手段とを備えている。
また本発明の対象物判定プログラムは、画像を取得する画像取得機能と、対象物までの測距データを取得する測距データ取得機能と、前記画像取得機能により取得された画像中の前記対象物について画像認識を実行する画像認識機能と、その画像認識機能による画像認識の結果を、前記測距データ取得機能により取得された測距データに対応付けする画認対応付機能と、所定条件下にある複数の前記測距データを1の対象物としてグループ化するグループ化機能と、そのグループ化機能によりグループ化された1の対象物を構成する測距データまたは、その測距データに前記画認対応付機能により対応付けされた画像認識の結果に基づいて、前記所定物の尤度を算出する尤度算出機能と、前記グループ化機能によりグループ化された1の対象物を構成する測距データに前記画認対応付機能により対応付けされた画像認識の結果に基づいて前記所定物のマッチ率を算出するマッチ率算出機能と、そのマッチ率算出機能により算出されたマッチ率と、前記尤度算出機能により算出された尤度とに基づいて、前記グループ化機能によりグループ化された1の対象物が前記所定物であるかを判定する判定機能と、をコンピュータに実現させるものである。
本発明の対象物判定装置および対象物判定プログラムによれば、測距データに画像認識の結果を対応付ける(融合する)と共に、測距データをグループ化する。このグループ化された測距データと、その測距データに対応付けされた画像認識の結果とに基づいて、対象物が所定物である場合の尤度と、対象物と所定物とのマッチ率とを算出し、該尤度とマッチ率とに基づいて、対象物が所定物であるかを判定する。このように、画像認識の結果と測距データとを融合して対象物を判定するので、該判定を高速かつ高精度に行うことができるという効果がある。
なお、判定手段による判定対象となる所定物を人物とすると共に、グループ化された対象物を判定手段による判定結果に基づいて所定物(人物)とそれ以外とに区別する。そして、位置認識手段により対象物の位置を認識することにより、人とモノとを区別して、その位置を認識することができる。
対象物判定装置の外観を示す模式図である。 対象物判定装置の電気的構成を示すブロック図である。 (a)は、画像認識結果テーブルを模式的に表した図であり、(b)は、測距結果テーブルを模式的に表した図であり、(c)は、オブジェクトテーブルを模式的に表した図である。 メイン処理のフローチャートである。 オブジェクト認識処理のフローチャートである。 (a)は、カメラから取得された画像における、ベースラインを模式的に示した図であり、(b)は、ベースラインにおける検出窓による走査を模式的に示した図である。 カメラから取得された画像と、画認スコアとを模式的に示した図である。 (a)は、ベースラインにおける足元基準線の位置関係を模式的に示した図であり、(b)は、測距値のグループ化を模式的に示した図である。 (a)は、オブジェクトの端点間距離と、積分距離とを示した模式図であり、(b)は、オブジェクトの端点間距離に対する尤度分布を示した図であり、(c)は、オブジェクトの積分距離に対する尤度分布を示した図である。 オブジェクトの測距値における、画認スコアを模式的に示した図である。
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。まず、図1を参照して、対象物判定装置1の概要について説明する。図1は対象物判定装置1の外観を示す模式図である。対象物判定装置1は、カメラ3で取得した対象物の画像の画像認識結果と、測距センサ4から取得された対象物の測距値(測距データ)とを融合して、対象物が、人物(所定物)か物体(人物以外)かを判定するための装置である。対象物判定装置1は、対象物判定装置1の各部を制御する制御部2と、カメラ3と、測距センサ4と、表示部5とを有する。
カメラ3は、対象物判定装置1における周辺環境の画像を取得するための装置である。また、カメラ3の視野角は120度とされ、カメラ3から取得される画像の大きさは、水平方向に1280ピクセル(px)、垂直方向に720ピクセルとされる(図7参照)。カメラ3から取得された画像が、制御部2へ送信される。
測距センサ4は、カメラ3の下部に配設され、レーザ光を全方位(360度)に対して照射し、その散乱光を測定することで、対象物判定装置1における周辺環境に存在する対象物との距離を検出するための装置である。測距センサ4は、角度0.25度毎に検出された対象物との距離を、その角度に対応付けて制御部2へ送信する。また、測距センサ4は100m先の対象物まで検出可能とされ、周辺環境に対象物が存在していない場合は、測距センサ4の検出可能距離である100mの値を制御部2へ送信する。以下、測距センサ4から取得された、対象物との距離および角度のことを「測距値」(測距データ)と称す。
表示部5は、人物かどうかの判定結果等の表示およびユーザからの対象物判定装置1への指示を入力するための装置であり、人物か物体かの認識結果等を表示するためのLCD11と、ユーザからの指示を制御部2へ入力するタッチパネル12とを有して構成され(図2参照)、対象物判定装置1の上部に設けられる。
次に図2,図3を参照して、対象物判定装置1の電気的構成について説明する。図2は、対象物判定装置1の電気的構成を示すブロック図である。制御部2は、CPU6と、ハードディスクドライブ(HDD)7と、RAM7とを有し、これらはバスライン9を介して入出力ポート10にそれぞれ接続されている。入出力ポート10には、カメラ3と、測距センサ4と、表示部5とがそれぞれ接続されている。
CPU6は、バスライン9により接続された各部を制御する演算装置である。HDD7は、CPU6により実行されるプログラムや固定値データ等を格納した書き換え可能な不揮発性の記憶装置であり、制御プログラム6aが記憶される。CPU6によって制御プログラム6aが実行されると、図4のメイン処理が実行される。
RAM8は、CPU6が制御プログラム7aの実行時に各種のワークデータやフラグ等を書き換え可能に記憶するためのメモリであり、画像認識結果テーブル8aと、測距結果テーブル8bと、オブジェクトテーブル8cと、測距尤度メモリ8dと、マッチ率メモリ8eと、画像認識尤度メモリ8fとがそれぞれ設けられる。画像認識結果テーブル8aは、カメラ3から取得された画像から、水平位置毎およびベースライン(図6(a)参照)毎に算出された、画認スコアが記憶されるデータテーブルである。図3(a)を参照して、画像認識結果テーブル8aを説明する。
図3(a)は、画像認識結果テーブル8aを模式的に表した図である。画像認識結果テーブル8aには、カメラ3から取得された画像における水平方向を、1ピクセル毎に分割した、水平位置L1〜L1280(図7参照)と、画像の水平方向における上下に設定されたベースラインBL1〜BL16(図6(a)参照)とに対応した、画像認識処理の結果による人物らしさを示すスコア(以下「画認スコア」と略す)が記憶される。なお、図3(a)における「ベースライン1」が図7におけるベースラインBL1に対応し、「ベースライン2」がベースラインBL2に対応し、「ベースライン16」がベースラインBL16に対応する。以下、水平位置L1〜L1280を区別しない場合は「水平位置Ln」と略し、ベースラインBL1〜BL16を区別しない場合は「ベースラインBLm」と略す。
画像認識結果テーブル8aに記憶される画認スコアは、人物らしさが高い順に「3」,「2」,「1」,「0」とされる。図7で後述するが、画像認識結果テーブル8aには、画像におけるベースラインBLm毎の画像認識の結果、人物らしさが高いと判定された水平位置Lnに対しては「3」が記憶され、人物らしさが中程度であると判定された水平位置Lnに対しては「2」が記憶され、人物らしさが低いと判定された水平位置Lnに対しては「1」が記憶される。また、人物ではないと判定された水平位置Lnに対しては「0」が記憶される。なお、画認スコアは0〜3の4段階で表される構成としたが、これに限られるものではなく、4段階以上で表されても良いし、4段階以下で表されても良い。
図2に戻る。測距結果テーブル8bは、測距センサ4から取得された測距値と、その測距値に該当する画認スコアとが記憶されるデータテーブルである。図3(b)を参照して、測距結果テーブル8bを説明する。
図3(b)は、測距結果テーブル8bを模式的に表した図である。測距結果テーブル8bは、測距値メモリ8b1と、画像認識結果メモリ8b2とが対応付けられて記憶される。測距値メモリ8b1は、測距センサ4から取得された測距値が記憶されるメモリである。図3(b)に示す通り、測距値メモリ8b1には(角度,距離)の形式で表された測距値が記憶される。画像認識結果メモリ8b2には、測距値メモリ8b1の測距値に近似する、画像認識結果テーブル8aのベースラインBLm及び水平位置Lnにおける画認スコアが取得され、記憶される。
図2に戻る。オブジェクトテーブル8cは、測距結果テーブル8bの測距値メモリ8b1の測距値に基づいてグループ化されたオブジェクト毎の、測距値および画認スコアと、そのオブジェクトに対する人物か物体かの認識(判定)結果とが記憶されるデータテーブルである。図3(c)を参照して、オブジェクトテーブル8cを説明する。
図3(c)は、オブジェクトテーブル8cを模式的に表した図である。オブジェクトテーブル8cは、グループ化されたオブジェクト毎に、測距値メモリ8c1と、画像認識結果メモリ8c2と、認識結果メモリ8c3とが対応付けられて記憶される。測距値メモリ8c1は、測距結果テーブル8bから取得された、そのオブジェクトを構成する測距値が記憶されるメモリである。画像認識結果メモリ8c2は、測距結果テーブル8bから取得された、測距値メモリ8c1の測距値に対応する画認スコアが記憶されるメモリである。認識結果メモリ8c3は、オブジェクトに対する認識結果(人物または物体)が記憶されるメモリである。
図2に戻る。測距尤度メモリ8dは、オブジェクトを構成する測距値間の距離から算出される、そのオブジェクトの形状による人物らしさを示す測距尤度βが記憶されるメモリである。マッチ率メモリ8eは、オブジェクトを構成する測距値において、人物と判定された画認スコア「1」以上の測距値の割合から算出される、そのオブジェクトの人物らしさを示すマッチ率γが記憶されるメモリである。
画像認識尤度メモリ8fは、オブジェクトを構成する測距値のうち、人物と判定された画認スコアが「1」以上である、測距値における画認スコアの平均値から算出される、そのオブジェクトの人物らしさを示す画像認識尤度(画像尤度)αが記憶されるメモリである。
次に図4〜図10を参照して、制御部2のCPU6で実行される処理について説明する。メイン処理は、対象物判定装置1の電源投入直後に実行される。
図4は、メイン処理のフローチャートである。メイン処理はまず、カメラ3から画像を取得する(S1)。S1の処理の後、カメラ3から取得した画像に対して、ベースラインBLm毎に画像認識を行い、その認識結果を画像認識結果テーブル8aに記憶する(S2)。S2の処理について、図6,図7を参照して説明する。
図6(a)は、カメラ3から取得された画像における、ベースラインBLmを模式的に示した図であり、図6(b)は、ベースラインBLmにおける検出窓Wの走査を模式的に示した図である。図7は、カメラ3から取得された画像と、画認スコアとを模式的に示した図である。S2の処理はまず、カメラ3から取得された画像に対して、ベースラインBL1〜BL16を設定する。ベースラインBLmとは、画像からの対象物の位置の検出および画認スコアの算出に用いられる、画像内の基準位置を表した基準線のことである。
図6(a)に示す通り、ベースラインBLmはそれぞれ、画像内の下部に設けられ、カメラ3と画像内の人物および物体との基準位置を表す水平方向の基準線(以下「足元基準線」と称す)と、画像の上部に設けられ、その足元基準線に位置する人物の頭頂部の位置を表す、水平方向の基準線(以下「頭部基準線」と称す)との2組の基準線で構成される。画像の最も外側に位置する、最下部の足元基準線および最上部の頭部基準線の組がベースラインBL1とされ、ベースラインBL1の内側における、最下部の足元基準線および最上部の頭部基準線の組がベースラインBL2とされる。以下同様に、ベースラインBL3,BL4,・・・,ベースラインBL16とされる(ベースラインBL5以降は図示せず)。
ベースラインBL1の足元基準線の位置は、カメラ3から10m離れた位置に設けられ、ベースラインBL2の足元基準線の位置は、ベースラインBL1から5m離れた位置に設けられる。同様に、ベースラインBL3〜BL16は、ベースラインBL2〜BL15からベースラインBL1から5m離れた位置に設けられる。ベースラインBLmの頭部基準線の位置は、足元基準線の高さの位置に設けられる。
なお、ベースラインは、ベースラインBLmの16組で構成されるとしたが、必ずしもこれに限られるものではなく、対象物判定装置1の処理速度等に応じて、16組以上で構成されても良いし、16組以下で構成されても良い。また、足元基準線は、画像内における5m毎の位置に設けられる構成としたが、5m以上毎でも良いし、5m以下毎でも良い。さらに頭部基準線は、該当する足元基準線から高さ1.8mの位置を表す位置に設けられると構成としたが、1.8m以上でも良いし、1.8m以下でも良い。
S2の処理は次に、各ベースラインBLmの足元基準線と頭部基準線との距離を高さとし、そのベースラインBLmの基準線間に一定距離(例えば、0.6m)を幅とする検出窓Wをそれぞれ作成する。そして各検出窓Wを、ベースラインBLmに沿って水平方向に走査させ(図6(b))、その検出窓W内の画像に対して画像認識処理を行う。その画像認識処理の結果に基づいて判定された、画像の水平方向1ピクセル毎に画認スコアを、画像認識結果テーブル8aの該当するメモリ領域に記憶する。なお、画像認識処理は既知の技術が適宜適用され、一例としては、検出窓Wから取得されたCoHOGやMRCoHOG等による特徴記述と、予めHDD7に記憶された学習データとを照合させることで、画認スコアを算出することが挙げられる。
図7を用いて、画像認識結果テーブル8aに記憶される画認スコアについて説明する。画認スコアは、画像における水平方向1ピクセル毎の位置である、水平位置Ln毎に算出される。なお、画認スコアが「3」と判定された水平位置Lnは、横方向の網線で表され、画認スコアが「2」と判定された水平位置Lnは、縦方向の網線で表され、画認スコアが「1」と判定された水平位置Lnはドットで表される。一方、人物ではない画認スコアが「0」と判定された水平位置Lnには、網線またはドットが付されない。また、図7は説明のため、水平位置Lnの幅を拡大して表しているが、実際には水平位置Lnの幅は1ピクセルであるので、画像には水平位置L1〜L1280の1280個の水平位置が存在する。
図7に示す通り、水平位置Lnのうち、人物の顔等、人物の特徴とされる要素が多いものに対しては、人物らしさが高い画認スコアが「3」又は「2」と判定される。また、水平位置Lnのうち、手の一部等、人物の特徴とされる要素が少ないものに対しては、画認スコアが「1」と判定される。一方、人物ではない水平位置Lnには、画認スコアが「0」と判定される。
このように、予め設定されたベースラインBLm毎に設定された検出窓Wを水平方向に走査させながら、検出窓W内の画像を画像認識処理し、得られた水平位置Ln毎の画認スコアが画像認識結果テーブル8aに記憶される。よって、検出される人物や物体の大きさに応じて、検出窓Wの大きさを変化させながら画像認識を行う等の複雑な処理をすることなく、画認スコアを取得できるので、対象物判定装置1の処理負荷を軽減することができる。またベースラインBLmの頭部基準線は、それぞれ該当する足元基準線に位置する人物の頭頂部の位置に基づいて設定されているので、人物の頭頂部より高い領域に対する不要な画像認識処理を防ぐことができる。
図4に戻る。S2の処理の後、測距センサ4から測距値を取得し、測距結果テーブル8bの測距値メモリ8b1に保存する(S3)。S3の処理の後、測距結果テーブル8bの測距値メモリ8b1に記憶された測距値に近似する画認スコアを、画像認識結果テーブル8aから取得し、測距結果テーブル8bの画像認識結果メモリ8b2に保存する(S4)。そして、測距結果テーブル8bの測距値メモリ8b1の測距値をグループ化して、オブジェクトに分割し、そのオブジェクト毎の測距結果テーブル8bの測距値メモリ8b1および画像認識結果メモリ8b2の値を、オブジェクトテーブル8cに保存する(S5)。
図7,図8を参照して、S4,S5の処理について説明する。S4の処理はまず、測距結果テーブル8bの測距値メモリ8b1の測距値における角度に近似する、水平位置Lnを取得する。ここで、画像における水平位置Lnの角度について図7を用いて説明する。
図7に示す通り、画像の水平方向は1280ピクセルとされ、カメラ3の視野角は120度とされるので、水平位置Lnの1つ当たりの角度は、0.0935度(=120度/1280ピクセル)とされる。画像の中心位置は90度とされるので、水平位置L1の角度は150度であり、水平位置L2の角度は150.0935度となる。このように定義された水平位置Lnの角度から、測距値メモリ8b1の測距値における角度に最も近似する水平位置Lnを取得する。
S4の処理は次に、測距結果テーブル8bの測距値メモリ8b1の測距値における距離に近似するベースラインBLmを取得する。ここで図8(a)を用いて、ベースラインBLmの取得処理について説明する。
図8(a)は、ベースラインBLmにおける、足元基準線の位置関係を模式的に示した図である。図中の黒塗りの四角形は、測距結果テーブル8bの測距値メモリ8b1に記憶された測距値MPを表す。上述した通り、ベースラインBLmの足元基準線はそれぞれ、画像内におけるカメラ3から一定距離の位置に設けられる。具体的には、ベースラインBL1の足元基準線は、カメラ3から10mの位置に設けられ、ベースラインBL2の足元基準線は、カメラ3から15mの位置に設けられる。ここで画像認識結果テーブル8aに記憶される画認スコアは、このベースラインBLmの位置に基づいて判定されるので、ベースラインBLm前後に存在する対象物に対する、人物らしさを示すものである。
そこで、ベースラインBLmに基づいた領域A1〜A16を設ける。具体的には、カメラ3からベースラインBL1までの領域がベースラインBL1に基づく領域A1とされ、ベースラインBL1〜BL3の領域がベースラインBL2に基づく領域A2とされ、ベースラインBL14〜BL16の領域がベースラインBL15に基づく領域A15とされ、ベースラインBL15以降の領域がベースラインBL16に基づく領域A16とされる(領域A5以降は図示せず)。
そして、測距結果テーブル8bの測距値メモリ8b1の測距値における距離に該当する、領域A1〜A16を取得し、その領域A1〜A16に該当するベースラインBLmを取得する。そして、取得されたベースラインBLmと、先に取得した測距値メモリ8b1の測距値における角度に最も近似する水平位置Lnとで、画像認識結果テーブル8aを検索し、一致する画認スコアを、測距結果テーブル8bの画像認識結果メモリ8b2に記憶する。この処理により、カメラ3から取得された画認スコアと、カメラ3とは異なる装置である測距センサ4から取得された測距値とを融合する(対応付ける)ことができる。
なお、図8(a)に示す通り、領域A2〜A16においては、同一の領域が2つの領域A2〜A16に含まれる(例えば、領域A2におけるベースラインBL2〜BL3の領域と、領域A3におけるベースラインBL2〜BL3の領域)。従って、測距値メモリ8b1の測距値における距離によっては、2つの領域A2〜A16が該当するので、画像認識結果テーブル8aから2つの画認スコアが取得される場合がある。かかる場合には、取得された画認スコアのうち、画認スコアが高い方が測距結果テーブル8bの画像認識結果メモリ8b2に記憶される。これにより、同一の水平位置Lnにおいて、より人物らしいと判定された、ベースラインBLmにおける画認スコアを、測距結果テーブル8bの画像認識結果メモリ8b2に記憶することができる。
図4に戻る。S4の処理の後、測距結果テーブル8bの測距値メモリ8b1に記憶された測距値を、人物か物体かの認識処理の単位であるオブジェクトとしてグループ化し、オブジェクト毎の測距値と画像認識結果とをオブジェクトテーブル8cに記憶する(S5)。図8(b)を参照して、かかるグループ化処理について説明する。
図8(b)は、測距値のグループ化を模式的に示した図である。図8(b)に示す通り、対象物が存在している位置では、該当する測距センサ4で検出される一連の測距値において、その隣接する測距値間の距離が近くなる。そこで隣接する測距値間の距離差が0.1m以下である場合は、同一の対象物であると判断して、その隣接する測距値をオブジェクトとしてグループ化する。また、対象物が存在していない場合等、隣接する測距値間の差が0.1m以下である測距値が10個連続して検出される場合は、その10個の測距値毎に別オブジェクトとしてグループ化する。
図8(b)で例示すると、隣接する測距値間の距離差が0.1m以内となった一連の測距値が、それぞれオブジェクトJ2,J4,J5,J7,J9,J16にグループ化される。一方、対象物が存在していない測距値が連続する測距値は、それぞれオブジェクトJ1,J3,J6,J8,J10〜J15,J17とグループ化される。特にオブジェクトJ10〜J15においては、人物等が存在しない測距値が10個以上連続するので、その測距値が10個毎にグループ化され、オブジェクトJ10〜J15とされる。なお、同一のオブジェクトとしてグループ化される、隣接する測距値間の距離差は0.1mとされたが、必ずしもこれに限られるものではなく、0.1m以上でも良いし、0.1m以下でも良い。また、隣接する測距値間の距離差が0.1m以下である測距値が10個連続した場合に、その10個の測距値毎に別オブジェクトとしてグループ化したが、必ずしもこれに限られるものではなく、連続する測距値の個数は10個以上でも良いし、10個以下でも良い。
そして、グループ化されたオブジェクトを構成する、測距結果テーブル8bの測距値メモリ8b1の値と画像認識結果メモリ8b2の値とが、そのオブジェクト毎にオブジェクトテーブル8cへ記憶される。S6以降の処理では、オブジェクトテーブル8cに記憶されたオブジェクト毎に、人物か物体かが認識(判定)される。
図4に戻る。S6の処理の後、カウンタ変数iに1を設定する(S6)。そして、オブジェクトテーブル8cに記憶されるi番目(即ち図3(c)におけるNo.i)のオブジェクトの形状による人物らしさを示す測距尤度βを算出し、測距尤度メモリ8dに保存する(S7)。図9を参照して、S7における測距尤度の算出処理を説明する。
図9(a)は、オブジェクトの端点間距離d1と、積分距離d2とを示した模式図であり、図9(b)は、オブジェクトの端点間距離d1に対する尤度分布を示した図であり、図9(c)は、オブジェクトの積分距離d2に対する尤度分布を示した図である。S7の処理ではまず、i番目のオブジェクトに対するオブジェクトテーブル8cの測距値メモリ8c1の値から、i番目のオブジェクトの両端の測距値を取得し、その2点間距離、即ち端点間距離d1を算出する。次にi番目のオブジェクトに対するオブジェクトテーブル8cの測距値メモリ8c1の値から、隣接する測距値間の距離を、全て加算した積分距離d2を算出する。
そして、図9(b)のオブジェクトの端点間距離d1に対する尤度分布から、算出された端点間距離d1に該当する尤度β1を取得し、図9(c)のオブジェクトの積分距離d2に対する尤度分布から、算出された積分距離d2に該当する尤度β2を取得する。そして、尤度β1,β2から、測距尤度βは以下の数式1によって算出される。
Figure 2018169811
図9(b),(c)及び数式1で示す通り、本実施形態においては、端点間距離d1と積分距離d2とが一定の関係であれば、測距尤度βの値は大きくなる。そして、この測距尤度βの値が大きい程、そのオブジェクトは人物らしさが高いと判断することができる。これは人物の胴体は一般的に楕円であり、楕円の長径(即ち端点間距離d1)と、楕円の円周(即ち積分距離d2)との組み合わせと、人物らしさとの関係性が定まっているからである。そこで、端点間距離d1に対する人物らしさを示す尤度分布と、積分距離d2に対する人物らしさを示す尤度分布とをあらかじめ設定し、それらの尤度分布と、オブジェクトから算出された端点間距離d1及び積分距離d2とから、尤度β1,β2を取得し、それらを乗算する。これにより、オブジェクトを構成する測距値から、オブジェクトの形状による人物らしさを示す測距尤度βが算出される。このように算出された測距尤度βが、測距尤度メモリ8dに記憶される。
図4に戻る。S7の処理の後、オブジェクトテーブル8cに記憶されるi番目のオブジェクトにおける、マッチ率γを算出し、マッチ率メモリ8eに保存する(S8)。マッチ率γとは、オブジェクトを構成する測距値において、画認スコアが「1」以上である測距値の割合を表す値である。ここで、オブジェクトを構成する測距値における画認スコア即ち、画像認識結果メモリ8c2の値が「1」以上である測距値の数をNh,画像認識結果メモリ8c2の値が「0」である測距値の数をNloとすると、マッチ率γは数式2によって算出される。
Figure 2018169811
ここで図10を参照して、マッチ率について説明する。図10は、オブジェクトJ7(図8(b))の測距値における、画認スコアを模式的に示した図である。画認スコアが「0」の測距値は三角形で表し、画認スコアが「1」以上の測距値は丸で表す。図10に示す通り、オブジェクトJ7は、その両端部と一部の測距値において、画認スコアが「0」であり、それ以外の測距値は画認スコアが「1」以上である。そして、画認スコアが「0」の測距値の数は6,画認スコアが「1」以上の測距値の数は22であるので、オブジェクトJ7に対するマッチ率は「0.785」となる。即ちマッチ率γが高いオブジェクトは、画認スコアが「1」以上である測距値の数が多いので、そのオブジェクトが人物である可能性が高いと判断することができる。
図4に戻る。S8の処理の後、オブジェクトテーブル8cに記憶されるi番目のオブジェクトにおける画像認識尤度αを算出し、画像認識尤度メモリ8f保存する(S9)。画像認識尤度αとは、オブジェクトを構成する測距値のうち、画像認識結果メモリ8c2の値が「1」以上の測距値における画認スコアの平均値である。画像認識結果メモリ8c2の値が「1」以上である測距値の数をNh,画像認識結果メモリ8c2の値が「1」以上である測距値の、画像認識結果メモリ8c2の値をSkとすると、画像認識尤度αは数式3によって算出される。
Figure 2018169811
即ち、画像認識尤度αが高いオブジェクトは、画認スコアが「2」又は「3」である測距値が多いので、そのオブジェクトが人物らしいオブジェクトであると判断することができる。
S9の処理の後、後述のS10のオブジェクト認識処理を行い、その後、カウンタ変数iに1を加算する(S11)。S11の処理の後、カウンタ変数iがオブジェクトテーブル8cに記憶されるオブジェクト数より大きいかを確認する(S12)。
S12の処理において、カウンタ変数iがオブジェクトテーブル8cに記憶されるオブジェクト数以下の場合は(S12:No)、オブジェクトテーブル8cに記憶されるオブジェクトの全て対して、S10のオブジェクト認識処理が行われていないので、S7以下の処理を繰り返す。一方、カウンタ変数iがオブジェクトテーブル8cに記憶されるオブジェクト数より大きい場合は(S12:Yes)、オブジェクトテーブル8cに記憶されるオブジェクトの全て対してS10のオブジェクト認識処理が行われたので、再度S1の処理を繰り返す。
次に図5を参照して、S10のオブジェクト認識処理を説明する。オブジェクト認識処理は、S7〜S9の処理で算出された画像認識尤度α,測距尤度β,マッチ率γに基づいて、該当するオブジェクトが人物か、物体かを認識(判定)するための処理である。
図5はオブジェクト認識処理を示すフローチャートである。オブジェクト認識処理はまず、画像認識尤度メモリ8fの値、即ち画像認識尤度αが2より大きいかを確認する(S20)。S20の処理において、画像認識尤度メモリ8fの値が2より大きい場合は(S20:Yes)、測距尤度メモリ8dの値とマッチ率メモリ8eの値との乗算値Hを算出する(S21)。即ち乗算値Hは、測距尤度βとマッチ率γとから数式4で算出される。
Figure 2018169811
S21の処理の後、乗算値Hの値が0.8以上かを確認する(S22)。乗算値Hが0.8以上の場合は(S22:Yes)、i番目のオブジェクトは「人物」と認識する(S23)。一方で、乗算値Hの値が0.8より小さい場合は(S22:Yes)、i番目のオブジェクトは「物体」と認識する(S24)。
具体的にS20の処理において、画像認識尤度メモリ8fの値が2より大きいと判断されたi番目のオブジェクトは画像認識尤度αが高く、画像認識処理において人物である可能性が高いオブジェクトと判断される。そこで本実施形態においては、測距尤度βと、マッチ率γとの乗算値Hによって人物か物体かを認識する。これにより、測距尤度βによってオブジェクトの形状に基づきつつも、マッチ率γによってオブジェクトの画認スコアをも考慮に入れた人物か物体かの認識が可能となる。なお、乗算値Hと比較される値を0.8としたが、必ずしもこれに限られるものではなく、0.8以上でも良いし、0.8以下でも良い。
一方、S20の処理において、画像認識尤度メモリ8fの値が2以下の場合は(S20:No)、画像認識尤度メモリ8fの値と測距尤度メモリ8dの値とマッチ率メモリ8eの値ととの乗算値Hを算出する(S25)。即ち乗算値Hは、画像認識尤度αと測距尤度βとマッチ率γとから数式5で算出される。
Figure 2018169811
S25の処理の後、乗算値Hの値が1.8以上かを確認する(S26)。乗算値Hが1.8以上の場合は(S26:Yes)、i番目のオブジェクトは「人物」と認識する(S27)。一方で、乗算値Hの値が1.8より小さい場合は(S26:Yes)、i番目のオブジェクトは「物体」と認識する(S28)。
具体的にS20の処理において、画像認識尤度メモリ8fの値が2以下のi番目のオブジェクトは、画像認識尤度αが低く、画像認識処理において人物である可能性が低いオブジェクトと判断される。かかる場合には、画像認識尤度αと測距尤度βとマッチ率γとの乗算値Hによって人物か物体かを認識する。これにより乗算値Hには、S21の処理による乗算値Hに加え、画像認識尤度αも含まれるので、より高精度な人物か物体かの認識が可能となる。なお、乗算値Hと比較される値を1.8としたが、必ずしもこれに限られるものではなく、1.8以上でも良いし、1.8以下でも良い。
S23,S24,S27,S28の処理の後、S23,S24,S27,S28の処理による認識結果をオブジェクトテーブル8cの認識結果メモリ8c3に保存する(S29)。S29の処理の後、オブジェクト認識処理を終了し、図4のメイン処理へ戻る。
対象物判定装置1は、オブジェクトテーブル8cの認識結果メモリ8c3に記憶された値に基づき、検出された対象物が人物か物体かを認識する。即ち、検出されたある対象物の位置を、オブジェクトテーブル8cの測距値メモリ8c1の値を参照して、オブジェクトを検索し、該当するオブジェクトの認識結果メモリ8c3の値を取得することで、人物か物体かが認識される。よって、対象物が人物か物体かを区別して、その対象物の位置を認識することができる。
以上説明した通り、本実施形態における対象物判定装置1によれば、カメラ3から取得した画像に対して、ベースラインBLm毎および水平位置Ln毎に算出された画認スコアと、測距センサ4から取得された測距値とが対応付けられて測距結果テーブル8bに記憶される。その測距結果テーブル8bに記憶された測距値をグループ化することでオブジェクトを生成し、そのオブジェクトに該当する測距値および画認スコアがオブジェクトテーブル8cに記憶される。そして、オブジェクトテーブル8cの値から算出された測距尤度βと、画像認識尤度αと、マッチ率γとに基づき、そのオブジェクトが人物か、物体かが認識される。このように、カメラ3から取得した画像に対する画認スコアと、カメラ3とは異なる装置である測距センサ4から取得された測距値とを融合して、オブジェクトが人物か、物体かが認識されるので、その認識処理を高速かつ高精度に行うことができる。
以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。
上記実施形態において、制御プログラム7aを、対象物判定装置1で実行する構成とした。しかし、必ずしもこれに限られるものではなく、制御プログラム7aを、パーソナル・コンピュータやスマートフォン、タブレット端末等に記憶して、制御プログラム7aを実行する構成としても良い。また、対象物判定装置1をユーザに追従して自律走行を行う移動体に搭載し、その自律走行の走行経路の算出等に、対象物判定装置1による人物か物体かの認識結果を用いる構成としても良い。
上記実施形態において、図4のメイン処理ではマッチ率γを、数式2によって算出される構成とした。しかし、必ずしもこれに限られるものではなく、画像認識結果メモリ8c2の値が「1」以上である測距値の数に応じて、マッチ率γを0又は1のいずれかとする構成としても良い。例えば、画像認識結果メモリ8c2の値が「1」以上である測距値の数が、オブジェクトの測距値の70%を占める場合はマッチ率γに1を設定し,70%より小さい場合は0を設定する。
上記実施形態において、図4のメイン処理では、図9(b),(c)の尤度分布から、端点間距離d1,積分距離d2に該当する尤度β1,尤度β2を取得する構成とした。しかし、必ずしもこれに限られるものではなく、端点間距離d1,積分距離d2の値に応じて、尤度β1,尤度β2を0又は1のいずれかとする構成としても良い。例えば、端点間距離d1が0.4m〜0.8mの範囲に含まれる場合は、尤度β1に1を設定し、それ以外の範囲である場合は、尤度β1に0を設定する。また、積分距離d2が0.6m〜1.2mの範囲に含まれる場合は、尤度β2に1を設定し、それ以外の範囲である場合は、尤度β2に0を設定する。
上記実施形態において、オブジェクト認識処理(図5)において、測距尤度βとマッチ率γとの乗算値H、または画像認識尤度αと測距尤度βと測距尤度βとマッチ率γとの乗算値Hによって、人物か物体かを認識する構成とした。しかし、必ずしもこれに限られるものではなく、画像認識尤度αとマッチ率γとの乗算値Hによって、人物か物体かを認識しても良い。その際は、人物か物体かを認識する乗算値Hの値を、適宜設定すれば良い。
また、画像認識尤度αと測距尤度βとのそれぞれに対して重み係数を乗じた上で、乗算値Hを算出する構成としても良い。その場合、重み係数は固定値であっても良いし、マッチ率γの値に応じて、画像認識尤度αと測距尤度βとの重み係数の値を変更する構成としても良い。
1 対象物判定装置
3 カメラ(撮影手段)
4 測距センサ(測距手段)
7a 制御プログラム(対象物判定プログラム)
8c オブジェクトテーブル(位置認識手段の一部)
d1 端点間距離
d2 積分距離
S2 画像認識手段
S4 画認対応付手段
S5 グループ化手段
S7 尤度算出手段の一部、測距尤度算出手段
S8 マッチ率算出手段
S9 尤度算出手段の一部、画像尤度算出手段
S20〜S28 判定手段
S29 位置認識手段の一部
α 画像認識尤度(画像尤度)
β 測距尤度
γ マッチ率

Claims (10)

  1. 画像を撮影する撮影手段と、
    対象物までの距離を測距する測距手段と、
    前記撮影手段により撮影された画像中の前記対象物について画像認識を実行する画像認識手段と、
    その画像認識手段による画像認識の結果を、前記測距手段により測距された測距データに対応付けする画認対応付手段と、
    所定条件下にある複数の前記測距データを1の対象物としてグループ化するグループ化手段と、
    そのグループ化手段によりグループ化された1の対象物を構成する測距データまたは、その測距データに前記画認対応付手段により対応付けされた画像認識の結果に基づいて、前記所定物の尤度を算出する尤度算出手段と、
    前記グループ化手段によりグループ化された1の対象物を構成する測距データに前記画認対応付手段により対応付けされた画像認識の結果に基づいて前記所定物のマッチ率を算出するマッチ率算出手段と、
    そのマッチ率算出手段により算出されたマッチ率と、前記尤度算出手段により算出された尤度とに基づいて、前記グループ化手段によりグループ化された1の対象物が前記所定物であるかを判定する判定手段とを備えていることを特徴とする対象物判定装置。
  2. 前記尤度算出手段は、前記グループ化手段によりグループ化された1の対象物を構成する測距データに基づいて前記所定物の測距尤度を算出する測距尤度算出手段を備え、
    前記判定手段は、その測距尤度算出手段により算出された測距尤度と、前記マッチ率算出手段により算出されたマッチ率とに基づいて、前記グループ化手段によりグループ化された1の対象物が前記所定物であるかを判定するものであることを特徴とする請求項1記載の対象物判定装置。
  3. 前記測距尤度算出手段は、前記グループ化手段によりグループ化された1の対象物を構成する測距データの端点間距離と積分距離とに基づいて前記所定物の測距尤度を算出するものであることを特徴とする請求項2記載の対象物判定装置。
  4. 前記尤度算出手段は、前記グループ化手段によりグループ化された1の対象物を構成する測距データに前記画認対応付手段により対応付けされた画像認識の結果に基づいて前記所定物の画像尤度を算出する画像尤度算出手段を備え、
    前記判定手段は、その画像尤度算出手段により算出された画像尤度と、前記測距尤度算出手段により算出された測距尤度と、前記マッチ率算出手段により算出されたマッチ率とに基づいて、前記グループ化手段によりグループ化された1の対象物が前記所定物であるかを判定するものであることを特徴とする請求項2又は3に記載の対象物判定装置。
  5. 前記判定手段は、前記尤度算出手段により算出された尤度が所定の閾値以上である場合には、前記マッチ率算出手段により算出されたマッチ率に関わらず、前記グループ化手段によりグループ化された1の対象物が前記所定物であると判定するものであることを特徴とする請求項1から4のいずれかに記載の対象物判定装置。
  6. 前記グループ化手段は、前記測距手段により測距された測距データのうち、隣り合う測距データが所定距離内にある場合に、それらの測距データを1の対象物としてグループ化するものであることを特徴とする請求項1から5のいずれかに記載の対象物判定装置。
  7. 前記画認対応付手段は、1の測距データに対応する画像認識の結果が2以上ある場合、その2以上の画像認識の結果のうち、前記所定物としての認識度の最も高い画像認識の結果を前記測距データに対応付けするものであることを特徴とする請求項1から6のいずれかに記載の対象物判定装置。
  8. 前記グループ化手段によりグループ化された対象物を、前記判定手段による判定結果に基づいて前記所定物とそれ以外とに区別して、その対象物の位置を認識する位置認識手段を備えていることを特徴とする請求項1から7のいずれかに記載の対象物判定装置。
  9. 前記判定手段による判定対象となる所定物は人物であることを特徴とする請求項1から8のいずれかに記載の対象物判定装置。
  10. 画像を取得する画像取得機能と、
    対象物までの測距データを取得する測距データ取得機能と、
    前記画像取得機能により取得された画像中の前記対象物について画像認識を実行する画像認識機能と、
    その画像認識機能による画像認識の結果を、前記測距データ取得機能により取得された測距データに対応付けする画認対応付機能と、
    所定条件下にある複数の前記測距データを1の対象物としてグループ化するグループ化機能と、
    そのグループ化機能によりグループ化された1の対象物を構成する測距データまたは、その測距データに前記画認対応付機能により対応付けされた画像認識の結果に基づいて、前記所定物の尤度を算出する尤度算出機能と、
    前記グループ化機能によりグループ化された1の対象物を構成する測距データに前記画認対応付機能により対応付けされた画像認識の結果に基づいて前記所定物のマッチ率を算出するマッチ率算出機能と、
    そのマッチ率算出機能により算出されたマッチ率と、前記尤度算出機能により算出された尤度とに基づいて、前記グループ化機能によりグループ化された1の対象物が前記所定物であるかを判定する判定機能と、をコンピュータに実現させることを特徴とする対象物判定プログラム。
JP2017066802A 2017-03-30 2017-03-30 対象物判定装置および対象物判定プログラム Active JP6830656B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017066802A JP6830656B2 (ja) 2017-03-30 2017-03-30 対象物判定装置および対象物判定プログラム
US16/499,614 US20200110963A1 (en) 2017-03-30 2018-03-14 Object determination device and object determination program
PCT/JP2018/010039 WO2018180501A1 (ja) 2017-03-30 2018-03-14 対象物判定装置および対象物判定プログラム
CN201880022195.6A CN110546683A (zh) 2017-03-30 2018-03-14 对象物判定装置以及对象物判定程序
EP18777146.4A EP3605458A4 (en) 2017-03-30 2018-03-14 OBJECT DETERMINATION DEVICE AND OBJECT DETERMINATION PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017066802A JP6830656B2 (ja) 2017-03-30 2017-03-30 対象物判定装置および対象物判定プログラム

Publications (2)

Publication Number Publication Date
JP2018169811A true JP2018169811A (ja) 2018-11-01
JP6830656B2 JP6830656B2 (ja) 2021-02-17

Family

ID=63675413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017066802A Active JP6830656B2 (ja) 2017-03-30 2017-03-30 対象物判定装置および対象物判定プログラム

Country Status (5)

Country Link
US (1) US20200110963A1 (ja)
EP (1) EP3605458A4 (ja)
JP (1) JP6830656B2 (ja)
CN (1) CN110546683A (ja)
WO (1) WO2018180501A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114495509B (zh) * 2022-04-08 2022-07-12 四川九通智路科技有限公司 基于深度神经网络监控隧道运行状态的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280451A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2008200770A (ja) * 2007-02-16 2008-09-04 Toshiba Corp ロボットおよびその制御方法
JP2009176090A (ja) * 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd 環境認識装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007187618A (ja) * 2006-01-16 2007-07-26 Omron Corp 物体識別装置
JP4717760B2 (ja) * 2006-08-31 2011-07-06 三菱電機株式会社 物体認識装置および映像物体測位装置
JP4413957B2 (ja) * 2007-08-24 2010-02-10 株式会社東芝 移動物体検出装置および自律移動物体
JP5283967B2 (ja) 2008-05-14 2013-09-04 日立オートモティブシステムズ株式会社 車載用物体検知装置
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
US8867790B2 (en) * 2010-08-03 2014-10-21 Panasonic Corporation Object detection device, object detection method, and program
JP2012118698A (ja) * 2010-11-30 2012-06-21 Fuji Heavy Ind Ltd 画像処理装置
KR20120072131A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 이미지 센서와 거리센서의 데이터 융합에 의한 상황인식 방법 및 그 장치
JP6332937B2 (ja) * 2013-10-23 2018-05-30 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280451A (ja) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2008200770A (ja) * 2007-02-16 2008-09-04 Toshiba Corp ロボットおよびその制御方法
JP2009176090A (ja) * 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd 環境認識装置

Also Published As

Publication number Publication date
US20200110963A1 (en) 2020-04-09
EP3605458A1 (en) 2020-02-05
CN110546683A (zh) 2019-12-06
WO2018180501A1 (ja) 2018-10-04
EP3605458A4 (en) 2021-01-06
JP6830656B2 (ja) 2021-02-17

Similar Documents

Publication Publication Date Title
US9480397B2 (en) Gaze tracking variations using visible lights or dots
KR101954855B1 (ko) 볼륨 내 물체의 심도 맵핑을 위한 광 패턴의 강도 변화의 사용
KR102012254B1 (ko) 이동 단말기를 이용한 사용자 응시점 추적 방법 및 그 장치
US10254831B2 (en) System and method for detecting a gaze of a viewer
US20180129854A1 (en) Method and apparatus for generating virtual driving lane for traveling vehicle
US10417782B2 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face orientation detection system, face orientation detection method, and face orientation detection program
JP6651062B2 (ja) 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム
US20160232399A1 (en) System and method of detecting a gaze of a viewer
JP2007087345A5 (ja)
CN105517680B (zh) 用于识别人脸的装置、系统和方法
CN106415192B (zh) 引线图像识别方法及识别装置以及图像处理用元件数据生成方法及生成装置
TWI479435B (zh) 人臉辨識方法
KR101772438B1 (ko) 도로 표지판 인식 시스템에서 막대형 신호를 검출하는 장치 및 방법
US20160283803A1 (en) Object detection method, information processing device, and storage medium
Zheng et al. A rapid webcam-based eye tracking method for human computer interaction
JP5048609B2 (ja) 対象物追跡装置及びプログラム
WO2018180501A1 (ja) 対象物判定装置および対象物判定プログラム
CN114919584A (zh) 机动车定点目标测距方法、装置及计算机可读存储介质
JP2016167128A (ja) 情報処理装置、情報処理方法及びプログラム
Krisandria et al. Hog-based hand gesture recognition using Kinect
KR101558487B1 (ko) 타이어 정보 제공 방법
JP2017138645A (ja) 視線検出装置
CN111929694B (zh) 点云匹配方法、设备及存储介质
US10769803B2 (en) Sight vector detecting method and device
TW201533609A (zh) 以輔助燈光相對位置為基礎之瞳孔定位方法、其系統以及其電腦程式產品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210113

R150 Certificate of patent or registration of utility model

Ref document number: 6830656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150