JP6635188B2 - 物体認識装置、物体認識方法及び物体認識プログラム - Google Patents
物体認識装置、物体認識方法及び物体認識プログラム Download PDFInfo
- Publication number
- JP6635188B2 JP6635188B2 JP2018505263A JP2018505263A JP6635188B2 JP 6635188 B2 JP6635188 B2 JP 6635188B2 JP 2018505263 A JP2018505263 A JP 2018505263A JP 2018505263 A JP2018505263 A JP 2018505263A JP 6635188 B2 JP6635188 B2 JP 6635188B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- wheel
- image
- detected
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000012545 processing Methods 0.000 claims description 124
- 238000001514 detection method Methods 0.000 claims description 62
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000013500 data storage Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000010801 machine learning Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Description
しかしながら、実際に、路面との接地部分を除いた車両のパターン、又は、路面との接地部分を含む車両全体のパターンを機械学習させた辞書を用いて、画像内の車両を認識しようとすると、その検出位置が実際の車両画像からずれてしまうことがある。そして、ずれた検出位置、すなわち、ずれた接地位置に基づいて、当該車両との距離を算出すると、運転者に適切なタイミングで警告を通知することができない。
なお、本明細書の「画像」には、静止画像及び動画像が含まれる。
また、本明細書の「車両」には、自動車(自動二輪を含む)、原動機付自転車、軽車両(自転車を含む)、車いす、パーソナルモビリティなどが含まれる。
また、本明細書の「乗員」には、車両などに乗って運転している者(運転者)、車両などに乗っている者(運転者以外)などが含まれる。
本実施の形態1に係る物体認識システム及び物体認識方法は、人物を撮影した画像に対して、人物認識辞書を用いて人物を検出し、検出した人物に対して車輪認識辞書を用いて車輪を検出し、検出した人物が車両の乗員であるか、歩行者であるかを判断するものである。
図1は、本実施の形態1に係る物体認識システム1の概略構成を示すブロック図である。
物体認識システム1は、主に車両において利用されるシステムであり、前方カメラ10、物体認識装置20、辞書データ記憶装置30、表示装置40などを備える。
認識処理部22は、画像に対して、辞書データ記憶装置30に記憶した人物認識辞書、自転車認識辞書、車輪認識辞書などを用いて、歩行者、自転車、車輪(タイヤ)などを認識、必要に応じて運転者に警告するように、表示制御部23に信号を出力する。
表示制御部23は、表示装置40で警告画像を表示したり、警告音声を出力したりするための制御を行う。また、表示制御部23は、認識した歩行者、自転車などの接地位置の、画像における位置から算出した距離情報を、表示装置40に表示させる制御も行う。
表示装置40は、運転者などの自車両の乗員に対して、自車両の進行方向に歩行者、自転車などが存在する旨の警告を画像又は音声で通知する。また、表示装置40は、自車両の乗員に対して、認識した歩行者、自転車までの距離を通知する。
図2は、本実施の形態1に係る物体認識方法の処理手順を示すフローチャートである。
物体認識システム1が動作を開始すると、前方カメラ10が自車両の進行方向の画像を撮像し、画像取得部21が当該画像を認識対象画像として取得する(ステップS10)。
画像には、自車両前方の横断歩道を歩いて横断し始めた人物Aと、横断歩道を自転車に乗って横断中の人物Bと、横断歩道よりも更に向こうの方で自転車に乗って道路を斜めに横断している人物Cとが写っている。
認識処理部22が人物を検出した結果を示す検出矩形A〜Cは、それぞれ人物A〜Cを適切に囲んでおり、認識処理部22が人物を適切に検出できていることを示している。
しかしながら、検出した人物Aは歩行している状態であり、人物B、Cは自転車に乗車している状態であって、認識処理部22が検出した人物の形状などに基づいて、自車両(又は、前方カメラ10)と人物A〜Cとの距離をこのまま算出すると、人物B、Cとの距離を間違える可能性がある。この間違いは、特に、画像中の人物の下端位置(接地位置)に基づいて、人物との距離を算出するような場合に顕著になる。また、歩行者と、自転車とでは移動速度が異なるので、歩行者と自転車などとを正しく識別して、運転者に適切なタイミングで衝突防止などの警告をする必要がある。
認識処理部22は、人物を検出したとき(ステップS30のYes)は、ステップS20で検出した人物の検出範囲の下部に、車輪を認識するときの認識範囲を設定する(ステップS40)。ここで、認識範囲を設定する、人物の検出範囲の下部とは、当該人物が自転車などに乗車しているときに、当該自転車などの車輪を認識するための必要十分な範囲を指す。
認識処理部22は、検出した人物A〜Cに対して、その下側を中心として、それぞれ、認識範囲A〜Cを設定している。車輪を認識する範囲を、人物を検出した範囲の下側であり、更に、人物を検出した範囲の下端よりも下方の範囲を含み、人物を検出した範囲の左右端よりも横方向の範囲も含むことが適切である。
次に、認識処理部22は、辞書データ記憶装置30に記憶した車輪認識辞書を用いて、認識範囲A〜Cに対して、自転車の車輪を認識する(ステップS50)。
認識処理部22が車輪を検出した結果を示す検出矩形B、Cは、自転車Bの車輪2つと、自転車Cの車輪1つとを適切に囲んでおり、認識処理部22が車輪を適切に検出できていることを示している。一般に、自転車の車輪は乗員(人物B、C)の死角に入ることが少なく、認識処理部22は、多くの場合で車輪を検出することができる。
図7は、本実施の形態1に係る自転車の検出結果を示す図である。
自転車Bは横方向から撮影されて自転車としての形状が明確であり、認識処理部22は自転車Bを正しく検出できている。一方、自転車Cは斜め前方向から撮影されて、乗員(人物C)と自転車との特徴が似てしまったり、自転車Cのフレーム部分がハンドルに取り付けたかごや乗員の死角に入ったりなどして、認識処理部22は自転車Cを正しく検出できていない。
ステップS50で車輪を検出したとき(ステップS70のYes)、又は、ステップS60で自転車を検出したとき(ステップS80のYes)は、認識処理部22は、自転車(及び、その乗員)を検出したと最終的に決定する(ステップS90)。
また、認識処理部22は、ステップS50で車輪を検出したとき(ステップS70のYes)に、ステップS20で検出した人物は、自転車の乗員であると決定しても良い。
そして、認識処理部22は、検出した車輪の下端、又は、検出した自転車の車輪の下端を自転車の接地位置として、自車両(又は、前方カメラ10)と当該自転車(及び、その乗員)との距離を算出する(ステップS100)。
認識処理部22は、画像下端から画像中の注目画素までの画素数と、自車両から注目画素における被写体までの実際の距離とを対応付けた距離テーブルをあらかじめ保持している。この距離テーブルは、例えば、カメラの取り付け位置や角度などによりキャリブレーションを行って用意することができる。
そして、認識処理部22は、車輪の下端(接地位置)の画像上の位置と、距離テーブルとから、当該画像撮像時の自車両から当該自転車までの距離を算出する。
そして、認識処理部22は、検出した人物の下端、例えば、靴の底又は踵の部分を歩行者の接地位置として、自車両(又は、前方カメラ10)と歩行者との距離を算出する(ステップS120)。
そして、物体認識装置20は、物体認識方法を終了するか判定し(ステップS140)、終了すると判定したとき(ステップS140のYes)は、処理を終了する。
例えば、認識処理部22は、ステップS60で自転車を検出したとき(ステップS80のYes)に自転車を検出したと最終的に決定する(ステップS90)ようにしたが、検出した自転車に対して、改めて車輪認識辞書を用いて車輪を認識するようにしても良い。すなわち、ステップS80が「Yes」のときに、ステップS90の処理を行わずにステップS50の処理を行うようにしても良い。
認識処理部22は、抽出した赤外画像に対して赤外画像用の人物認識辞書を用いて人物を認識し、人物を検出したときに、同一の画像から抽出した可視光画像に対して、可視光画像用の車輪認識辞書を用いて車輪を認識する。
認識処理部22は、赤外画像に対して赤外画像用の人物認識辞書を用いて人物を認識し、人物を検出したときに、可視光画像に対して、可視光画像用の車輪認識辞書を用いて車輪を認識する。
このような構成により、画像から対象物をより正確に検出することができる。
このような構成により、画像から歩行者と自転車(又は、その乗員)などとを正確に識別することができる。
このような構成により、検出した歩行者、自転車などと自装置などとの距離を正確に算出することができる。
このような構成により、画像から歩行者と自転車(又は、その乗員)などとをより正確に識別することができる。
実施の形態1に係る物体認識システム1及び物体認識方法は、人物を撮影した画像に対して、人物認識辞書を用いて人物を検出し、検出した人物に対して車輪認識辞書を用いて車輪を検出し、検出した人物が車両の乗員であるか、歩行者であるかを判断するものであったが、本実施の形態2に係る物体認識システム及び物体認識方法は、他車両を撮影した画像に対して車両認識辞書を用いて他車両を検出し、検出した他車両に対して車輪認識辞書を用いてその車輪を検出し、当該他車両との距離を早く正確に算出するものである。
なお、本実施の形態2に係る物体認識システムの構成の一部は、実施の形態1に係るものと同様で良く、ここでは、物体認識システムの図示及び同様の構成についての説明を省略する。
表示制御部23は、表示装置40で警告画像を表示したり、警告音声を出力したりするための制御を行う。また、表示制御部23は、認識した他車両の接地位置の、画像における位置から算出した距離情報を、表示装置40に表示させる制御も行う。
表示装置40は、運転者などの自車両の乗員に対して、自車両の進行方向に車両が存在する旨の警告を画像又は音声で通知する。また、表示装置40は、自車両の乗員に対して、認識した他車両までの距離を通知する。
図8は、本実施の形態2に係る認識方法の処理手順を示すフローチャートである。
物体認識システム1が動作を開始すると、前方カメラ10が自車両の進行方向の画像を撮像し、画像取得部21が当該画像を認識対象画像として取得する(ステップS210)。
認識対象画像には、左の道路から右折しようとして交差点に侵入している他車両が写っている。そして、認識処理部22が当該他車両を検出した結果を示す検出矩形は、車輪の一部分を除いて当該他車両を囲んでいる。
そこで、認識処理部22は、次に、ステップS220で他車両を検出したか判定する(ステップS230)。
図10は、本実施の形態2に係る車輪の認識範囲を示す図である。検出した他車両の下部近傍に認識範囲を設定している。
図11は、本実施の形態2に係る車輪認識結果を示す図である。
認識処理部22が車輪を検出した結果を示す検出矩形は、車輪2つを適切に囲んでいる。
認識処理部22は、ステップS250で車輪を検出したとき(ステップS260のYes)は、検出した車輪の下端を他車両の接地位置として、自車両(又は、前方カメラ10)と当該他車両との距離を算出する(ステップS270)。
このとき、認識処理部22は、認識対象画像における検出した車輪の下端の位置(接地位置)と、上述した距離テーブルとから、認識対象画像を撮像したときの自車両と当該他車両との距離を算出する。
図12は、本実施の形態2に係る検出矩形及び距離の表示例を示す図である。この例では、検出した車輪の接地位置(2箇所)も表示している。
また、認識処理部22が車両を検出しなかったとき(ステップS230のNo)、又は、物体認識装置20が物体認識方法を終了しないと判定したとき(ステップS300のNo)は、ステップS210(又は、ステップS220)に戻る。
このような構成により、画像から他車両との距離を早く正確に算出することができる。
このような構成により、検出した車両の位置を運転者などに正確に示すことができる。
このような構成により、検出した車両までの距離を運転者などに示すことができる。
実施の形態2に係る物体認識システム又は物体認識方法では、他車両の車輪を検出したときに、運転者に対して表示又は音声で警告をしたが、より早く運転者に対して警告をした方が良いことから、本実施の形態3に係る物体認識システム又は物体認識方法では、他車両を検出したときに警告をするものである。
なお、本実施の形態3に係る物体認識システムは、実施の形態2に係るものと同様で良く、ここでは、その図示及び説明を省略する。
図13は、本実施の形態3に係る物体認識方法の処理手順を示すフローチャートである。
ステップS310〜S330に係る処理は実施の形態2のステップS210〜S230に係る処理と同様で良く、ここでは、その説明を省略する。
次に、認識処理部22は、ステップS360で車輪を検出したか判定する(ステップS370)。
なお、上記したステップS350、S360、S380に係る処理も実施の形態2のステップS240、S250、S270に係る処理と同様のもので良い。
なお、認識処理部22は、ステップS360で車輪を検出しなかったとき(ステップS370のNo)は、ステップS400に進む。
これにより、夜間などの可視光の光量が少ない場合にも、実施の形態2、3に係る物体認識システム1などを適用して、可視光の光量が多い場合と同様の効果を得ることができる。また、赤外画像を用いることで、主に走行中の他車両を検出することができ、例えば、交差点にいろいろな方向から侵入してくる他車両の距離を正確に算出することもできる。
このような構成により、検出した車両の位置をより早く運転者などに示すことができ、また、検出した車両の位置を正確に算出することができる。
実施の形態1〜3に係る物体認識システム及び物体認識方法は、人物、他車両などの対象物を撮影した画像に対して、人物認識辞書、車両認識辞書などの対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出するものであったが、本実施の形態4に係る物体認識システム及び物体認識方法は、検出した対象物の向きを特定し、特定した対象物の向きに対応する車輪認識辞書を選択して、認識処理の負荷を軽減しつつ、車輪をより精度良く検出するようにするものである。
なお、本実施の形態4に係る物体認識システムの構成の一部は、実施の形態1〜3に係るものと同様で良く、ここでは、物体認識システムの図示及び同様の構成についての説明を省略する。
そして、認識処理部22は、特定した向きに対応する車輪認識辞書を選択して対象物の下部の車輪を認識し、必要に応じて運転者に警告するように、表示制御部23に信号を出力する。
図14は、本実施の形態4に係る物体認識方法の処理手順を示すフローチャートである。
物体認識システム1が動作を開始すると、前方カメラ10が自車両の進行方向の画像を撮像し、画像取得部21が当該画像を認識対象画像として取得する(ステップS410)。
そして、認識処理部22は、ステップS420で対象物を検出したか判定する(ステップS430)。
また、認識処理部22は、対象物を検出しなかったとき(ステップS430のNo)は、例えば、ステップS410に戻る。
そして、認識処理部22は、ステップS450で特定した対象物の向きに対応する車輪認識辞書を辞書データ記憶装置30から選択し(ステップS460)、対象物の車輪を認識する(ステップS470)。
このような構成により、認識処理の負荷を軽減しつつ、車輪をより精度良く検出することができる。
10 前方カメラ
20 物体認識装置
21 画像取得部
22 認識処理部
23 表示制御部
30 辞書データ記憶装置
40 表示装置
Claims (11)
- 被写体を撮影した画像を取得する画像取得部と、
前記取得した画像に対して、認識辞書を用いて前記被写体を認識する認識処理部とを備え、
前記認識処理部は、
前記取得した画像に対して対象物認識辞書を用いて対象物を検出し、
前記取得した画像を用いて、前記対象物の向きを検出し、
前記検出した向きに対応する車輪認識辞書を選択し、
前記検出した対象物の下部に対して、前記選択した車輪認識辞書を用いて車輪を検出し、
前記車輪の検出結果を前記対象物の検出結果に反映させる、
物体認識装置。 - 前記認識処理部は、前記取得した画像を用いて、前記対象物の向きを検出するときに、
複数の前記取得した画像を用いて前記対象物を追跡して前記対象物の進行方向を推定し、
前記推定した進行方向から前記対象物の向きを検出する
請求項1記載の物体認識装置。 - 前記認識処理部は、
前記対象物認識辞書である人物認識辞書を用いて人物を検出し、
前記検出した人物の下部に対して前記選択した車輪認識辞書を用いて車輪を検出し、
車輪を検出したときは前記検出した人物は車両の乗員であり、車輪を検出しなかったときは前記検出した人物は歩行者であると判断する、
請求項1又は請求項2記載の物体認識装置。 - 前記認識処理部は、前記検出した車輪の下端又は前記歩行者と判断した人物の下端と、前記画像を撮像した撮像部との距離を算出する、
請求項3記載の物体認識装置。 - 前記画像取得部は、前記画像として赤外光画像及び可視光画像を取得し、
前記認識処理部は、
前記対象物認識辞書である人物認識辞書を用いて前記赤外光画像から人物を検出し、
前記検出した人物の下部に対して前記選択した車輪認識辞書を用いて前記可視光画像から車輪を検出する、
請求項1乃至請求項4のいずれか1項に記載の物体認識装置。 - 前記認識処理部は、
前記対象物認識辞書である車両認識辞書を用いて車両を検出し、
前記検出した車両の下部に対して前記選択した車輪認識辞書を用いて車輪を検出し、
前記検出した車輪の下端位置に基づき、前記検出した車両までの距離を算出する、
請求項1乃至請求項5のいずれか1項に記載の物体認識装置。 - 前記取得した画像を表示部に表示させる表示制御部を更に備え、
前記表示制御部は、前記表示部に、前記検出した車両を囲む検出矩形を前記検出した車輪も含めるように表示させる、
請求項6記載の物体認識装置。 - 前記表示制御部は、前記検出矩形を表示させるときに、
前記認識処理部が前記車両を検出したときに、前記車両を囲む検出矩形を表示させ、
前記認識処理部が前記車輪を検出したときに、前記車輪も含めるように検出矩形を修正して表示させる
請求項7記載の物体認識装置。 - 前記表示制御部は、前記表示部に、前記算出した距離も表示させる
請求項7又は請求項8記載の物体認識装置。 - 被写体を撮影した画像を取得する画像取得ステップと、
前記取得した画像に対して、認識辞書を用いて前記被写体を認識する認識処理ステップとを有し、
前記認識処理ステップは、
前記取得した画像に対して対象物認識辞書を用いて対象物を検出し、
前記取得した画像を用いて、前記対象物の向きを検出し、
前記検出した向きに対応する車輪認識辞書を選択し、
前記検出した対象物の下部に対して、前記選択した車輪認識辞書を用いて車輪を検出し、
前記車輪の検出結果を前記対象物の検出結果に反映させる、
物体認識方法。 - コンピュータに、
被写体を撮影した画像を取得する画像取得手順と、
前記取得した画像に対して、認識辞書を用いて前記被写体を認識する認識処理手順とを実行させるためのプログラムであって、
前記認識処理手順では、
前記取得した画像に対して対象物認識辞書を用いて対象物を検出し、
前記取得した画像を用いて、前記対象物の向きを検出し、
前記検出した向きに対応する車輪認識辞書を選択し、
前記検出した対象物の下部に対して、前記選択した車輪認識辞書を用いて車輪を検出し、
前記車輪の検出結果を前記対象物の検出結果に反映させる、
物体認識プログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054692 | 2016-03-18 | ||
JP2016054692 | 2016-03-18 | ||
JP2016054691 | 2016-03-18 | ||
JP2016054691 | 2016-03-18 | ||
PCT/JP2016/087942 WO2017158983A1 (ja) | 2016-03-18 | 2016-12-20 | 物体認識装置、物体認識方法及び物体認識プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017158983A1 JPWO2017158983A1 (ja) | 2019-01-24 |
JP6635188B2 true JP6635188B2 (ja) | 2020-01-22 |
Family
ID=59850236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505263A Active JP6635188B2 (ja) | 2016-03-18 | 2016-12-20 | 物体認識装置、物体認識方法及び物体認識プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10796171B2 (ja) |
JP (1) | JP6635188B2 (ja) |
CN (1) | CN107924465B (ja) |
WO (1) | WO2017158983A1 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108701415B (zh) * | 2016-02-25 | 2021-08-03 | 富士胶片株式会社 | 驾驶辅助装置、驾驶辅助方法及驾驶辅助程序 |
JP6333871B2 (ja) * | 2016-02-25 | 2018-05-30 | ファナック株式会社 | 入力画像から検出した対象物を表示する画像処理装置 |
CN108694363A (zh) * | 2017-04-12 | 2018-10-23 | 日立汽车系统株式会社 | 对车辆周围的行人进行检测的方法和装置 |
JP6514736B2 (ja) * | 2017-05-17 | 2019-05-15 | 株式会社Subaru | 車外環境認識装置 |
JP7062940B2 (ja) * | 2017-12-18 | 2022-05-09 | スズキ株式会社 | 運転支援装置 |
JP6835004B2 (ja) * | 2018-02-09 | 2021-02-24 | 株式会社デンソー | 画像生成装置 |
US10796157B2 (en) * | 2018-03-13 | 2020-10-06 | Mediatek Inc. | Hierarchical object detection and selection |
JP7093962B2 (ja) * | 2018-03-31 | 2022-07-01 | 株式会社ウォンツ | 車両画像生成装置および車両画像生成プログラム |
CN108805014A (zh) * | 2018-04-26 | 2018-11-13 | 内蒙古河山新能源技术推广服务有限公司 | 移动充电桩的定位方法、装置及计算机可读存储介质 |
CN108831150A (zh) * | 2018-06-20 | 2018-11-16 | 安徽金赛弗信息技术有限公司 | 基于深度学习的机动车未按规定保持安全距离智能识别方法 |
JP7056458B2 (ja) * | 2018-08-10 | 2022-04-19 | 株式会社Jvcケンウッド | 認識処理装置、認識処理方法及び認識処理プログラム |
JP7139902B2 (ja) * | 2018-11-14 | 2022-09-21 | トヨタ自動車株式会社 | 報知装置 |
CN111251994B (zh) * | 2018-11-30 | 2021-08-24 | 华创车电技术中心股份有限公司 | 车辆周边物件检测方法及车辆周边物件检测系统 |
US10885334B2 (en) * | 2018-11-30 | 2021-01-05 | Hua-Chuang Automobile Information Technical Center Co., Ltd. | Method and system for detecting object(s) adjacent to vehicle |
US10817728B2 (en) * | 2019-01-23 | 2020-10-27 | GM Global Technology Operations LLC | Automated data collection for continued refinement in the detection of objects-of-interest |
CN109977793B (zh) * | 2019-03-04 | 2022-03-04 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
EP3748604B1 (en) * | 2019-06-04 | 2023-03-01 | Hitachi Astemo, Ltd. | Vehicle travelling control apparatus, vehicle travelling control method and computer program product |
JP7237428B2 (ja) * | 2019-06-10 | 2023-03-13 | ダイハツ工業株式会社 | 衝突回避支援装置 |
JP7505844B2 (ja) * | 2020-01-03 | 2024-06-25 | モービルアイ ビジョン テクノロジーズ リミテッド | 歩行者を伴い、車両フリースペースを特定する車両ナビゲーション |
US12108172B2 (en) | 2020-02-14 | 2024-10-01 | Sony Group Corporation | Vehicle control system using imaging device capable of object detection |
JP7380824B2 (ja) * | 2020-02-20 | 2023-11-15 | 日本電信電話株式会社 | 車両状態推定方法、車両状態推定装置、及び車両状態推定プログラム |
JP6997471B2 (ja) * | 2020-03-09 | 2022-01-17 | ニューラルポケット株式会社 | 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法 |
US11851060B2 (en) | 2020-03-15 | 2023-12-26 | Ron Zass | Controlling vehicles in response to windows |
KR20220031224A (ko) * | 2020-09-04 | 2022-03-11 | 현대자동차주식회사 | 차량 및 그 제어방법 |
JP7387241B2 (ja) * | 2021-06-18 | 2023-11-28 | ダイハツ工業株式会社 | 車両用制御装置 |
KR102360491B1 (ko) * | 2021-09-28 | 2022-02-09 | 라이트브라더스 주식회사 | 저감된 탄소 배출량 계산 기반의 자전거 응용 서비스 플랫폼 서버, 방법, 및 컴퓨터 판독 가능한 기록 매체 |
WO2024157413A1 (ja) * | 2023-01-26 | 2024-08-02 | 日立Astemo株式会社 | 環境認識装置及び環境認識方法 |
CN116092039B (zh) * | 2023-04-10 | 2023-06-16 | 智道网联科技(北京)有限公司 | 自动驾驶仿真系统的显示控制方法及装置 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11144031A (ja) * | 1997-11-06 | 1999-05-28 | Fuji Xerox Co Ltd | 画像読取装置 |
US7583372B2 (en) * | 2005-06-01 | 2009-09-01 | Hunter Engineering Company | Machine vision vehicle wheel alignment image processing methods |
JP2007188417A (ja) | 2006-01-16 | 2007-07-26 | Fujitsu Ten Ltd | 画像認識装置、画像認識方法および画像認識プログラム |
JP4692344B2 (ja) | 2006-03-17 | 2011-06-01 | トヨタ自動車株式会社 | 画像認識装置 |
US7671725B2 (en) * | 2006-03-24 | 2010-03-02 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program |
CN105373792A (zh) * | 2007-05-21 | 2016-03-02 | 实耐宝公司 | 车轮定位的方法和设备 |
JP4948338B2 (ja) * | 2007-09-20 | 2012-06-06 | アルパイン株式会社 | 車間距離計測装置 |
JP5115139B2 (ja) * | 2007-10-17 | 2013-01-09 | ソニー株式会社 | 構図判定装置、構図判定方法、プログラム |
JP4410292B1 (ja) * | 2008-10-20 | 2010-02-03 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP5239952B2 (ja) * | 2009-03-10 | 2013-07-17 | オムロン株式会社 | 安全運転監視装置 |
JP5330530B2 (ja) * | 2010-01-22 | 2013-10-30 | パナソニック株式会社 | 画像管理装置、画像管理方法、プログラム、記録媒体及び集積回路 |
JP5594672B2 (ja) * | 2011-04-14 | 2014-09-24 | 株式会社 日立産業制御ソリューションズ | 物体認識装置および物体認識方法 |
JP5648655B2 (ja) * | 2012-04-27 | 2015-01-07 | 株式会社デンソー | 対象物識別装置 |
JP6336391B2 (ja) * | 2012-09-06 | 2018-06-06 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP5752729B2 (ja) | 2013-02-28 | 2015-07-22 | 富士フイルム株式会社 | 車間距離算出装置およびその動作制御方法 |
CN104599287B (zh) * | 2013-11-01 | 2018-01-16 | 株式会社理光 | 对象跟踪方法和装置、对象识别方法和装置 |
JP6253467B2 (ja) * | 2014-03-24 | 2017-12-27 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 画像処理装置および画像処理プログラム |
JP2016006626A (ja) * | 2014-05-28 | 2016-01-14 | 株式会社デンソーアイティーラボラトリ | 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法 |
JP6448223B2 (ja) * | 2014-06-12 | 2019-01-09 | キヤノン株式会社 | 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム |
CN104596770B (zh) * | 2015-01-20 | 2017-03-15 | 天津大学 | 一种车用动力总成综合性能测试系统 |
CN104598928A (zh) * | 2015-01-30 | 2015-05-06 | 南京邮电大学 | 一种基于类字典稀疏识别的车辆分类方法 |
CN104916165B (zh) * | 2015-06-26 | 2018-03-06 | 长安大学 | 一种前车驾驶员不安全驾驶行为检测方法及装置 |
-
2016
- 2016-12-20 JP JP2018505263A patent/JP6635188B2/ja active Active
- 2016-12-20 WO PCT/JP2016/087942 patent/WO2017158983A1/ja active Application Filing
- 2016-12-20 CN CN201680049292.5A patent/CN107924465B/zh active Active
-
2018
- 2018-09-18 US US16/134,769 patent/US10796171B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107924465B (zh) | 2021-09-10 |
WO2017158983A1 (ja) | 2017-09-21 |
US20190019045A1 (en) | 2019-01-17 |
CN107924465A (zh) | 2018-04-17 |
JPWO2017158983A1 (ja) | 2019-01-24 |
US10796171B2 (en) | 2020-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6635188B2 (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP4733756B2 (ja) | 車両周辺監視装置 | |
JP5480925B2 (ja) | 車両周辺監視装置 | |
JP6139465B2 (ja) | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム | |
JP4656456B2 (ja) | 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム | |
WO2016147584A1 (ja) | 車両監視装置、車両監視方法、及び、車両監視プログラム | |
JP2015219773A (ja) | 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム | |
WO2018020715A1 (ja) | 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム | |
WO2016151976A1 (ja) | 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路 | |
JP6805716B2 (ja) | 表示装置、表示方法、プログラム | |
JP4840472B2 (ja) | 物体検出装置 | |
JP4644273B2 (ja) | 車両周辺監視装置 | |
JP4962304B2 (ja) | 歩行者検出装置 | |
JP2012252501A (ja) | 走行路認識装置及び走行路認識用プログラム | |
JP6483360B2 (ja) | 対象物認識装置 | |
JP4887537B2 (ja) | 車両周辺監視装置 | |
US10789727B2 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
KR101729030B1 (ko) | 차량 주변의 위험요소 경고장치 및 경고방법 | |
WO2016151977A1 (ja) | 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路 | |
JP2017167608A (ja) | 物体認識装置、物体認識方法及び物体認識プログラム | |
JP5172482B2 (ja) | 車両周辺監視装置 | |
JP5004903B2 (ja) | 車両周辺監視装置 | |
JP2012256159A (ja) | 接近物検知装置および接近物検知方法 | |
JP2014203196A (ja) | 危険度判定装置、危険度判定方法、警報装置、及び運転支援装置 | |
JP6495742B2 (ja) | 対象物検出装置、対象物検出方法、及び、対象物検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180913 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191119 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6635188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |