JP7218237B2 - Moving object detector - Google Patents
Moving object detector Download PDFInfo
- Publication number
- JP7218237B2 JP7218237B2 JP2019084219A JP2019084219A JP7218237B2 JP 7218237 B2 JP7218237 B2 JP 7218237B2 JP 2019084219 A JP2019084219 A JP 2019084219A JP 2019084219 A JP2019084219 A JP 2019084219A JP 7218237 B2 JP7218237 B2 JP 7218237B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving object
- priority area
- detection
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、移動体の周辺を移動する周辺移動物を検出する移動物検出装置に関する。 The present invention relates to a moving object detection device for detecting peripheral moving objects moving around a moving object.
近年、自動車等の車両に搭載され、車両の周囲を移動する移動物を検出する移動物検出装置の開発が進められている。移動物は、例えば、歩行者である。移動物検出装置は、歩行者を検出した場合、歩行者の存在を車両の運転者に報知する。これにより、運転者は、歩行者の存在を意識しつつ、車両を運転することができる。 2. Description of the Related Art In recent years, development of a moving object detection device that is mounted on a vehicle such as an automobile and detects a moving object that moves around the vehicle has been progressing. A moving object is, for example, a pedestrian. When a pedestrian is detected, the moving object detection device notifies the presence of the pedestrian to the driver of the vehicle. As a result, the driver can drive the vehicle while being aware of the presence of pedestrians.
例えば、特許文献1は、車両前方に存在する人物の状態を推定する歩行者認識装置を開示している。歩行者認識装置は、自車両の前方を撮影する撮像部により生成された画像データから人物を検出し、人物が検出された領域を処理領域として設定する。歩行者認識装置は、画像データから、処理領域における輝度勾配画像を生成し、検出した人物が歩行中であるか否かを、生成した輝度勾配画像に基づいて判断する。
For example,
車両に前方に搭載されるフロントカメラは、フロントカメラと歩行者との位置関係によっては、歩行者を撮影することができない。フロントカメラが歩行者を撮影できない場合、特許文献1に係る歩行者認識装置は、歩行者を検出することができない。
A front camera mounted in front of a vehicle cannot photograph a pedestrian depending on the positional relationship between the front camera and the pedestrian. If the front camera cannot capture a pedestrian, the pedestrian recognition device according to
自車両が右折する場合、移動物検出装置は、フロントカメラと、車両の右方を撮影する右サイドカメラとを用いることにより、自車両の右側を歩く歩行者を撮影することができる。この場合、歩行者認識装置は、フロントカメラにより生成された画像データと、右サイドカメラにより生成された画像データとの両者から歩行者を検出しなければならない。 When the own vehicle turns right, the moving object detection device can photograph a pedestrian walking on the right side of the own vehicle by using the front camera and the right side camera that photographs the right side of the vehicle. In this case, the pedestrian recognition device must detect pedestrians from both the image data generated by the front camera and the image data generated by the right side camera.
しかし、2つの画像データから歩行者を検出する場合、歩行者認識装置の負荷が高くなる。この結果、歩行者認識装置は、2つの画像データの各々から歩行者をリアルタイムに検出することが困難となる。 However, when detecting a pedestrian from two image data, the load on the pedestrian recognition device increases. As a result, it becomes difficult for the pedestrian recognition device to detect pedestrians in real time from each of the two image data.
本発明は、車両の周辺を移動する移動物の検出負荷を低減することができる移動物検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a moving object detection apparatus capable of reducing the detection load of a moving object moving around a vehicle.
上記課題を解決するため、第1の発明は、移動物検出装置であって、画像取得部と、第1検出部と、優先領域設定部と、画質調整部と、第2検出部とを備える。画像取得部は、車両に搭載された第1カメラにより生成された第1撮影画像を取得し、車両に搭載された第2カメラにより生成された第2撮影画像を取得する。第1検出部は、画像取得部により取得された第1撮影画像から車両の周辺を移動する第1移動物を検出する。優先領域設定部は、第1検出部により検出された第1移動物の第1撮影画像における位置と、検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを画像取得部により取得された第2撮影画像に設定する。画質調整部は、第2撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整する。第2検出部は、優先検出領域の画像及び画質調整部により画質が調整された非優先検出領域の画像の各々から、車両の周辺を移動する第2移動物を検出する。 In order to solve the above problems, a first invention is a moving object detection device comprising an image acquisition section, a first detection section, a priority area setting section, an image quality adjustment section, and a second detection section. . The image acquisition unit acquires a first captured image generated by a first camera mounted on the vehicle, and acquires a second captured image generated by a second camera mounted on the vehicle. The first detection unit detects a first moving object moving around the vehicle from the first captured image acquired by the image acquisition unit. The priority area setting unit determines the priority area based on the position of the first moving object detected by the first detection unit in the first captured image and the moving direction of the detected first moving object in the first captured image. A non-priority area is set in the second captured image acquired by the image acquiring unit. The image quality adjustment unit adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image. The second detection section detects a second moving object moving around the vehicle from each of the image of the priority detection area and the image of the non-priority detection area whose image quality is adjusted by the image quality adjustment section.
第1の発明によれば、画質調整部が、第2撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整する。第2検出部が、第2撮影画像のうち優先領域の画像と、画質が調整された非優先領域の画像とから移動物を検出する。つまり、第2検出部は、画像取得部により取得された第2撮影画像よりも画素数の少ない第2撮影画像から移動物を検出する。第1の発明は、2つの撮影画像の各々から移動物を並行して検出する場合において、移動物の検出負荷を低減することができる。 According to the first invention, the image quality adjusting section adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image. A second detection unit detects a moving object from the image of the priority area and the image of the non-priority area whose image quality is adjusted in the second captured image. That is, the second detection section detects the moving object from the second captured image having a smaller number of pixels than the second captured image acquired by the image acquisition section. The first invention can reduce the detection load of a moving object when detecting a moving object from each of two captured images in parallel.
第2の発明は、第1の発明であって、第1移動物の第1撮影画像における位置が、第1撮影画像に予め設定された連携基準領域内である場合、優先領域設定部は、優先領域及び非優先領域を設定する。第1撮影画像における連携基準領域の画像は、第2カメラの撮影範囲と第1カメラの撮影範囲とが重複する重複範囲が撮影された画像を含む。 A second invention is the first invention, wherein when the position of the first moving object in the first captured image is within a cooperation reference region preset in the first captured image, the priority region setting unit includes: Set a priority area and a non-priority area. The image of the cooperation reference region in the first captured image includes an image in which the overlapping range in which the capturing range of the second camera and the capturing range of the first camera overlap is captured.
第2の発明によれば、連携基準領域は、第1撮影画像のうち、第1カメラの撮影範囲と第2カメラの撮影範囲とが重複する重複範囲の画像を含む。第1移動物が連携基準領域内に位置する場合、優先領域設定部は、優先領域及び非優先領域を第2撮影画像に設定する。これにより、第2の発明は、第1カメラ及び第2カメラの両者が移動物を撮影できる可能性が高い場合に、第1撮影画像及び第2撮影画像の各々から移動物を検出する処理を開始できる。従って、第2の発明は、移動物の検出負荷が増加する期間を短縮できる。 According to the second invention, the cooperation reference area includes an image of an overlapping range in which the imaging range of the first camera and the imaging range of the second camera overlap in the first captured image. When the first moving object is positioned within the cooperation reference area, the priority area setting unit sets the priority area and the non-priority area in the second captured image. Accordingly, the second invention performs processing for detecting a moving object from each of the first captured image and the second captured image when there is a high possibility that both the first camera and the second camera can capture the moving object. can start. Therefore, the second invention can shorten the period during which the moving object detection load increases.
第3の発明は、第2の発明であって、優先領域設定部は、第1移動物の第1撮影画像における移動方向に基づいて、第1移動物が車両よりも速く、かつ、第1移動物と車両とが同一方向に進んでいるか否かを判断する。優先領域設定部は、第1移動物が車両よりも速く、かつ、第1移動物と車両とが同一方向に進んでいると判断した場合、優先領域及び非優先領域を第2撮影画像に設定する。 A third invention is the second invention, wherein the priority region setting unit determines that the first moving object is moving faster than the vehicle and that the first moving object It is determined whether the moving object and the vehicle are traveling in the same direction. The priority area setting unit sets the priority area and the non-priority area in the second captured image when determining that the first moving object is faster than the vehicle and that the first moving object and the vehicle are traveling in the same direction. do.
第3の発明によれば、第1移動物が車両よりも速く、かつ、第1移動物と車両とが同一方向に進んでいる場合、優先領域及び非優先領域が第2撮影画像に設定される。これにより、車両が右折又は左折する場合に、第1カメラと第2カメラとを用いて移動物を検出できるため、移動物の検出精度を向上させることができる。 According to the third invention, when the first moving object is faster than the vehicle and the first moving object and the vehicle are traveling in the same direction, the priority area and the non-priority area are set in the second captured image. be. Thereby, when the vehicle turns right or left, the moving object can be detected using the first camera and the second camera, so that the detection accuracy of the moving object can be improved.
第4の発明は、第2又は第3の発明であって、第1移動物の第1撮影画像における位置が、第1撮影画像に予め設定された連携基準領域内である場合、優先領域設定部は、優先領域と非優先領域とを取得された第1撮影画像に設定する。画質調整部は、第1撮影画像の画素数を減少させることにより、第1撮影画像に設定された非優先領域の画像の画質を調整する。第1検出部は、第1撮影画像に設定された優先領域の画像から移動物を検出し、第1撮影画像に設定され、かつ、画質が調整された非優先領域の画像から移動物を検出する。 A fourth invention is the second or third invention, wherein when the position of the first moving object in the first captured image is within a cooperation reference region preset in the first captured image, priority region setting is performed. The unit sets the priority area and the non-priority area in the acquired first captured image. The image quality adjustment unit adjusts the image quality of the image of the non-priority area set in the first captured image by reducing the number of pixels of the first captured image. The first detection unit detects a moving object from the image of the priority area set as the first captured image, and detects the moving object from the image of the non-priority area set as the first captured image and whose image quality has been adjusted. do.
第4の発明によれば、第1移動物が、第1撮影画像において連携基準領域内に位置する場合、優先領域設定部が、優先領域及び非優先領域を第1撮影画像に設定する。画質調整部は、第1撮影画像の画素数を減少させる。第1検出部が、第1撮影画像における非優先領域の画像と、第1撮影画像に設定され、かつ、画質が調整された優先領域の画像から第1移動物を検出することにより、移動物の検出負荷をさらに低減することができる。 According to the fourth invention, when the first moving object is positioned within the cooperation reference area in the first captured image, the priority area setting section sets the priority area and the non-priority area in the first captured image. The image quality adjustment unit reduces the number of pixels of the first captured image. The first detection unit detects the first moving object from the image of the non-priority area in the first captured image and the image of the priority area set in the first captured image and whose image quality has been adjusted. detection load can be further reduced.
第5の発明は、第1~第4の発明であって、さらに、移動状況取得部を備える。移動状況取得部は、車両の移動状況を取得する。移動状況取得部により取得された移動状況が所定の条件を満たす場合、第1検出部は、第1移動物の検出を開始する。 A fifth invention is the first to fourth inventions, further comprising a movement status acquisition unit. The movement status acquisition unit acquires the movement status of the vehicle. When the movement status acquired by the movement status acquisition section satisfies a predetermined condition, the first detection section starts detection of the first moving object.
第5の発明によれば、車両の移動状況に応じて移動物の検出を開始するため、移動物の検出負荷が恒常的に高くなることを抑制できる。 According to the fifth invention, detection of a moving object is started in accordance with the moving state of the vehicle, so that a constant increase in the detection load of the moving object can be suppressed.
第6の発明は、第5の発明のいずれかであって、移動状況取得部は、進入判断部と、旋回判断部とを含む。進入判断部は、車両が交差点に進入するか否かを判断する。旋回判断部は、車両が旋回するか否かを判断する。優先領域設定部は、車両が交差点に進入すると進入判断部により判断され、かつ、車両が旋回すると旋回判断部により判断された場合、優先領域及び非優先領域を設定する。 In a sixth invention according to any one of the fifth inventions, the movement status acquisition section includes an entry determination section and a turn determination section. The entry determination unit determines whether or not the vehicle will enter the intersection. The turning determination unit determines whether or not the vehicle will turn. The priority area setting unit sets the priority area and the non-priority area when the entry determination unit determines that the vehicle enters the intersection and the turn determination unit determines that the vehicle turns.
第6の発明によれば、車両が交差点で右折又は左折する場合に、第1撮影画像及び第2撮影画像の両者から移動物を検出することができる。従って、車両が交差点で右折又は左折する場合において、車両が移動物に衝突することを防ぐことができる。 According to the sixth invention, when a vehicle turns right or left at an intersection, a moving object can be detected from both the first captured image and the second captured image. Therefore, it is possible to prevent the vehicle from colliding with a moving object when the vehicle turns right or left at an intersection.
第7の発明は、第6の発明であって、進入判断部は、車両の前方を撮影するフロントカメラによって撮影された撮影画像から横断歩道を検出する。旋回判断部は、車両の旋回方向が車両に搭載された方向指示スイッチにより指示されたか否かを判断する。第1検出部は、横断歩道が進入判断部により検出され、かつ、旋回方向が方向指示スイッチにより指示された場合、第1移動物の検出を開始する。 A seventh aspect of the invention is the sixth aspect of the invention, wherein the entry determination unit detects a pedestrian crossing from an image captured by a front camera that captures an image in front of the vehicle. The turning determination unit determines whether or not a turning direction of the vehicle has been indicated by a direction indicating switch mounted on the vehicle. The first detection unit starts detecting the first moving object when the pedestrian crossing is detected by the entry determination unit and the turning direction is indicated by the direction switch.
第7の発明によれば、横断歩道が検出され、かつ、方向指示スイッチが操作された場合に、第1検出部が移動物の検出を開始する。これにより、車両の運転者の意図に基づいて、交差点で右折するか、左折するか、直進するかを判断することができる。 According to the seventh invention, when a pedestrian crossing is detected and the direction switch is operated, the first detector starts detecting the moving object. This makes it possible to determine whether to turn right, turn left, or go straight at an intersection based on the intention of the driver of the vehicle.
第8の発明は、第1~第4の発明のいずれかであって、車両は、複数のカメラを搭載する。画像取得部は、画像選択部と、画像出力部とを含む。画像選択部は、複数のカメラにより生成された複数の撮影画像の各々を所定の順序に従って選択する。画像出力部は、画像選択部により選択された撮影画像を第1撮影画像として第1検出部に出力する。第1検出部が第1移動物を検出した場合、優先領域設定部は、第1移動物が検出された撮影画像と、第1移動物の第1撮影画像における位置と、第1移動物の第1撮影画像における移動方向とに基づいて第2撮影画像を決定し、決定した第2撮影画像を画質調整部に出力することを画像選択部に指示する。 An eighth invention is any one of the first to fourth inventions, wherein the vehicle is equipped with a plurality of cameras. The image acquisition section includes an image selection section and an image output section. The image selection unit selects each of the plurality of captured images generated by the plurality of cameras according to a predetermined order. The image output section outputs the captured image selected by the image selection section to the first detection section as the first captured image. When the first detection unit detects the first moving object, the priority area setting unit sets the photographed image in which the first moving object is detected, the position of the first moving object in the first photographed image, and the first moving object. The image selecting unit is instructed to determine a second captured image based on the direction of movement in the first captured image and to output the determined second captured image to the image quality adjustment unit.
第8の発明によれば、第1移動物が検出された撮影画像と、第1移動物の位置と、第1移動物の移動方向とに基づいて第2撮影画像が決定される。第8の発明は、車両を基準とした移動物の相対位置に基づいて、この移動物の検出に用いる撮影画像を柔軟に変更することができる。 According to the eighth invention, the second captured image is determined based on the captured image in which the first moving object is detected, the position of the first moving object, and the moving direction of the first moving object. The eighth invention can flexibly change the captured image used for detecting the moving object based on the relative position of the moving object with respect to the vehicle.
第9の発明は、第8の発明であって、さらに、移動状況取得部を備える。移動状況取得部は、車両の移動状況を取得する。移動状況取得部により取得された移動状況が、車両が駐車場を走行していることを示す場合、画像選択部は、複数の撮影画像の選択を開始する。 A ninth invention is the eighth invention, further comprising a movement status acquisition unit. The movement status acquisition unit acquires the movement status of the vehicle. When the movement status acquired by the movement status acquisition section indicates that the vehicle is traveling in a parking lot, the image selection section starts selecting a plurality of captured images.
第9の発明によれば、車両が駐車場を走行する場合、画像選択部が撮影画像の選択を開始する。これにより、車両が駐車場を走行する場合において、移動物を速やかに検出することができる。 According to the ninth invention, when the vehicle runs in the parking lot, the image selection section starts selecting the captured image. As a result, moving objects can be quickly detected when the vehicle is traveling in a parking lot.
第10の発明は、移動物検出方法であって、a)ステップと、b)ステップと、c)ステップと、d)ステップと、e)ステップとを備える。a)ステップは、車両に搭載された第1カメラにより生成された第1撮影画像を取得し、車両に搭載された第2カメラにより生成された第2撮影画像を取得する。b)ステップは、取得された第1撮影画像から車両の周辺を移動する第1移動物を検出する。c)ステップは、検出された第1移動物の第1撮影画像における位置と、検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを取得された第2撮影画像に設定する。d)ステップは、第2撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整する。e)ステップは、優先検出領域の画像及び画質が調整された非優先検出領域の画像の各々から、車両の周辺を移動する第2移動物を検出する。 A tenth invention is a moving object detection method, comprising a) step, b) step, c) step, d) step, and e) step. The a) step obtains a first captured image generated by a first camera mounted on the vehicle, and obtains a second captured image generated by a second camera mounted on the vehicle. The b) step detects a first moving object moving around the vehicle from the acquired first captured image. The c) step acquires a priority area and a non-priority area based on the detected position of the first moving object in the first captured image and the moving direction of the detected first moving object in the first captured image. set to the selected second captured image. The d) step adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image. The e) step detects a second moving object moving around the vehicle from each of the image of the priority detection area and the image of the non-priority detection area whose image quality has been adjusted.
第10の発明は、第1の発明に用いられる。 A tenth invention is used for the first invention.
本発明によれば、車両の周辺を移動する移動物の検出負荷を低減することができる移動物検出装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the moving object detection apparatus which can reduce the detection load of the moving object which moves around a vehicle can be provided.
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings, and the description thereof will not be repeated.
[1.車両100の構成]
図1は、本発明の実施の形態に係る移動物検出装置10を搭載する車両100の構成を示す機能ブロック図である。図1を参照して、車両100は、車体1と、左前輪1FLと、右前輪1FRと、左後輪1RLと、右後輪1RRと、車軸2F及び2Rとを備える。
[1. Configuration of vehicle 100]
FIG. 1 is a functional block diagram showing the configuration of a
左前輪1FLは、車体1の左前方に配置される。右前輪1FRは、車体1の右前方に配置される。左前輪1FL及び右前輪1FRは、車体1の前方に配置された車軸2Fを回転軸として回転する。車軸2Fは、車両100のドライブシャフトであり、図示しないエンジンの出力を左前輪1FL及び右前輪1FRに伝える。左前輪1FL及び右前輪1FRは、車両100の操舵輪である。左前輪1FL及び右前輪1FRの舵角は、図示しないステアリングホイールの回転に応じて変化する。
The left front wheel 1FL is arranged on the front left side of the
左後輪1RLは、車体1の左後方に配置される。右後輪1RRは、車体1の右後方に配置される。左後輪1RL及び右後輪1RRは、車体1の後方に配置された車軸2Rを回転軸として回転する。
The left rear wheel 1RL is arranged on the rear left side of the
車両100は、さらに、方向指示スイッチ4と、表示装置5と、移動物検出装置10と、フロントカメラ31と、左サイドカメラ32と、リアカメラ33と、右サイドカメラ34とを備える。以下の説明において、フロントカメラ31と、左サイドカメラ32と、リアカメラ33と、右サイドカメラ34とを総称する場合、単に「カメラ」と記載する。
方向指示スイッチ4は、車両100の運転者によって操作される。方向指示スイッチ4は、運転者の操作に応じて、方向指示信号4Sを図7に示す左ウィンカー7Lと右ウィンカー7Rと移動物検出装置10に出力する。方向指示信号4Sは、左ウィンカー7L又は右ウィンカー7Rの点滅を指示する信号である。
表示装置5は、液晶表示装置等の薄型パネルであり、運転者から見やすい位置に配置される。例えば、表示装置5は、車両100のスピードメータの近傍に配置される。表示装置5は、検出結果情報47を移動物検出装置10から受け、その受けた検出結果情報47を表示する。検出結果情報47については、後述する。
The
フロントカメラ31は、車両100の前方の景色を撮影して前方撮影画像31Aを生成し、その生成した前方撮影画像31Aを移動物検出装置10に供給する。左サイドカメラ32は、車両100の左方の景色を撮影して左方撮影画像32Aを生成し、その生成した左方撮影画像32Aを移動物検出装置10に供給する。リアカメラ33は、車両100の後方の景色を撮影して後方撮影画像33Aを生成し、その生成した後方撮影画像33Aを移動物検出装置10に供給する。右サイドカメラ34は、車両100の右方の景色を撮影して右方撮影画像34Aを生成し、その生成した右方撮影画像34Aを移動物検出装置10に供給する。
The
以下の説明において、前方撮影画像31A、左方撮影画像32A、後方撮影画像33A及び右方撮影画像34Aの各々を、単に「撮影画像」と記載する場合がある。撮影画像は、動画像を構成するフレームである。車両100に搭載されたカメラの各々は、撮影画像を所定の時間間隔で生成して、その生成した撮影画像を移動物検出装置10に出力する。
In the following description, each of the
移動物検出装置10は、車両100に搭載されたカメラにより撮影された撮影画像を用いて、車両100の周辺を移動する移動物を検出する。移動物は、例えば、歩行者や自転車である。移動物検出装置10は、移動物を検出した場合、検出結果情報47を生成し、その生成した検出結果情報47を表示装置5に出力する。検出結果情報47は、具体的には、移動物の存在を示す画像である。これにより、運転者は、車両100を周囲を移動する移動物の存在を把握できる。
The moving
[2.カメラの配置]
図2は、図1に示すカメラの配置の一例を示す図である。最初に、ワールド座標系を説明する。ワールド座標系の原点Owは、車両100の重心である。Y軸は、車両100の直進方向に延びる。Y軸の正方向は、車両100の後端面から前端面に向かう方向である。X軸は、車両100の直進方向及び鉛直方向の両者に垂直な方向に延びる。X軸の正方向は、車両100の左側面から右側面に向かう方向である。
[2. camera placement]
FIG. 2 is a diagram showing an example of arrangement of the cameras shown in FIG. First, the world coordinate system will be explained. The origin Ow of the world coordinate system is the center of gravity of the
フロントカメラ31は、車両100の前端に取り付けられたナンバープレートの近傍に設けられ、その光軸31KはY軸の正方向に向けられている。リアカメラ33は、車両100の後端に取り付けられたナンバープレートの近傍に設けられ、その光軸33KはY軸の負方向に向けられている。フロントカメラ31及びリアカメラ33の取付位置は、X軸上であることが望ましいが、X軸から多少ずれた位置であってもよい。
The
左サイドカメラ32は、車両100における左のドアミラー6Lに設けられ、その光軸32KはX軸の負方向に向けられている。右サイドカメラ34は、車両100における右のドアミラー6Rに設けられ、その光軸34KはX軸の正方向に向けられている。
The
カメラのレンズは、180°以上の画角を有する広角レンズである。車両100に搭載される4台のカメラを用いることにより、車両100の全周囲の撮影が可能である。
The camera lens is a wide-angle lens with an angle of view of 180° or more. By using four cameras mounted on the
車両100は、左ウィンカー7L及び右ウィンカー7Rをさらに備える。左ウィンカー7L及び右ウィンカー7Rは、方向指示スイッチ4から出力される方向指示信号4Sに応じて点滅する。
[3.移動物検出装置10の構成]
図3は、図1に示す移動物検出装置10の構成を示す機能ブロック図である。図3を参照して、移動物検出装置10は、画像取得部11と、移動状況取得部12と、第1検出部13と、優先領域設定部14と、画質調整部15と、第2検出部16と、検出結果出力部17とを備える。
[3. Configuration of moving object detection device 10]
FIG. 3 is a functional block diagram showing the configuration of the moving
画像取得部11は、移動状況信号48を移動状況取得部12から受ける。移動状況信号48が、車両100が交差点で右折又は左折することを示す場合、画像取得部11は、車両100に搭載されたカメラから受けた撮影画像の中から、2つの撮影画像を選択する。2つの撮影画像の一方は初期検出画像21Aであり、他方は連携検出画像22Aである。画像取得部11は、選択した初期検出画像21A及び連携検出画像22Aを示す画像選択情報41を優先領域設定部14に出力する。
The
移動状況信号48が、車両100が右折又は左折をすることを示す場合、画像取得部11は、初期検出画像21Aを取得するたびに、取得した初期検出画像21Aを第1検出部13に出力する。画像取得部11は、後述する連携開始情報44を優先領域設定部14から受けるまで、初期検出画像21A及び連携検出画像22Aを画質調整部15に出力しない。
When the
画像取得部11は、連携開始情報44を優先領域設定部14から受けた場合、撮影画像の出力先を変更する。具体的には、画像取得部11は、初期検出画像21A及び連携検出画像22Aを取得するたびに、取得した初期検出画像21A及び連携検出画像22Aを画質調整部15に出力する。第1検出部13への画像出力は、停止される。
When the
また、画像取得部11は、車両100の挙動に関係なく、前方撮影画像31Aを移動状況取得部12に出力する。
In addition, the
移動状況取得部12は、方向指示信号4Sを方向指示スイッチ4から受け、前方撮影画像31Aを画像取得部11から受ける。移動状況取得部12は、その受けた方向指示信号4S及び前方撮影画像31Aに基づいて、車両100が交差点で右折するか、左折するか、直進するかを判断し、その判断結果を示す移動状況信号48を画像取得部11に出力する。
The movement
第1検出部13は、初期検出画像21Aを画像取得部11から受け、その受けた初期検出画像21Aから移動物を検出する。第1検出部13は、後述する優先領域画像21B及び非優先領域画像22Cを画質調整部15から受けた場合、初期検出画像21Aではなく、優先領域画像21B及び非優先領域画像21Cから移動物を検出する。
The
第1検出部13は、移動物を検出した場合、検出位置情報42を優先領域設定部14及び検出結果出力部17に出力する。検出位置情報42は、初期検出画像21Aにおける移動物の位置を含む。第1検出部13は、移動方向情報43を優先領域設定部14に出力する。移動方向情報43は、初期検出画像21Aにおける移動物の移動方向を示す。
When detecting a moving object, the
優先領域設定部14は、検出位置情報42及び移動方向情報43を第1検出部13から受ける。優先領域設定部14は、受けた検出位置情報42及び移動方向情報43を用いて、連携検出を開始するか否かを判断する。連携検出については後述する。優先領域設定部14は、連携検出の開始を決定した場合、連携開始情報44を画像取得部11に出力する。また、優先領域設定部14は、後述する優先領域及び非優先領域の両者を、初期検出画像21A及び連携検出画像22Aの各々に設定する。優先領域設定部14は、設定した優先領域及び非優先領域を示す優先領域情報45を画質調整部15に出力する。
The priority
画質調整部15は、優先領域情報45を優先領域設定部14から受ける。画質調整部15は、受けた優先領域情報45に基づいて、画像取得部11から受けた初期検出画像21Aから優先領域画像21B及び非優先領域画像21Cを切り出す。優先領域画像21Bは、初期検出画像21Aのうち、優先領域に含まれる画像である。非優先領域画像21Cは、初期検出画像21Aのうち、非優先領域に含まれる画像である。
The image
画質調整部15は、切り出された非優先領域画像21Cの画質が、切り出された優先領域画像21Bの画質よりも低くなるように、切り出された非優先領域画像21Cの画質を調整する。画質調整部15は、切り出された優先領域画像21Bと、画質が調整された非優先領域画像21Cとを第1検出部13に出力する。
The image
また、画質調整部15は、受けた優先領域情報45に基づいて、画像取得部11から受けた連携検出画像22Aから優先領域画像32B及び非優先領域画像32Cを切り出す。優先領域画像22Bは、連携検出画像22Aのうち、優先領域に含まれる画像である。非優先領域画像22Cは、連携検出画像22Aのうち、非優先領域に含まれる画像である。
Based on the received
画質調整部15は、切り出された非優先領域画像22Cの画質が、切り出された優先領域画像22Bの画質よりも低くなるように、切り出された非優先領域画像22Cの画質を調整する。画質調整部15は、切り出された優先領域画像22Bと、画質が調整された非優先領域22Cとを第2検出部16に出力する。
The image
第2検出部16は、優先領域画像22Bと、画質が調整された非優先領域画像22Cとを画質調整部15から受ける。第2検出部16は、その受けた優先領域画像22B及び非優先領域画像22Cの各々から、移動物を検出する。つまり、第2検出部16は、連携検出画像22Aから移動物を検出する。第2検出部16は、検出位置情報46を検出結果出力部17に出力する。検出位置情報46は、優先領域画像22B及び非優先領域画像22Cから移動物を検出した結果を示す。
The
検出結果出力部17は、検出位置情報42を第1検出部13から受け、検出位置情報46を第2検出部16から受ける。検出結果出力部17は、その受けた検出位置情報42及び44に基づいて、車両100の周辺を移動する移動物の存在を示す検出結果情報47を生成し、その生成した検出結果情報47を表示装置5に出力する。検出結果情報47は、例えば、検出された移動物が強調された初期検出画像21Aあるいは連携検出画像22Aである。
The detection
[4.画像取得部11の構成]
図4は、図3に示す画像取得部11の構成を示す機能ブロック図である。図4を参照して、画像取得部11は、画像選択部111と、画像出力部112とを含む。
[4. Configuration of Image Acquisition Unit 11]
FIG. 4 is a functional block diagram showing the configuration of the
画像選択部111は、移動状況取得部12から受けた移動状況信号48に基づいて、撮影画像31A~34の中から初期検出画像21A及び連携検出画像22Aを選択する。画像選択部111は、選択した初期検出画像21A及び連携検出画像22Aを示す画像選択情報41を、優先領域設定部14及び画像出力部112に出力する。
Based on the
画像出力部112は、撮影画像31A~34Aをカメラから受け、画像選択情報41を画像選択部111から受ける。画像出力部112は、その受けた画像選択情報41に基づいて、その受けた撮影画像31A~34Aのうち、初期検出画像21Aを第1検出部13に出力する。
The
画像出力部112は、連携開始情報44を優先領域設定部14から受けた場合、初期検出画像21Aの第1検出部13への出力を停止する。画像出力部112は、初期検出画像21A及び連携検出画像22Aの画質調整部15への出力を開始する。
When receiving the cooperation start
また、画像出力部112は、移動状況取得部12から受ける移動状況信号48に関係なく、前方撮影画像31Aを移動状況取得部12に出力する。
Further, the
[5.移動状況取得部12の構成]
図5は、図3に示す移動状況取得部12の構成を示す機能ブロック図である。図5を参照して、移動状況取得部12は、進入判断部121と、旋回判断部122とを含む。
[5. Configuration of Movement Status Acquisition Unit 12]
FIG. 5 is a functional block diagram showing the configuration of the movement
進入判断部121は、前方撮影画像31Aを画像出力部112から受ける。進入判断部121は、その受けた前方撮影画像31Aを用いて車両100が交差点に進入するか否かを判断し、その判断結果を示す進入情報49を旋回判断部122に出力する。具体的には、進入判断部121は、前方撮影画像31Aから横断歩道を検出した場合、車両100が交差点に進入すると判断する。
The
旋回判断部122は、方向指示信号4Sを方向指示スイッチ4から受け、進入情報49を進入判断部121から受ける。旋回判断部122は、受けた進入情報49が交差点への進入を示す場合、受けた方向指示信号4Sがウィンカーの点滅を指示しているか否かを判断する。方向指示信号4Sが右ウィンカー7Rの点滅を指示している場合、旋回判断部122は、車両100が交差点で右折すると判断し、車両100の右折を示す移動状況信号48を画像取得部11に出力する。方向指示信号4Sが左ウィンカー7Lの点滅を指示している場合、旋回判断部122は、車両100が交差点で左折すると判断し、車両100の左折を示す移動状況信号48を画像取得部11に出力する。
The
[6.動作概略]
図6は、図1に示す移動物検出装置10の動作概略を説明する図である。図6を参照しながら、車両100が右折する場合を例にして、移動物検出装置10の動作概略を説明する。図6において、道路R1は南北方向に延び、道路R2は東西方向に延びる。道路R1及び道路R2は、交差点Pにおいて交差する。
[6. Operation outline]
FIG. 6 is a diagram for explaining an outline of the operation of the moving
車両100は、道路R1を交差点Pに向かって走行し、交差点Pにおいて右折する。移動物検出装置10は、車両100のイグニッションスイッチがオンされている場合、横断歩道を前方撮影画像31Aから検出する処理を繰り返し実行する。車両100と同様に、自転車25は道路R1を交差点Pに向かって走行し、横断歩道C2を渡る。
The
時刻t0において、移動物検出装置10は、交差点Pの横断歩道C1を検出し、右ウィンカー7Rの点滅を示す方向指示信号4Sを方向指示スイッチ4から受ける。この結果、移動物検出装置10は、車両100が右折すると判断する(ステップS1)。
At time t0, moving
時刻t0において、移動物検出装置10は、右方撮影画像34Aを初期検出画像として選択し、前方撮影画像31Aを連携検出画像として選択する。移動物検出装置10は、右方撮影画像34Aから移動物を検出する処理を開始する。前方撮影画像31Aは、連携検出が開始されるまで、移動物の検出に用いられない。
At time t0, the moving
移動物検出装置10は、時刻t0よりも後の時刻t1において、右方撮影画像34Aから自転車25を検出する(ステップS2)。ステップS2の結果、右方撮影画像34Aにおける自転車25の位置25P及びベクトル25Vが特定される。ベクトル25Vは、右方撮影画像34Aにおける自転車25の移動方向及び移動量を示す。
The moving
自転車25の位置25P及びベクトル25Vが、連携検出の開始条件を満たす場合、移動物検出装置10は、連携検出の開始を決定する(ステップS3)。詳細については後述する。
When the
連携検出の開始が決定された場合、移動物検出装置10は、優先領域54B及び非優先領域54Cを右方撮影画像34Aに設定する。優先領域54Bは、右方撮影画像34Aの左半分である。非優先領域54Cは、右方撮影画像34Aの右半分である。移動物検出装置10は、優先領域51B及び非優先領域51Cを前方撮影画像31Aに設定する。優先領域51Bは、前方撮影画像31Aの右半分であり、非優先領域51Cは、前方撮影画像31Aの左半分である。
When it is decided to start cooperative detection, the moving
移動物検出装置10は、優先領域54B及び非優先領域54Cを右方撮影画像34Aから切り出すことにより、優先領域画像34B及び非優先領域画像34Cを生成する。移動物検出装置10は、優先領域51B及び非優先領域51Cを前方撮影画像31Aから切り出すことにより、優先領域画像31B及び非優先領域画像31Cを生成する。
The moving
移動物検出装置10は、生成された非優先領域画像34Cの画素を間引くことにより、非優先領域画像34Cの画質を調整する。画質が調整された非優先領域画像34Cのサイズは、右方撮影画像34Aから切り出された非優先領域画像34Cよりも小さくなる。非優先領域画像31Cの画質も、同様に調整される。優先領域画像31B及び34Bの画質は、調整されない。
The moving
移動物検出装置10は、優先領域画像31B及び34Bから移動物を検出する。移動物検出装置10は、画質が調整された非優先領域画像31C及び34Cから移動物を検出する。
The moving
連携検出において、優先領域及び非優先領域の両者が、初期検出画像21A及び連携検出画像22Aの各々に設定される。移動物検出装置10は、非優先領域画像21C及び22Cに含まれる画素を間引くことにより、非優先領域画像21C及び22Cの画質を調整する。画質が調整された非優先領域画像21C及び24Cは、画質が調整されない非優先領域画像21C及び22Cよりも画素数が少ない。従って、画質が調整された非優先領域画像21C及び22Cから移動物を検出する処理の負荷は、切り出された非優先領域画像21C及び22Cから移動物を検出する処理の負荷よりも小さい。従って、移動物検出装置10は、前方撮影画像31A及び右方撮影画像34Aから同時に移動物を検出する場合であっても、移動物の検出遅延を抑制することができる。
In cooperation detection, both a priority area and a non-priority area are set in each of the
[7.動作詳細]
[7.1.全体動作]
図7は、移動物検出装置10の動作を示すフローチャートである。以下、図7を参照しながら、移動物検出装置10の全体動作を説明する。移動物検出装置10は、車両100のイグニッションスイッチがオンされた場合、図7に示す処理を開始する。
[7. Operation details]
[7.1. Overall operation]
FIG. 7 is a flow chart showing the operation of the moving
移動状況取得部12が、車両100の挙動を特定する(ステップS10)。詳細については後述するが、移動状況取得部12は、車両100が交差点で右折するか、左折するか、又は直進するかを判断する。ステップS10は、図6に示すステップS1に対応する。
The movement
車両100が直進すると移動状況取得部12により判断された場合(ステップS20においてNo)、移動物検出装置10は、ステップS70に進む。車両100が右折又は左折をすると移動状況取得部12により判断された場合(ステップS20においてYes)、移動物検出装置10は、ステップS30に進む。
If the movement
移動物検出装置10は、ステップS30において、連携検出を開始するか否かを判断する。ステップS30は、図6に示すステップS2~S3に対応する。ステップS30の詳細については、後述する。
In step S30, the moving
移動物検出装置10は、連携検出を開始しないことを決定した場合(ステップS40においてNo)、ステップS70に進む。移動物検出装置10は、連携検出の開始を決定した場合(ステップS40においてYes)、連携検出(ステップS50)を実行する。ステップS50の詳細については、後述する。
When moving
移動物検出装置10は、連携検出を終了しないと判断した場合(ステップS60においてNo)、連携検出(ステップS50)を繰り返し実行する。移動物検出装置10は、連携検出を終了すると判断した場合(ステップS60においてYes)、ステップS70に進む。連携検出の終了条件については、後述する。
When moving
ステップS70において、移動物検出装置10は、イグニッション信号がオンからオフに変化したか否かを判断する。イグニッション信号のオンが継続している場合(ステップS70においてNo)、移動物検出装置10は、ステップS10に戻る。イグニッション信号のオンからオフに変化した場合(ステップS70においてYes)、移動物検出装置10は、図7に示す処理を終了する。
In step S70, the moving
[7.2.車両挙動特定(ステップS10)]
図8は、図7に示す車両挙動特定処理(ステップS10)のフローチャートである。画像取得部11が前方撮影画像31Aをフロントカメラ31から取得するたびに、移動状況取得部12は、図8に示す処理を実行して、車両100が交差点で直進するか否かを判断する。
[7.2. Vehicle behavior identification (step S10)]
FIG. 8 is a flowchart of the vehicle behavior identification process (step S10) shown in FIG. Each time the
具体的には、進入判断部121が、前方撮影画像31Aを画像取得部11から取得する(ステップS101)。
Specifically, the
進入判断部121は、ステップS101で取得された前方撮影画像31Aから横断歩道を検出する(ステップS102)。図6に示す横断歩道C1の検出を例にして、ステップS102を説明する。進入判断部121は、各々が車両100の進行向に延びる複数の白線を検出する。進入判断部121は、検出した複数の白線が車両100の左右方向に配列されているため、横断歩道C1を検出したと判断する。
The
進入判断部121は、横断歩道C1を検出した場合、車両100が交差点に進入することを示す進入情報49を旋回判断部122に出力する。進入判断部121は、横断歩道C1を検出できない場合、車両100が交差点に進入しないことを示す進入情報49を旋回判断部122に出力する。
When the crosswalk C1 is detected, the
なお、進入判断部121は、図6に示す横断歩道C1及びC2の両者を検出した場合に、交差点Pに進入すると判断してもよい。進入判断部121が前方撮影画像31Aから横断歩道を検出することができれば、ステップS102で用いられるアルゴリズムは特に限定されない。
Note that the
旋回判断部122は、車両100が交差点に進入しないことを示す進入情報49を受けた場合(ステップS103においてNo)、車両100が直進することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。
When turning
旋回判断部122は、車両100が交差点に進入することを示す進入情報49を受けた場合(ステップS103においてYes)、右ウィンカー7Rの点滅を指示する方向指示信号4Sを受けたか否かを判断する(ステップS104)。
When the turning
旋回判断部122は、右ウィンカー7Rの点滅を指示する方向指示信号4Sを受けた場合(ステップS104においてYes)、車両100が交差点で右折すると判断する(ステップS105)。旋回判断部122は、車両100が右折することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。
When turning
旋回判断部122は、右ウィンカー7Rの点滅を指示する方向指示信号4Sを受けていない場合(ステップS104においてNo)、左ウィンカー7Lの点滅を指示する方向指示信号4Sを受けたか否かを判断する(ステップS106)。
When the
旋回判断部122は、左ウィンカー7Lの点滅を指示する方向指示信号4Sを受けている場合(ステップS106においてYes)、車両100が交差点で左折すると判断する(ステップS107)。旋回判断部122は、車両100が左折することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。このように、移動状況取得部12は、交差点で右折するか、左折するか、直進するかの判断に方向指示信号4Sを用いる。これにより、移動状況取得部12は、車両100の運転者の意図に基づいて、交差点における車両100の挙動を予測できる。また、移動物検出装置10は、車両100が右折又は左折すると判断した場合、後述する移動物の検出を開始する。従って、車両100が交差点で右折又は左折する場合において、車両が移動物に衝突することを防ぐことができる。
When turning
旋回判断部122は、左ウィンカー7Lの点滅を指示する方向指示信号4Sを受けていない場合(ステップS107においてNo)、車両100が交差点で直進すると判断する(ステップS108)。旋回判断部122は、車両100が直進することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。
When turning
[7.3.連携開始判断(ステップS30)]
図9は、図7に示す連携開始判断処理(ステップS30)のフローチャートである。移動物検出装置10は、車両100が交差点で右折又は左折すると判断した場合(図7に示すステップS20においてYes)、図9に示す処理を開始する。以下、図9を参照しながら、車両100が図6に示す交差点Pで右折する場合を例にして、連携開始判断処理(ステップS30)を詳しく説明する。
[7.3. Cooperation start judgment (step S30)]
FIG. 9 is a flow chart of the cooperation start determination process (step S30) shown in FIG. When the moving
(撮影画像の選択)
画像選択部111は、車両100が交差点で右折することを示す移動状況信号48を移動状況取得部12から受けた場合、初期検出画像21A及び連携検出画像22Aを選択する(ステップS301)。車両100が右折するため、画像選択部111は、右方撮影画像34Aを初期検出画像として選択し、前方撮影画像31Aを連携検出画像として選択する。画像選択部111は、選択した初期検出画像21A及び連携検出画像22Aを示す画像選択情報41を優先領域設定部14及び画像出力部112に出力する。
(Selection of captured image)
When the
(移動物の検出)
画像出力部112は、画像選択部111から受けた画像選択情報41に基づいて、右方撮影画像34Aが初期検出画像21Aとして選択され、前方撮影画像31Aが連携検出画像22Aとして選択されたことを認識する。画像出力部112は、初期検出画像として選択された右方撮影画像34Aを右サイドカメラ34から受けた場合(ステップS302においてYes)、その受けた右方撮影画像34Aを第1検出部13へ出力する。第1検出部13は、画像取得部11から受けた右方撮影画像34Aから移動物を検出する(ステップS303)。
(Detection of moving objects)
Based on the
図10は、図6に示す右方撮影画像34Aの拡大図である。図10に示す右方撮影画像34Aを例にして、移動物の検出(ステップS303)を詳しく説明する。
FIG. 10 is an enlarged view of the right captured
第1検出部13は、右方撮影画像34Aから図示しないエッジ画像を生成し、生成したエッジ画像からエッジにより囲まれた領域25Rを抽出する。第1検出部13は、抽出した領域25Rのサイズが予め設定された基準サイズよりも大きい場合、抽出した領域25Rが物体であると判断する。図10に示す例では、領域25Rで囲まれる物体は、自転車25である。説明の便宜上、領域25Rを図10において矩形で示している。第1検出部13は、抽出した領域25Rの中心を自転車25の位置25Pに決定する。
The
移動物がエッジにより囲まれた領域のサイズに基づいて検出される場合、第1検出部13は、移動物を歩行者や自転車として識別できない。以下の説明では、第1検出部13が、領域25Rに囲まれた物体が自転車25であると仮定する。なお、パターンマッチングを用いた場合、第1検出部13は、自転車や歩行者等を識別することが可能である。
When a moving object is detected based on the size of the area surrounded by edges, the
第1検出部13は、自転車25の位置25P及び領域25Rに基づいて、自転車25が移動物であるか否かを判断する。以下、ステップS303の説明において、図10に示す右方撮影画像34Aを「現在撮影画像」と記載し、現在撮影画像の直前に取得された右方撮影画像34Aを「過去撮影画像」と記載する。図10において、過去領域26Rは、過去検出画像から検出された自転車25の領域である。過去位置26Pは、過去領域26Rの中心である。図10において、位置25Pから過去位置26Pまでの距離Dを誇張して表現している。
The
位置25P及び過去位置26Pは、右方撮影画像34Aの画素座標系により記述される。画素座標系の原点は撮影画像の左上頂点である。画素座標系において、Xa軸は原点から右方向に延び、Ya軸は原点から下方向に延びる。
The
第1検出部13は、以下の2つの条件が満たされた場合、現在撮影画像から検出された自転車25が移動物であると判断する。
The
第1条件は、領域25Rのサイズと過去領域26Rのサイズとの比が所定範囲内であることである。現在撮影画像の生成時刻と過去撮影画像の生成時刻との差は、右サイドカメラ34により生成される動画像のフレーム間隔に相当する。自転車25が現在撮影画像及び過去撮影画像の両者から検出された場合、領域25Rのサイズは、過去領域26Rのサイズから大幅に変化しないと想定される。従って、領域25Rのサイズと過去領域26Rのサイズとの比が、移動物検出の条件の1つとして用いられる。
The first condition is that the ratio between the size of the
第2条件は、距離Dが所定距離以下であることである。距離Dが極端に大きい場合、車両100の速さ及び動画像のフレーム間隔を考慮したとしても、領域25R及び過去領域26Rが同一物体を示す可能性は低い。従って、距離Dが移動物の検出条件の1つとして用いられる。
A second condition is that the distance D is equal to or less than a predetermined distance. If the distance D is extremely large, it is unlikely that the
第1検出部13は、自転車25(移動物)を現在撮影画像から検出したと判断した場合、位置25Pを含む検出位置情報42を優先領域設定部14及び検出結果出力部17に出力する。第1検出部13は、ベクトル25Vを生成し、生成したベクトル25Vを含む移動方向情報43を優先領域設定部14に出力する。ベクトル25Vにおいて、始点は過去位置26Pであり、終点は位置25Pである。
When the
本実施の形態において、第1検出部13は、撮影画像で特定された物体の位置をワールド座標系に変換してもよい。この場合、第1検出部13は、例えば、ワールド座標系における物体の位置に基づいて、第2条件が満たされるか否かを判断すればよい。
In the present embodiment, the
(連携検出の開始判断)
再び、図9を参照して、優先領域設定部14は、ステップS304~S306を実行して、連携検出を開始するか否かを判断する。
(Decision to start cooperation detection)
Referring again to FIG. 9, priority
優先領域設定部14は、第1検出部13から受けた検出位置情報42に基づいて、移動物が初期検出画像21Aから検出されたか否かを判断する(ステップS304)。移動物が検出されなかった場合(ステップS304においてNo)、優先領域設定部14は、連携検出を開始しないことを決定し(ステップS309)、図9に示す処理を終了する。移動物が検出された場合(ステップS304においてYes)、優先領域設定部14は、ステップS305に進む。
The priority
優先領域設定部14は、画像取得部11から受けた画像選択情報41に基づいて、初期検出画像21A及び連携検出画像22Aを特定する。優先領域設定部14は、第1検出部13から受けた検出位置情報42に基づいて、移動物が初期検出画像21Aに予め設定された連携基準領域内に位置するか否かを判断する(ステップS305)。ステップS305を実行する理由については後述する。
Based on the
車両100が右折する場合、連携基準領域は、左右に2等分された右方撮影画像34Aのうち、左半分の領域である。図10に示す例では、自転車25が右方撮影画像34Aの左半分の領域内に位置している(ステップS305においてYes)。この場合、優先領域設定部14は、後述するステップS306に進む。
When the
自転車25が、図10に示す右方撮影画像34Aの右半分の領域内に位置する場合(ステップS305おいてNo)、優先領域設定部14は、連携検出を開始しないことを決定し(ステップS309)、図9に示す処理を終了する。
When the
ステップS305を実行する理由について説明する。ステップS305は、初期検出画像21Aから検出された移動物が連携検出画像22Aで検出されるか否かを判断するために実行される。以下、詳しく説明する。
The reason for executing step S305 will be described. Step S305 is executed to determine whether or not the moving object detected from the
図11は、図1に示すカメラの撮影範囲を模式的に示す図である。図11は、各カメラの撮影範囲を扇形で示している。カメラは、撮影範囲内に位置する被写体を撮影できる。フロントカメラ31は、撮影範囲31H内の被写体を撮影できる。右サイドカメラ32は、撮影範囲34H内の被写体を撮影できる。リアカメラ33は、撮影範囲33H内の被写体を撮影できる。左サイドカメラ34は、撮影範囲34H内の被写体を撮影できる。実際には、各カメラは、撮影範囲を示す円弧よりも遠方を撮影することが可能である。
FIG. 11 is a diagram schematically showing the photographing range of the camera shown in FIG. FIG. 11 shows the imaging range of each camera in a fan shape. The camera can photograph a subject positioned within its photographing range. The
撮影範囲34Hを、右サイドカメラ34の光軸34Kに基づいて、2つに分割する。右方撮影画像34Aに設定される連携基準領域は、光軸34Kを基準にして左側の部分撮影範囲341に相当する。
The
部分撮影範囲341は、フロントカメラ31及び右サイドカメラ34の両者により撮影される重複撮影範囲35を含む。つまり、移動物が右方撮影画像34Aに設定された連携基準領域内に位置する場合、この移動物は、右サイドカメラ34だけでなくフロントカメラ31により撮影される可能性が高い。移動物検出装置10は、右方撮影画像34Aだけでなく前方撮影画像31Aを用いて移動物を検出することにより、車両100の右折中に移動物を継続して検出できると判断する。このため、優先領域設定部14は、移動物が初期検出画像の連携開始領域内に位置することを、連携検出の開始条件の1つとして使用する。
The
つまり、フロントカメラ31及び右サイドカメラ34の両者が移動物を撮影できる可能性が高い場合、優先領域設定部14は、前方撮影画像31A及び右方撮影画像34Aを用いた連携検出を開始する。この結果、2つの撮影画像の各々から並行して移動物を検出する処理を実行する時間を短縮できるため、移動物の検出負荷の増加を抑制できる。
That is, when there is a high possibility that both the
再び図9を参照して、優先領域設定部14は、第1検出部13から受けた移動方向情報43に基づいて、移動物が車両100のスピード以上のスピードで車両100の進行方向と同じ方向に進んでいるか否かを判断する(ステップS306)。ステップS306を実行する理由については後述する。
Referring to FIG. 9 again, priority
自転車25のスピードが車両100のスピードよりも遅い場合、又は、自転車25が車両100の進行方向と反対方向に進んでいる場合(ステップS306においてNo)、検出結果出力部17は、初期検出画像21Aから移動物を検出した結果を用いて、検出結果情報47を出力する(ステップS308)。例えば、移動物が右方撮影画像34Aから検出された場合、検出結果出力部17は、第1検出部13から受けた検出位置情報42に基づいて、車両100の右方に移動物が存在することを示すメッセージを生成し、その生成したメッセージを表示装置5に出力する。連携検出が開始されていないため、連携検出画像22Aから移動物を検出した結果は、ステップS308で用いられない。ステップS308の後、優先領域設定部14は、連携検出を開始しないことを決定し(ステップS309)、優先領域設定部14は、図9に示す処理を終了する。
When the speed of the
移動物が車両100のスピード以上のスピードで車両100の進行方向と同じ方向に進んでいる場合(ステップS306においてYes)、優先領域設定部14は、連携検出の開始を決定する(ステップS307)。優先領域設定部14は、連携検出の開始を示す連携開始情報44を画像取得部11に出力する。画像取得部11は、初期検出画像21Aの第1検出部13への出力を停止し、初期検出画像21A及び連携検出画像22Aの両者の画質調整部15への出力を開始する。画像取得部11は、初期検出画像21A及び連携検出画像22Aの2つの撮影画像を取得するたびに、取得した2つの撮影画像を画質調整部15に出力する。
If the moving object is traveling in the same direction as the traveling direction of
ステップS306は、車両100が横断歩道C2を渡る歩行者等と衝突する可能性があるか否かを判断するために実行される。ステップS306を実行する理由について、図10に示す右方撮影画像34Aを参照しながら詳しく説明する。
Step S306 is executed to determine whether or not there is a possibility that the
自転車25が、車両100のスピードよりも遅いスピードで、車両100の進行方向と同じ方向に進むと仮定する。自転車25が車両100よりも遅いか否かは、ベクトル25Vの向きに基づいて判断される。自転車25が車両100よりも遅い場合、ベクトル25VがXa軸の正方向を向く。自転車が、車両100を基準にして見かけ上後退するためである。この場合、自転車25が車両100よりも遅れて横断歩道C2に達するため、車両100が、横断歩道C2で自転車25と接触する可能性は小さい。この場合、優先領域設定部14は連携検出を開始しない。
Assume that the
自転車25が、車両100のスピードよりも速いスピードで、車両100の進行方向と同じ方向に進むと仮定する。ベクトル25VがXa軸の負方向を向く場合、自転車25は車両100よりも速い。自転車25が、車両100を基準にして見かけ上前進するためである。この場合、自転車25が車両100よりも横断歩道C2に達するため、車両100が、自転車25が横断歩道C2を通過中に交差点Pに進入する可能性が高い。優先領域設定部14は、車両100が自転車25と衝突する虞があると判断し、自転車25の検出精度を上げるために、連携検出の開始を決定する。連携検出の開始により、自転車25の検出精度を向上させることができる。
Assume that the
自転車25が、車両100のスピードと同じスピードで、車両100の進行方向と同じ方向に進むと仮定する。この仮定において、自転車25が、車両100を基準にして見かけ上停止するため、ベクトル25Vはゼロベクトルである。この場合、車両100と自転車25とが、同時に横断歩道C2に達する可能性が高い。従って、優先領域設定部14は、車両100が自転車25と衝突する虞があると判断し、連携検出の開始を決定する。連携検出の開始により、自転車25の検出精度を向上させることができる。
Assume that the
なお、車両100が左折する場合、左方撮影画像32Aが初期検出画像21Aとして選択され、前方撮影画像31Aが連携検出画像22Aとして検出される。左方撮影画像32Aに設定される連携基準領域は、左方撮影画像32Aの右半分の領域である。
When the
[7.4.連携検出処理(ステップS50)]
図12は、図7に示す連携検出処理(ステップS50)のフローチャートである。図12を参照して、優先領域設定部14は、優先領域及び非優先領域が図9に示すステップS301で選択された2つの撮影画像の各々に設定されているか否かを判断する(ステップS501)。
[7.4. Coordination Detection Processing (Step S50)]
FIG. 12 is a flow chart of the cooperation detection process (step S50) shown in FIG. Referring to FIG. 12, priority
優先領域及び非優先領域が既に設定されている場合(ステップS501においてNo)、優先領域設定部14は、ステップS503に進む。
If the priority area and the non-priority area have already been set (No in step S501), the priority
優先領域及び非優先領域が設定されていない場合(ステップS501においてYes)、優先領域設定部14は、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する(ステップS502)。優先領域設定部14は、ステップS502で設定された優先領域及び非優先領域を示す優先領域情報45を画質調整部15に出力する。
If the priority area and the non-priority area are not set (Yes in step S501), the priority
右方撮影画像34Aが初期検出画像21Aとして選択され、前方撮影画像31Aが連携検出画像22Aとして選択されている場合を例にして、ステップS502を詳しく説明する。
Step S502 will be described in detail by taking as an example a case where the right shot
図13は、図10に示す右方撮影画像34Aに設定される優先領域及び非優先領域の一例を示す図である。図13を参照して、優先領域設定部14は、右方撮影画像34Aを左右の領域に2等分する。優先領域設定部14は、2等分された領域のうち左領域を優先領域54Bに設定し、右領域を非優先領域54Cに設定する。優先領域54Bは、右方撮影画像34Aに設定される連携基準領域に一致する。画像取得部11が右方撮影画像34Aを新たに取得した場合、移動物が、新たに取得された右方撮影画像34Aの連携基準領域から検出される可能性が高いためである。
FIG. 13 is a diagram showing an example of priority areas and non-priority areas set in the right captured
図14は、図6に示す前方撮影画像31Aに設定される優先領域及び非優先領域の一例を示す図である。図14を参照して、優先領域設定部14は、前方撮影画像31Aを左右の領域に2等分する。右方撮影画像34Aが初期検出画像21Aである場合、優先領域設定部14は、2等分された領域のうち右領域を優先領域51Bに設定し、左領域を非優先領域51Cに設定する。
FIG. 14 is a diagram showing an example of priority areas and non-priority areas set in the front shot
なお、左方撮影画像32Aが初期検出画像21Aである場合、優先領域設定部14は、左方撮影画像32Aの右領域を優先領域51Bに設定し、左領域を非優先領域51Cに設定する。優先領域設定部14は、前方撮影画像31Aの左領域を優先領域51Bに設定し、右領域を非優先領域51Cに設定する。
When the left shot
再び、図12を参照して、画質調整部15は、優先領域設定部14から受けた優先領域情報45に基づいて、初期検出画像21A及び連携検出画像22Aの各々から優先領域を切り出す(ステップS503)。これにより、優先領域画像21B及び22Bが生成される。画質調整部15は、初期検出画像21Aから切り出された優先領域画像21Bを第1検出部13に出力する。画質調整部15は、連携検出画像22Aから切り出された優先領域画像22Bを第2検出部16に出力する。
Referring to FIG. 12 again, image
例えば、車両100が右折する場合、図6に示す優先領域画像34Bが右方撮影画像34Aから生成される。図6に示す優先領域画像31Bが前方撮影画像31Aから生成される。
For example, when the
画質調整部15は、優先領域設定部14から受けた優先領域情報45に基づいて、初期検出画像21A及び連携検出領域22Aの各々から非優先領域を切り出す(ステップS504)。これにより、非優先領域画像21C及び22Cが生成される。
The image
例えば、車両100が右折する場合、図6に示す非優先領域画像34Cが右方撮影画像34Aから生成される。図6に示す非優先領域画像31Cが前方撮影画像31Aから生成される。
For example, when the
画質調整部15は、ステップS504で生成された非優先領域画像21C及び22Cの画質を調整する(ステップS505)。画質調整部15は、画質が調整された非優先領域画像21Cを第1検出部13に出力する。画質調整部15は、画質が調整された非優先領域画像22Cを第2検出部16に出力する。
The image
例えば、車両100が右折する場合、画質調整部15は、非優先領域画像34Cの画質が優先領域画像34Bの画質よりも低くなるように、非優先領域画像34Cの画質を調整する。画質調整部15は、非優先領域画像31Cの画質が優先領域画像31Bの画質よりも低くなるように、非優先領域画像31Cの画質を調整する。
For example, when the
非優先領域画像の画質は、非優先領域画像の画素を間引くことにより調整される。あるいは、画質調整部15は、非優先領域画像の解像度を撮影画像の解像度よりも低くすることにより、非優先領域画像の画質を調整する。つまり、画質調整部15は、非優先領域画像を縮小することにより、非優先領域画像の画質を低下させる。
The image quality of the non-priority area image is adjusted by thinning out the pixels of the non-priority area image. Alternatively, the image
移動物検出装置10は、優先領域画像21B及び22Bと、非優先領域画像21C及び22Cとから移動物を検出する(ステップS506)。具体的には、第1検出部13が、初期検出画像21Aから生成された優先領域画像21B及び非優先領域画像21Cの各々から移動物を検出する。第2検出部16が、連携検出画像22Aから生成された優先領域画像22B及び非優先領域画像22Cの各々から移動物を検出する。ステップS506で用いられる検出方法は、図9に示すステップS303で用いられる検出方法と同じである。
The moving
ただし、移動物を非優先領域画像から検出する場合、第1検出部13及び第2検出部16は、エッジに囲まれた領域のサイズとの比較に用いられる基準サイズを変更する。非優先領域画像が、画質調整部15により縮小されるためである。具体的には、基準サイズは、縮小前の非優先領域画像のサイズと、縮小された非優先領域画像のサイズとの比に応じて調整される。
However, when detecting a moving object from the non-priority area image, the
優先領域画像34B及び非優先領域画像34Cを移動物の検出に用いる場合、右サイドカメラ34から受けた右方撮影画像34Aを移動物の検出に用いる場合よりも、第1検出部13の負荷を小さくすることができる。非優先領域画像34Cの縮小により、非優先領域画像の画素数が減少したためである。同様に、第2検出部16は、優先領域画像31B及び非優先領域画像31Cを用いることにより、移動物の検出負荷を小さくすることができる。
When using the
検出結果出力部17は、第1検出部13から受けた検出位置情報42と、第2検出部16から受けた検出位置情報46とに基づく検出結果情報47を表示装置5に出力する(ステップS507)。
The detection
ステップS507を詳しく説明する。検出位置情報42は、第1検出部13により検出された第1移動物の位置を示す。検出位置情報46は、第2検出部16により検出された第2移動物の位置を示す。検出位置情報42及び46の各々において、移動物の位置は、撮影画像の画素を特定する画素座標系で記述されている。検出結果出力部17は、検出位置情報42に記録された第1移動物の位置を、ワールド座標系における位置に変換する。
検出結果出力部17は、検出位置情報46に記録された第1移動物の位置を、ワールド座標系における位置に変換する。
Step S507 will be described in detail. The detected
The detection
検出結果出力部17は、ワールド座標系における第1移動物の位置と、ワールド座標系における第2移動物の位置とに基づいて、ワールド座標系における第1移動物から第2移動物までの距離を算出する。検出結果出力部17は、算出した距離が予め設定された基準距離以下である場合、第1移動物と第2移動物とが同一物体であると判断する。この場合、検出結果出力部17は、検出された第2移動物が強調された初期検出画像21Aあるいは連携検出画像22Aを検出結果情報47として表示装置5に出力する。
Based on the position of the first moving object in the world coordinate system and the position of the second moving object in the world coordinate system, the detection
検出結果出力部17は、第1移動物と第2移動物とが同一物体でないと判断した場合、検出された第2移動物が強調され、かつ、後述する移動物検出メッセージを含む前方撮影画像31Aを、検出結果情報47として出力する。移動物検出メッセージは、具体的には、前方撮影画像31Aの右端よりもさらに右方に第1移動物が存在することを示す。
When the detection
[7.5.連携検出の終了判断(ステップS50)]
再び図7を参照して、移動物検出装置10は、連携検出処理(ステップS50)の後に、連携検出を終了するか否かを判断する(ステップS60)。移動物検出装置10は、連携検出を終了する場合(ステップS60においてYes)、ステップS70に進む。移動物検出装置10は、連携検出を終了しない場合(ステップS60においてNo)、連携検出処理(ステップS50)を再び実行する。つまり、移動物検出装置10は、画像取得部11により取得された新たな初期検出画像21A及び連携検出画像22Aを用いて、図12に示す処理を実行する。
[7.5. End judgment of cooperation detection (step S50)]
Referring to FIG. 7 again, moving
ステップS60の判断について、図6を例にして説明する。移動物検出装置10は、右ウィンカー7Rの点滅が終了した場合、車両100の右折が終了したと判断し、連携検出の終了を決定する(ステップS60)。画像取得部11が初期検出画像21A及び連携検出画像22Aの出力を停止することにより、連携検出が終了する。なお、車両100が左折した場合には、移動物検出装置10は、左ウィンカー7Lの点滅が終了したか否かを判断すればよい。
The determination in step S60 will be described with reference to FIG. 6 as an example. When the blinking of the
移動物検出装置10は、車両100の現在位置から、連携検出の開始時刻における車両100の位置までの移動距離に基づいて、車両100が右折又は左折を終了したと判断してもよい。例えば、移動物検出装置10は、車両100に搭載されたGPS(Global Positioning System)装置から車両100の位置を定期的に取得し、取得した位置を用いて上記移動距離を算出する。移動物検出装置10は、算出した距離が予め設定された距離閾値よりも大きい場合、車両100が右折又は左折を終了したと判断する。
The moving
あるいは、移動物検出装置10は、連携検出の開始時刻から所定時間を経過した場合に、車両100が右折又は左折を終了したと判断してもよい。
Alternatively, the moving
以上説明したように、移動物検出装置10は、移動物を初期検出画像21Aから検出した場合、初期検出画像21Aにおける移動物の位置及び移動物の移動方向に基づいて、連携検出を開始するか否かを決定する。移動物検出装置10は、連携検出の開始を決定した場合、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する。移動物検出装置10は、初期検出画像21A及び連携検出画像22Aから切り出された非優先領域画像21C及び22Cを縮小する。移動物検出装置10は、初期検出画像21A及び連携検出画像22Aから切り出された優先領域画像21B及び22Bと、縮小された非優先領域画像21C及び22Cとから移動物を検出する。これにより、移動物検出装置10は、初期検出画像21A及び連携検出画像22Aの画素数を削減できるため、初期検出画像21A及び連携検出画像22Aから移動物を検出する負荷を低減することができる。
As described above, when a moving object is detected from the
初期検出画像21A及び連携検出画像22Aの各々に設定される優先領域は、初期検出画像21A及び連携検出画像22Aにおける重複撮影範囲を含むように設定される。従って、移動物検出装置10は、移動物の検出精度の低下を抑制することができる。
The priority area set in each of the
また、優先領域設定部14は、連携検出画像22Aだけでなく、初期検出画像21Aに優先領域及び非優先領域を設定する。これにより、移動物検出装置10は、連携検出の実行時に、初期検出画像21Aから移動物を検出する負荷を低減できる。
Also, the priority
[第2の実施の形態]
[1.構成]
図15は、本発明の第2の実施の形態に係る移動物検出装置10Aの構成を示す機能ブロック図である。移動物検出装置10Aは、車両100に搭載される。移動物検出装置10Aは、車両100が駐車場を走行する場合に移動物を検出する。以下、図1に示す移動物検出装置10と異なる点を中心に、移動物検出装置10Aを説明する。
[Second embodiment]
[1. composition]
FIG. 15 is a functional block diagram showing the configuration of a moving
図15を参照して、移動物検出装置10Aは、画像取得部11と、移動状況取得部12と、優先領域設定部14とに代えて、画像取得部11Aと、移動状況取得部12Aと、優先領域設定部14Aとを備える。
Referring to FIG. 15, moving
移動状況取得部12Aは、前方撮影画像31Aを画像取得部11から取得し、その取得した前方撮影画像31Aを用いて、車両100が駐車場を走行しているか否かを判断する。移動状況取得部12Aは、車両100が駐車場を走行しているか否かを示す走行情報61を画像取得部11Aに出力する。
Movement
優先領域設定部14Aは、第1検出部13が移動物を検出した場合、移動物が検出された撮影画像と、検出された移動物の位置及び移動方向とに基づいて、連携検出を開始するか否かを判断する。移動物の位置及び移動方向は、移動物が検出された撮影画像において特定される。優先領域設定部14Aは、連携検出の開始を決定した場合、移動物が検出された撮影画像を初期検出画像に決定し、移動物が検出された撮影画像に基づいて連携検出画像を決定する。優先領域設定部14Aは、決定した初期検出画像及び連携検出画像を指定する画像指定情報62を画像取得部11に出力する。
When the
画像取得部11Aは、走行情報61を移動状況取得部12Aから受ける。走行情報61が、駐車場の走行を示す場合、画像取得部11は、予め設定された出力順序に従って撮影画像31A~34Aの各々を第1検出部13に出力する。つまり、本実施の形態では、初期検出画像21Aは、撮影画像31A~34Aの出力順序に従って変化する。出力順序については、後述する。
The image acquisition unit 11A receives the travel information 61 from the movement
また、画像取得部11Aは、画像指定情報62を優先領域設定部14Aから受けた場合、その受けた画像指定情報62で指定された初期検出画像及び連携検出画像を画質調整部15に出力する。
Further, when receiving the image designation information 62 from the priority
[2.動作]
図16は、図15に示す移動物検出装置10Aの動作を示すフローチャートである。移動物検出装置10Aは、車両100のイグニッションスイッチがオンされた場合、図16に示す処理を開始する。
[2. motion]
FIG. 16 is a flow chart showing the operation of the moving
図16を参照して、移動状況取得部12Aは、画像取得部11から受けた前方撮影画像31Aを用いて、車両100の挙動を特定する(ステップS11)。具体的には、移動状況取得部12Aは、予め設定された駐車場の白線のパターンを前方撮影画像31Aから検出した場合、車両100が駐車場を走行していると判断する。
Referring to FIG. 16, movement
なお、移動状況取得部12Aは、車両100以外の複数の車両が並んで停車している場合、車両100が駐車場を走行していると判断してもよい。あるいは、移動状況取得部12Aは、駐車場の位置が設定された地図情報と、図示しないGPS装置から取得した現在位置とに基づいて、車両100が駐車場を走行しているか否かを判断してもよい。
Note that the movement
車両100が駐車場を走行していないと移動状況取得部12Aにより判断された場合(ステップS21においてNo)、移動物検出装置10Aは、ステップS71に進む。車両100が駐車場を走行していると移動状況取得部12Aにより判断された場合(ステップS21においてYes)、移動物検出装置10Aは、連携検出を開始するか否かを判断する連携開始判断処理(ステップS31)を実行する。連携開始判断処理(ステップS31)の詳細については、後述する。
When the movement
移動物検出装置10Aは、連携検出の開始を決定しない場合(ステップS41においてNo)、ステップS71に進む。
If the moving
移動物検出装置10Aは、連携検出の開始を決定した場合(ステップS41においてYes)、連携検出処理(ステップS51)を実行する。図16に示す連携検出処理(ステップS51)は、図7に示す連携検出処理(ステップS51)と同じであるため、その説明を省略する。連携検出処理(ステップS51)は、連携検出の終了条件が満たされるまで(ステップS61においてYes)、繰り返される。
When the moving
本実施の形態において、移動物検出装置10Aは、車両100が駐車場から出た場合、連携検出の終了条件が満たされたと判断する。あるいは、移動物検出装置10Aは、初期検出画像21A及び連携検出画像22Aの両者において移動物が検出されなくなった場合、連携検出の終了条件が満たされたと判断してもよい。移動物検出装置10Aは、車両100の速さが所定の速さ以上となった場合に、連携検出の終了条件が満たされたと判断してもよい。所定の速さは、例えば、30km/hである。車両100が所定の速さ以上の速さで走行している場合、車両100が駐車場ではなく道路を走行していると考えられるためである。移動物検出装置10Aは、車両100が停止した場合、連携検出の終了条件が満たされたと判断してもよい。
In the present embodiment, when
連携検出の終了条件が満たされた場合(ステップS61においてYes)、移動物検出装置10Aは、イグニッション信号がオフに変化したか否かを判断する(ステップS71)。イグニッション信号がオンである場合(ステップS71においてNo)、移動物検出装置10Aは、ステップS11に戻る。イグニッション信号がオフに変化した場合(ステップS71においてYes)、移動物検出装置10Aは、図16に示す処理を終了する。
When the end condition of cooperative detection is satisfied (Yes in step S61), the moving
このように、移動物検出装置10Aは、車両100が駐車場を走行する場合、撮影画像31A~34Aを所定の順序に従って初期検出画像21Aに決定する。移動物が初期検出画像21Aから検出された場合、初期検出画像21Aと、移動物の検出位置と、移動物の移動方向とに基づいて、連携検出画像22Aを決定する。移動物検出装置10Aは、車両周辺の移動物の位置に応じて、移動物の検出に用いる初期検出画像21A及び連携検出画像22Aを柔軟に変更できる。また、移動物検出装置10Aは、車両100が駐車場を走行していると判断した場合に初期検出画像の決定を開始する。これにより、駐車場を移動する移動物を速やかに検出することができる。
In this manner, when the
[3.連携開始判断(ステップS31)]
図17は、図16に示す連携開始判断(ステップS31)のフローチャートである。画像取得部11Aは、取得した撮影画像31A~34Aのうちいずれか1つを、予め定められた順序に従って初期検出画像21Aに選択する(ステップS311)。画像取得部11Aは、選択した撮影画像を初期検出画像21Aとして第1検出部13に出力する。画像取得部11は、選択した撮影画像を示す画像選択情報41を優先領域設定部14Aに出力する。
[3. Cooperation start judgment (step S31)]
FIG. 17 is a flowchart of the cooperation start judgment (step S31) shown in FIG. The image acquisition unit 11A selects one of the acquired photographed
画像取得部11AがステップS311を実行するたびに、初期検出画像21Aが出力順序に従って変化する。例えば、出力順序は、前方撮影画像31A、左方撮影画像32A、後方撮影画像33A、右方撮影画像34Aの順に設定される。この場合、画像取得部11Aは、前方撮影画像31Aを初期検出画像21Aとして最初に選択する。次に、左方撮影画像32Aが、初期検出画像21Aとして選択される。最後に、右方撮影画像34Aが初期検出画像21Aとして選択される。その後、前方撮影画像31Aが、再び初期検出画像21Aとして選択される。
Each time the image acquisition unit 11A executes step S311, the
第1検出部13は、画像取得部11Aから受けた初期検出画像21Aから、移動物を検出する(ステップS312)。ステップS312は、図9に示すステップS303と同じ処理であるため、その説明を省略する。第1検出部13は、検出位置情報42及び移動方向情報43を優先領域設定部14に出力する。第1検出部13は、検出位置情報42を検出結果出力部17に出力する。
The
優先領域設定部14Aは、移動物の位置が第1検出部13から受けた検出位置情報42に記録されていない場合、移動物が初期検出画像21Aから検出されなかったと判断する(ステップS313においてNo)。優先領域設定部14は、連携検出を開始しないことを決定し(ステップS317)、図17に示す処理を終了する。
If the position of the moving object is not recorded in the
優先領域設定部14Aは、移動物の位置が第1検出部13から受けた検出位置情報42に記録されている場合、移動物が初期検出画像21Aから検出されたと判断する(ステップS313においてYes)。優先領域設定部14Aは、初期検出画像21Aにおける移動物の位置と初期検出画像における移動物のベクトルとが連携検出の開始条件を満たしているか否かを判断する(ステップS314)。
If the position of the moving object is recorded in the
図18は、優先領域設定部14Aにより用いられる開始条件テーブル55の一例を示す図である。優先領域設定部14Aは、連携検出を開始するか否かの決定に、図18に示す開始条件テーブル55を用いる。
FIG. 18 is a diagram showing an example of the start condition table 55 used by the priority
優先領域設定部14Aは、画像取得部11Aから受けた画像選択情報41に基づいて、初期検出画像21Aとして選択された撮影画像特定する。優先領域設定部14Aは、第1検出部13から受けた検出位置情報42に基づいて、初期検出画像21Aにおける移動物の位置を特定する。優先領域設定部14Aは、第1検出部から受けた移動方向情報43に基づいて、初期検出画像21Aにおける移動物の移動方向を特定する。
The priority
特定された撮影画像、位置及びベクトル方向の組み合わせが、開始条件テーブル55に記録されている場合、連携検出の開始条件が満たされている(ステップS314においてYes)。この場合、優先領域設定部14Aは、連携検出の開始を決定する(ステップS315)。優先領域設定部14Aは、特定された撮影画像、位置及びベクトル方向の組み合わせに基づいて、連携検出画像22Aを決定する(ステップS316)。
If the combination of the specified captured image, position, and vector direction is recorded in the start condition table 55, the start condition for cooperation detection is satisfied (Yes in step S314). In this case, the priority
優先領域設定部14Aは、開始条件テーブル55に基づいて、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する(ステップS317)。従って、移動物検出装置10Aは、連携検出処理(ステップS51)を実行する場合に、図12に示すステップS501~S502を省略する。その後、優先領域設定部14は、図17に示す処理を終了する。
The priority
特定された撮影画像、位置及びベクトル方向の組み合わせが、開始条件テーブル55に記録されていない場合、優先領域設定部14Aは、連携検出の開始条件が満たされていないと判断する(ステップS314においてNo)。優先領域設定部14Aは、連携検出を開始しないことを決定し(ステップS317)、図17に示す処理を終了する。
If the combination of the specified captured image, position, and vector direction is not recorded in the start condition table 55, the priority
特定された撮影画像、移動物の位置及び移動物の移動方向の組み合わせを、図18を参照しながら説明する。移動物が自転車25である場合、移動物の移動方向は、ベクトル25Vの方向である。
A combination of the specified photographed image, position of the moving object, and moving direction of the moving object will be described with reference to FIG. 18 . When the moving object is a
(右方撮影画像34Aが初期検出画像21Aである場合)
初期検出画像21Aが右方撮影画像34Aであり、移動物の位置が右方撮影画像34Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の開始を決定する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて前方撮影画像31Aに決定される。移動物が、前方撮影画像31A及び右方撮影画像34Aの両者で検出される可能性が高いためである。この組み合わせは、上記第1の実施の形態における車両100が右折する場合に相当する。
(When the right captured
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。
In this case, the priority area of the
初期検出画像21Aが右方撮影画像34Aであり、移動物の位置が右方撮影画像34Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて後方撮影画像33Aに決定される。移動物が、後方撮影画像33A及び右方撮影画像34Aの両者で検出される可能性が高いためである。
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。
In this case, the priority area of the
(左方撮影画像32Aが初期検出画像21Aである場合)
初期検出画像21Aが左方撮影画像32Aであり、移動物の位置が左方撮影画像32Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて前方撮影画像31Aに決定される。移動物が、前方撮影画像31A及び右方撮影画像34Aの両者で検出される可能性が高いためである。この組み合わせは、上記第1の実施の形態における車両100が左折する場合に相当する。
(When the left shot
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。
In this case, the priority area of the
初期検出画像21Aが左方撮影画像32Aであり、移動物の位置が左方撮影画像32Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて後方撮影画像33Aに決定される。移動物が、後方撮影画像33A及び右方撮影画像34Aの両者で検出される可能性が高いためである。
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。
In this case, the priority area of the
(前方撮影画像31Aが初期検出画像21Aである場合)
初期検出画像21Aが前方撮影画像31Aであり、移動物の位置が前方撮影画像31Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて左方撮影画像32Aに決定される。移動物が、前方撮影画像31A及び左方撮影画像32Aの両者で検出される可能性が高いためである。
(When the
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。
In this case, the priority area of the
初期検出画像21Aが前方撮影画像31Aであり、移動物の位置が前方撮影画像31Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて右方撮影画像34Aに決定される。移動物が、前方撮影画像31A及び右方撮影画像34Aの両者で検出される可能性が高いためである。
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。
In this case, the priority area of the
(後方撮影画像33Aが初期検出画像21Aである場合)
初期検出画像21Aが後方撮影画像33Aであり、移動物の位置が後方撮影画像33Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて左方撮影画像32Aに決定される。移動物が、左方撮影画像32A及び後方撮影画像33Aの両者で検出される可能性が高いためである。
(When the rear captured
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。
In this case, the priority area of the
初期検出画像21Aが後方撮影画像33Aであり、移動物の位置が後方撮影画像33Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて右方撮影画像34Aに決定される。移動物が、後方撮影画像33A及び右方撮影画像34Aの両者で検出される可能性が高いためである。
When the
この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。
In this case, the priority area of the
以上説明したように、第2の実施の形態に係る移動物検出装置10Aは、車両100が駐車場を走行する場合、撮影画像31A~34Aの各々を所定の順序で初期検出画像21Aとして選択する。移動物検出装置10Aは、移動物を初期検出画像21Aから検出した場合、移動物の検出結果に基づいて、撮影画像31A~34Aから連携検出画像22Aを決定し、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する。これにより、車両100と接触する可能性のある移動物の位置を想定できない場合であっても、移動物検出装置10は、連携検出により移動物を検出できる。これにより、高い精度で移動物を継続して検出できる。
As described above, the moving
[第3の実施の形態]
[1.構成]
図19は、本発明の第3の実施の形態に係る移動物検出装置10Bの構成を示す機能ブロック図である。図19を参照して、移動物検出装置10Bは、優先領域設定部14に代えて優先領域設定部14Bを備える。優先領域設定部14Bは、初期検出画像21Aから検出された移動物の位置又は移動方向に応じて、連携検出画像22Aに設定される優先領域及び非優先領域を変更する。
[Third embodiment]
[1. composition]
FIG. 19 is a functional block diagram showing the configuration of a moving
移動物検出装置10Bは、優先領域設定部14に代えて優先領域設定部14Bを備える点を除き、移動物検出装置10と同じ構成を有する。このため、本実施の形態の説明において、上記第1の実施の形態と共通の説明については省略する。
The moving
[2.動作]
上述のように、優先領域設定部14Bは、初期検出画像21Aから検出された移動物の位置又は移動方向に応じて、連携検出画像22Aに設定される優先領域及び非優先領域を変更する。以下、移動物の検出位置に基づく優先領域の変更と、移動物の移動量に基づく優先領域の変更とに分けて、優先領域設定部14Bによる優先領域の設定を説明する。
[2. motion]
As described above, the priority
(移動量に基づく優先領域の設定)
以下、図6に示す自転車25が、初期検出画像21Aとして選択された右方撮影画像34Aから検出された場合を例にして、優先領域設定部14Bによる優先領域の設定を説明する。図6を参照して、ベクトル25Vが、右方撮影画像34Aにおける自転車25の移動方向及び移動量を示す。ベクトル25Vは、右方撮影画像34Aにおける画素座標系により記述され、Xa軸の負方向を向いている。
(Priority area setting based on movement amount)
Setting of the priority area by the priority
図20は、優先領域設定部14Bにより設定される優先領域の変化の一例を示す図である。図20に示す前方撮影画像31Aは、図14に示す前方撮影画像31Aと同じである。優先領域設定部14Bは、ベクトル25Vの大きさに基づいて、前方撮影画像31Aに設定される優先領域51Bの幅を変化させる。
FIG. 20 is a diagram showing an example of changes in priority areas set by the priority
例えば、ベクトル25Vの大きさが0(ピクセル)以上100(ピクセル)未満である場合、優先領域設定部14Bは、優先領域51Bbを前方撮影画像31Aに設定する。ベクトル25Vの大きさが100(ピクセル)以上150(ピクセル)未満である場合、優先領域設定部14Bは、優先領域51Baを前方撮影画像31Aに設定する。ベクトル25Vの大きさが150(ピクセル)以上である場合、優先領域設定部14Bは、優先領域51Bを前方撮影画像31Aに設定する。優先領域51B、51Ba及び51Bbの右辺は、前方撮影画像31Aの右辺と一致する。
For example, when the size of the
なお、図20において、優先領域51Ba及び51Bbを明確に示すために、優先領域51Ba及び51Bbの縦方向のサイズを、前方撮影画像31Aの縦方向のサイズよりも小さく示している。実際には、優先領域51Ba及び51Bbの縦方向のサイズは、前方撮影画像31Aの縦方向のサイズに一致する。
In FIG. 20, in order to clearly show the priority areas 51Ba and 51Bb, the vertical size of the priority areas 51Ba and 51Bb is shown to be smaller than the vertical size of the
図20に示す例では、優先領域51Baの横方向のサイズW2は、優先領域51Bの横方向のサイズW3の3分の2である。優先領域51Bbの横方向のサイズW1は、優先領域51Bの横方向のサイズW3の3分の1である。つまり、優先領域設定部14Bは、ベクトル25Vの大きさが増加するにつれて、連携検出画像22Aに設定される優先領域の横方向のサイズを増加させる。
In the example shown in FIG. 20, the horizontal size W2 of the priority area 51Ba is two thirds of the horizontal size W3 of the
前方撮影画像31Aから検出される自転車25の位置は、ベクトル25Vの大きさが増加するにつれて、前方撮影画像31Aの左に移動すると考えられる。優先領域設定部14Bは、この考えに基づいて、ベクトル25Vの大きさに応じて、連携検出画像22Aに設定される優先領域の横方向のサイズを変化させる。
It is considered that the position of the
なお、ベクトル25Vが斜め方向を向いている場合、優先領域設定部14Bは、ベクトル25VのXa軸成分の大きさに基づいて、優先領域の幅を決定すればよい。左方撮影画像32Aが初期検出画像21Aである場合、優先領域51B、51Ba及び51Bbの左辺は、前方撮影画像31Aの左辺と一致する。
Note that when the
(検出位置に基づく優先領域の設定)
図21は、第1検出部13により検出される自転車25の検出位置の一例を示す図である。図21に示す前方撮影画像31Aは、図14に示す前方撮影画像31Aと同じである。
(Priority area setting based on detection position)
FIG. 21 is a diagram showing an example of detection positions of the
以下、図21を参照しながら、右方撮影画像34Aから検出された自転車25の位置Pに基づいて優先領域を設定する例を説明する。
An example of setting the priority area based on the position P of the
優先領域設定部14Bは、右方撮影画像34Aの左辺から自転車25の位置25Pまでの距離Rを取得する。位置25Pは、右方撮影画像34Aの画素座標系により記述されるため、距離Rは、位置25PのXa座標値である。優先領域設定部14Bは、取得した距離Rに基づいて、図20に示す優先領域51B、51Ba及び51Bbのうちいずれか1つを、前方撮影画像31Aに設定する。
The priority
具体的には、優先領域設定部14Bは、取得した距離Rが、0(ピクセル)以上R1(ピクセル)未満である場合、優先領域51Bを前方撮影画像31Aに設定する。優先領域設定部14Bは、取得した距離RがR1(ピクセル)以上R2(ピクセル)未満である場合、優先領域51Baを前方撮影画像31Aに設定する。優先領域設定部14Bは、取得した距離RがR2(ピクセル)以上R3(ピクセル)以下である場合、優先領域51Bbを前方撮影画像31Aに設定する。
Specifically, when the obtained distance R is 0 (pixel) or more and less than R1 (pixel), the priority
つまり、優先領域設定部14Bは、位置25Pから右方撮影画像34Aの左辺までの距離Rが短くなるにつれて、前方撮影画像31Aに設定される優先領域の横方向のサイズを大きくする。距離Rが短いほど、自転車25がフロントカメラ31により撮影される可能性が高くなる。距離Rが短いほど、自転車25は、前方撮影画像31Aの左右中央に近づくと考えられるため、優先領域設定部14Bは、優先領域の横方向差のサイズを大きくする。
That is, the priority
左方撮影画像32Aが初期検出画像21Aである場合、優先領域設定部14Bは、距離Rを左方撮影画像32Aの右辺を基準にして取得すればよい。
When the left shot
優先領域設定部14Bは、移動量に基づいて設定した優先領域と、検出位置に基づいて設定された優先領域とをマージして、最終的な優先領域を決定する。例えば、優先領域設定部14Bは、連携検出画像のうち、移動量に基づいて設定した優先領域及び検出位置に基づいて設定された優先領域のうち少なくとも一方に含まれる領域を、最終的な優先領域として決定する。あるいは、優先領域設定部14Bは、連携検出画像のうち、移動量に基づいて設定した優先領域及び検出位置に基づいて設定された優先領域の両者に含まれる領域を、最終的な優先領域として決定する。つまり、優先領域設定部14Bは、移動量に基づいて設定した優先領域及び検出位置に基づいて設定された優先領域の少なくとも一方に基づいて、最終的な優先領域を決定すればよい。その後、優先領域設定部14Bは、前方撮影画像31Aに設定された優先領域以外の領域を非優先領域に設定する。
The priority
このように、優先領域設定部14Bは、連携検出画像22Aに設定される優先領域を移動物の検出位置及び移動量に基づいて変更する。これにより、連携検出画像において移動物が検出されない可能性の高い領域を動的に非優先領域に設定することができるため、移動物の検出負荷をさらに低減できる。
In this manner, the priority
なお、優先領域設定部14Bは、連携検出画像に設定された優先領域の横方向のサイズを、時間の経過とともに増加させてもよい。時間の経過とともに、移動物が、連携検出画像に設定された非優先領域から検出される可能性が高くなるためである。優先領域設定部14Bは、時間の経過とともに優先領域を拡大することにより、移動物の検出精度との低下を防ぐことができる。
Note that the priority
[変形例]
上記実施の形態において、車両100が右折又は左折する場合、あるいは、車両100が駐車場を走行する場合に、移動物の検出を開始する例を説明した。しかし、移動物検出装置は、車両100の移動状況が所定の条件を満たす場合に、移動物の検出を開始すればよい。所定の条件は、上記実施の形態の他に、車両100のスピードが所定の検出開始速度よりも遅いことである。所定の検出開始速度は、例えば、20km/hである。このように、車両の移動状況に応じて移動物の検出を開始することにより、移動物の検出負荷が恒常的に高くなることを抑制できる。
[Modification]
In the above-described embodiment, an example has been described in which detection of a moving object is started when
上記実施の形態において、優先領域設定部が、優先領域及び非優先領域を初期検出画像21Aに設定する例を説明した。しかし、優先領域設定部は、優先領域及び非優先領域を初期検出画像21Aに設定しなくてもよい。この場合、第1検出部13は、連携検出の実行時においても、画像取得部11から受けた初期検出画像21Aから移動物を検出する。
In the above-described embodiment, an example has been described in which the priority area setting section sets the priority area and the non-priority area in the
上記実施の形態において、移動状況取得部12が、横断歩道の検出及びウィンカーの点滅指示に基づいて、車両100が交差点で右折又は左折すると判断する例を説明したが、これに限られない。例えば、移動状況取得部12は、車両100に搭載されたカーナビゲーション装置から取得した車両100の走行ルートに基づいて、車両100が右折又は左折をすると判断してもよい。走行ルートは、車両100が右折又は左折をする交差点を指定する情報を含む。移動状況取得部12は、車両100の現在位置と取得した走行ルートとに基づいて、車両100の現在位置から、右折又は左折が指定された交差点までの距離を算出する。移動状況取得部12は、算出した距離が所定距離以下である場合、車両100が右折又は左折すると判断すればよい。
In the above-described embodiment, an example was described in which the movement
あるいは、移動状況取得部12は、前方撮影画像31Aを用いて車両100が走行する車線を特定し、特定した車線に基づいて車両100が右折又は左折をする交差点に進入するか否かを判断してもよい。移動状況取得部12は、右折専用レーンを前方撮影画像31Aから検出した場合に、車両100が右折すると判断する。移動状況取得部12は、左折専用レーンを前方撮影画像31Aから検出した場合に、車両100が左折すると判断する。
Alternatively, the movement
あるいは、移動状況取得部12は、左ウィンカー7L又は右ウィンカー7Rのいずれか一方が点滅した場合に、初期検出画像21Aから移動物を検出する処理を開始してもよい。左ウィンカー7Lが点滅している場合、左方撮影画像32Aが初期検出画像21Aとして選択される。右ウィンカー7Rが点滅している場合、右方撮影画像34Aが初期検出画像21Aとして選択される。
Alternatively, the movement
上記実施の形態において、移動物検出装置が移動状況取得部12又は12Aを備える例を説明したが、これに限られない。移動物検出装置は、移動状況取得部を備えなくてもよい。移動物検出装置は、予め設定された撮影画像を初期検出画像として用いてもよい。例えば、移動物検出装置は、車両100の移動状況に関係なく、前方撮影画像31Aを初期検出画像として用いることが可能である。この場合、移動物検出装置は、図18に示す開始条件テーブル55のうち、前方撮影画像31Aが初期検出画像である場合における開始条件に基づいて、連携検出画像を決定すればよい。
In the above embodiment, an example in which the moving object detection device includes the movement
上記実施の形態において、画質調整部15は、優先領域画像の画質を維持する。しかし、画質調整部15は、優先領域画像の画質を撮影画像の画質よりも低くしてもよい。
In the above embodiment, the image
上記実施の形態において、画質調整部15が、撮影画像に設定された非優先領域の画像の画素数を減少させることにより、非優先領域の画像の画質を調整する例を説明した。しかし、画質調整部15は、撮影画像の画素数を減少させることにより撮影画像の画質を調整し、画質が調整された撮影画像から非優先領域の画像を切り出してもよい。この場合、画質調整部15は、非優先領域のサイズは、画素数の減少に応じて変化させる。つまり、画質調整部15は、撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整するのであれば、画質の調整と非優先領域の切り出しの順序は特に限定されない。
In the above embodiment, an example has been described in which the image
また、上記実施の形態で説明した移動物検出装置において、各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。 Further, in the moving object detection apparatus described in the above embodiments, each functional block may be individually integrated into one chip by a semiconductor device such as an LSI, or may be integrated into one chip so as to include part or all of them. Also good.
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。 Further, the method of circuit integration is not limited to LSI, and may be implemented by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.
また、上記各実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Also, part or all of the processing of each functional block in each of the above embodiments may be implemented by a program. Part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each process is stored in a storage device such as a hard disk or ROM, and is read from the ROM or RAM and executed.
また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above embodiment may be realized by hardware, or may be realized by software (including cases where it is realized together with an OS (operating system), middleware, or a predetermined library). . Furthermore, it may be realized by mixed processing of software and hardware.
例えば、上記実施の形態(変形例を含む)の各機能ブロックを、ソフトウェアにより実現する場合、図22に示したハードウェア構成(例えば、CPU、ROM、RAM、入力部、出力部等をバスBusにより接続したハードウェア構成)を用いて、各機能部をソフトウェア処理により実現するようにしてもよい。 For example, when the functional blocks of the above embodiments (including modifications) are implemented by software, the hardware configuration shown in FIG. Each functional unit may be realized by software processing using a hardware configuration connected by
また、上記実施の形態における処理方法の実行順序は、必ずしも、上記実施の形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Also, the execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the method described above and a computer-readable recording medium that records the program are included in the scope of the present invention. Examples of computer-readable recording media include flexible disks, hard disks, CD-ROMs, MOs, DVDs, DVD-ROMs, DVD-RAMs, large-capacity DVDs, next-generation DVDs, and semiconductor memories. .
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to being recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。 Although the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit of the present invention.
100 車両
10、10A 移動物検出装置
11,11A 画像取得部
12,12A 移動状況取得部
13 第1検出部
14,14A,14B 優先領域設定部
15 画質調整部
16 第2検出部
17 検出結果出力部
31,32,32,34 カメラ
100
Claims (10)
前記画像取得部により取得された第1撮影画像から前記車両の周辺を移動する第1移動物を検出する第1検出部と、
前記第1検出部により検出された第1移動物の第1撮影画像における位置と、前記検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを前記画像取得部により取得された第2撮影画像に設定する優先領域設定部と、
前記第2撮影画像の画素数を減少させることにより、前記非優先領域の画像の画質を調整する画質調整部と、
前記優先領域の画像及び前記画質調整部により画質が調整された非優先領域の画像の各々から、前記車両の周辺を移動する第2移動物を検出する第2検出部と、を備える移動物検出装置。 an image acquisition unit that acquires a first captured image generated by a first camera mounted on a vehicle and acquires a second captured image generated by a second camera mounted on the vehicle;
a first detection unit that detects a first moving object moving around the vehicle from the first captured image acquired by the image acquisition unit;
a priority area and a non-priority area based on the position of the first moving object detected by the first detection unit in the first captured image and the moving direction of the detected first moving object in the first captured image; a priority area setting unit that sets the second captured image acquired by the image acquisition unit;
an image quality adjustment unit that adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image;
a moving object detection unit that detects a second moving object moving around the vehicle from each of the image of the priority area and the image of the non-priority area whose image quality is adjusted by the image quality adjustment unit. Device.
前記第1移動物の前記第1撮影画像における位置が、前記第1撮影画像に予め設定された連携基準領域内である場合、前記優先領域設定部は、前記優先領域及び非優先領域を設定し、
前記第1撮影画像における前記連携基準領域の画像は、前記第2カメラの撮影範囲と前記第1カメラの撮影範囲とが重複する重複範囲が撮影された画像を含む、移動物検出装置。 The moving object detection device according to claim 1,
When the position of the first moving object in the first captured image is within a cooperation reference area preset in the first captured image, the priority area setting unit sets the priority area and the non-priority area. ,
The moving object detection device, wherein the image of the cooperation reference area in the first captured image includes an image of an overlapping range in which the capturing range of the second camera and the capturing range of the first camera overlap.
前記優先領域設定部は、前記第1移動物の第1撮影画像における移動方向に基づいて、前記第1移動物が前記車両よりも速く、かつ、前記第1移動物と前記車両とが同一方向に進んでいるか否かを判断し、
前記優先領域設定部は、前記第1移動物が前記車両よりも速く、かつ、前記第1移動物と前記車両とが同一方向に進んでいると判断した場合、前記優先領域及び前記非優先領域を前記第2撮影画像に設定する、移動物検出装置。 The moving object detection device according to claim 2,
The priority area setting unit determines, based on a moving direction of the first moving object in the first photographed image, that the first moving object is moving faster than the vehicle and that the first moving object and the vehicle move in the same direction. determine whether it is progressing to
The priority area setting unit determines that the first moving object is faster than the vehicle and that the first moving object and the vehicle are traveling in the same direction, the priority area and the non-priority area. to the second captured image.
前記第1移動物の前記第1撮影画像における位置が、前記第1撮影画像に予め設定された連携基準領域内である場合、前記優先領域設定部は、優先領域と非優先領域とを前記取得された第1撮影画像に設定し、
前記画質調整部は、前記第1撮影画像の画素数を減少させることにより、前記第1撮影画像に設定された非優先領域の画像の画質を調整し、
前記第1検出部は、前記第1撮影画像に設定された優先領域の画像から移動物を検出し、前記第1撮影画像に設定され、かつ、画質が調整された非優先領域の画像から移動物を検出する、移動物検出装置。 The moving object detection device according to claim 2 or 3,
When the position of the first moving object in the first captured image is within a cooperation reference region preset in the first captured image, the priority region setting unit acquires the priority region and the non-priority region. set it to the first shot image that was captured,
The image quality adjustment unit adjusts the image quality of the image of the non-priority area set in the first captured image by reducing the number of pixels of the first captured image,
The first detection unit detects a moving object from the image of the priority area set in the first captured image, and moves from the image of the non-priority area set in the first captured image and whose image quality is adjusted. A moving object detection device that detects objects.
前記車両の移動状況を取得する移動状況取得部、を備え、
前記移動状況取得部により取得された移動状況が所定の条件を満たす場合、前記第1検出部は、前記第1移動物の検出を開始する、移動物検出装置。 The moving object detection device according to any one of claims 1 to 4, further comprising:
a movement status acquisition unit that acquires the movement status of the vehicle;
The moving object detection device, wherein the first detection unit starts detecting the first moving object when the movement status acquired by the movement status acquisition unit satisfies a predetermined condition.
前記移動状況取得部は、
前記車両が交差点に進入するか否かを判断する進入判断部と、
前記車両が旋回するか否かを判断する旋回判断部と、を含み、
前記優先領域設定部は、前記車両が交差点に進入すると前記進入判断部により判断され、かつ、前記車両が旋回すると旋回判断部により判断された場合、優先領域及び非優先領域を設定する、移動物検出装置。 The moving object detection device according to claim 5,
The movement status acquisition unit
an entry determination unit that determines whether the vehicle enters an intersection;
a turn determination unit that determines whether the vehicle turns,
The priority area setting unit sets a priority area and a non-priority area when the entry determination unit determines that the vehicle enters an intersection and the turn determination unit determines that the vehicle turns. detection device.
前記進入判断部は、前記車両の前方を撮影するフロントカメラによって撮影された撮影画像から横断歩道を検出し、
前記旋回判断部は、前記車両の旋回方向が前記車両に搭載された方向指示スイッチにより指示されたか否かを判断し、
前記優先領域設定部は、横断歩道が前記進入判断部により検出され、かつ、前記旋回方向が前記方向指示スイッチにより指示された場合、優先領域及び非優先領域を設定する、移動物検出装置。 The moving object detection device according to claim 6,
The entry determination unit detects a pedestrian crossing from a captured image captured by a front camera that captures an area in front of the vehicle,
The turning determination unit determines whether or not a turning direction of the vehicle is indicated by a direction indicator switch mounted on the vehicle,
The moving object detection device, wherein the priority area setting unit sets a priority area and a non-priority area when the pedestrian crossing is detected by the entry determination unit and the turning direction is indicated by the direction switch.
前記車両は、複数のカメラを搭載し、
前記画像取得部は、
前記複数のカメラにより生成された複数の撮影画像の各々を所定の順序に従って選択する画像選択部と、
前記画像選択部により選択された撮影画像を前記第1撮影画像として前記第1検出部に出力する画像出力部と、を含み、
前記第1検出部が前記第1移動物を検出した場合、前記優先領域設定部は、第1移動物が検出された撮影画像と、前記第1移動物の第1撮影画像における位置と前記第1移動物の第1撮影画像における移動方向とに基づいて前記第2撮影画像を決定し、決定した第2撮影画像を前記画質調整部に出力することを前記画像選択部に指示する、移動物検出装置。 The moving object detection device according to any one of claims 1 to 4,
The vehicle is equipped with a plurality of cameras,
The image acquisition unit is
an image selection unit that selects each of the plurality of captured images generated by the plurality of cameras according to a predetermined order;
an image output unit that outputs the captured image selected by the image selection unit as the first captured image to the first detection unit;
When the first detection unit detects the first moving object, the priority area setting unit detects the captured image in which the first moving object is detected, the position of the first moving object in the first captured image, and the first moving object. determining the second captured image based on the movement direction of the first moving object in the first captured image, and instructing the image selection unit to output the determined second captured image to the image quality adjustment unit. detection device.
前記車両の移動状況を取得する移動状況取得部、を備え、
前記移動状況取得部により取得された移動状況が、前記車両が駐車場を走行していることを示す場合、前記画像選択部は、前記複数の撮影画像の選択を開始する、移動物検出装置。 The moving object detection device according to claim 8, further comprising:
a movement status acquisition unit that acquires the movement status of the vehicle;
The moving object detection device, wherein when the movement status acquired by the movement status acquisition section indicates that the vehicle is traveling in a parking lot, the image selection section starts selecting the plurality of captured images.
前記取得された第1撮影画像から前記車両の周辺を移動する第1移動物を検出するステップと、
前記検出された第1移動物の第1撮影画像における位置と、前記検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを前記取得された第2撮影画像に設定するステップと、
前記第2撮影画像の画素数を減少させることにより、前記非優先領域の画像の画質を調整するステップと、
前記優先領域の画像及び前記画質が調整された非優先領域の画像の各々から、前記車両の周辺を移動する第2移動物を検出するステップと、を備える移動物検出方法。 obtaining a first captured image generated by a first camera mounted on a vehicle and obtaining a second captured image generated by a second camera mounted on the vehicle;
detecting a first moving object moving around the vehicle from the acquired first captured image;
The priority area and the non-priority area are obtained based on the detected position of the first moving object in the first captured image and the moving direction of the detected first moving object in the first captured image. a step of setting a second captured image;
adjusting the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image;
and detecting a second moving object moving around the vehicle from each of the image of the priority area and the image of the non-priority area whose image quality has been adjusted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019084219A JP7218237B2 (en) | 2019-04-25 | 2019-04-25 | Moving object detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019084219A JP7218237B2 (en) | 2019-04-25 | 2019-04-25 | Moving object detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020181381A JP2020181381A (en) | 2020-11-05 |
JP7218237B2 true JP7218237B2 (en) | 2023-02-06 |
Family
ID=73024163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019084219A Active JP7218237B2 (en) | 2019-04-25 | 2019-04-25 | Moving object detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7218237B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023032029A1 (en) * | 2021-08-31 | 2023-03-09 | 三菱電機株式会社 | Blocking determination device, passenger monitoring device, and blocking determination method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013214258A (en) | 2012-04-04 | 2013-10-17 | Denso It Laboratory Inc | Pedestrian detection device and method, and collision determination device for vehicle |
-
2019
- 2019-04-25 JP JP2019084219A patent/JP7218237B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013214258A (en) | 2012-04-04 | 2013-10-17 | Denso It Laboratory Inc | Pedestrian detection device and method, and collision determination device for vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2020181381A (en) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11192557B2 (en) | Road profile along a predicted path | |
JP6081570B2 (en) | Driving support device and image processing program | |
US8477191B2 (en) | On-vehicle image pickup apparatus | |
JP6213567B2 (en) | Predicted course presentation device and predicted course presentation method | |
JP5262515B2 (en) | Vehicle display device and display method | |
JP2017159884A (en) | Drive control device, drive control method and drive control program | |
JP7218237B2 (en) | Moving object detector | |
JP2012153256A (en) | Image processing apparatus | |
JP2009105741A (en) | In-vehicle perimeter monitoring system | |
JP2014106740A (en) | In-vehicle parking frame recognizing device | |
JP4930432B2 (en) | Vehicle periphery monitoring device | |
JP2007025739A (en) | Image display device for vehicle | |
JP7275586B2 (en) | Video processing device and video processing method | |
WO2018020751A1 (en) | Display control device for vehicle, display system for vehicle, display control method for vehicle, and program | |
JP7122394B2 (en) | Imaging unit controller | |
JP7300316B2 (en) | Moving object detector | |
US20210129751A1 (en) | Side and rear reflection controller and side and rear reflection control method | |
JP7181956B2 (en) | Mobile body control device, control method, and vehicle | |
US20240132154A1 (en) | Road profile along a predicted path | |
JP4535264B2 (en) | Nose view monitor device | |
JP2022186190A (en) | Display device for vehicle, display system for vehicle, display method for vehicle, and program | |
JP2022157399A (en) | Image processing device and image processing method, vehicle control device, and program | |
JP2023063062A (en) | On-vehicle display device, control method, and program | |
JP2020107063A (en) | Object detection device | |
JP2021008246A (en) | Display control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7218237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |