JP7218237B2 - Moving object detector - Google Patents

Moving object detector Download PDF

Info

Publication number
JP7218237B2
JP7218237B2 JP2019084219A JP2019084219A JP7218237B2 JP 7218237 B2 JP7218237 B2 JP 7218237B2 JP 2019084219 A JP2019084219 A JP 2019084219A JP 2019084219 A JP2019084219 A JP 2019084219A JP 7218237 B2 JP7218237 B2 JP 7218237B2
Authority
JP
Japan
Prior art keywords
image
moving object
priority area
detection
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019084219A
Other languages
Japanese (ja)
Other versions
JP2020181381A (en
Inventor
周樹 村角
知秀 笠目
泰司 谷
文孝 伏見
博丈 須佐美
正延 枝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019084219A priority Critical patent/JP7218237B2/en
Publication of JP2020181381A publication Critical patent/JP2020181381A/en
Application granted granted Critical
Publication of JP7218237B2 publication Critical patent/JP7218237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体の周辺を移動する周辺移動物を検出する移動物検出装置に関する。 The present invention relates to a moving object detection device for detecting peripheral moving objects moving around a moving object.

近年、自動車等の車両に搭載され、車両の周囲を移動する移動物を検出する移動物検出装置の開発が進められている。移動物は、例えば、歩行者である。移動物検出装置は、歩行者を検出した場合、歩行者の存在を車両の運転者に報知する。これにより、運転者は、歩行者の存在を意識しつつ、車両を運転することができる。 2. Description of the Related Art In recent years, development of a moving object detection device that is mounted on a vehicle such as an automobile and detects a moving object that moves around the vehicle has been progressing. A moving object is, for example, a pedestrian. When a pedestrian is detected, the moving object detection device notifies the presence of the pedestrian to the driver of the vehicle. As a result, the driver can drive the vehicle while being aware of the presence of pedestrians.

例えば、特許文献1は、車両前方に存在する人物の状態を推定する歩行者認識装置を開示している。歩行者認識装置は、自車両の前方を撮影する撮像部により生成された画像データから人物を検出し、人物が検出された領域を処理領域として設定する。歩行者認識装置は、画像データから、処理領域における輝度勾配画像を生成し、検出した人物が歩行中であるか否かを、生成した輝度勾配画像に基づいて判断する。 For example, Patent Literature 1 discloses a pedestrian recognition device that estimates the state of a person present in front of a vehicle. The pedestrian recognition device detects a person from image data generated by an imaging unit that captures an image of the area ahead of the vehicle, and sets an area in which the person is detected as a processing area. The pedestrian recognition device generates a brightness gradient image in the processing area from the image data, and determines whether or not the detected person is walking based on the generated brightness gradient image.

特開2013-214258号公報JP 2013-214258 A

車両に前方に搭載されるフロントカメラは、フロントカメラと歩行者との位置関係によっては、歩行者を撮影することができない。フロントカメラが歩行者を撮影できない場合、特許文献1に係る歩行者認識装置は、歩行者を検出することができない。 A front camera mounted in front of a vehicle cannot photograph a pedestrian depending on the positional relationship between the front camera and the pedestrian. If the front camera cannot capture a pedestrian, the pedestrian recognition device according to Patent Literature 1 cannot detect the pedestrian.

自車両が右折する場合、移動物検出装置は、フロントカメラと、車両の右方を撮影する右サイドカメラとを用いることにより、自車両の右側を歩く歩行者を撮影することができる。この場合、歩行者認識装置は、フロントカメラにより生成された画像データと、右サイドカメラにより生成された画像データとの両者から歩行者を検出しなければならない。 When the own vehicle turns right, the moving object detection device can photograph a pedestrian walking on the right side of the own vehicle by using the front camera and the right side camera that photographs the right side of the vehicle. In this case, the pedestrian recognition device must detect pedestrians from both the image data generated by the front camera and the image data generated by the right side camera.

しかし、2つの画像データから歩行者を検出する場合、歩行者認識装置の負荷が高くなる。この結果、歩行者認識装置は、2つの画像データの各々から歩行者をリアルタイムに検出することが困難となる。 However, when detecting a pedestrian from two image data, the load on the pedestrian recognition device increases. As a result, it becomes difficult for the pedestrian recognition device to detect pedestrians in real time from each of the two image data.

本発明は、車両の周辺を移動する移動物の検出負荷を低減することができる移動物検出装置を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a moving object detection apparatus capable of reducing the detection load of a moving object moving around a vehicle.

上記課題を解決するため、第1の発明は、移動物検出装置であって、画像取得部と、第1検出部と、優先領域設定部と、画質調整部と、第2検出部とを備える。画像取得部は、車両に搭載された第1カメラにより生成された第1撮影画像を取得し、車両に搭載された第2カメラにより生成された第2撮影画像を取得する。第1検出部は、画像取得部により取得された第1撮影画像から車両の周辺を移動する第1移動物を検出する。優先領域設定部は、第1検出部により検出された第1移動物の第1撮影画像における位置と、検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを画像取得部により取得された第2撮影画像に設定する。画質調整部は、第2撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整する。第2検出部は、優先検出領域の画像及び画質調整部により画質が調整された非優先検出領域の画像の各々から、車両の周辺を移動する第2移動物を検出する。 In order to solve the above problems, a first invention is a moving object detection device comprising an image acquisition section, a first detection section, a priority area setting section, an image quality adjustment section, and a second detection section. . The image acquisition unit acquires a first captured image generated by a first camera mounted on the vehicle, and acquires a second captured image generated by a second camera mounted on the vehicle. The first detection unit detects a first moving object moving around the vehicle from the first captured image acquired by the image acquisition unit. The priority area setting unit determines the priority area based on the position of the first moving object detected by the first detection unit in the first captured image and the moving direction of the detected first moving object in the first captured image. A non-priority area is set in the second captured image acquired by the image acquiring unit. The image quality adjustment unit adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image. The second detection section detects a second moving object moving around the vehicle from each of the image of the priority detection area and the image of the non-priority detection area whose image quality is adjusted by the image quality adjustment section.

第1の発明によれば、画質調整部が、第2撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整する。第2検出部が、第2撮影画像のうち優先領域の画像と、画質が調整された非優先領域の画像とから移動物を検出する。つまり、第2検出部は、画像取得部により取得された第2撮影画像よりも画素数の少ない第2撮影画像から移動物を検出する。第1の発明は、2つの撮影画像の各々から移動物を並行して検出する場合において、移動物の検出負荷を低減することができる。 According to the first invention, the image quality adjusting section adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image. A second detection unit detects a moving object from the image of the priority area and the image of the non-priority area whose image quality is adjusted in the second captured image. That is, the second detection section detects the moving object from the second captured image having a smaller number of pixels than the second captured image acquired by the image acquisition section. The first invention can reduce the detection load of a moving object when detecting a moving object from each of two captured images in parallel.

第2の発明は、第1の発明であって、第1移動物の第1撮影画像における位置が、第1撮影画像に予め設定された連携基準領域内である場合、優先領域設定部は、優先領域及び非優先領域を設定する。第1撮影画像における連携基準領域の画像は、第2カメラの撮影範囲と第1カメラの撮影範囲とが重複する重複範囲が撮影された画像を含む。 A second invention is the first invention, wherein when the position of the first moving object in the first captured image is within a cooperation reference region preset in the first captured image, the priority region setting unit includes: Set a priority area and a non-priority area. The image of the cooperation reference region in the first captured image includes an image in which the overlapping range in which the capturing range of the second camera and the capturing range of the first camera overlap is captured.

第2の発明によれば、連携基準領域は、第1撮影画像のうち、第1カメラの撮影範囲と第2カメラの撮影範囲とが重複する重複範囲の画像を含む。第1移動物が連携基準領域内に位置する場合、優先領域設定部は、優先領域及び非優先領域を第2撮影画像に設定する。これにより、第2の発明は、第1カメラ及び第2カメラの両者が移動物を撮影できる可能性が高い場合に、第1撮影画像及び第2撮影画像の各々から移動物を検出する処理を開始できる。従って、第2の発明は、移動物の検出負荷が増加する期間を短縮できる。 According to the second invention, the cooperation reference area includes an image of an overlapping range in which the imaging range of the first camera and the imaging range of the second camera overlap in the first captured image. When the first moving object is positioned within the cooperation reference area, the priority area setting unit sets the priority area and the non-priority area in the second captured image. Accordingly, the second invention performs processing for detecting a moving object from each of the first captured image and the second captured image when there is a high possibility that both the first camera and the second camera can capture the moving object. can start. Therefore, the second invention can shorten the period during which the moving object detection load increases.

第3の発明は、第2の発明であって、優先領域設定部は、第1移動物の第1撮影画像における移動方向に基づいて、第1移動物が車両よりも速く、かつ、第1移動物と車両とが同一方向に進んでいるか否かを判断する。優先領域設定部は、第1移動物が車両よりも速く、かつ、第1移動物と車両とが同一方向に進んでいると判断した場合、優先領域及び非優先領域を第2撮影画像に設定する。 A third invention is the second invention, wherein the priority region setting unit determines that the first moving object is moving faster than the vehicle and that the first moving object It is determined whether the moving object and the vehicle are traveling in the same direction. The priority area setting unit sets the priority area and the non-priority area in the second captured image when determining that the first moving object is faster than the vehicle and that the first moving object and the vehicle are traveling in the same direction. do.

第3の発明によれば、第1移動物が車両よりも速く、かつ、第1移動物と車両とが同一方向に進んでいる場合、優先領域及び非優先領域が第2撮影画像に設定される。これにより、車両が右折又は左折する場合に、第1カメラと第2カメラとを用いて移動物を検出できるため、移動物の検出精度を向上させることができる。 According to the third invention, when the first moving object is faster than the vehicle and the first moving object and the vehicle are traveling in the same direction, the priority area and the non-priority area are set in the second captured image. be. Thereby, when the vehicle turns right or left, the moving object can be detected using the first camera and the second camera, so that the detection accuracy of the moving object can be improved.

第4の発明は、第2又は第3の発明であって、第1移動物の第1撮影画像における位置が、第1撮影画像に予め設定された連携基準領域内である場合、優先領域設定部は、優先領域と非優先領域とを取得された第1撮影画像に設定する。画質調整部は、第1撮影画像の画素数を減少させることにより、第1撮影画像に設定された非優先領域の画像の画質を調整する。第1検出部は、第1撮影画像に設定された優先領域の画像から移動物を検出し、第1撮影画像に設定され、かつ、画質が調整された非優先領域の画像から移動物を検出する。 A fourth invention is the second or third invention, wherein when the position of the first moving object in the first captured image is within a cooperation reference region preset in the first captured image, priority region setting is performed. The unit sets the priority area and the non-priority area in the acquired first captured image. The image quality adjustment unit adjusts the image quality of the image of the non-priority area set in the first captured image by reducing the number of pixels of the first captured image. The first detection unit detects a moving object from the image of the priority area set as the first captured image, and detects the moving object from the image of the non-priority area set as the first captured image and whose image quality has been adjusted. do.

第4の発明によれば、第1移動物が、第1撮影画像において連携基準領域内に位置する場合、優先領域設定部が、優先領域及び非優先領域を第1撮影画像に設定する。画質調整部は、第1撮影画像の画素数を減少させる。第1検出部が、第1撮影画像における非優先領域の画像と、第1撮影画像に設定され、かつ、画質が調整された優先領域の画像から第1移動物を検出することにより、移動物の検出負荷をさらに低減することができる。 According to the fourth invention, when the first moving object is positioned within the cooperation reference area in the first captured image, the priority area setting section sets the priority area and the non-priority area in the first captured image. The image quality adjustment unit reduces the number of pixels of the first captured image. The first detection unit detects the first moving object from the image of the non-priority area in the first captured image and the image of the priority area set in the first captured image and whose image quality has been adjusted. detection load can be further reduced.

第5の発明は、第1~第4の発明であって、さらに、移動状況取得部を備える。移動状況取得部は、車両の移動状況を取得する。移動状況取得部により取得された移動状況が所定の条件を満たす場合、第1検出部は、第1移動物の検出を開始する。 A fifth invention is the first to fourth inventions, further comprising a movement status acquisition unit. The movement status acquisition unit acquires the movement status of the vehicle. When the movement status acquired by the movement status acquisition section satisfies a predetermined condition, the first detection section starts detection of the first moving object.

第5の発明によれば、車両の移動状況に応じて移動物の検出を開始するため、移動物の検出負荷が恒常的に高くなることを抑制できる。 According to the fifth invention, detection of a moving object is started in accordance with the moving state of the vehicle, so that a constant increase in the detection load of the moving object can be suppressed.

第6の発明は、第5の発明のいずれかであって、移動状況取得部は、進入判断部と、旋回判断部とを含む。進入判断部は、車両が交差点に進入するか否かを判断する。旋回判断部は、車両が旋回するか否かを判断する。優先領域設定部は、車両が交差点に進入すると進入判断部により判断され、かつ、車両が旋回すると旋回判断部により判断された場合、優先領域及び非優先領域を設定する。 In a sixth invention according to any one of the fifth inventions, the movement status acquisition section includes an entry determination section and a turn determination section. The entry determination unit determines whether or not the vehicle will enter the intersection. The turning determination unit determines whether or not the vehicle will turn. The priority area setting unit sets the priority area and the non-priority area when the entry determination unit determines that the vehicle enters the intersection and the turn determination unit determines that the vehicle turns.

第6の発明によれば、車両が交差点で右折又は左折する場合に、第1撮影画像及び第2撮影画像の両者から移動物を検出することができる。従って、車両が交差点で右折又は左折する場合において、車両が移動物に衝突することを防ぐことができる。 According to the sixth invention, when a vehicle turns right or left at an intersection, a moving object can be detected from both the first captured image and the second captured image. Therefore, it is possible to prevent the vehicle from colliding with a moving object when the vehicle turns right or left at an intersection.

第7の発明は、第6の発明であって、進入判断部は、車両の前方を撮影するフロントカメラによって撮影された撮影画像から横断歩道を検出する。旋回判断部は、車両の旋回方向が車両に搭載された方向指示スイッチにより指示されたか否かを判断する。第1検出部は、横断歩道が進入判断部により検出され、かつ、旋回方向が方向指示スイッチにより指示された場合、第1移動物の検出を開始する。 A seventh aspect of the invention is the sixth aspect of the invention, wherein the entry determination unit detects a pedestrian crossing from an image captured by a front camera that captures an image in front of the vehicle. The turning determination unit determines whether or not a turning direction of the vehicle has been indicated by a direction indicating switch mounted on the vehicle. The first detection unit starts detecting the first moving object when the pedestrian crossing is detected by the entry determination unit and the turning direction is indicated by the direction switch.

第7の発明によれば、横断歩道が検出され、かつ、方向指示スイッチが操作された場合に、第1検出部が移動物の検出を開始する。これにより、車両の運転者の意図に基づいて、交差点で右折するか、左折するか、直進するかを判断することができる。 According to the seventh invention, when a pedestrian crossing is detected and the direction switch is operated, the first detector starts detecting the moving object. This makes it possible to determine whether to turn right, turn left, or go straight at an intersection based on the intention of the driver of the vehicle.

第8の発明は、第1~第4の発明のいずれかであって、車両は、複数のカメラを搭載する。画像取得部は、画像選択部と、画像出力部とを含む。画像選択部は、複数のカメラにより生成された複数の撮影画像の各々を所定の順序に従って選択する。画像出力部は、画像選択部により選択された撮影画像を第1撮影画像として第1検出部に出力する。第1検出部が第1移動物を検出した場合、優先領域設定部は、第1移動物が検出された撮影画像と、第1移動物の第1撮影画像における位置と、第1移動物の第1撮影画像における移動方向とに基づいて第2撮影画像を決定し、決定した第2撮影画像を画質調整部に出力することを画像選択部に指示する。 An eighth invention is any one of the first to fourth inventions, wherein the vehicle is equipped with a plurality of cameras. The image acquisition section includes an image selection section and an image output section. The image selection unit selects each of the plurality of captured images generated by the plurality of cameras according to a predetermined order. The image output section outputs the captured image selected by the image selection section to the first detection section as the first captured image. When the first detection unit detects the first moving object, the priority area setting unit sets the photographed image in which the first moving object is detected, the position of the first moving object in the first photographed image, and the first moving object. The image selecting unit is instructed to determine a second captured image based on the direction of movement in the first captured image and to output the determined second captured image to the image quality adjustment unit.

第8の発明によれば、第1移動物が検出された撮影画像と、第1移動物の位置と、第1移動物の移動方向とに基づいて第2撮影画像が決定される。第8の発明は、車両を基準とした移動物の相対位置に基づいて、この移動物の検出に用いる撮影画像を柔軟に変更することができる。 According to the eighth invention, the second captured image is determined based on the captured image in which the first moving object is detected, the position of the first moving object, and the moving direction of the first moving object. The eighth invention can flexibly change the captured image used for detecting the moving object based on the relative position of the moving object with respect to the vehicle.

第9の発明は、第8の発明であって、さらに、移動状況取得部を備える。移動状況取得部は、車両の移動状況を取得する。移動状況取得部により取得された移動状況が、車両が駐車場を走行していることを示す場合、画像選択部は、複数の撮影画像の選択を開始する。 A ninth invention is the eighth invention, further comprising a movement status acquisition unit. The movement status acquisition unit acquires the movement status of the vehicle. When the movement status acquired by the movement status acquisition section indicates that the vehicle is traveling in a parking lot, the image selection section starts selecting a plurality of captured images.

第9の発明によれば、車両が駐車場を走行する場合、画像選択部が撮影画像の選択を開始する。これにより、車両が駐車場を走行する場合において、移動物を速やかに検出することができる。 According to the ninth invention, when the vehicle runs in the parking lot, the image selection section starts selecting the captured image. As a result, moving objects can be quickly detected when the vehicle is traveling in a parking lot.

第10の発明は、移動物検出方法であって、a)ステップと、b)ステップと、c)ステップと、d)ステップと、e)ステップとを備える。a)ステップは、車両に搭載された第1カメラにより生成された第1撮影画像を取得し、車両に搭載された第2カメラにより生成された第2撮影画像を取得する。b)ステップは、取得された第1撮影画像から車両の周辺を移動する第1移動物を検出する。c)ステップは、検出された第1移動物の第1撮影画像における位置と、検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを取得された第2撮影画像に設定する。d)ステップは、第2撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整する。e)ステップは、優先検出領域の画像及び画質が調整された非優先検出領域の画像の各々から、車両の周辺を移動する第2移動物を検出する。 A tenth invention is a moving object detection method, comprising a) step, b) step, c) step, d) step, and e) step. The a) step obtains a first captured image generated by a first camera mounted on the vehicle, and obtains a second captured image generated by a second camera mounted on the vehicle. The b) step detects a first moving object moving around the vehicle from the acquired first captured image. The c) step acquires a priority area and a non-priority area based on the detected position of the first moving object in the first captured image and the moving direction of the detected first moving object in the first captured image. set to the selected second captured image. The d) step adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image. The e) step detects a second moving object moving around the vehicle from each of the image of the priority detection area and the image of the non-priority detection area whose image quality has been adjusted.

第10の発明は、第1の発明に用いられる。 A tenth invention is used for the first invention.

本発明によれば、車両の周辺を移動する移動物の検出負荷を低減することができる移動物検出装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the moving object detection apparatus which can reduce the detection load of the moving object which moves around a vehicle can be provided.

本発明の第1の実施の形態に係る移動物検出装置を搭載した車両の構成を示す機能ブロック図である。1 is a functional block diagram showing a configuration of a vehicle equipped with a moving object detection device according to a first embodiment of the invention; FIG. 図1に示すカメラの配置の一例を示す図である。2 is a diagram showing an example of the arrangement of cameras shown in FIG. 1; FIG. 図1に示す移動物検出装置の構成を示す機能ブロック図である。2 is a functional block diagram showing the configuration of the moving object detection device shown in FIG. 1; FIG. 図3に示す画像取得部の構成を示す機能ブロック図である。4 is a functional block diagram showing the configuration of an image acquisition unit shown in FIG. 3; FIG. 図3に示す移動状況取得部の構成を示す機能ブロック図である。4 is a functional block diagram showing the configuration of a movement status acquisition unit shown in FIG. 3; FIG. 図1に示す移動物検出装置の動作概略を説明する図である。2 is a diagram for explaining an outline of the operation of the moving object detection device shown in FIG. 1; FIG. 図1に示す移動物検出装置の動作を示すフローチャートである。2 is a flowchart showing the operation of the moving object detection device shown in FIG. 1; 図7に示す車両挙動特定処理のフローチャートである。FIG. 8 is a flowchart of vehicle behavior identification processing shown in FIG. 7; FIG. 図7に示す連携開始判断処理のフローチャートである。FIG. 8 is a flowchart of a cooperation start determination process shown in FIG. 7; FIG. 図6に示す右方撮影画像の拡大図である。FIG. 7 is an enlarged view of the right photographed image shown in FIG. 6; 図1に示すカメラの撮影範囲を模式的に示す図である。2 is a diagram schematically showing a shooting range of the camera shown in FIG. 1; FIG. 図7に示す連携検出処理のフローチャートである。FIG. 8 is a flowchart of a cooperation detection process shown in FIG. 7; FIG. 図10に示す右方撮影画像に設定される優先領域及び非優先領域の一例を示す図である。FIG. 11 is a diagram showing an example of a priority area and a non-priority area set in the right shot image shown in FIG. 10; 図6に示す前方撮影画像に設定される優先領域及び非優先領域の一例を示す図である。FIG. 7 is a diagram showing an example of a priority area and a non-priority area set in the front shot image shown in FIG. 6; 本発明の第2の実施の形態に係る移動物検出装置の構成を示す機能ブロック図である。FIG. 6 is a functional block diagram showing the configuration of a moving object detection device according to a second embodiment of the present invention; 図15に示す移動物検出装置の動作を示すフローチャートである。16 is a flowchart showing the operation of the moving object detection device shown in FIG. 15; 図16に示す連携開始判断処理のフローチャートである。FIG. 17 is a flowchart of the cooperation start determination process shown in FIG. 16; FIG. 図15に示す優先領域設定部が用いる開始条件テーブルの一例を示す図である。16 is a diagram showing an example of a start condition table used by the priority area setting unit shown in FIG. 15; FIG. 本発明の第3の実施の形態に係る移動物検出装置の構成を示す機能ブロック図である。FIG. 11 is a functional block diagram showing the configuration of a moving object detection device according to a third embodiment of the present invention; 図19に示す優先領域設定部により設定される優先領域の一例を示す図である。20 is a diagram showing an example of priority areas set by a priority area setting unit shown in FIG. 19; FIG. 図3に示す第1検出部により検出される移動物の検出位置の一例を示す図である。4 is a diagram showing an example of detection positions of a moving object detected by a first detection unit shown in FIG. 3; FIG. CPUバス構成を示す図である。FIG. 2 is a diagram showing a CPU bus configuration; FIG.

以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings, and the description thereof will not be repeated.

[1.車両100の構成]
図1は、本発明の実施の形態に係る移動物検出装置10を搭載する車両100の構成を示す機能ブロック図である。図1を参照して、車両100は、車体1と、左前輪1FLと、右前輪1FRと、左後輪1RLと、右後輪1RRと、車軸2F及び2Rとを備える。
[1. Configuration of vehicle 100]
FIG. 1 is a functional block diagram showing the configuration of a vehicle 100 equipped with a moving object detection device 10 according to an embodiment of the invention. Referring to FIG. 1, vehicle 100 includes a vehicle body 1, a left front wheel 1FL, a right front wheel 1FR, a left rear wheel 1RL, a right rear wheel 1RR, and axles 2F and 2R.

左前輪1FLは、車体1の左前方に配置される。右前輪1FRは、車体1の右前方に配置される。左前輪1FL及び右前輪1FRは、車体1の前方に配置された車軸2Fを回転軸として回転する。車軸2Fは、車両100のドライブシャフトであり、図示しないエンジンの出力を左前輪1FL及び右前輪1FRに伝える。左前輪1FL及び右前輪1FRは、車両100の操舵輪である。左前輪1FL及び右前輪1FRの舵角は、図示しないステアリングホイールの回転に応じて変化する。 The left front wheel 1FL is arranged on the front left side of the vehicle body 1. As shown in FIG. The right front wheel 1FR is arranged on the front right side of the vehicle body 1 . The front left wheel 1FL and the front right wheel 1FR rotate about an axle 2F arranged in front of the vehicle body 1 as a rotation axis. The axle 2F is a drive shaft of the vehicle 100, and transmits the output of the engine (not shown) to the front left wheel 1FL and the front right wheel 1FR. The front left wheel 1FL and the front right wheel 1FR are steering wheels of the vehicle 100. FIG. The steering angles of the front left wheel 1FL and the front right wheel 1FR change according to the rotation of a steering wheel (not shown).

左後輪1RLは、車体1の左後方に配置される。右後輪1RRは、車体1の右後方に配置される。左後輪1RL及び右後輪1RRは、車体1の後方に配置された車軸2Rを回転軸として回転する。 The left rear wheel 1RL is arranged on the rear left side of the vehicle body 1 . The right rear wheel 1RR is arranged on the rear right side of the vehicle body 1 . The left rear wheel 1RL and the right rear wheel 1RR rotate about an axle 2R arranged at the rear of the vehicle body 1 as a rotation axis.

車両100は、さらに、方向指示スイッチ4と、表示装置5と、移動物検出装置10と、フロントカメラ31と、左サイドカメラ32と、リアカメラ33と、右サイドカメラ34とを備える。以下の説明において、フロントカメラ31と、左サイドカメラ32と、リアカメラ33と、右サイドカメラ34とを総称する場合、単に「カメラ」と記載する。 Vehicle 100 further includes direction indicator switch 4 , display device 5 , moving object detection device 10 , front camera 31 , left side camera 32 , rear camera 33 , and right side camera 34 . In the following description, the front camera 31, the left side camera 32, the rear camera 33, and the right side camera 34 are collectively referred to simply as "cameras".

方向指示スイッチ4は、車両100の運転者によって操作される。方向指示スイッチ4は、運転者の操作に応じて、方向指示信号4Sを図7に示す左ウィンカー7Lと右ウィンカー7Rと移動物検出装置10に出力する。方向指示信号4Sは、左ウィンカー7L又は右ウィンカー7Rの点滅を指示する信号である。 Direction switch 4 is operated by the driver of vehicle 100 . The direction indicator switch 4 outputs a direction indicator signal 4S to the left winker 7L, the right winker 7R, and the moving object detection device 10 shown in FIG. 7 according to the driver's operation. The direction instruction signal 4S is a signal that instructs blinking of the left winker 7L or the right winker 7R.

表示装置5は、液晶表示装置等の薄型パネルであり、運転者から見やすい位置に配置される。例えば、表示装置5は、車両100のスピードメータの近傍に配置される。表示装置5は、検出結果情報47を移動物検出装置10から受け、その受けた検出結果情報47を表示する。検出結果情報47については、後述する。 The display device 5 is a thin panel such as a liquid crystal display device, and is arranged at a position easily visible to the driver. For example, the display device 5 is arranged near the speedometer of the vehicle 100 . The display device 5 receives the detection result information 47 from the moving object detection device 10 and displays the received detection result information 47 . The detection result information 47 will be described later.

フロントカメラ31は、車両100の前方の景色を撮影して前方撮影画像31Aを生成し、その生成した前方撮影画像31Aを移動物検出装置10に供給する。左サイドカメラ32は、車両100の左方の景色を撮影して左方撮影画像32Aを生成し、その生成した左方撮影画像32Aを移動物検出装置10に供給する。リアカメラ33は、車両100の後方の景色を撮影して後方撮影画像33Aを生成し、その生成した後方撮影画像33Aを移動物検出装置10に供給する。右サイドカメラ34は、車両100の右方の景色を撮影して右方撮影画像34Aを生成し、その生成した右方撮影画像34Aを移動物検出装置10に供給する。 The front camera 31 captures a scene in front of the vehicle 100 to generate a forward captured image 31A, and supplies the generated forward captured image 31A to the moving object detection device 10 . The left side camera 32 captures the scenery to the left of the vehicle 100 to generate a left captured image 32A, and supplies the generated left captured image 32A to the moving object detection device 10 . The rear camera 33 captures the scenery behind the vehicle 100 to generate a rearward captured image 33A, and supplies the generated rearward captured image 33A to the moving object detection device 10 . The right side camera 34 captures the scenery to the right of the vehicle 100 to generate a right captured image 34A and supplies the generated right captured image 34A to the moving object detection device 10 .

以下の説明において、前方撮影画像31A、左方撮影画像32A、後方撮影画像33A及び右方撮影画像34Aの各々を、単に「撮影画像」と記載する場合がある。撮影画像は、動画像を構成するフレームである。車両100に搭載されたカメラの各々は、撮影画像を所定の時間間隔で生成して、その生成した撮影画像を移動物検出装置10に出力する。 In the following description, each of the front shot image 31A, the left shot image 32A, the rear shot image 33A, and the right shot image 34A may be simply referred to as a "shot image". A captured image is a frame that constitutes a moving image. Each camera mounted on vehicle 100 generates a captured image at predetermined time intervals and outputs the generated captured image to moving object detection device 10 .

移動物検出装置10は、車両100に搭載されたカメラにより撮影された撮影画像を用いて、車両100の周辺を移動する移動物を検出する。移動物は、例えば、歩行者や自転車である。移動物検出装置10は、移動物を検出した場合、検出結果情報47を生成し、その生成した検出結果情報47を表示装置5に出力する。検出結果情報47は、具体的には、移動物の存在を示す画像である。これにより、運転者は、車両100を周囲を移動する移動物の存在を把握できる。 The moving object detection device 10 detects a moving object moving around the vehicle 100 using a captured image captured by a camera mounted on the vehicle 100 . A moving object is, for example, a pedestrian or a bicycle. When detecting a moving object, the moving object detection device 10 generates detection result information 47 and outputs the generated detection result information 47 to the display device 5 . The detection result information 47 is specifically an image indicating the presence of a moving object. This allows the driver to grasp the presence of moving objects moving around the vehicle 100 .

[2.カメラの配置]
図2は、図1に示すカメラの配置の一例を示す図である。最初に、ワールド座標系を説明する。ワールド座標系の原点Owは、車両100の重心である。Y軸は、車両100の直進方向に延びる。Y軸の正方向は、車両100の後端面から前端面に向かう方向である。X軸は、車両100の直進方向及び鉛直方向の両者に垂直な方向に延びる。X軸の正方向は、車両100の左側面から右側面に向かう方向である。
[2. camera placement]
FIG. 2 is a diagram showing an example of arrangement of the cameras shown in FIG. First, the world coordinate system will be explained. The origin Ow of the world coordinate system is the center of gravity of the vehicle 100 . The Y-axis extends in the straight-ahead direction of vehicle 100 . The positive direction of the Y-axis is the direction from the rear end surface of vehicle 100 toward the front end surface. The X-axis extends in a direction perpendicular to both the straight-ahead direction and the vertical direction of the vehicle 100 . The positive direction of the X-axis is the direction from the left side to the right side of vehicle 100 .

フロントカメラ31は、車両100の前端に取り付けられたナンバープレートの近傍に設けられ、その光軸31KはY軸の正方向に向けられている。リアカメラ33は、車両100の後端に取り付けられたナンバープレートの近傍に設けられ、その光軸33KはY軸の負方向に向けられている。フロントカメラ31及びリアカメラ33の取付位置は、X軸上であることが望ましいが、X軸から多少ずれた位置であってもよい。 The front camera 31 is provided near the license plate attached to the front end of the vehicle 100, and its optical axis 31K is directed in the positive direction of the Y axis. The rear camera 33 is provided near the license plate attached to the rear end of the vehicle 100, and its optical axis 33K is directed in the negative direction of the Y axis. The mounting positions of the front camera 31 and the rear camera 33 are desirably on the X-axis, but they may be positioned slightly off the X-axis.

左サイドカメラ32は、車両100における左のドアミラー6Lに設けられ、その光軸32KはX軸の負方向に向けられている。右サイドカメラ34は、車両100における右のドアミラー6Rに設けられ、その光軸34KはX軸の正方向に向けられている。 The left side camera 32 is provided on the left door mirror 6L of the vehicle 100, and its optical axis 32K is directed in the negative direction of the X axis. The right side camera 34 is provided on the right door mirror 6R of the vehicle 100, and its optical axis 34K is directed in the positive direction of the X axis.

カメラのレンズは、180°以上の画角を有する広角レンズである。車両100に搭載される4台のカメラを用いることにより、車両100の全周囲の撮影が可能である。 The camera lens is a wide-angle lens with an angle of view of 180° or more. By using four cameras mounted on the vehicle 100, it is possible to photograph the entire surroundings of the vehicle 100. FIG.

車両100は、左ウィンカー7L及び右ウィンカー7Rをさらに備える。左ウィンカー7L及び右ウィンカー7Rは、方向指示スイッチ4から出力される方向指示信号4Sに応じて点滅する。 Vehicle 100 further includes a left winker 7L and a right winker 7R. The left winker 7L and the right winker 7R blink according to the direction signal 4S output from the direction switch 4. FIG.

[3.移動物検出装置10の構成]
図3は、図1に示す移動物検出装置10の構成を示す機能ブロック図である。図3を参照して、移動物検出装置10は、画像取得部11と、移動状況取得部12と、第1検出部13と、優先領域設定部14と、画質調整部15と、第2検出部16と、検出結果出力部17とを備える。
[3. Configuration of moving object detection device 10]
FIG. 3 is a functional block diagram showing the configuration of the moving object detection device 10 shown in FIG. Referring to FIG. 3, moving object detection apparatus 10 includes image acquisition unit 11, movement status acquisition unit 12, first detection unit 13, priority area setting unit 14, image quality adjustment unit 15, second detection A unit 16 and a detection result output unit 17 are provided.

画像取得部11は、移動状況信号48を移動状況取得部12から受ける。移動状況信号48が、車両100が交差点で右折又は左折することを示す場合、画像取得部11は、車両100に搭載されたカメラから受けた撮影画像の中から、2つの撮影画像を選択する。2つの撮影画像の一方は初期検出画像21Aであり、他方は連携検出画像22Aである。画像取得部11は、選択した初期検出画像21A及び連携検出画像22Aを示す画像選択情報41を優先領域設定部14に出力する。 The image acquisition section 11 receives the movement status signal 48 from the movement status acquisition section 12 . When the movement status signal 48 indicates that the vehicle 100 will turn right or left at an intersection, the image acquisition unit 11 selects two captured images from the captured images received from the camera mounted on the vehicle 100. - 特許庁One of the two captured images is the initial detection image 21A, and the other is the linked detection image 22A. The image acquisition unit 11 outputs image selection information 41 indicating the selected initial detection image 21A and cooperation detection image 22A to the priority area setting unit 14 .

移動状況信号48が、車両100が右折又は左折をすることを示す場合、画像取得部11は、初期検出画像21Aを取得するたびに、取得した初期検出画像21Aを第1検出部13に出力する。画像取得部11は、後述する連携開始情報44を優先領域設定部14から受けるまで、初期検出画像21A及び連携検出画像22Aを画質調整部15に出力しない。 When the movement status signal 48 indicates that the vehicle 100 turns right or left, the image acquisition unit 11 outputs the acquired initial detection image 21A to the first detection unit 13 each time it acquires the initial detection image 21A. . The image acquisition unit 11 does not output the initial detection image 21A and the cooperation detection image 22A to the image quality adjustment unit 15 until it receives cooperation start information 44 (to be described later) from the priority area setting unit 14 .

画像取得部11は、連携開始情報44を優先領域設定部14から受けた場合、撮影画像の出力先を変更する。具体的には、画像取得部11は、初期検出画像21A及び連携検出画像22Aを取得するたびに、取得した初期検出画像21A及び連携検出画像22Aを画質調整部15に出力する。第1検出部13への画像出力は、停止される。 When the image acquisition unit 11 receives the cooperation start information 44 from the priority area setting unit 14, the image acquisition unit 11 changes the output destination of the captured image. Specifically, the image acquisition unit 11 outputs the acquired initial detection image 21A and the cooperation detection image 22A to the image quality adjustment unit 15 every time it acquires the initial detection image 21A and the cooperation detection image 22A. Image output to the first detection unit 13 is stopped.

また、画像取得部11は、車両100の挙動に関係なく、前方撮影画像31Aを移動状況取得部12に出力する。 In addition, the image acquisition unit 11 outputs the front captured image 31A to the movement state acquisition unit 12 regardless of the behavior of the vehicle 100 .

移動状況取得部12は、方向指示信号4Sを方向指示スイッチ4から受け、前方撮影画像31Aを画像取得部11から受ける。移動状況取得部12は、その受けた方向指示信号4S及び前方撮影画像31Aに基づいて、車両100が交差点で右折するか、左折するか、直進するかを判断し、その判断結果を示す移動状況信号48を画像取得部11に出力する。 The movement status acquisition unit 12 receives the direction indication signal 4S from the direction indication switch 4 and receives the front shot image 31A from the image acquisition unit 11 . Based on the received direction instruction signal 4S and forward photographed image 31A, the movement status acquisition unit 12 determines whether the vehicle 100 is to turn right, turn left, or go straight at an intersection, and displays a movement status indicating the determination result. A signal 48 is output to the image acquisition unit 11 .

第1検出部13は、初期検出画像21Aを画像取得部11から受け、その受けた初期検出画像21Aから移動物を検出する。第1検出部13は、後述する優先領域画像21B及び非優先領域画像22Cを画質調整部15から受けた場合、初期検出画像21Aではなく、優先領域画像21B及び非優先領域画像21Cから移動物を検出する。 The first detection unit 13 receives the initial detection image 21A from the image acquisition unit 11 and detects a moving object from the received initial detection image 21A. When the first detection unit 13 receives a priority area image 21B and a non-priority area image 22C, which will be described later, from the image quality adjustment unit 15, the first detection unit 13 detects the moving object from the priority area image 21B and the non-priority area image 21C instead of the initial detection image 21A. To detect.

第1検出部13は、移動物を検出した場合、検出位置情報42を優先領域設定部14及び検出結果出力部17に出力する。検出位置情報42は、初期検出画像21Aにおける移動物の位置を含む。第1検出部13は、移動方向情報43を優先領域設定部14に出力する。移動方向情報43は、初期検出画像21Aにおける移動物の移動方向を示す。 When detecting a moving object, the first detection unit 13 outputs detection position information 42 to the priority area setting unit 14 and the detection result output unit 17 . The detected position information 42 includes the position of the moving object in the initial detected image 21A. The first detection unit 13 outputs the moving direction information 43 to the priority area setting unit 14 . The moving direction information 43 indicates the moving direction of the moving object in the initial detection image 21A.

優先領域設定部14は、検出位置情報42及び移動方向情報43を第1検出部13から受ける。優先領域設定部14は、受けた検出位置情報42及び移動方向情報43を用いて、連携検出を開始するか否かを判断する。連携検出については後述する。優先領域設定部14は、連携検出の開始を決定した場合、連携開始情報44を画像取得部11に出力する。また、優先領域設定部14は、後述する優先領域及び非優先領域の両者を、初期検出画像21A及び連携検出画像22Aの各々に設定する。優先領域設定部14は、設定した優先領域及び非優先領域を示す優先領域情報45を画質調整部15に出力する。 The priority area setting unit 14 receives detection position information 42 and moving direction information 43 from the first detection unit 13 . The priority area setting unit 14 uses the received detection position information 42 and movement direction information 43 to determine whether to start cooperative detection. Cooperation detection will be described later. When determining to start cooperation detection, the priority area setting unit 14 outputs cooperation start information 44 to the image acquisition unit 11 . Also, the priority area setting unit 14 sets both a priority area and a non-priority area, which will be described later, in each of the initial detection image 21A and the cooperation detection image 22A. The priority area setting section 14 outputs priority area information 45 indicating the set priority area and non-priority area to the image quality adjustment section 15 .

画質調整部15は、優先領域情報45を優先領域設定部14から受ける。画質調整部15は、受けた優先領域情報45に基づいて、画像取得部11から受けた初期検出画像21Aから優先領域画像21B及び非優先領域画像21Cを切り出す。優先領域画像21Bは、初期検出画像21Aのうち、優先領域に含まれる画像である。非優先領域画像21Cは、初期検出画像21Aのうち、非優先領域に含まれる画像である。 The image quality adjustment unit 15 receives the priority area information 45 from the priority area setting unit 14 . Based on the received priority area information 45, the image quality adjustment section 15 cuts out the priority area image 21B and the non-priority area image 21C from the initial detection image 21A received from the image acquisition section 11. FIG. The priority area image 21B is an image included in the priority area of the initial detection image 21A. The non-priority area image 21C is an image included in the non-priority area of the initial detection image 21A.

画質調整部15は、切り出された非優先領域画像21Cの画質が、切り出された優先領域画像21Bの画質よりも低くなるように、切り出された非優先領域画像21Cの画質を調整する。画質調整部15は、切り出された優先領域画像21Bと、画質が調整された非優先領域画像21Cとを第1検出部13に出力する。 The image quality adjustment unit 15 adjusts the image quality of the cut-out non-priority area image 21C so that the quality of the cut-out non-priority area image 21C is lower than the image quality of the cut-out priority area image 21B. The image quality adjustment unit 15 outputs the clipped priority area image 21B and the non-priority area image 21C whose image quality is adjusted to the first detection unit 13 .

また、画質調整部15は、受けた優先領域情報45に基づいて、画像取得部11から受けた連携検出画像22Aから優先領域画像32B及び非優先領域画像32Cを切り出す。優先領域画像22Bは、連携検出画像22Aのうち、優先領域に含まれる画像である。非優先領域画像22Cは、連携検出画像22Aのうち、非優先領域に含まれる画像である。 Based on the received priority area information 45, the image quality adjustment section 15 cuts out the priority area image 32B and the non-priority area image 32C from the cooperation detection image 22A received from the image acquisition section 11. FIG. The priority area image 22B is an image included in the priority area of the cooperation detection image 22A. The non-priority area image 22C is an image included in the non-priority area of the cooperation detection image 22A.

画質調整部15は、切り出された非優先領域画像22Cの画質が、切り出された優先領域画像22Bの画質よりも低くなるように、切り出された非優先領域画像22Cの画質を調整する。画質調整部15は、切り出された優先領域画像22Bと、画質が調整された非優先領域22Cとを第2検出部16に出力する。 The image quality adjustment unit 15 adjusts the image quality of the clipped non-priority area image 22C so that the clipped non-priority area image 22C has a lower image quality than the clipped priority area image 22B. The image quality adjustment unit 15 outputs the clipped priority area image 22B and the non-priority area 22C whose image quality is adjusted to the second detection unit 16 .

第2検出部16は、優先領域画像22Bと、画質が調整された非優先領域画像22Cとを画質調整部15から受ける。第2検出部16は、その受けた優先領域画像22B及び非優先領域画像22Cの各々から、移動物を検出する。つまり、第2検出部16は、連携検出画像22Aから移動物を検出する。第2検出部16は、検出位置情報46を検出結果出力部17に出力する。検出位置情報46は、優先領域画像22B及び非優先領域画像22Cから移動物を検出した結果を示す。 The second detection unit 16 receives the priority area image 22B and the image quality-adjusted non-priority area image 22C from the image quality adjustment unit 15 . The second detection unit 16 detects a moving object from each of the received priority area image 22B and non-priority area image 22C. That is, the second detection unit 16 detects a moving object from the cooperation detection image 22A. The second detection section 16 outputs the detection position information 46 to the detection result output section 17 . The detection position information 46 indicates the result of detecting a moving object from the priority area image 22B and the non-priority area image 22C.

検出結果出力部17は、検出位置情報42を第1検出部13から受け、検出位置情報46を第2検出部16から受ける。検出結果出力部17は、その受けた検出位置情報42及び44に基づいて、車両100の周辺を移動する移動物の存在を示す検出結果情報47を生成し、その生成した検出結果情報47を表示装置5に出力する。検出結果情報47は、例えば、検出された移動物が強調された初期検出画像21Aあるいは連携検出画像22Aである。 The detection result output unit 17 receives detection position information 42 from the first detection unit 13 and receives detection position information 46 from the second detection unit 16 . The detection result output unit 17 generates detection result information 47 indicating the presence of a moving object moving around the vehicle 100 based on the received detection position information 42 and 44, and displays the generated detection result information 47. Output to device 5 . The detection result information 47 is, for example, the initial detection image 21A or the linked detection image 22A in which the detected moving object is emphasized.

[4.画像取得部11の構成]
図4は、図3に示す画像取得部11の構成を示す機能ブロック図である。図4を参照して、画像取得部11は、画像選択部111と、画像出力部112とを含む。
[4. Configuration of Image Acquisition Unit 11]
FIG. 4 is a functional block diagram showing the configuration of the image acquisition unit 11 shown in FIG. 3. As shown in FIG. Referring to FIG. 4 , image acquisition portion 11 includes an image selection portion 111 and an image output portion 112 .

画像選択部111は、移動状況取得部12から受けた移動状況信号48に基づいて、撮影画像31A~34の中から初期検出画像21A及び連携検出画像22Aを選択する。画像選択部111は、選択した初期検出画像21A及び連携検出画像22Aを示す画像選択情報41を、優先領域設定部14及び画像出力部112に出力する。 Based on the movement status signal 48 received from the movement status acquisition section 12, the image selection section 111 selects the initial detection image 21A and the cooperative detection image 22A from the captured images 31A-34. The image selection unit 111 outputs image selection information 41 indicating the selected initial detection image 21A and cooperation detection image 22A to the priority area setting unit 14 and the image output unit 112 .

画像出力部112は、撮影画像31A~34Aをカメラから受け、画像選択情報41を画像選択部111から受ける。画像出力部112は、その受けた画像選択情報41に基づいて、その受けた撮影画像31A~34Aのうち、初期検出画像21Aを第1検出部13に出力する。 The image output unit 112 receives the captured images 31A to 34A from the camera, and receives the image selection information 41 from the image selection unit 111 . The image output unit 112 outputs the initial detection image 21A among the received photographed images 31A to 34A to the first detection unit 13 based on the received image selection information 41 .

画像出力部112は、連携開始情報44を優先領域設定部14から受けた場合、初期検出画像21Aの第1検出部13への出力を停止する。画像出力部112は、初期検出画像21A及び連携検出画像22Aの画質調整部15への出力を開始する。 When receiving the cooperation start information 44 from the priority area setting unit 14 , the image output unit 112 stops outputting the initial detection image 21</b>A to the first detection unit 13 . The image output unit 112 starts outputting the initial detection image 21A and the cooperation detection image 22A to the image quality adjustment unit 15 .

また、画像出力部112は、移動状況取得部12から受ける移動状況信号48に関係なく、前方撮影画像31Aを移動状況取得部12に出力する。 Further, the image output unit 112 outputs the forward photographed image 31A to the movement state acquisition unit 12 regardless of the movement state signal 48 received from the movement state acquisition unit 12 .

[5.移動状況取得部12の構成]
図5は、図3に示す移動状況取得部12の構成を示す機能ブロック図である。図5を参照して、移動状況取得部12は、進入判断部121と、旋回判断部122とを含む。
[5. Configuration of Movement Status Acquisition Unit 12]
FIG. 5 is a functional block diagram showing the configuration of the movement status acquisition unit 12 shown in FIG. 3. As shown in FIG. With reference to FIG. 5 , movement status acquisition unit 12 includes an entry determination unit 121 and a turn determination unit 122 .

進入判断部121は、前方撮影画像31Aを画像出力部112から受ける。進入判断部121は、その受けた前方撮影画像31Aを用いて車両100が交差点に進入するか否かを判断し、その判断結果を示す進入情報49を旋回判断部122に出力する。具体的には、進入判断部121は、前方撮影画像31Aから横断歩道を検出した場合、車両100が交差点に進入すると判断する。 The entry determination unit 121 receives the forward captured image 31A from the image output unit 112 . The entry determination unit 121 determines whether or not the vehicle 100 will enter the intersection using the received forward photographed image 31A, and outputs the entry information 49 indicating the determination result to the turn determination unit 122 . Specifically, the entry determination unit 121 determines that the vehicle 100 will enter the intersection when a pedestrian crossing is detected from the forward captured image 31A.

旋回判断部122は、方向指示信号4Sを方向指示スイッチ4から受け、進入情報49を進入判断部121から受ける。旋回判断部122は、受けた進入情報49が交差点への進入を示す場合、受けた方向指示信号4Sがウィンカーの点滅を指示しているか否かを判断する。方向指示信号4Sが右ウィンカー7Rの点滅を指示している場合、旋回判断部122は、車両100が交差点で右折すると判断し、車両100の右折を示す移動状況信号48を画像取得部11に出力する。方向指示信号4Sが左ウィンカー7Lの点滅を指示している場合、旋回判断部122は、車両100が交差点で左折すると判断し、車両100の左折を示す移動状況信号48を画像取得部11に出力する。 The turn determination unit 122 receives the direction indication signal 4S from the direction indication switch 4 and the entry information 49 from the entry determination unit 121 . When the received entry information 49 indicates entry into an intersection, the turn determination unit 122 determines whether or not the received direction instruction signal 4S instructs blinking of the winkers. When the direction instruction signal 4S instructs the blinking of the right winker 7R, the turn determination unit 122 determines that the vehicle 100 will turn right at the intersection, and outputs the movement status signal 48 indicating that the vehicle 100 is turning right to the image acquisition unit 11. do. When the direction instruction signal 4S instructs the blinking of the left winker 7L, the turn determination unit 122 determines that the vehicle 100 will turn left at the intersection, and outputs the movement status signal 48 indicating that the vehicle 100 is turning left to the image acquisition unit 11. do.

[6.動作概略]
図6は、図1に示す移動物検出装置10の動作概略を説明する図である。図6を参照しながら、車両100が右折する場合を例にして、移動物検出装置10の動作概略を説明する。図6において、道路R1は南北方向に延び、道路R2は東西方向に延びる。道路R1及び道路R2は、交差点Pにおいて交差する。
[6. Operation outline]
FIG. 6 is a diagram for explaining an outline of the operation of the moving object detection device 10 shown in FIG. An outline of the operation of the moving object detection device 10 will be described with reference to FIG. 6, taking as an example the case where the vehicle 100 turns right. In FIG. 6, the road R1 extends in the north-south direction, and the road R2 extends in the east-west direction. A road R1 and a road R2 intersect at an intersection P.

車両100は、道路R1を交差点Pに向かって走行し、交差点Pにおいて右折する。移動物検出装置10は、車両100のイグニッションスイッチがオンされている場合、横断歩道を前方撮影画像31Aから検出する処理を繰り返し実行する。車両100と同様に、自転車25は道路R1を交差点Pに向かって走行し、横断歩道C2を渡る。 The vehicle 100 travels on the road R1 toward the intersection P and turns right at the intersection P. When the ignition switch of the vehicle 100 is turned on, the moving object detection device 10 repeatedly executes the process of detecting the pedestrian crossing from the front captured image 31A. Like the vehicle 100, the bicycle 25 travels along the road R1 toward the intersection P and crosses the crosswalk C2.

時刻t0において、移動物検出装置10は、交差点Pの横断歩道C1を検出し、右ウィンカー7Rの点滅を示す方向指示信号4Sを方向指示スイッチ4から受ける。この結果、移動物検出装置10は、車両100が右折すると判断する(ステップS1)。 At time t0, moving object detection device 10 detects crosswalk C1 at intersection P, and receives direction indication signal 4S from direction indication switch 4 indicating blinking of right winker 7R. As a result, the moving object detection device 10 determines that the vehicle 100 will turn right (step S1).

時刻t0において、移動物検出装置10は、右方撮影画像34Aを初期検出画像として選択し、前方撮影画像31Aを連携検出画像として選択する。移動物検出装置10は、右方撮影画像34Aから移動物を検出する処理を開始する。前方撮影画像31Aは、連携検出が開始されるまで、移動物の検出に用いられない。 At time t0, the moving object detection device 10 selects the right shot image 34A as the initial detection image, and selects the front shot image 31A as the linked detection image. The moving object detection device 10 starts processing to detect a moving object from the right captured image 34A. The front shot image 31A is not used for moving object detection until cooperative detection is started.

移動物検出装置10は、時刻t0よりも後の時刻t1において、右方撮影画像34Aから自転車25を検出する(ステップS2)。ステップS2の結果、右方撮影画像34Aにおける自転車25の位置25P及びベクトル25Vが特定される。ベクトル25Vは、右方撮影画像34Aにおける自転車25の移動方向及び移動量を示す。 The moving object detection device 10 detects the bicycle 25 from the right captured image 34A at time t1 after time t0 (step S2). As a result of step S2, the position 25P and vector 25V of the bicycle 25 in the right captured image 34A are specified. A vector 25V indicates the direction and amount of movement of the bicycle 25 in the right captured image 34A.

自転車25の位置25P及びベクトル25Vが、連携検出の開始条件を満たす場合、移動物検出装置10は、連携検出の開始を決定する(ステップS3)。詳細については後述する。 When the position 25P and the vector 25V of the bicycle 25 satisfy the conditions for starting cooperative detection, the moving object detection device 10 determines to start cooperative detection (step S3). Details will be described later.

連携検出の開始が決定された場合、移動物検出装置10は、優先領域54B及び非優先領域54Cを右方撮影画像34Aに設定する。優先領域54Bは、右方撮影画像34Aの左半分である。非優先領域54Cは、右方撮影画像34Aの右半分である。移動物検出装置10は、優先領域51B及び非優先領域51Cを前方撮影画像31Aに設定する。優先領域51Bは、前方撮影画像31Aの右半分であり、非優先領域51Cは、前方撮影画像31Aの左半分である。 When it is decided to start cooperative detection, the moving object detection device 10 sets the priority area 54B and the non-priority area 54C in the right captured image 34A. The priority area 54B is the left half of the right captured image 34A. The non-priority area 54C is the right half of the right captured image 34A. The moving object detection device 10 sets the priority area 51B and the non-priority area 51C in the front shot image 31A. The priority area 51B is the right half of the front shot image 31A, and the non-priority area 51C is the left half of the front shot image 31A.

移動物検出装置10は、優先領域54B及び非優先領域54Cを右方撮影画像34Aから切り出すことにより、優先領域画像34B及び非優先領域画像34Cを生成する。移動物検出装置10は、優先領域51B及び非優先領域51Cを前方撮影画像31Aから切り出すことにより、優先領域画像31B及び非優先領域画像31Cを生成する。 The moving object detection device 10 generates a priority area image 34B and a non-priority area image 34C by clipping the priority area 54B and the non-priority area 54C from the right captured image 34A. The moving object detection device 10 generates a priority area image 31B and a non-priority area image 31C by cutting out the priority area 51B and the non-priority area 51C from the front shot image 31A.

移動物検出装置10は、生成された非優先領域画像34Cの画素を間引くことにより、非優先領域画像34Cの画質を調整する。画質が調整された非優先領域画像34Cのサイズは、右方撮影画像34Aから切り出された非優先領域画像34Cよりも小さくなる。非優先領域画像31Cの画質も、同様に調整される。優先領域画像31B及び34Bの画質は、調整されない。 The moving object detection device 10 thins out the pixels of the generated non-priority area image 34C to adjust the image quality of the non-priority area image 34C. The size of the non-priority area image 34C whose image quality has been adjusted is smaller than the non-priority area image 34C clipped from the right captured image 34A. The image quality of the non-priority area image 31C is similarly adjusted. The image quality of the priority area images 31B and 34B is not adjusted.

移動物検出装置10は、優先領域画像31B及び34Bから移動物を検出する。移動物検出装置10は、画質が調整された非優先領域画像31C及び34Cから移動物を検出する。 The moving object detection device 10 detects a moving object from the priority area images 31B and 34B. The moving object detection device 10 detects a moving object from the non-priority area images 31C and 34C whose image quality has been adjusted.

連携検出において、優先領域及び非優先領域の両者が、初期検出画像21A及び連携検出画像22Aの各々に設定される。移動物検出装置10は、非優先領域画像21C及び22Cに含まれる画素を間引くことにより、非優先領域画像21C及び22Cの画質を調整する。画質が調整された非優先領域画像21C及び24Cは、画質が調整されない非優先領域画像21C及び22Cよりも画素数が少ない。従って、画質が調整された非優先領域画像21C及び22Cから移動物を検出する処理の負荷は、切り出された非優先領域画像21C及び22Cから移動物を検出する処理の負荷よりも小さい。従って、移動物検出装置10は、前方撮影画像31A及び右方撮影画像34Aから同時に移動物を検出する場合であっても、移動物の検出遅延を抑制することができる。 In cooperation detection, both a priority area and a non-priority area are set in each of the initial detection image 21A and the cooperation detection image 22A. The moving object detection device 10 adjusts the image quality of the non-priority area images 21C and 22C by thinning out the pixels included in the non-priority area images 21C and 22C. The non-priority area images 21C and 24C whose image quality is adjusted have fewer pixels than the non-priority area images 21C and 22C whose image quality is not adjusted. Therefore, the processing load of detecting a moving object from the non-priority area images 21C and 22C whose image quality has been adjusted is smaller than the processing load of detecting a moving object from the clipped non-priority area images 21C and 22C. Therefore, the moving object detection apparatus 10 can suppress the detection delay of the moving object even when the moving object is detected simultaneously from the front captured image 31A and the right captured image 34A.

[7.動作詳細]
[7.1.全体動作]
図7は、移動物検出装置10の動作を示すフローチャートである。以下、図7を参照しながら、移動物検出装置10の全体動作を説明する。移動物検出装置10は、車両100のイグニッションスイッチがオンされた場合、図7に示す処理を開始する。
[7. Operation details]
[7.1. Overall operation]
FIG. 7 is a flow chart showing the operation of the moving object detection device 10. As shown in FIG. Hereinafter, the overall operation of the moving object detection device 10 will be described with reference to FIG. The moving object detection device 10 starts the processing shown in FIG. 7 when the ignition switch of the vehicle 100 is turned on.

移動状況取得部12が、車両100の挙動を特定する(ステップS10)。詳細については後述するが、移動状況取得部12は、車両100が交差点で右折するか、左折するか、又は直進するかを判断する。ステップS10は、図6に示すステップS1に対応する。 The movement status acquisition unit 12 identifies the behavior of the vehicle 100 (step S10). Although the details will be described later, the movement status acquisition unit 12 determines whether the vehicle 100 makes a right turn, a left turn, or goes straight ahead at an intersection. Step S10 corresponds to step S1 shown in FIG.

車両100が直進すると移動状況取得部12により判断された場合(ステップS20においてNo)、移動物検出装置10は、ステップS70に進む。車両100が右折又は左折をすると移動状況取得部12により判断された場合(ステップS20においてYes)、移動物検出装置10は、ステップS30に進む。 If the movement status acquisition unit 12 determines that the vehicle 100 is going straight (No in step S20), the moving object detection device 10 proceeds to step S70. If the movement status acquisition unit 12 determines that the vehicle 100 will turn right or left (Yes in step S20), the moving object detection device 10 proceeds to step S30.

移動物検出装置10は、ステップS30において、連携検出を開始するか否かを判断する。ステップS30は、図6に示すステップS2~S3に対応する。ステップS30の詳細については、後述する。 In step S30, the moving object detection device 10 determines whether or not to start cooperative detection. Step S30 corresponds to steps S2 to S3 shown in FIG. Details of step S30 will be described later.

移動物検出装置10は、連携検出を開始しないことを決定した場合(ステップS40においてNo)、ステップS70に進む。移動物検出装置10は、連携検出の開始を決定した場合(ステップS40においてYes)、連携検出(ステップS50)を実行する。ステップS50の詳細については、後述する。 When moving object detection apparatus 10 determines not to start cooperative detection (No in step S40), the process proceeds to step S70. When moving object detection apparatus 10 determines to start cooperative detection (Yes in step S40), moving object detection apparatus 10 executes cooperative detection (step S50). Details of step S50 will be described later.

移動物検出装置10は、連携検出を終了しないと判断した場合(ステップS60においてNo)、連携検出(ステップS50)を繰り返し実行する。移動物検出装置10は、連携検出を終了すると判断した場合(ステップS60においてYes)、ステップS70に進む。連携検出の終了条件については、後述する。 When moving object detection apparatus 10 determines not to end cooperative detection (No in step S60), it repeats cooperative detection (step S50). When moving object detection apparatus 10 determines to end cooperative detection (Yes in step S60), the process proceeds to step S70. The termination condition of cooperation detection will be described later.

ステップS70において、移動物検出装置10は、イグニッション信号がオンからオフに変化したか否かを判断する。イグニッション信号のオンが継続している場合(ステップS70においてNo)、移動物検出装置10は、ステップS10に戻る。イグニッション信号のオンからオフに変化した場合(ステップS70においてYes)、移動物検出装置10は、図7に示す処理を終了する。 In step S70, the moving object detection device 10 determines whether the ignition signal has changed from on to off. If the ignition signal continues to be on (No in step S70), moving object detection device 10 returns to step S10. If the ignition signal has changed from on to off (Yes in step S70), the moving object detection device 10 ends the processing shown in FIG.

[7.2.車両挙動特定(ステップS10)]
図8は、図7に示す車両挙動特定処理(ステップS10)のフローチャートである。画像取得部11が前方撮影画像31Aをフロントカメラ31から取得するたびに、移動状況取得部12は、図8に示す処理を実行して、車両100が交差点で直進するか否かを判断する。
[7.2. Vehicle behavior identification (step S10)]
FIG. 8 is a flowchart of the vehicle behavior identification process (step S10) shown in FIG. Each time the image acquisition unit 11 acquires the front shot image 31A from the front camera 31, the movement status acquisition unit 12 executes the processing shown in FIG. 8 to determine whether the vehicle 100 will go straight at the intersection.

具体的には、進入判断部121が、前方撮影画像31Aを画像取得部11から取得する(ステップS101)。 Specifically, the entry determination unit 121 acquires the front shot image 31A from the image acquisition unit 11 (step S101).

進入判断部121は、ステップS101で取得された前方撮影画像31Aから横断歩道を検出する(ステップS102)。図6に示す横断歩道C1の検出を例にして、ステップS102を説明する。進入判断部121は、各々が車両100の進行向に延びる複数の白線を検出する。進入判断部121は、検出した複数の白線が車両100の左右方向に配列されているため、横断歩道C1を検出したと判断する。 The entry determination unit 121 detects a pedestrian crossing from the front captured image 31A acquired in step S101 (step S102). Step S102 will be described by taking the detection of the crosswalk C1 shown in FIG. 6 as an example. The entry determination unit 121 detects a plurality of white lines each extending in the traveling direction of the vehicle 100 . Since the plurality of detected white lines are arranged in the lateral direction of the vehicle 100, the entry determination unit 121 determines that the pedestrian crossing C1 has been detected.

進入判断部121は、横断歩道C1を検出した場合、車両100が交差点に進入することを示す進入情報49を旋回判断部122に出力する。進入判断部121は、横断歩道C1を検出できない場合、車両100が交差点に進入しないことを示す進入情報49を旋回判断部122に出力する。 When the crosswalk C1 is detected, the entry determination unit 121 outputs the entry information 49 indicating that the vehicle 100 is entering the intersection to the turn determination unit 122 . When the crosswalk C1 cannot be detected, the entry determination unit 121 outputs the entry information 49 indicating that the vehicle 100 does not enter the intersection to the turn determination unit 122 .

なお、進入判断部121は、図6に示す横断歩道C1及びC2の両者を検出した場合に、交差点Pに進入すると判断してもよい。進入判断部121が前方撮影画像31Aから横断歩道を検出することができれば、ステップS102で用いられるアルゴリズムは特に限定されない。 Note that the entry determination unit 121 may determine to enter the intersection P when both the crosswalks C1 and C2 shown in FIG. 6 are detected. The algorithm used in step S102 is not particularly limited as long as the entry determination unit 121 can detect the pedestrian crossing from the front captured image 31A.

旋回判断部122は、車両100が交差点に進入しないことを示す進入情報49を受けた場合(ステップS103においてNo)、車両100が直進することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。 When turning determination unit 122 receives entry information 49 indicating that vehicle 100 does not enter the intersection (No in step S103), turn determination unit 122 outputs movement status signal 48 indicating that vehicle 100 is going straight to image acquisition unit 11. , the process shown in FIG. 8 ends.

旋回判断部122は、車両100が交差点に進入することを示す進入情報49を受けた場合(ステップS103においてYes)、右ウィンカー7Rの点滅を指示する方向指示信号4Sを受けたか否かを判断する(ステップS104)。 When the turning determination unit 122 receives the entry information 49 indicating that the vehicle 100 is entering the intersection (Yes in step S103), the turn determination unit 122 determines whether or not the direction instruction signal 4S instructing the blinking of the right winker 7R is received. (Step S104).

旋回判断部122は、右ウィンカー7Rの点滅を指示する方向指示信号4Sを受けた場合(ステップS104においてYes)、車両100が交差点で右折すると判断する(ステップS105)。旋回判断部122は、車両100が右折することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。 When turning determination unit 122 receives direction instruction signal 4S instructing blinking of right winker 7R (Yes in step S104), turn determination unit 122 determines that vehicle 100 turns right at the intersection (step S105). The turn determination unit 122 outputs the movement status signal 48 indicating that the vehicle 100 is to turn right to the image acquisition unit 11, and ends the processing shown in FIG.

旋回判断部122は、右ウィンカー7Rの点滅を指示する方向指示信号4Sを受けていない場合(ステップS104においてNo)、左ウィンカー7Lの点滅を指示する方向指示信号4Sを受けたか否かを判断する(ステップS106)。 When the direction instruction signal 4S instructing blinking of the right winker 7R has not been received (No in step S104), the turn determination unit 122 determines whether or not the direction instruction signal 4S instructing blinking of the left winker 7L has been received. (Step S106).

旋回判断部122は、左ウィンカー7Lの点滅を指示する方向指示信号4Sを受けている場合(ステップS106においてYes)、車両100が交差点で左折すると判断する(ステップS107)。旋回判断部122は、車両100が左折することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。このように、移動状況取得部12は、交差点で右折するか、左折するか、直進するかの判断に方向指示信号4Sを用いる。これにより、移動状況取得部12は、車両100の運転者の意図に基づいて、交差点における車両100の挙動を予測できる。また、移動物検出装置10は、車両100が右折又は左折すると判断した場合、後述する移動物の検出を開始する。従って、車両100が交差点で右折又は左折する場合において、車両が移動物に衝突することを防ぐことができる。 When turning determination unit 122 receives direction instruction signal 4S instructing blinking of left winker 7L (Yes in step S106), turn determination unit 122 determines that vehicle 100 will turn left at the intersection (step S107). The turn determination unit 122 outputs the movement status signal 48 indicating that the vehicle 100 is to turn left to the image acquisition unit 11, and ends the processing shown in FIG. In this manner, the movement status acquisition unit 12 uses the direction instruction signal 4S to determine whether to turn right, turn left, or go straight at an intersection. Accordingly, the movement status acquisition unit 12 can predict the behavior of the vehicle 100 at the intersection based on the intention of the driver of the vehicle 100 . Further, when the moving object detection device 10 determines that the vehicle 100 will turn right or left, it starts detecting a moving object, which will be described later. Therefore, when the vehicle 100 turns right or left at an intersection, it is possible to prevent the vehicle from colliding with a moving object.

旋回判断部122は、左ウィンカー7Lの点滅を指示する方向指示信号4Sを受けていない場合(ステップS107においてNo)、車両100が交差点で直進すると判断する(ステップS108)。旋回判断部122は、車両100が直進することを示す移動状況信号48を画像取得部11に出力し、図8に示す処理を終了する。 When turning determination unit 122 does not receive direction instruction signal 4S instructing blinking of left winker 7L (No in step S107), it determines that vehicle 100 will go straight at the intersection (step S108). The turn determination unit 122 outputs the movement status signal 48 indicating that the vehicle 100 is going straight to the image acquisition unit 11, and ends the processing shown in FIG.

[7.3.連携開始判断(ステップS30)]
図9は、図7に示す連携開始判断処理(ステップS30)のフローチャートである。移動物検出装置10は、車両100が交差点で右折又は左折すると判断した場合(図7に示すステップS20においてYes)、図9に示す処理を開始する。以下、図9を参照しながら、車両100が図6に示す交差点Pで右折する場合を例にして、連携開始判断処理(ステップS30)を詳しく説明する。
[7.3. Cooperation start judgment (step S30)]
FIG. 9 is a flow chart of the cooperation start determination process (step S30) shown in FIG. When the moving object detection device 10 determines that the vehicle 100 will turn right or left at the intersection (Yes in step S20 shown in FIG. 7), the moving object detection device 10 starts the process shown in FIG. Hereinafter, the cooperation start determination process (step S30) will be described in detail with reference to FIG. 9, taking as an example the case where the vehicle 100 turns right at the intersection P shown in FIG.

(撮影画像の選択)
画像選択部111は、車両100が交差点で右折することを示す移動状況信号48を移動状況取得部12から受けた場合、初期検出画像21A及び連携検出画像22Aを選択する(ステップS301)。車両100が右折するため、画像選択部111は、右方撮影画像34Aを初期検出画像として選択し、前方撮影画像31Aを連携検出画像として選択する。画像選択部111は、選択した初期検出画像21A及び連携検出画像22Aを示す画像選択情報41を優先領域設定部14及び画像出力部112に出力する。
(Selection of captured image)
When the movement status signal 48 indicating that the vehicle 100 is to turn right at the intersection is received from the movement status acquisition part 12, the image selection part 111 selects the initial detection image 21A and the cooperative detection image 22A (step S301). Since the vehicle 100 turns right, the image selection unit 111 selects the right captured image 34A as the initial detection image, and selects the front captured image 31A as the linked detection image. The image selection unit 111 outputs image selection information 41 indicating the selected initial detection image 21A and cooperation detection image 22A to the priority area setting unit 14 and the image output unit 112 .

(移動物の検出)
画像出力部112は、画像選択部111から受けた画像選択情報41に基づいて、右方撮影画像34Aが初期検出画像21Aとして選択され、前方撮影画像31Aが連携検出画像22Aとして選択されたことを認識する。画像出力部112は、初期検出画像として選択された右方撮影画像34Aを右サイドカメラ34から受けた場合(ステップS302においてYes)、その受けた右方撮影画像34Aを第1検出部13へ出力する。第1検出部13は、画像取得部11から受けた右方撮影画像34Aから移動物を検出する(ステップS303)。
(Detection of moving objects)
Based on the image selection information 41 received from the image selection unit 111, the image output unit 112 notifies that the right shot image 34A has been selected as the initial detection image 21A and the front shot image 31A has been selected as the linked detection image 22A. recognize. When image output unit 112 receives right side captured image 34 A selected as an initial detection image from right side camera 34 (Yes in step S<b>302 ), image output unit 112 outputs received right side captured image 34 A to first detection unit 13 . do. The first detection unit 13 detects a moving object from the right captured image 34A received from the image acquisition unit 11 (step S303).

図10は、図6に示す右方撮影画像34Aの拡大図である。図10に示す右方撮影画像34Aを例にして、移動物の検出(ステップS303)を詳しく説明する。 FIG. 10 is an enlarged view of the right captured image 34A shown in FIG. Detection of a moving object (step S303) will be described in detail by taking the right shot image 34A shown in FIG. 10 as an example.

第1検出部13は、右方撮影画像34Aから図示しないエッジ画像を生成し、生成したエッジ画像からエッジにより囲まれた領域25Rを抽出する。第1検出部13は、抽出した領域25Rのサイズが予め設定された基準サイズよりも大きい場合、抽出した領域25Rが物体であると判断する。図10に示す例では、領域25Rで囲まれる物体は、自転車25である。説明の便宜上、領域25Rを図10において矩形で示している。第1検出部13は、抽出した領域25Rの中心を自転車25の位置25Pに決定する。 The first detection unit 13 generates an edge image (not shown) from the right captured image 34A, and extracts a region 25R surrounded by edges from the generated edge image. When the size of the extracted region 25R is larger than a preset reference size, the first detection unit 13 determines that the extracted region 25R is an object. In the example shown in FIG. 10, the object surrounded by the area 25R is the bicycle 25. In the example shown in FIG. For convenience of explanation, the region 25R is indicated by a rectangle in FIG. The first detection unit 13 determines the center of the extracted area 25R as the position 25P of the bicycle 25. FIG.

移動物がエッジにより囲まれた領域のサイズに基づいて検出される場合、第1検出部13は、移動物を歩行者や自転車として識別できない。以下の説明では、第1検出部13が、領域25Rに囲まれた物体が自転車25であると仮定する。なお、パターンマッチングを用いた場合、第1検出部13は、自転車や歩行者等を識別することが可能である。 When a moving object is detected based on the size of the area surrounded by edges, the first detection unit 13 cannot identify the moving object as a pedestrian or a bicycle. In the following description, first detection unit 13 assumes that the object surrounded by region 25R is bicycle 25. As shown in FIG. Note that when pattern matching is used, the first detection unit 13 can identify bicycles, pedestrians, and the like.

第1検出部13は、自転車25の位置25P及び領域25Rに基づいて、自転車25が移動物であるか否かを判断する。以下、ステップS303の説明において、図10に示す右方撮影画像34Aを「現在撮影画像」と記載し、現在撮影画像の直前に取得された右方撮影画像34Aを「過去撮影画像」と記載する。図10において、過去領域26Rは、過去検出画像から検出された自転車25の領域である。過去位置26Pは、過去領域26Rの中心である。図10において、位置25Pから過去位置26Pまでの距離Dを誇張して表現している。 The first detection unit 13 determines whether the bicycle 25 is a moving object based on the position 25P of the bicycle 25 and the area 25R. Hereinafter, in the description of step S303, the right captured image 34A shown in FIG. 10 is referred to as the "current captured image", and the right captured image 34A acquired immediately before the current captured image is referred to as the "past captured image". . In FIG. 10, the past area 26R is the area of the bicycle 25 detected from the past detection image. The past position 26P is the center of the past area 26R. In FIG. 10, the distance D from the position 25P to the past position 26P is exaggerated.

位置25P及び過去位置26Pは、右方撮影画像34Aの画素座標系により記述される。画素座標系の原点は撮影画像の左上頂点である。画素座標系において、Xa軸は原点から右方向に延び、Ya軸は原点から下方向に延びる。 The position 25P and the past position 26P are described by the pixel coordinate system of the right captured image 34A. The origin of the pixel coordinate system is the upper left vertex of the captured image. In the pixel coordinate system, the Xa axis extends rightward from the origin, and the Ya axis extends downward from the origin.

第1検出部13は、以下の2つの条件が満たされた場合、現在撮影画像から検出された自転車25が移動物であると判断する。 The first detection unit 13 determines that the bicycle 25 detected from the currently captured image is a moving object when the following two conditions are satisfied.

第1条件は、領域25Rのサイズと過去領域26Rのサイズとの比が所定範囲内であることである。現在撮影画像の生成時刻と過去撮影画像の生成時刻との差は、右サイドカメラ34により生成される動画像のフレーム間隔に相当する。自転車25が現在撮影画像及び過去撮影画像の両者から検出された場合、領域25Rのサイズは、過去領域26Rのサイズから大幅に変化しないと想定される。従って、領域25Rのサイズと過去領域26Rのサイズとの比が、移動物検出の条件の1つとして用いられる。 The first condition is that the ratio between the size of the region 25R and the size of the past region 26R is within a predetermined range. The difference between the generation time of the currently captured image and the generation time of the previously captured image corresponds to the frame interval of the moving image generated by the right side camera 34 . When the bicycle 25 is detected from both the currently captured image and the previously captured image, it is assumed that the size of the region 25R does not change significantly from the size of the previous region 26R. Therefore, the ratio between the size of the area 25R and the size of the past area 26R is used as one of the moving object detection conditions.

第2条件は、距離Dが所定距離以下であることである。距離Dが極端に大きい場合、車両100の速さ及び動画像のフレーム間隔を考慮したとしても、領域25R及び過去領域26Rが同一物体を示す可能性は低い。従って、距離Dが移動物の検出条件の1つとして用いられる。 A second condition is that the distance D is equal to or less than a predetermined distance. If the distance D is extremely large, it is unlikely that the region 25R and the past region 26R show the same object even if the speed of the vehicle 100 and the frame interval of the moving image are considered. Therefore, the distance D is used as one of the moving object detection conditions.

第1検出部13は、自転車25(移動物)を現在撮影画像から検出したと判断した場合、位置25Pを含む検出位置情報42を優先領域設定部14及び検出結果出力部17に出力する。第1検出部13は、ベクトル25Vを生成し、生成したベクトル25Vを含む移動方向情報43を優先領域設定部14に出力する。ベクトル25Vにおいて、始点は過去位置26Pであり、終点は位置25Pである。 When the first detection unit 13 determines that the bicycle 25 (moving object) has been detected from the currently captured image, the first detection unit 13 outputs detection position information 42 including the position 25P to the priority area setting unit 14 and detection result output unit 17 . The first detection unit 13 generates the vector 25V and outputs movement direction information 43 including the generated vector 25V to the priority area setting unit 14 . The vector 25V starts at a past position 26P and ends at a position 25P.

本実施の形態において、第1検出部13は、撮影画像で特定された物体の位置をワールド座標系に変換してもよい。この場合、第1検出部13は、例えば、ワールド座標系における物体の位置に基づいて、第2条件が満たされるか否かを判断すればよい。 In the present embodiment, the first detection unit 13 may transform the position of the object specified in the captured image into the world coordinate system. In this case, the first detection unit 13 may determine whether the second condition is satisfied, for example, based on the position of the object in the world coordinate system.

(連携検出の開始判断)
再び、図9を参照して、優先領域設定部14は、ステップS304~S306を実行して、連携検出を開始するか否かを判断する。
(Decision to start cooperation detection)
Referring again to FIG. 9, priority area setting unit 14 executes steps S304 to S306 to determine whether or not to start cooperation detection.

優先領域設定部14は、第1検出部13から受けた検出位置情報42に基づいて、移動物が初期検出画像21Aから検出されたか否かを判断する(ステップS304)。移動物が検出されなかった場合(ステップS304においてNo)、優先領域設定部14は、連携検出を開始しないことを決定し(ステップS309)、図9に示す処理を終了する。移動物が検出された場合(ステップS304においてYes)、優先領域設定部14は、ステップS305に進む。 The priority area setting unit 14 determines whether or not a moving object has been detected from the initial detection image 21A based on the detection position information 42 received from the first detection unit 13 (step S304). If no moving object is detected (No in step S304), the priority area setting unit 14 determines not to start cooperative detection (step S309), and ends the processing shown in FIG. If a moving object is detected (Yes in step S304), the priority area setting unit 14 proceeds to step S305.

優先領域設定部14は、画像取得部11から受けた画像選択情報41に基づいて、初期検出画像21A及び連携検出画像22Aを特定する。優先領域設定部14は、第1検出部13から受けた検出位置情報42に基づいて、移動物が初期検出画像21Aに予め設定された連携基準領域内に位置するか否かを判断する(ステップS305)。ステップS305を実行する理由については後述する。 Based on the image selection information 41 received from the image acquisition unit 11, the priority area setting unit 14 specifies the initial detection image 21A and the cooperation detection image 22A. Based on the detection position information 42 received from the first detection unit 13, the priority area setting unit 14 determines whether or not the moving object is positioned within the cooperation reference area preset in the initial detection image 21A (step S305). The reason for executing step S305 will be described later.

車両100が右折する場合、連携基準領域は、左右に2等分された右方撮影画像34Aのうち、左半分の領域である。図10に示す例では、自転車25が右方撮影画像34Aの左半分の領域内に位置している(ステップS305においてYes)。この場合、優先領域設定部14は、後述するステップS306に進む。 When the vehicle 100 turns right, the cooperation reference area is the left half area of the right-side photographed image 34A that is divided into two equal parts. In the example shown in FIG. 10, the bicycle 25 is positioned within the left half area of the right captured image 34A (Yes in step S305). In this case, the priority area setting unit 14 proceeds to step S306, which will be described later.

自転車25が、図10に示す右方撮影画像34Aの右半分の領域内に位置する場合(ステップS305おいてNo)、優先領域設定部14は、連携検出を開始しないことを決定し(ステップS309)、図9に示す処理を終了する。 When the bicycle 25 is positioned within the right half area of the right side captured image 34A shown in FIG. 10 (No in step S305), the priority area setting unit 14 determines not to start cooperation detection (step S309). ), the process shown in FIG. 9 ends.

ステップS305を実行する理由について説明する。ステップS305は、初期検出画像21Aから検出された移動物が連携検出画像22Aで検出されるか否かを判断するために実行される。以下、詳しく説明する。 The reason for executing step S305 will be described. Step S305 is executed to determine whether or not the moving object detected from the initial detection image 21A is detected from the linked detection image 22A. A detailed description will be given below.

図11は、図1に示すカメラの撮影範囲を模式的に示す図である。図11は、各カメラの撮影範囲を扇形で示している。カメラは、撮影範囲内に位置する被写体を撮影できる。フロントカメラ31は、撮影範囲31H内の被写体を撮影できる。右サイドカメラ32は、撮影範囲34H内の被写体を撮影できる。リアカメラ33は、撮影範囲33H内の被写体を撮影できる。左サイドカメラ34は、撮影範囲34H内の被写体を撮影できる。実際には、各カメラは、撮影範囲を示す円弧よりも遠方を撮影することが可能である。 FIG. 11 is a diagram schematically showing the photographing range of the camera shown in FIG. FIG. 11 shows the imaging range of each camera in a fan shape. The camera can photograph a subject positioned within its photographing range. The front camera 31 can photograph a subject within the photographing range 31H. The right side camera 32 can photograph a subject within the photographing range 34H. The rear camera 33 can photograph a subject within the photographing range 33H. The left side camera 34 can photograph a subject within a photographing range 34H. In practice, each camera can shoot farther than the arc indicating the shooting range.

撮影範囲34Hを、右サイドカメラ34の光軸34Kに基づいて、2つに分割する。右方撮影画像34Aに設定される連携基準領域は、光軸34Kを基準にして左側の部分撮影範囲341に相当する。 The imaging range 34H is divided into two based on the optical axis 34K of the right side camera 34. FIG. The cooperation reference area set in the right shot image 34A corresponds to the left partial shooting range 341 with respect to the optical axis 34K.

部分撮影範囲341は、フロントカメラ31及び右サイドカメラ34の両者により撮影される重複撮影範囲35を含む。つまり、移動物が右方撮影画像34Aに設定された連携基準領域内に位置する場合、この移動物は、右サイドカメラ34だけでなくフロントカメラ31により撮影される可能性が高い。移動物検出装置10は、右方撮影画像34Aだけでなく前方撮影画像31Aを用いて移動物を検出することにより、車両100の右折中に移動物を継続して検出できると判断する。このため、優先領域設定部14は、移動物が初期検出画像の連携開始領域内に位置することを、連携検出の開始条件の1つとして使用する。 The partial shooting range 341 includes the overlapping shooting range 35 shot by both the front camera 31 and the right side camera 34 . That is, when a moving object is located within the cooperation reference area set in the right captured image 34A, there is a high possibility that this moving object will be captured not only by the right side camera 34 but also by the front camera 31 . Moving object detection apparatus 10 determines that a moving object can be continuously detected while vehicle 100 is turning right by detecting a moving object using not only right captured image 34A but also front captured image 31A. Therefore, the priority area setting unit 14 uses the position of the moving object within the cooperation start area of the initially detected image as one of the conditions for starting cooperation detection.

つまり、フロントカメラ31及び右サイドカメラ34の両者が移動物を撮影できる可能性が高い場合、優先領域設定部14は、前方撮影画像31A及び右方撮影画像34Aを用いた連携検出を開始する。この結果、2つの撮影画像の各々から並行して移動物を検出する処理を実行する時間を短縮できるため、移動物の検出負荷の増加を抑制できる。 That is, when there is a high possibility that both the front camera 31 and the right side camera 34 can capture moving objects, the priority area setting unit 14 starts cooperative detection using the front captured image 31A and the right captured image 34A. As a result, it is possible to shorten the time for executing the process of detecting a moving object in parallel from each of the two captured images, thereby suppressing an increase in the load of detecting a moving object.

再び図9を参照して、優先領域設定部14は、第1検出部13から受けた移動方向情報43に基づいて、移動物が車両100のスピード以上のスピードで車両100の進行方向と同じ方向に進んでいるか否かを判断する(ステップS306)。ステップS306を実行する理由については後述する。 Referring to FIG. 9 again, priority area setting unit 14 determines whether the moving object moves in the same direction as the traveling direction of vehicle 100 at a speed equal to or higher than the speed of vehicle 100, based on moving direction information 43 received from first detecting unit 13. (step S306). The reason for executing step S306 will be described later.

自転車25のスピードが車両100のスピードよりも遅い場合、又は、自転車25が車両100の進行方向と反対方向に進んでいる場合(ステップS306においてNo)、検出結果出力部17は、初期検出画像21Aから移動物を検出した結果を用いて、検出結果情報47を出力する(ステップS308)。例えば、移動物が右方撮影画像34Aから検出された場合、検出結果出力部17は、第1検出部13から受けた検出位置情報42に基づいて、車両100の右方に移動物が存在することを示すメッセージを生成し、その生成したメッセージを表示装置5に出力する。連携検出が開始されていないため、連携検出画像22Aから移動物を検出した結果は、ステップS308で用いられない。ステップS308の後、優先領域設定部14は、連携検出を開始しないことを決定し(ステップS309)、優先領域設定部14は、図9に示す処理を終了する。 When the speed of the bicycle 25 is slower than the speed of the vehicle 100, or when the bicycle 25 is traveling in the direction opposite to the traveling direction of the vehicle 100 (No in step S306), the detection result output unit 17 outputs the initial detection image 21A. The detection result information 47 is output using the result of detecting the moving object from (step S308). For example, when a moving object is detected from the right captured image 34A, the detection result output unit 17 detects that the moving object exists on the right side of the vehicle 100 based on the detected position information 42 received from the first detection unit 13. A message indicating that is generated, and the generated message is output to the display device 5 . Since the cooperative detection has not started, the result of detecting the moving object from the cooperative detection image 22A is not used in step S308. After step S308, the priority area setting unit 14 determines not to start cooperation detection (step S309), and the priority area setting unit 14 ends the processing shown in FIG.

移動物が車両100のスピード以上のスピードで車両100の進行方向と同じ方向に進んでいる場合(ステップS306においてYes)、優先領域設定部14は、連携検出の開始を決定する(ステップS307)。優先領域設定部14は、連携検出の開始を示す連携開始情報44を画像取得部11に出力する。画像取得部11は、初期検出画像21Aの第1検出部13への出力を停止し、初期検出画像21A及び連携検出画像22Aの両者の画質調整部15への出力を開始する。画像取得部11は、初期検出画像21A及び連携検出画像22Aの2つの撮影画像を取得するたびに、取得した2つの撮影画像を画質調整部15に出力する。 If the moving object is traveling in the same direction as the traveling direction of vehicle 100 at a speed equal to or higher than the speed of vehicle 100 (Yes in step S306), priority area setting unit 14 determines to start cooperative detection (step S307). The priority area setting unit 14 outputs cooperation start information 44 indicating the start of cooperation detection to the image acquisition unit 11 . The image acquisition unit 11 stops outputting the initial detection image 21A to the first detection unit 13 and starts outputting both the initial detection image 21A and the linked detection image 22A to the image quality adjustment unit 15 . The image acquisition unit 11 outputs the acquired two captured images to the image quality adjustment unit 15 every time it acquires the two captured images of the initial detection image 21A and the cooperation detection image 22A.

ステップS306は、車両100が横断歩道C2を渡る歩行者等と衝突する可能性があるか否かを判断するために実行される。ステップS306を実行する理由について、図10に示す右方撮影画像34Aを参照しながら詳しく説明する。 Step S306 is executed to determine whether or not there is a possibility that the vehicle 100 will collide with a pedestrian or the like crossing the crosswalk C2. The reason for executing step S306 will be described in detail with reference to the right captured image 34A shown in FIG.

自転車25が、車両100のスピードよりも遅いスピードで、車両100の進行方向と同じ方向に進むと仮定する。自転車25が車両100よりも遅いか否かは、ベクトル25Vの向きに基づいて判断される。自転車25が車両100よりも遅い場合、ベクトル25VがXa軸の正方向を向く。自転車が、車両100を基準にして見かけ上後退するためである。この場合、自転車25が車両100よりも遅れて横断歩道C2に達するため、車両100が、横断歩道C2で自転車25と接触する可能性は小さい。この場合、優先領域設定部14は連携検出を開始しない。 Assume that the bicycle 25 travels in the same direction as the vehicle 100 at a speed slower than that of the vehicle 100 . Whether bicycle 25 is slower than vehicle 100 is determined based on the orientation of vector 25V. If the bicycle 25 is slower than the vehicle 100, the vector 25V points in the positive direction of the Xa axis. This is because the bicycle apparently moves backward with respect to the vehicle 100 . In this case, since the bicycle 25 reaches the crosswalk C2 later than the vehicle 100, the possibility of the vehicle 100 coming into contact with the bicycle 25 at the crosswalk C2 is small. In this case, the priority area setting unit 14 does not start cooperation detection.

自転車25が、車両100のスピードよりも速いスピードで、車両100の進行方向と同じ方向に進むと仮定する。ベクトル25VがXa軸の負方向を向く場合、自転車25は車両100よりも速い。自転車25が、車両100を基準にして見かけ上前進するためである。この場合、自転車25が車両100よりも横断歩道C2に達するため、車両100が、自転車25が横断歩道C2を通過中に交差点Pに進入する可能性が高い。優先領域設定部14は、車両100が自転車25と衝突する虞があると判断し、自転車25の検出精度を上げるために、連携検出の開始を決定する。連携検出の開始により、自転車25の検出精度を向上させることができる。 Assume that the bicycle 25 travels in the same direction as the vehicle 100 at a speed faster than that of the vehicle 100 . Bicycle 25 is faster than vehicle 100 when vector 25V points in the negative direction of the Xa axis. This is because the bicycle 25 apparently moves forward with respect to the vehicle 100 . In this case, the bicycle 25 reaches the crosswalk C2 more than the vehicle 100, so there is a high possibility that the vehicle 100 will enter the intersection P while the bicycle 25 is passing through the crosswalk C2. The priority area setting unit 14 determines that the vehicle 100 may collide with the bicycle 25 and decides to start cooperative detection in order to increase the detection accuracy of the bicycle 25 . By starting cooperative detection, the detection accuracy of the bicycle 25 can be improved.

自転車25が、車両100のスピードと同じスピードで、車両100の進行方向と同じ方向に進むと仮定する。この仮定において、自転車25が、車両100を基準にして見かけ上停止するため、ベクトル25Vはゼロベクトルである。この場合、車両100と自転車25とが、同時に横断歩道C2に達する可能性が高い。従って、優先領域設定部14は、車両100が自転車25と衝突する虞があると判断し、連携検出の開始を決定する。連携検出の開始により、自転車25の検出精度を向上させることができる。 Assume that the bicycle 25 travels at the same speed as the vehicle 100 and in the same direction as the vehicle 100 travels. In this assumption, vector 25V is a zero vector because bicycle 25 is apparently stopped relative to vehicle 100 . In this case, there is a high possibility that the vehicle 100 and the bicycle 25 will reach the crosswalk C2 at the same time. Therefore, the priority area setting unit 14 determines that the vehicle 100 may collide with the bicycle 25, and decides to start cooperative detection. By starting cooperative detection, the detection accuracy of the bicycle 25 can be improved.

なお、車両100が左折する場合、左方撮影画像32Aが初期検出画像21Aとして選択され、前方撮影画像31Aが連携検出画像22Aとして検出される。左方撮影画像32Aに設定される連携基準領域は、左方撮影画像32Aの右半分の領域である。 When the vehicle 100 turns left, the left shot image 32A is selected as the initial detection image 21A, and the front shot image 31A is detected as the cooperative detection image 22A. The cooperation reference area set in the left shot image 32A is the right half area of the left shot image 32A.

[7.4.連携検出処理(ステップS50)]
図12は、図7に示す連携検出処理(ステップS50)のフローチャートである。図12を参照して、優先領域設定部14は、優先領域及び非優先領域が図9に示すステップS301で選択された2つの撮影画像の各々に設定されているか否かを判断する(ステップS501)。
[7.4. Coordination Detection Processing (Step S50)]
FIG. 12 is a flow chart of the cooperation detection process (step S50) shown in FIG. Referring to FIG. 12, priority area setting unit 14 determines whether a priority area and a non-priority area are set for each of the two captured images selected in step S301 shown in FIG. 9 (step S501). ).

優先領域及び非優先領域が既に設定されている場合(ステップS501においてNo)、優先領域設定部14は、ステップS503に進む。 If the priority area and the non-priority area have already been set (No in step S501), the priority area setting unit 14 proceeds to step S503.

優先領域及び非優先領域が設定されていない場合(ステップS501においてYes)、優先領域設定部14は、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する(ステップS502)。優先領域設定部14は、ステップS502で設定された優先領域及び非優先領域を示す優先領域情報45を画質調整部15に出力する。 If the priority area and the non-priority area are not set (Yes in step S501), the priority area setting unit 14 sets both the priority area and the non-priority area to each of the initial detection image 21A and the cooperation detection image 22A ( step S502). The priority area setting unit 14 outputs to the image quality adjustment unit 15 priority area information 45 indicating the priority area and the non-priority area set in step S502.

右方撮影画像34Aが初期検出画像21Aとして選択され、前方撮影画像31Aが連携検出画像22Aとして選択されている場合を例にして、ステップS502を詳しく説明する。 Step S502 will be described in detail by taking as an example a case where the right shot image 34A is selected as the initial detection image 21A and the front shot image 31A is selected as the linked detection image 22A.

図13は、図10に示す右方撮影画像34Aに設定される優先領域及び非優先領域の一例を示す図である。図13を参照して、優先領域設定部14は、右方撮影画像34Aを左右の領域に2等分する。優先領域設定部14は、2等分された領域のうち左領域を優先領域54Bに設定し、右領域を非優先領域54Cに設定する。優先領域54Bは、右方撮影画像34Aに設定される連携基準領域に一致する。画像取得部11が右方撮影画像34Aを新たに取得した場合、移動物が、新たに取得された右方撮影画像34Aの連携基準領域から検出される可能性が高いためである。 FIG. 13 is a diagram showing an example of priority areas and non-priority areas set in the right captured image 34A shown in FIG. Referring to FIG. 13, priority region setting unit 14 divides right captured image 34A into two equal regions, left and right. The priority area setting unit 14 sets the left area of the bisected area as the priority area 54B and sets the right area as the non-priority area 54C. The priority area 54B matches the cooperation reference area set in the right captured image 34A. This is because when the image acquisition unit 11 newly acquires the right-side photographed image 34A, there is a high possibility that the moving object will be detected from the cooperation reference region of the newly acquired right-side photographed image 34A.

図14は、図6に示す前方撮影画像31Aに設定される優先領域及び非優先領域の一例を示す図である。図14を参照して、優先領域設定部14は、前方撮影画像31Aを左右の領域に2等分する。右方撮影画像34Aが初期検出画像21Aである場合、優先領域設定部14は、2等分された領域のうち右領域を優先領域51Bに設定し、左領域を非優先領域51Cに設定する。 FIG. 14 is a diagram showing an example of priority areas and non-priority areas set in the front shot image 31A shown in FIG. Referring to FIG. 14, priority region setting unit 14 divides front shot image 31A into two equal regions, left and right. When the right captured image 34A is the initial detection image 21A, the priority area setting unit 14 sets the right area as the priority area 51B and the left area as the non-priority area 51C among the divided areas.

なお、左方撮影画像32Aが初期検出画像21Aである場合、優先領域設定部14は、左方撮影画像32Aの右領域を優先領域51Bに設定し、左領域を非優先領域51Cに設定する。優先領域設定部14は、前方撮影画像31Aの左領域を優先領域51Bに設定し、右領域を非優先領域51Cに設定する。 When the left shot image 32A is the initial detected image 21A, the priority area setting unit 14 sets the right area of the left shot image 32A as the priority area 51B and sets the left area as the non-priority area 51C. The priority area setting unit 14 sets the left area of the front shot image 31A as the priority area 51B, and sets the right area as the non-priority area 51C.

再び、図12を参照して、画質調整部15は、優先領域設定部14から受けた優先領域情報45に基づいて、初期検出画像21A及び連携検出画像22Aの各々から優先領域を切り出す(ステップS503)。これにより、優先領域画像21B及び22Bが生成される。画質調整部15は、初期検出画像21Aから切り出された優先領域画像21Bを第1検出部13に出力する。画質調整部15は、連携検出画像22Aから切り出された優先領域画像22Bを第2検出部16に出力する。 Referring to FIG. 12 again, image quality adjustment unit 15 cuts out priority areas from each of initial detection image 21A and cooperation detection image 22A based on priority area information 45 received from priority area setting unit 14 (step S503). ). Thereby, priority area images 21B and 22B are generated. The image quality adjustment unit 15 outputs the priority area image 21B cut out from the initial detection image 21A to the first detection unit 13 . The image quality adjustment unit 15 outputs the priority area image 22B cut out from the cooperation detection image 22A to the second detection unit 16 .

例えば、車両100が右折する場合、図6に示す優先領域画像34Bが右方撮影画像34Aから生成される。図6に示す優先領域画像31Bが前方撮影画像31Aから生成される。 For example, when the vehicle 100 turns right, the priority area image 34B shown in FIG. 6 is generated from the right captured image 34A. A priority area image 31B shown in FIG. 6 is generated from the front captured image 31A.

画質調整部15は、優先領域設定部14から受けた優先領域情報45に基づいて、初期検出画像21A及び連携検出領域22Aの各々から非優先領域を切り出す(ステップS504)。これにより、非優先領域画像21C及び22Cが生成される。 The image quality adjustment unit 15 cuts out non-priority regions from each of the initial detection image 21A and the cooperation detection region 22A based on the priority region information 45 received from the priority region setting unit 14 (step S504). As a result, non-priority area images 21C and 22C are generated.

例えば、車両100が右折する場合、図6に示す非優先領域画像34Cが右方撮影画像34Aから生成される。図6に示す非優先領域画像31Cが前方撮影画像31Aから生成される。 For example, when the vehicle 100 turns right, the non-priority area image 34C shown in FIG. 6 is generated from the right captured image 34A. A non-priority area image 31C shown in FIG. 6 is generated from the front captured image 31A.

画質調整部15は、ステップS504で生成された非優先領域画像21C及び22Cの画質を調整する(ステップS505)。画質調整部15は、画質が調整された非優先領域画像21Cを第1検出部13に出力する。画質調整部15は、画質が調整された非優先領域画像22Cを第2検出部16に出力する。 The image quality adjustment unit 15 adjusts the image quality of the non-priority area images 21C and 22C generated in step S504 (step S505). The image quality adjustment unit 15 outputs the non-priority area image 21C whose image quality has been adjusted to the first detection unit 13 . The image quality adjustment unit 15 outputs the non-priority area image 22C whose image quality has been adjusted to the second detection unit 16 .

例えば、車両100が右折する場合、画質調整部15は、非優先領域画像34Cの画質が優先領域画像34Bの画質よりも低くなるように、非優先領域画像34Cの画質を調整する。画質調整部15は、非優先領域画像31Cの画質が優先領域画像31Bの画質よりも低くなるように、非優先領域画像31Cの画質を調整する。 For example, when the vehicle 100 turns right, the image quality adjustment unit 15 adjusts the image quality of the non-priority area image 34C so that the image quality of the non-priority area image 34C is lower than the image quality of the priority area image 34B. The image quality adjustment unit 15 adjusts the image quality of the non-priority area image 31C so that the image quality of the non-priority area image 31C is lower than the image quality of the priority area image 31B.

非優先領域画像の画質は、非優先領域画像の画素を間引くことにより調整される。あるいは、画質調整部15は、非優先領域画像の解像度を撮影画像の解像度よりも低くすることにより、非優先領域画像の画質を調整する。つまり、画質調整部15は、非優先領域画像を縮小することにより、非優先領域画像の画質を低下させる。 The image quality of the non-priority area image is adjusted by thinning out the pixels of the non-priority area image. Alternatively, the image quality adjustment unit 15 adjusts the image quality of the non-priority area image by making the resolution of the non-priority area image lower than the resolution of the captured image. That is, the image quality adjustment unit 15 reduces the image quality of the non-priority area image by reducing the non-priority area image.

移動物検出装置10は、優先領域画像21B及び22Bと、非優先領域画像21C及び22Cとから移動物を検出する(ステップS506)。具体的には、第1検出部13が、初期検出画像21Aから生成された優先領域画像21B及び非優先領域画像21Cの各々から移動物を検出する。第2検出部16が、連携検出画像22Aから生成された優先領域画像22B及び非優先領域画像22Cの各々から移動物を検出する。ステップS506で用いられる検出方法は、図9に示すステップS303で用いられる検出方法と同じである。 The moving object detection apparatus 10 detects a moving object from the priority area images 21B and 22B and the non-priority area images 21C and 22C (step S506). Specifically, the first detection unit 13 detects a moving object from each of the priority area image 21B and the non-priority area image 21C generated from the initial detection image 21A. The second detection unit 16 detects a moving object from each of the priority area image 22B and the non-priority area image 22C generated from the cooperation detection image 22A. The detection method used in step S506 is the same as the detection method used in step S303 shown in FIG.

ただし、移動物を非優先領域画像から検出する場合、第1検出部13及び第2検出部16は、エッジに囲まれた領域のサイズとの比較に用いられる基準サイズを変更する。非優先領域画像が、画質調整部15により縮小されるためである。具体的には、基準サイズは、縮小前の非優先領域画像のサイズと、縮小された非優先領域画像のサイズとの比に応じて調整される。 However, when detecting a moving object from the non-priority area image, the first detection unit 13 and the second detection unit 16 change the reference size used for comparison with the size of the area surrounded by edges. This is because the non-priority area image is reduced by the image quality adjustment unit 15 . Specifically, the reference size is adjusted according to the ratio between the size of the non-priority area image before reduction and the size of the reduced non-priority area image.

優先領域画像34B及び非優先領域画像34Cを移動物の検出に用いる場合、右サイドカメラ34から受けた右方撮影画像34Aを移動物の検出に用いる場合よりも、第1検出部13の負荷を小さくすることができる。非優先領域画像34Cの縮小により、非優先領域画像の画素数が減少したためである。同様に、第2検出部16は、優先領域画像31B及び非優先領域画像31Cを用いることにより、移動物の検出負荷を小さくすることができる。 When using the priority area image 34B and the non-priority area image 34C for detecting a moving object, the load on the first detection unit 13 is reduced more than when using the right captured image 34A received from the right side camera 34 for detecting a moving object. can be made smaller. This is because the number of pixels of the non-prioritized area image has decreased due to the reduction of the non-prioritized area image 34C. Similarly, by using the priority area image 31B and the non-priority area image 31C, the second detection unit 16 can reduce the detection load of moving objects.

検出結果出力部17は、第1検出部13から受けた検出位置情報42と、第2検出部16から受けた検出位置情報46とに基づく検出結果情報47を表示装置5に出力する(ステップS507)。 The detection result output unit 17 outputs the detection result information 47 based on the detection position information 42 received from the first detection unit 13 and the detection position information 46 received from the second detection unit 16 to the display device 5 (step S507). ).

ステップS507を詳しく説明する。検出位置情報42は、第1検出部13により検出された第1移動物の位置を示す。検出位置情報46は、第2検出部16により検出された第2移動物の位置を示す。検出位置情報42及び46の各々において、移動物の位置は、撮影画像の画素を特定する画素座標系で記述されている。検出結果出力部17は、検出位置情報42に記録された第1移動物の位置を、ワールド座標系における位置に変換する。
検出結果出力部17は、検出位置情報46に記録された第1移動物の位置を、ワールド座標系における位置に変換する。
Step S507 will be described in detail. The detected position information 42 indicates the position of the first moving object detected by the first detector 13 . The detected position information 46 indicates the position of the second moving object detected by the second detector 16 . In each of the detected position information 42 and 46, the position of the moving object is described in a pixel coordinate system that specifies the pixels of the captured image. The detection result output unit 17 transforms the position of the first moving object recorded in the detected position information 42 into a position in the world coordinate system.
The detection result output unit 17 transforms the position of the first moving object recorded in the detected position information 46 into a position in the world coordinate system.

検出結果出力部17は、ワールド座標系における第1移動物の位置と、ワールド座標系における第2移動物の位置とに基づいて、ワールド座標系における第1移動物から第2移動物までの距離を算出する。検出結果出力部17は、算出した距離が予め設定された基準距離以下である場合、第1移動物と第2移動物とが同一物体であると判断する。この場合、検出結果出力部17は、検出された第2移動物が強調された初期検出画像21Aあるいは連携検出画像22Aを検出結果情報47として表示装置5に出力する。 Based on the position of the first moving object in the world coordinate system and the position of the second moving object in the world coordinate system, the detection result output unit 17 calculates the distance from the first moving object to the second moving object in the world coordinate system. Calculate The detection result output unit 17 determines that the first moving object and the second moving object are the same object when the calculated distance is equal to or less than a preset reference distance. In this case, the detection result output unit 17 outputs the initial detection image 21A or the cooperative detection image 22A in which the detected second moving object is emphasized to the display device 5 as the detection result information 47 .

検出結果出力部17は、第1移動物と第2移動物とが同一物体でないと判断した場合、検出された第2移動物が強調され、かつ、後述する移動物検出メッセージを含む前方撮影画像31Aを、検出結果情報47として出力する。移動物検出メッセージは、具体的には、前方撮影画像31Aの右端よりもさらに右方に第1移動物が存在することを示す。 When the detection result output unit 17 determines that the first moving object and the second moving object are not the same object, the detected second moving object is emphasized, and a front shot image including a moving object detection message, which will be described later. 31A is output as the detection result information 47 . The moving object detection message specifically indicates that the first moving object exists to the right of the right end of the front shot image 31A.

[7.5.連携検出の終了判断(ステップS50)]
再び図7を参照して、移動物検出装置10は、連携検出処理(ステップS50)の後に、連携検出を終了するか否かを判断する(ステップS60)。移動物検出装置10は、連携検出を終了する場合(ステップS60においてYes)、ステップS70に進む。移動物検出装置10は、連携検出を終了しない場合(ステップS60においてNo)、連携検出処理(ステップS50)を再び実行する。つまり、移動物検出装置10は、画像取得部11により取得された新たな初期検出画像21A及び連携検出画像22Aを用いて、図12に示す処理を実行する。
[7.5. End judgment of cooperation detection (step S50)]
Referring to FIG. 7 again, moving object detection apparatus 10 determines whether or not to end cooperative detection after cooperative detection processing (step S50) (step S60). If the moving object detection device 10 ends the cooperative detection (Yes in step S60), the process proceeds to step S70. If the moving object detection device 10 does not end the coordinated detection (No in step S60), the coordinated detection process (step S50) is executed again. That is, the moving object detection device 10 uses the new initial detection image 21A and the new cooperative detection image 22A acquired by the image acquisition unit 11 to perform the processing shown in FIG.

ステップS60の判断について、図6を例にして説明する。移動物検出装置10は、右ウィンカー7Rの点滅が終了した場合、車両100の右折が終了したと判断し、連携検出の終了を決定する(ステップS60)。画像取得部11が初期検出画像21A及び連携検出画像22Aの出力を停止することにより、連携検出が終了する。なお、車両100が左折した場合には、移動物検出装置10は、左ウィンカー7Lの点滅が終了したか否かを判断すればよい。 The determination in step S60 will be described with reference to FIG. 6 as an example. When the blinking of the right winker 7R ends, the moving object detection device 10 determines that the right turn of the vehicle 100 has ended, and determines the end of cooperative detection (step S60). The cooperation detection ends when the image acquisition unit 11 stops outputting the initial detection image 21A and the cooperation detection image 22A. When the vehicle 100 turns left, the moving object detection device 10 may determine whether or not the left blinker 7L has finished blinking.

移動物検出装置10は、車両100の現在位置から、連携検出の開始時刻における車両100の位置までの移動距離に基づいて、車両100が右折又は左折を終了したと判断してもよい。例えば、移動物検出装置10は、車両100に搭載されたGPS(Global Positioning System)装置から車両100の位置を定期的に取得し、取得した位置を用いて上記移動距離を算出する。移動物検出装置10は、算出した距離が予め設定された距離閾値よりも大きい場合、車両100が右折又は左折を終了したと判断する。 The moving object detection apparatus 10 may determine that the vehicle 100 has finished turning right or left based on the moving distance from the current position of the vehicle 100 to the position of the vehicle 100 at the cooperative detection start time. For example, the moving object detection device 10 periodically acquires the position of the vehicle 100 from a GPS (Global Positioning System) device mounted on the vehicle 100, and uses the acquired position to calculate the movement distance. The moving object detection device 10 determines that the vehicle 100 has finished turning right or left when the calculated distance is greater than a preset distance threshold.

あるいは、移動物検出装置10は、連携検出の開始時刻から所定時間を経過した場合に、車両100が右折又は左折を終了したと判断してもよい。 Alternatively, the moving object detection apparatus 10 may determine that the vehicle 100 has finished turning right or left when a predetermined period of time has elapsed from the start time of cooperative detection.

以上説明したように、移動物検出装置10は、移動物を初期検出画像21Aから検出した場合、初期検出画像21Aにおける移動物の位置及び移動物の移動方向に基づいて、連携検出を開始するか否かを決定する。移動物検出装置10は、連携検出の開始を決定した場合、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する。移動物検出装置10は、初期検出画像21A及び連携検出画像22Aから切り出された非優先領域画像21C及び22Cを縮小する。移動物検出装置10は、初期検出画像21A及び連携検出画像22Aから切り出された優先領域画像21B及び22Bと、縮小された非優先領域画像21C及び22Cとから移動物を検出する。これにより、移動物検出装置10は、初期検出画像21A及び連携検出画像22Aの画素数を削減できるため、初期検出画像21A及び連携検出画像22Aから移動物を検出する負荷を低減することができる。 As described above, when a moving object is detected from the initial detection image 21A, the moving object detection apparatus 10 starts cooperative detection based on the position of the moving object and the moving direction of the moving object in the initial detection image 21A. Decide whether or not When determining to start cooperative detection, the moving object detection apparatus 10 sets both the priority area and the non-priority area in the initial detection image 21A and the cooperation detection image 22A. The moving object detection device 10 reduces the non-priority area images 21C and 22C clipped from the initial detection image 21A and the linked detection image 22A. The moving object detection apparatus 10 detects a moving object from the priority area images 21B and 22B clipped from the initial detection image 21A and the linked detection image 22A, and the reduced non-priority area images 21C and 22C. As a result, the moving object detection apparatus 10 can reduce the number of pixels in the initial detection image 21A and the joint detection image 22A, thereby reducing the load of detecting a moving object from the initial detection image 21A and the joint detection image 22A.

初期検出画像21A及び連携検出画像22Aの各々に設定される優先領域は、初期検出画像21A及び連携検出画像22Aにおける重複撮影範囲を含むように設定される。従って、移動物検出装置10は、移動物の検出精度の低下を抑制することができる。 The priority area set in each of the initial detection image 21A and the joint detection image 22A is set so as to include the overlap shooting range in the initial detection image 21A and the joint detection image 22A. Therefore, the moving object detection device 10 can suppress a decrease in moving object detection accuracy.

また、優先領域設定部14は、連携検出画像22Aだけでなく、初期検出画像21Aに優先領域及び非優先領域を設定する。これにより、移動物検出装置10は、連携検出の実行時に、初期検出画像21Aから移動物を検出する負荷を低減できる。 Also, the priority area setting unit 14 sets priority areas and non-priority areas not only in the cooperation detection image 22A but also in the initial detection image 21A. As a result, the moving object detection apparatus 10 can reduce the load of detecting a moving object from the initial detection image 21A when cooperative detection is performed.

[第2の実施の形態]
[1.構成]
図15は、本発明の第2の実施の形態に係る移動物検出装置10Aの構成を示す機能ブロック図である。移動物検出装置10Aは、車両100に搭載される。移動物検出装置10Aは、車両100が駐車場を走行する場合に移動物を検出する。以下、図1に示す移動物検出装置10と異なる点を中心に、移動物検出装置10Aを説明する。
[Second embodiment]
[1. composition]
FIG. 15 is a functional block diagram showing the configuration of a moving object detection device 10A according to the second embodiment of the invention. 10 A of moving object detection apparatuses are mounted in the vehicle 100. FIG. Moving object detection device 10A detects a moving object when vehicle 100 runs in a parking lot. The moving object detection device 10A will be described below, focusing on the differences from the moving object detection device 10 shown in FIG.

図15を参照して、移動物検出装置10Aは、画像取得部11と、移動状況取得部12と、優先領域設定部14とに代えて、画像取得部11Aと、移動状況取得部12Aと、優先領域設定部14Aとを備える。 Referring to FIG. 15, moving object detection apparatus 10A includes image acquisition unit 11A, movement condition acquisition unit 12A, and image acquisition unit 11A, movement condition acquisition unit 12A, and priority area setting unit 14 instead of image acquisition unit 11, movement condition acquisition unit 12, and priority area setting unit 14. and a priority area setting unit 14A.

移動状況取得部12Aは、前方撮影画像31Aを画像取得部11から取得し、その取得した前方撮影画像31Aを用いて、車両100が駐車場を走行しているか否かを判断する。移動状況取得部12Aは、車両100が駐車場を走行しているか否かを示す走行情報61を画像取得部11Aに出力する。 Movement status acquisition unit 12A acquires front shot image 31A from image acquisition unit 11, and determines whether vehicle 100 is traveling in a parking lot using the acquired front shot image 31A. Movement status acquisition unit 12A outputs travel information 61 indicating whether vehicle 100 is traveling in a parking lot to image acquisition unit 11A.

優先領域設定部14Aは、第1検出部13が移動物を検出した場合、移動物が検出された撮影画像と、検出された移動物の位置及び移動方向とに基づいて、連携検出を開始するか否かを判断する。移動物の位置及び移動方向は、移動物が検出された撮影画像において特定される。優先領域設定部14Aは、連携検出の開始を決定した場合、移動物が検出された撮影画像を初期検出画像に決定し、移動物が検出された撮影画像に基づいて連携検出画像を決定する。優先領域設定部14Aは、決定した初期検出画像及び連携検出画像を指定する画像指定情報62を画像取得部11に出力する。 When the first detection unit 13 detects a moving object, the priority area setting unit 14A starts coordinated detection based on the captured image in which the moving object is detected and the position and moving direction of the detected moving object. or not. The position and moving direction of the moving object are specified in the captured image in which the moving object is detected. When determining to start cooperative detection, the priority area setting unit 14A determines the captured image in which the moving object is detected as the initial detection image, and determines the coordinated detection image based on the captured image in which the moving object is detected. The priority area setting unit 14A outputs image designation information 62 designating the determined initial detection image and cooperation detection image to the image acquisition unit 11 .

画像取得部11Aは、走行情報61を移動状況取得部12Aから受ける。走行情報61が、駐車場の走行を示す場合、画像取得部11は、予め設定された出力順序に従って撮影画像31A~34Aの各々を第1検出部13に出力する。つまり、本実施の形態では、初期検出画像21Aは、撮影画像31A~34Aの出力順序に従って変化する。出力順序については、後述する。 The image acquisition unit 11A receives the travel information 61 from the movement status acquisition unit 12A. When the travel information 61 indicates travel in a parking lot, the image acquisition unit 11 outputs each of the captured images 31A to 34A to the first detection unit 13 according to a preset output order. That is, in this embodiment, the initial detection image 21A changes according to the output order of the captured images 31A to 34A. The output order will be described later.

また、画像取得部11Aは、画像指定情報62を優先領域設定部14Aから受けた場合、その受けた画像指定情報62で指定された初期検出画像及び連携検出画像を画質調整部15に出力する。 Further, when receiving the image designation information 62 from the priority area setting unit 14A, the image acquisition unit 11A outputs the initial detection image and the cooperative detection image designated by the received image designation information 62 to the image quality adjustment unit 15 .

[2.動作]
図16は、図15に示す移動物検出装置10Aの動作を示すフローチャートである。移動物検出装置10Aは、車両100のイグニッションスイッチがオンされた場合、図16に示す処理を開始する。
[2. motion]
FIG. 16 is a flow chart showing the operation of the moving object detection device 10A shown in FIG. The moving object detection device 10A starts the processing shown in FIG. 16 when the ignition switch of the vehicle 100 is turned on.

図16を参照して、移動状況取得部12Aは、画像取得部11から受けた前方撮影画像31Aを用いて、車両100の挙動を特定する(ステップS11)。具体的には、移動状況取得部12Aは、予め設定された駐車場の白線のパターンを前方撮影画像31Aから検出した場合、車両100が駐車場を走行していると判断する。 Referring to FIG. 16, movement status acquisition unit 12A identifies the behavior of vehicle 100 using front captured image 31A received from image acquisition unit 11 (step S11). Specifically, when detecting a preset pattern of white lines in a parking lot from the front captured image 31A, the movement status acquiring unit 12A determines that the vehicle 100 is traveling in the parking lot.

なお、移動状況取得部12Aは、車両100以外の複数の車両が並んで停車している場合、車両100が駐車場を走行していると判断してもよい。あるいは、移動状況取得部12Aは、駐車場の位置が設定された地図情報と、図示しないGPS装置から取得した現在位置とに基づいて、車両100が駐車場を走行しているか否かを判断してもよい。 Note that the movement status acquisition unit 12A may determine that the vehicle 100 is traveling in a parking lot when a plurality of vehicles other than the vehicle 100 are parked side by side. Alternatively, movement status acquisition unit 12A determines whether vehicle 100 is traveling in a parking lot based on map information in which the location of the parking lot is set and the current location acquired from a GPS device (not shown). may

車両100が駐車場を走行していないと移動状況取得部12Aにより判断された場合(ステップS21においてNo)、移動物検出装置10Aは、ステップS71に進む。車両100が駐車場を走行していると移動状況取得部12Aにより判断された場合(ステップS21においてYes)、移動物検出装置10Aは、連携検出を開始するか否かを判断する連携開始判断処理(ステップS31)を実行する。連携開始判断処理(ステップS31)の詳細については、後述する。 When the movement status acquiring unit 12A determines that the vehicle 100 is not traveling in the parking lot (No in step S21), the moving object detection device 10A proceeds to step S71. When the movement status acquisition unit 12A determines that the vehicle 100 is traveling in the parking lot (Yes in step S21), the moving object detection device 10A performs cooperation start determination processing for determining whether or not to start cooperation detection. (Step S31) is executed. The details of the cooperation start determination process (step S31) will be described later.

移動物検出装置10Aは、連携検出の開始を決定しない場合(ステップS41においてNo)、ステップS71に進む。 If the moving object detection device 10A does not decide to start cooperative detection (No in step S41), the process proceeds to step S71.

移動物検出装置10Aは、連携検出の開始を決定した場合(ステップS41においてYes)、連携検出処理(ステップS51)を実行する。図16に示す連携検出処理(ステップS51)は、図7に示す連携検出処理(ステップS51)と同じであるため、その説明を省略する。連携検出処理(ステップS51)は、連携検出の終了条件が満たされるまで(ステップS61においてYes)、繰り返される。 When the moving object detection device 10A determines to start cooperative detection (Yes in step S41), it executes cooperative detection processing (step S51). Since the cooperation detection process (step S51) shown in FIG. 16 is the same as the cooperation detection process (step S51) shown in FIG. 7, the description thereof will be omitted. The cooperation detection process (step S51) is repeated until the cooperation detection end condition is satisfied (Yes in step S61).

本実施の形態において、移動物検出装置10Aは、車両100が駐車場から出た場合、連携検出の終了条件が満たされたと判断する。あるいは、移動物検出装置10Aは、初期検出画像21A及び連携検出画像22Aの両者において移動物が検出されなくなった場合、連携検出の終了条件が満たされたと判断してもよい。移動物検出装置10Aは、車両100の速さが所定の速さ以上となった場合に、連携検出の終了条件が満たされたと判断してもよい。所定の速さは、例えば、30km/hである。車両100が所定の速さ以上の速さで走行している場合、車両100が駐車場ではなく道路を走行していると考えられるためである。移動物検出装置10Aは、車両100が停止した場合、連携検出の終了条件が満たされたと判断してもよい。 In the present embodiment, when vehicle 100 leaves the parking lot, moving object detection apparatus 10A determines that the end condition of cooperative detection is satisfied. Alternatively, the moving object detection apparatus 10A may determine that the condition for ending cooperative detection is satisfied when the moving object is no longer detected in both the initial detection image 21A and the cooperative detection image 22A. The moving object detection device 10A may determine that the condition for ending cooperative detection is satisfied when the speed of the vehicle 100 reaches or exceeds a predetermined speed. The predetermined speed is, for example, 30 km/h. This is because when the vehicle 100 is traveling at a speed equal to or higher than the predetermined speed, it is considered that the vehicle 100 is traveling on the road instead of the parking lot. When the vehicle 100 stops, the moving object detection device 10A may determine that the conditions for ending cooperative detection are satisfied.

連携検出の終了条件が満たされた場合(ステップS61においてYes)、移動物検出装置10Aは、イグニッション信号がオフに変化したか否かを判断する(ステップS71)。イグニッション信号がオンである場合(ステップS71においてNo)、移動物検出装置10Aは、ステップS11に戻る。イグニッション信号がオフに変化した場合(ステップS71においてYes)、移動物検出装置10Aは、図16に示す処理を終了する。 When the end condition of cooperative detection is satisfied (Yes in step S61), the moving object detection device 10A determines whether or not the ignition signal has turned off (step S71). If the ignition signal is on (No in step S71), the moving object detection device 10A returns to step S11. If the ignition signal has turned off (Yes in step S71), the moving object detection device 10A ends the processing shown in FIG.

このように、移動物検出装置10Aは、車両100が駐車場を走行する場合、撮影画像31A~34Aを所定の順序に従って初期検出画像21Aに決定する。移動物が初期検出画像21Aから検出された場合、初期検出画像21Aと、移動物の検出位置と、移動物の移動方向とに基づいて、連携検出画像22Aを決定する。移動物検出装置10Aは、車両周辺の移動物の位置に応じて、移動物の検出に用いる初期検出画像21A及び連携検出画像22Aを柔軟に変更できる。また、移動物検出装置10Aは、車両100が駐車場を走行していると判断した場合に初期検出画像の決定を開始する。これにより、駐車場を移動する移動物を速やかに検出することができる。 In this manner, when the vehicle 100 is traveling in the parking lot, the moving object detection device 10A determines the captured images 31A to 34A as the initial detection image 21A according to a predetermined order. When a moving object is detected from the initial detection image 21A, a cooperative detection image 22A is determined based on the initial detection image 21A, the detected position of the moving object, and the moving direction of the moving object. The moving object detection device 10A can flexibly change the initial detection image 21A and the cooperative detection image 22A used for detecting the moving object according to the position of the moving object around the vehicle. Further, the moving object detection device 10A starts determining an initial detection image when determining that the vehicle 100 is traveling in a parking lot. Thereby, a moving object moving in a parking lot can be quickly detected.

[3.連携開始判断(ステップS31)]
図17は、図16に示す連携開始判断(ステップS31)のフローチャートである。画像取得部11Aは、取得した撮影画像31A~34Aのうちいずれか1つを、予め定められた順序に従って初期検出画像21Aに選択する(ステップS311)。画像取得部11Aは、選択した撮影画像を初期検出画像21Aとして第1検出部13に出力する。画像取得部11は、選択した撮影画像を示す画像選択情報41を優先領域設定部14Aに出力する。
[3. Cooperation start judgment (step S31)]
FIG. 17 is a flowchart of the cooperation start judgment (step S31) shown in FIG. The image acquisition unit 11A selects one of the acquired photographed images 31A to 34A as the initial detection image 21A according to a predetermined order (step S311). The image acquisition unit 11A outputs the selected captured image to the first detection unit 13 as an initial detection image 21A. The image acquisition unit 11 outputs image selection information 41 indicating the selected captured image to the priority area setting unit 14A.

画像取得部11AがステップS311を実行するたびに、初期検出画像21Aが出力順序に従って変化する。例えば、出力順序は、前方撮影画像31A、左方撮影画像32A、後方撮影画像33A、右方撮影画像34Aの順に設定される。この場合、画像取得部11Aは、前方撮影画像31Aを初期検出画像21Aとして最初に選択する。次に、左方撮影画像32Aが、初期検出画像21Aとして選択される。最後に、右方撮影画像34Aが初期検出画像21Aとして選択される。その後、前方撮影画像31Aが、再び初期検出画像21Aとして選択される。 Each time the image acquisition unit 11A executes step S311, the initial detection image 21A changes according to the output order. For example, the output order is set in order of the front shot image 31A, the left shot image 32A, the rear shot image 33A, and the right shot image 34A. In this case, the image acquisition unit 11A first selects the forward captured image 31A as the initial detection image 21A. Next, the left shot image 32A is selected as the initial detection image 21A. Finally, the right captured image 34A is selected as the initial detected image 21A. After that, the front shot image 31A is again selected as the initial detection image 21A.

第1検出部13は、画像取得部11Aから受けた初期検出画像21Aから、移動物を検出する(ステップS312)。ステップS312は、図9に示すステップS303と同じ処理であるため、その説明を省略する。第1検出部13は、検出位置情報42及び移動方向情報43を優先領域設定部14に出力する。第1検出部13は、検出位置情報42を検出結果出力部17に出力する。 The first detection unit 13 detects a moving object from the initial detection image 21A received from the image acquisition unit 11A (step S312). Since step S312 is the same processing as step S303 shown in FIG. 9, its description is omitted. The first detection unit 13 outputs the detected position information 42 and the moving direction information 43 to the priority area setting unit 14 . The first detection section 13 outputs the detection position information 42 to the detection result output section 17 .

優先領域設定部14Aは、移動物の位置が第1検出部13から受けた検出位置情報42に記録されていない場合、移動物が初期検出画像21Aから検出されなかったと判断する(ステップS313においてNo)。優先領域設定部14は、連携検出を開始しないことを決定し(ステップS317)、図17に示す処理を終了する。 If the position of the moving object is not recorded in the detection position information 42 received from the first detection unit 13, the priority area setting unit 14A determines that the moving object has not been detected from the initial detection image 21A (No in step S313). ). The priority area setting unit 14 determines not to start cooperation detection (step S317), and ends the processing shown in FIG.

優先領域設定部14Aは、移動物の位置が第1検出部13から受けた検出位置情報42に記録されている場合、移動物が初期検出画像21Aから検出されたと判断する(ステップS313においてYes)。優先領域設定部14Aは、初期検出画像21Aにおける移動物の位置と初期検出画像における移動物のベクトルとが連携検出の開始条件を満たしているか否かを判断する(ステップS314)。 If the position of the moving object is recorded in the detection position information 42 received from the first detection unit 13, the priority area setting unit 14A determines that the moving object has been detected from the initial detection image 21A (Yes in step S313). . The priority area setting unit 14A determines whether or not the position of the moving object in the initially detected image 21A and the vector of the moving object in the initially detected image satisfy conditions for starting cooperative detection (step S314).

図18は、優先領域設定部14Aにより用いられる開始条件テーブル55の一例を示す図である。優先領域設定部14Aは、連携検出を開始するか否かの決定に、図18に示す開始条件テーブル55を用いる。 FIG. 18 is a diagram showing an example of the start condition table 55 used by the priority area setting section 14A. The priority area setting unit 14A uses the start condition table 55 shown in FIG. 18 to determine whether to start cooperation detection.

優先領域設定部14Aは、画像取得部11Aから受けた画像選択情報41に基づいて、初期検出画像21Aとして選択された撮影画像特定する。優先領域設定部14Aは、第1検出部13から受けた検出位置情報42に基づいて、初期検出画像21Aにおける移動物の位置を特定する。優先領域設定部14Aは、第1検出部から受けた移動方向情報43に基づいて、初期検出画像21Aにおける移動物の移動方向を特定する。 The priority area setting unit 14A identifies the captured image selected as the initial detection image 21A based on the image selection information 41 received from the image acquisition unit 11A. The priority area setting section 14A specifies the position of the moving object in the initial detection image 21A based on the detection position information 42 received from the first detection section 13 . The priority area setting unit 14A identifies the movement direction of the moving object in the initial detection image 21A based on the movement direction information 43 received from the first detection unit.

特定された撮影画像、位置及びベクトル方向の組み合わせが、開始条件テーブル55に記録されている場合、連携検出の開始条件が満たされている(ステップS314においてYes)。この場合、優先領域設定部14Aは、連携検出の開始を決定する(ステップS315)。優先領域設定部14Aは、特定された撮影画像、位置及びベクトル方向の組み合わせに基づいて、連携検出画像22Aを決定する(ステップS316)。 If the combination of the specified captured image, position, and vector direction is recorded in the start condition table 55, the start condition for cooperation detection is satisfied (Yes in step S314). In this case, the priority area setting unit 14A determines to start cooperation detection (step S315). The priority area setting unit 14A determines the cooperation detection image 22A based on the specified combination of the captured image, position, and vector direction (step S316).

優先領域設定部14Aは、開始条件テーブル55に基づいて、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する(ステップS317)。従って、移動物検出装置10Aは、連携検出処理(ステップS51)を実行する場合に、図12に示すステップS501~S502を省略する。その後、優先領域設定部14は、図17に示す処理を終了する。 The priority area setting unit 14A sets both the priority area and the non-priority area in each of the initial detection image 21A and the cooperation detection image 22A based on the start condition table 55 (step S317). Therefore, the moving object detection device 10A omits steps S501 and S502 shown in FIG. 12 when executing the cooperative detection process (step S51). After that, the priority area setting unit 14 ends the processing shown in FIG. 17 .

特定された撮影画像、位置及びベクトル方向の組み合わせが、開始条件テーブル55に記録されていない場合、優先領域設定部14Aは、連携検出の開始条件が満たされていないと判断する(ステップS314においてNo)。優先領域設定部14Aは、連携検出を開始しないことを決定し(ステップS317)、図17に示す処理を終了する。 If the combination of the specified captured image, position, and vector direction is not recorded in the start condition table 55, the priority area setting unit 14A determines that the condition for starting cooperation detection is not satisfied (No in step S314). ). The priority area setting unit 14A determines not to start cooperation detection (step S317), and ends the processing shown in FIG.

特定された撮影画像、移動物の位置及び移動物の移動方向の組み合わせを、図18を参照しながら説明する。移動物が自転車25である場合、移動物の移動方向は、ベクトル25Vの方向である。 A combination of the specified photographed image, position of the moving object, and moving direction of the moving object will be described with reference to FIG. 18 . When the moving object is a bicycle 25, the moving direction of the moving object is the direction of vector 25V.

(右方撮影画像34Aが初期検出画像21Aである場合)
初期検出画像21Aが右方撮影画像34Aであり、移動物の位置が右方撮影画像34Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の開始を決定する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて前方撮影画像31Aに決定される。移動物が、前方撮影画像31A及び右方撮影画像34Aの両者で検出される可能性が高いためである。この組み合わせは、上記第1の実施の形態における車両100が右折する場合に相当する。
(When the right captured image 34A is the initial detection image 21A)
When the initial detection image 21A is the right captured image 34A, the position of the moving object is the left area of the right captured image 34A, and the moving direction of the moving object is left, the priority area setting unit 14A sets the start condition table 55 to decide to start cooperative detection. In this case, the cooperation detection image 22A is determined to be the forward captured image 31A based on the start condition table 55. FIG. This is because there is a high possibility that the moving object will be detected in both the front shot image 31A and the right shot image 34A. This combination corresponds to the case where vehicle 100 in the first embodiment turns right.

この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the left area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the right area opposite to the left area. The priority area and non-priority area of the cooperation detection image 22A are set to the right area and left area recorded in the start condition table 55, respectively.

初期検出画像21Aが右方撮影画像34Aであり、移動物の位置が右方撮影画像34Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて後方撮影画像33Aに決定される。移動物が、後方撮影画像33A及び右方撮影画像34Aの両者で検出される可能性が高いためである。 When the initial detection image 21A is the right captured image 34A, the position of the moving object is the right region of the right captured image 34A, and the moving direction of the moving object is right, the priority region setting unit 14A sets the start condition table 55 to initiate a joint detection decision. In this case, the cooperation detection image 22A is determined to be the rear captured image 33A based on the start condition table 55 . This is because there is a high possibility that the moving object will be detected in both the rear shot image 33A and the right shot image 34A.

この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the right area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the left area opposite to the right area. The priority area and non-priority area of the cooperation detection image 22A are set to the left area and right area recorded in the start condition table 55, respectively.

(左方撮影画像32Aが初期検出画像21Aである場合)
初期検出画像21Aが左方撮影画像32Aであり、移動物の位置が左方撮影画像32Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて前方撮影画像31Aに決定される。移動物が、前方撮影画像31A及び右方撮影画像34Aの両者で検出される可能性が高いためである。この組み合わせは、上記第1の実施の形態における車両100が左折する場合に相当する。
(When the left shot image 32A is the initial detection image 21A)
When the initial detection image 21A is the left shot image 32A, the position of the moving object is the right area of the left shot image 32A, and the moving direction of the moving object is right, the priority area setting unit 14A sets the start condition table 55 to initiate a joint detection decision. In this case, the cooperation detection image 22A is determined to be the forward captured image 31A based on the start condition table 55. FIG. This is because there is a high possibility that the moving object will be detected in both the front shot image 31A and the right shot image 34A. This combination corresponds to the case where vehicle 100 in the first embodiment makes a left turn.

この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the right area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the left area opposite to the right area. The priority area and non-priority area of the cooperation detection image 22A are set to the left area and right area recorded in the start condition table 55, respectively.

初期検出画像21Aが左方撮影画像32Aであり、移動物の位置が左方撮影画像32Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて後方撮影画像33Aに決定される。移動物が、後方撮影画像33A及び右方撮影画像34Aの両者で検出される可能性が高いためである。 When the initial detection image 21A is the left shot image 32A, the position of the moving object is the left area of the left shot image 32A, and the moving direction of the moving object is left, the priority area setting unit 14A sets the start condition table 55 to initiate a joint detection decision. In this case, the cooperation detection image 22A is determined to be the rear captured image 33A based on the start condition table 55 . This is because there is a high possibility that the moving object will be detected in both the rear shot image 33A and the right shot image 34A.

この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the left area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the right area opposite to the left area. The priority area and non-priority area of the cooperation detection image 22A are set to the right area and left area recorded in the start condition table 55, respectively.

(前方撮影画像31Aが初期検出画像21Aである場合)
初期検出画像21Aが前方撮影画像31Aであり、移動物の位置が前方撮影画像31Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて左方撮影画像32Aに決定される。移動物が、前方撮影画像31A及び左方撮影画像32Aの両者で検出される可能性が高いためである。
(When the front shot image 31A is the initial detection image 21A)
When the initial detection image 21A is the front shot image 31A, the position of the moving object is the left area of the front shot image 31A, and the moving direction of the moving object is left, the priority area setting unit 14A adds to initiate federation detection decisions based on In this case, the left shot image 32A is determined as the cooperation detection image 22A based on the start condition table 55 . This is because there is a high possibility that the moving object will be detected in both the front shot image 31A and the left shot image 32A.

この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the left area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the right area opposite to the left area. The priority area and non-priority area of the cooperation detection image 22A are set to the right area and left area recorded in the start condition table 55, respectively.

初期検出画像21Aが前方撮影画像31Aであり、移動物の位置が前方撮影画像31Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて右方撮影画像34Aに決定される。移動物が、前方撮影画像31A及び右方撮影画像34Aの両者で検出される可能性が高いためである。 When the initial detection image 21A is the front shot image 31A, the position of the moving object is the right area of the front shot image 31A, and the moving direction of the moving object is right, the priority area setting unit 14A adds to initiate federation detection decisions based on In this case, the cooperation detection image 22A is determined to be the right captured image 34A based on the start condition table 55 . This is because there is a high possibility that the moving object will be detected in both the front shot image 31A and the right shot image 34A.

この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the right area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the left area opposite to the right area. The priority area and non-priority area of the cooperation detection image 22A are set to the left area and right area recorded in the start condition table 55, respectively.

(後方撮影画像33Aが初期検出画像21Aである場合)
初期検出画像21Aが後方撮影画像33Aであり、移動物の位置が後方撮影画像33Aの右領域であり、移動物の移動方向が右である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて左方撮影画像32Aに決定される。移動物が、左方撮影画像32A及び後方撮影画像33Aの両者で検出される可能性が高いためである。
(When the rear captured image 33A is the initial detection image 21A)
When the initial detection image 21A is the rear photographed image 33A, the position of the moving object is the right region of the rearward photographed image 33A, and the moving direction of the moving object is right, the priority region setting unit 14A adds to initiate federation detection decisions based on In this case, the left shot image 32A is determined as the cooperation detection image 22A based on the start condition table 55 . This is because there is a high possibility that the moving object will be detected in both the left shot image 32A and the rear shot image 33A.

この場合、初期検出画像21Aの優先領域は、移動物が検出された右領域に決定される。初期検出画像21Aの非優先領域は、右領域と反対の左領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された左領域及び右領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the right area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the left area opposite to the right area. The priority area and non-priority area of the cooperation detection image 22A are set to the left area and right area recorded in the start condition table 55, respectively.

初期検出画像21Aが後方撮影画像33Aであり、移動物の位置が後方撮影画像33Aの左領域であり、移動物の移動方向が左である場合、優先領域設定部14Aは、開始条件テーブル55に基づいて連携検出の決定を開始する。この場合、連携検出画像22Aは、開始条件テーブル55に基づいて右方撮影画像34Aに決定される。移動物が、後方撮影画像33A及び右方撮影画像34Aの両者で検出される可能性が高いためである。 When the initial detection image 21A is the rear shot image 33A, the position of the moving object is the left area of the rear shot image 33A, and the moving direction of the moving object is left, the priority area setting unit 14A sets to initiate federation detection decisions based on In this case, the cooperation detection image 22A is determined to be the right captured image 34A based on the start condition table 55 . This is because there is a high possibility that the moving object will be detected in both the rear shot image 33A and the right shot image 34A.

この場合、初期検出画像21Aの優先領域は、移動物が検出された左領域に決定される。初期検出画像21Aの非優先領域は、左領域と反対の右領域に設定される。連携検出画像22Aの優先領域及び非優先領域は、開始条件テーブル55に記録された右領域及び左領域に設定される。 In this case, the priority area of the initial detection image 21A is determined to be the left area where the moving object is detected. The non-priority area of the initial detection image 21A is set to the right area opposite to the left area. The priority area and non-priority area of the cooperation detection image 22A are set to the right area and left area recorded in the start condition table 55, respectively.

以上説明したように、第2の実施の形態に係る移動物検出装置10Aは、車両100が駐車場を走行する場合、撮影画像31A~34Aの各々を所定の順序で初期検出画像21Aとして選択する。移動物検出装置10Aは、移動物を初期検出画像21Aから検出した場合、移動物の検出結果に基づいて、撮影画像31A~34Aから連携検出画像22Aを決定し、優先領域及び非優先領域の両者を初期検出画像21A及び連携検出画像22Aの各々に設定する。これにより、車両100と接触する可能性のある移動物の位置を想定できない場合であっても、移動物検出装置10は、連携検出により移動物を検出できる。これにより、高い精度で移動物を継続して検出できる。 As described above, the moving object detection apparatus 10A according to the second embodiment selects each of the captured images 31A to 34A in a predetermined order as the initial detection image 21A when the vehicle 100 travels in the parking lot. . When a moving object is detected from the initial detection image 21A, the moving object detection device 10A determines a cooperative detection image 22A from the captured images 31A to 34A based on the detection result of the moving object, and detects both the priority area and the non-priority area. are set in each of the initial detection image 21A and the linked detection image 22A. As a result, even when the position of a moving object that is likely to come into contact with the vehicle 100 cannot be assumed, the moving object detection device 10 can detect the moving object through cooperative detection. As a result, moving objects can be continuously detected with high accuracy.

[第3の実施の形態]
[1.構成]
図19は、本発明の第3の実施の形態に係る移動物検出装置10Bの構成を示す機能ブロック図である。図19を参照して、移動物検出装置10Bは、優先領域設定部14に代えて優先領域設定部14Bを備える。優先領域設定部14Bは、初期検出画像21Aから検出された移動物の位置又は移動方向に応じて、連携検出画像22Aに設定される優先領域及び非優先領域を変更する。
[Third embodiment]
[1. composition]
FIG. 19 is a functional block diagram showing the configuration of a moving object detection device 10B according to the third embodiment of the invention. Referring to FIG. 19 , moving object detection apparatus 10B includes priority area setting section 14B instead of priority area setting section 14 . The priority area setting unit 14B changes the priority area and non-priority area set in the cooperation detection image 22A according to the position or movement direction of the moving object detected from the initial detection image 21A.

移動物検出装置10Bは、優先領域設定部14に代えて優先領域設定部14Bを備える点を除き、移動物検出装置10と同じ構成を有する。このため、本実施の形態の説明において、上記第1の実施の形態と共通の説明については省略する。 The moving object detection device 10B has the same configuration as the moving object detection device 10 except that the priority region setting unit 14B is replaced with the priority region setting unit 14B. Therefore, in the description of this embodiment, the description common to the first embodiment will be omitted.

[2.動作]
上述のように、優先領域設定部14Bは、初期検出画像21Aから検出された移動物の位置又は移動方向に応じて、連携検出画像22Aに設定される優先領域及び非優先領域を変更する。以下、移動物の検出位置に基づく優先領域の変更と、移動物の移動量に基づく優先領域の変更とに分けて、優先領域設定部14Bによる優先領域の設定を説明する。
[2. motion]
As described above, the priority area setting unit 14B changes the priority area and non-priority area set in the cooperation detection image 22A according to the position or moving direction of the moving object detected from the initial detection image 21A. The setting of the priority area by the priority area setting unit 14B will be described below by dividing the change of the priority area based on the detected position of the moving object and the change of the priority area based on the amount of movement of the moving object.

(移動量に基づく優先領域の設定)
以下、図6に示す自転車25が、初期検出画像21Aとして選択された右方撮影画像34Aから検出された場合を例にして、優先領域設定部14Bによる優先領域の設定を説明する。図6を参照して、ベクトル25Vが、右方撮影画像34Aにおける自転車25の移動方向及び移動量を示す。ベクトル25Vは、右方撮影画像34Aにおける画素座標系により記述され、Xa軸の負方向を向いている。
(Priority area setting based on movement amount)
Setting of the priority area by the priority area setting unit 14B will be described below by taking as an example the case where the bicycle 25 shown in FIG. 6 is detected from the right-side photographed image 34A selected as the initially detected image 21A. Referring to FIG. 6, vector 25V indicates the moving direction and amount of movement of bicycle 25 in right captured image 34A. The vector 25V is described by the pixel coordinate system in the right captured image 34A and points in the negative direction of the Xa axis.

図20は、優先領域設定部14Bにより設定される優先領域の変化の一例を示す図である。図20に示す前方撮影画像31Aは、図14に示す前方撮影画像31Aと同じである。優先領域設定部14Bは、ベクトル25Vの大きさに基づいて、前方撮影画像31Aに設定される優先領域51Bの幅を変化させる。 FIG. 20 is a diagram showing an example of changes in priority areas set by the priority area setting unit 14B. The front shot image 31A shown in FIG. 20 is the same as the front shot image 31A shown in FIG. The priority area setting unit 14B changes the width of the priority area 51B set in the front shot image 31A based on the size of the vector 25V.

例えば、ベクトル25Vの大きさが0(ピクセル)以上100(ピクセル)未満である場合、優先領域設定部14Bは、優先領域51Bbを前方撮影画像31Aに設定する。ベクトル25Vの大きさが100(ピクセル)以上150(ピクセル)未満である場合、優先領域設定部14Bは、優先領域51Baを前方撮影画像31Aに設定する。ベクトル25Vの大きさが150(ピクセル)以上である場合、優先領域設定部14Bは、優先領域51Bを前方撮影画像31Aに設定する。優先領域51B、51Ba及び51Bbの右辺は、前方撮影画像31Aの右辺と一致する。 For example, when the size of the vector 25V is 0 (pixels) or more and less than 100 (pixels), the priority area setting unit 14B sets the priority area 51Bb in the front shot image 31A. When the size of the vector 25V is equal to or greater than 100 (pixels) and less than 150 (pixels), the priority area setting unit 14B sets the priority area 51Ba to the front shot image 31A. When the size of the vector 25V is 150 (pixels) or more, the priority area setting unit 14B sets the priority area 51B in the front shot image 31A. The right sides of the priority areas 51B, 51Ba, and 51Bb match the right side of the front shot image 31A.

なお、図20において、優先領域51Ba及び51Bbを明確に示すために、優先領域51Ba及び51Bbの縦方向のサイズを、前方撮影画像31Aの縦方向のサイズよりも小さく示している。実際には、優先領域51Ba及び51Bbの縦方向のサイズは、前方撮影画像31Aの縦方向のサイズに一致する。 In FIG. 20, in order to clearly show the priority areas 51Ba and 51Bb, the vertical size of the priority areas 51Ba and 51Bb is shown to be smaller than the vertical size of the forward shot image 31A. In reality, the vertical size of the priority areas 51Ba and 51Bb matches the vertical size of the front shot image 31A.

図20に示す例では、優先領域51Baの横方向のサイズW2は、優先領域51Bの横方向のサイズW3の3分の2である。優先領域51Bbの横方向のサイズW1は、優先領域51Bの横方向のサイズW3の3分の1である。つまり、優先領域設定部14Bは、ベクトル25Vの大きさが増加するにつれて、連携検出画像22Aに設定される優先領域の横方向のサイズを増加させる。 In the example shown in FIG. 20, the horizontal size W2 of the priority area 51Ba is two thirds of the horizontal size W3 of the priority area 51B. The horizontal size W1 of the priority area 51Bb is one third of the horizontal size W3 of the priority area 51B. That is, the priority area setting unit 14B increases the horizontal size of the priority area set in the cooperation detection image 22A as the size of the vector 25V increases.

前方撮影画像31Aから検出される自転車25の位置は、ベクトル25Vの大きさが増加するにつれて、前方撮影画像31Aの左に移動すると考えられる。優先領域設定部14Bは、この考えに基づいて、ベクトル25Vの大きさに応じて、連携検出画像22Aに設定される優先領域の横方向のサイズを変化させる。 It is considered that the position of the bicycle 25 detected from the front shot image 31A moves to the left of the front shot image 31A as the magnitude of the vector 25V increases. Based on this idea, the priority area setting unit 14B changes the horizontal size of the priority area set in the cooperation detection image 22A according to the size of the vector 25V.

なお、ベクトル25Vが斜め方向を向いている場合、優先領域設定部14Bは、ベクトル25VのXa軸成分の大きさに基づいて、優先領域の幅を決定すればよい。左方撮影画像32Aが初期検出画像21Aである場合、優先領域51B、51Ba及び51Bbの左辺は、前方撮影画像31Aの左辺と一致する。 Note that when the vector 25V is oriented in an oblique direction, the priority area setting unit 14B may determine the width of the priority area based on the magnitude of the Xa-axis component of the vector 25V. When the left captured image 32A is the initial detection image 21A, the left sides of the priority areas 51B, 51Ba, and 51Bb match the left sides of the front captured image 31A.

(検出位置に基づく優先領域の設定)
図21は、第1検出部13により検出される自転車25の検出位置の一例を示す図である。図21に示す前方撮影画像31Aは、図14に示す前方撮影画像31Aと同じである。
(Priority area setting based on detection position)
FIG. 21 is a diagram showing an example of detection positions of the bicycle 25 detected by the first detector 13. As shown in FIG. The front shot image 31A shown in FIG. 21 is the same as the front shot image 31A shown in FIG.

以下、図21を参照しながら、右方撮影画像34Aから検出された自転車25の位置Pに基づいて優先領域を設定する例を説明する。 An example of setting the priority area based on the position P of the bicycle 25 detected from the right captured image 34A will be described below with reference to FIG.

優先領域設定部14Bは、右方撮影画像34Aの左辺から自転車25の位置25Pまでの距離Rを取得する。位置25Pは、右方撮影画像34Aの画素座標系により記述されるため、距離Rは、位置25PのXa座標値である。優先領域設定部14Bは、取得した距離Rに基づいて、図20に示す優先領域51B、51Ba及び51Bbのうちいずれか1つを、前方撮影画像31Aに設定する。 The priority area setting unit 14B acquires the distance R from the left side of the right captured image 34A to the position 25P of the bicycle 25. FIG. Since the position 25P is described by the pixel coordinate system of the right shot image 34A, the distance R is the Xa coordinate value of the position 25P. Based on the obtained distance R, the priority area setting unit 14B sets any one of the priority areas 51B, 51Ba, and 51Bb shown in FIG. 20 in the front shot image 31A.

具体的には、優先領域設定部14Bは、取得した距離Rが、0(ピクセル)以上R1(ピクセル)未満である場合、優先領域51Bを前方撮影画像31Aに設定する。優先領域設定部14Bは、取得した距離RがR1(ピクセル)以上R2(ピクセル)未満である場合、優先領域51Baを前方撮影画像31Aに設定する。優先領域設定部14Bは、取得した距離RがR2(ピクセル)以上R3(ピクセル)以下である場合、優先領域51Bbを前方撮影画像31Aに設定する。 Specifically, when the obtained distance R is 0 (pixel) or more and less than R1 (pixel), the priority area setting unit 14B sets the priority area 51B in the front shot image 31A. The priority area setting unit 14B sets the priority area 51Ba in the front shot image 31A when the acquired distance R is equal to or greater than R1 (pixels) and less than R2 (pixels). The priority area setting unit 14B sets the priority area 51Bb in the front shot image 31A when the acquired distance R is equal to or greater than R2 (pixels) and equal to or less than R3 (pixels).

つまり、優先領域設定部14Bは、位置25Pから右方撮影画像34Aの左辺までの距離Rが短くなるにつれて、前方撮影画像31Aに設定される優先領域の横方向のサイズを大きくする。距離Rが短いほど、自転車25がフロントカメラ31により撮影される可能性が高くなる。距離Rが短いほど、自転車25は、前方撮影画像31Aの左右中央に近づくと考えられるため、優先領域設定部14Bは、優先領域の横方向差のサイズを大きくする。 That is, the priority area setting unit 14B increases the horizontal size of the priority area set in the front shot image 31A as the distance R from the position 25P to the left side of the right shot image 34A decreases. The shorter the distance R, the higher the possibility that the bicycle 25 will be photographed by the front camera 31 . The shorter the distance R, the closer the bicycle 25 is to the left-right center of the front shot image 31A. Therefore, the priority area setting unit 14B increases the size of the horizontal difference of the priority areas.

左方撮影画像32Aが初期検出画像21Aである場合、優先領域設定部14Bは、距離Rを左方撮影画像32Aの右辺を基準にして取得すればよい。 When the left shot image 32A is the initial detection image 21A, the priority area setting unit 14B may obtain the distance R with reference to the right side of the left shot image 32A.

優先領域設定部14Bは、移動量に基づいて設定した優先領域と、検出位置に基づいて設定された優先領域とをマージして、最終的な優先領域を決定する。例えば、優先領域設定部14Bは、連携検出画像のうち、移動量に基づいて設定した優先領域及び検出位置に基づいて設定された優先領域のうち少なくとも一方に含まれる領域を、最終的な優先領域として決定する。あるいは、優先領域設定部14Bは、連携検出画像のうち、移動量に基づいて設定した優先領域及び検出位置に基づいて設定された優先領域の両者に含まれる領域を、最終的な優先領域として決定する。つまり、優先領域設定部14Bは、移動量に基づいて設定した優先領域及び検出位置に基づいて設定された優先領域の少なくとも一方に基づいて、最終的な優先領域を決定すればよい。その後、優先領域設定部14Bは、前方撮影画像31Aに設定された優先領域以外の領域を非優先領域に設定する。 The priority area setting unit 14B merges the priority area set based on the movement amount and the priority area set based on the detection position to determine the final priority area. For example, the priority area setting unit 14B selects an area included in at least one of the priority area set based on the movement amount and the priority area set based on the detection position in the cooperation detection image as the final priority area. Determined as Alternatively, the priority area setting unit 14B determines an area included in both the priority area set based on the movement amount and the priority area set based on the detection position in the cooperation detection image as the final priority area. do. That is, the priority area setting unit 14B may determine the final priority area based on at least one of the priority area set based on the movement amount and the priority area set based on the detection position. After that, the priority area setting unit 14B sets areas other than the priority area set in the front shot image 31A as non-priority areas.

このように、優先領域設定部14Bは、連携検出画像22Aに設定される優先領域を移動物の検出位置及び移動量に基づいて変更する。これにより、連携検出画像において移動物が検出されない可能性の高い領域を動的に非優先領域に設定することができるため、移動物の検出負荷をさらに低減できる。 In this manner, the priority area setting unit 14B changes the priority area set in the cooperation detection image 22A based on the detected position and movement amount of the moving object. As a result, it is possible to dynamically set a region in which a moving object is highly unlikely to be detected in the cooperative detection image as a non-priority region, thereby further reducing the load of detecting a moving object.

なお、優先領域設定部14Bは、連携検出画像に設定された優先領域の横方向のサイズを、時間の経過とともに増加させてもよい。時間の経過とともに、移動物が、連携検出画像に設定された非優先領域から検出される可能性が高くなるためである。優先領域設定部14Bは、時間の経過とともに優先領域を拡大することにより、移動物の検出精度との低下を防ぐことができる。 Note that the priority area setting unit 14B may increase the horizontal size of the priority area set in the cooperation detection image over time. This is because the moving object is more likely to be detected from the non-priority area set in the cooperative detection image as time elapses. By enlarging the priority area over time, the priority area setting unit 14B can prevent a decrease in moving object detection accuracy.

[変形例]
上記実施の形態において、車両100が右折又は左折する場合、あるいは、車両100が駐車場を走行する場合に、移動物の検出を開始する例を説明した。しかし、移動物検出装置は、車両100の移動状況が所定の条件を満たす場合に、移動物の検出を開始すればよい。所定の条件は、上記実施の形態の他に、車両100のスピードが所定の検出開始速度よりも遅いことである。所定の検出開始速度は、例えば、20km/hである。このように、車両の移動状況に応じて移動物の検出を開始することにより、移動物の検出負荷が恒常的に高くなることを抑制できる。
[Modification]
In the above-described embodiment, an example has been described in which detection of a moving object is started when vehicle 100 turns right or left, or when vehicle 100 travels in a parking lot. However, the moving object detection device may start detecting the moving object when the movement state of the vehicle 100 satisfies a predetermined condition. The predetermined condition is that the speed of vehicle 100 is slower than a predetermined detection start speed, in addition to the above embodiment. The predetermined detection start speed is, for example, 20 km/h. In this way, by starting the detection of moving objects according to the moving state of the vehicle, it is possible to prevent the detection load of moving objects from constantly increasing.

上記実施の形態において、優先領域設定部が、優先領域及び非優先領域を初期検出画像21Aに設定する例を説明した。しかし、優先領域設定部は、優先領域及び非優先領域を初期検出画像21Aに設定しなくてもよい。この場合、第1検出部13は、連携検出の実行時においても、画像取得部11から受けた初期検出画像21Aから移動物を検出する。 In the above-described embodiment, an example has been described in which the priority area setting section sets the priority area and the non-priority area in the initial detection image 21A. However, the priority area setting unit does not have to set the priority area and the non-priority area in the initial detection image 21A. In this case, the first detection unit 13 detects a moving object from the initial detection image 21A received from the image acquisition unit 11 even when cooperative detection is executed.

上記実施の形態において、移動状況取得部12が、横断歩道の検出及びウィンカーの点滅指示に基づいて、車両100が交差点で右折又は左折すると判断する例を説明したが、これに限られない。例えば、移動状況取得部12は、車両100に搭載されたカーナビゲーション装置から取得した車両100の走行ルートに基づいて、車両100が右折又は左折をすると判断してもよい。走行ルートは、車両100が右折又は左折をする交差点を指定する情報を含む。移動状況取得部12は、車両100の現在位置と取得した走行ルートとに基づいて、車両100の現在位置から、右折又は左折が指定された交差点までの距離を算出する。移動状況取得部12は、算出した距離が所定距離以下である場合、車両100が右折又は左折すると判断すればよい。 In the above-described embodiment, an example was described in which the movement status acquisition unit 12 determines that the vehicle 100 is to turn right or left at an intersection based on the detection of a crosswalk and the blinking instruction of the blinker, but the present invention is not limited to this. For example, the movement status acquisition unit 12 may determine that the vehicle 100 turns right or left based on the travel route of the vehicle 100 acquired from a car navigation device mounted on the vehicle 100 . The travel route includes information specifying an intersection at which the vehicle 100 turns right or left. The movement status acquisition unit 12 calculates the distance from the current position of the vehicle 100 to the intersection designated to turn right or left based on the current position of the vehicle 100 and the acquired travel route. If the calculated distance is equal to or less than the predetermined distance, the movement status acquisition unit 12 may determine that the vehicle 100 will turn right or left.

あるいは、移動状況取得部12は、前方撮影画像31Aを用いて車両100が走行する車線を特定し、特定した車線に基づいて車両100が右折又は左折をする交差点に進入するか否かを判断してもよい。移動状況取得部12は、右折専用レーンを前方撮影画像31Aから検出した場合に、車両100が右折すると判断する。移動状況取得部12は、左折専用レーンを前方撮影画像31Aから検出した場合に、車両100が左折すると判断する。 Alternatively, the movement status acquisition unit 12 identifies the lane in which the vehicle 100 travels using the front captured image 31A, and determines whether the vehicle 100 enters an intersection where the vehicle 100 turns right or left based on the identified lane. may The movement status acquisition unit 12 determines that the vehicle 100 is to turn right when a right-turn-only lane is detected from the front captured image 31A. The movement status acquisition unit 12 determines that the vehicle 100 is to turn left when a left turn-only lane is detected from the forward captured image 31A.

あるいは、移動状況取得部12は、左ウィンカー7L又は右ウィンカー7Rのいずれか一方が点滅した場合に、初期検出画像21Aから移動物を検出する処理を開始してもよい。左ウィンカー7Lが点滅している場合、左方撮影画像32Aが初期検出画像21Aとして選択される。右ウィンカー7Rが点滅している場合、右方撮影画像34Aが初期検出画像21Aとして選択される。 Alternatively, the movement status acquisition unit 12 may start the process of detecting a moving object from the initial detection image 21A when either the left winker 7L or the right winker 7R blinks. When the left winker 7L is blinking, the left shot image 32A is selected as the initial detection image 21A. When the right winker 7R is blinking, the right shot image 34A is selected as the initial detection image 21A.

上記実施の形態において、移動物検出装置が移動状況取得部12又は12Aを備える例を説明したが、これに限られない。移動物検出装置は、移動状況取得部を備えなくてもよい。移動物検出装置は、予め設定された撮影画像を初期検出画像として用いてもよい。例えば、移動物検出装置は、車両100の移動状況に関係なく、前方撮影画像31Aを初期検出画像として用いることが可能である。この場合、移動物検出装置は、図18に示す開始条件テーブル55のうち、前方撮影画像31Aが初期検出画像である場合における開始条件に基づいて、連携検出画像を決定すればよい。 In the above embodiment, an example in which the moving object detection device includes the movement status acquisition unit 12 or 12A has been described, but the present invention is not limited to this. The moving object detection device does not have to include the movement status acquisition unit. The moving object detection device may use a preset captured image as the initial detection image. For example, the moving object detection device can use the front captured image 31A as the initial detection image regardless of the movement status of the vehicle 100 . In this case, the moving object detection apparatus may determine the cooperative detection image based on the start condition in the start condition table 55 shown in FIG. 18 when the forward captured image 31A is the initial detection image.

上記実施の形態において、画質調整部15は、優先領域画像の画質を維持する。しかし、画質調整部15は、優先領域画像の画質を撮影画像の画質よりも低くしてもよい。 In the above embodiment, the image quality adjustment unit 15 maintains the image quality of the priority area image. However, the image quality adjustment unit 15 may lower the image quality of the priority area image than the image quality of the captured image.

上記実施の形態において、画質調整部15が、撮影画像に設定された非優先領域の画像の画素数を減少させることにより、非優先領域の画像の画質を調整する例を説明した。しかし、画質調整部15は、撮影画像の画素数を減少させることにより撮影画像の画質を調整し、画質が調整された撮影画像から非優先領域の画像を切り出してもよい。この場合、画質調整部15は、非優先領域のサイズは、画素数の減少に応じて変化させる。つまり、画質調整部15は、撮影画像の画素数を減少させることにより、非優先領域の画像の画質を調整するのであれば、画質の調整と非優先領域の切り出しの順序は特に限定されない。 In the above embodiment, an example has been described in which the image quality adjustment unit 15 adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the image of the non-priority area set in the captured image. However, the image quality adjusting unit 15 may adjust the image quality of the captured image by reducing the number of pixels of the captured image, and cut out the image of the non-priority area from the captured image whose image quality has been adjusted. In this case, the image quality adjustment unit 15 changes the size of the non-priority area according to the decrease in the number of pixels. In other words, if the image quality adjustment unit 15 adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the captured image, the order of adjusting the image quality and cutting out the non-priority area is not particularly limited.

また、上記実施の形態で説明した移動物検出装置において、各機能ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。 Further, in the moving object detection apparatus described in the above embodiments, each functional block may be individually integrated into one chip by a semiconductor device such as an LSI, or may be integrated into one chip so as to include part or all of them. Also good.

ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。 Although LSI is used here, it may also be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。 Further, the method of circuit integration is not limited to LSI, and may be implemented by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure connections and settings of circuit cells inside the LSI may be used.

また、上記各実施の形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施の形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。 Also, part or all of the processing of each functional block in each of the above embodiments may be implemented by a program. Part or all of the processing of each functional block in each of the above embodiments is performed by a central processing unit (CPU) in a computer. A program for performing each process is stored in a storage device such as a hard disk or ROM, and is read from the ROM or RAM and executed.

また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 Further, each process of the above embodiment may be realized by hardware, or may be realized by software (including cases where it is realized together with an OS (operating system), middleware, or a predetermined library). . Furthermore, it may be realized by mixed processing of software and hardware.

例えば、上記実施の形態(変形例を含む)の各機能ブロックを、ソフトウェアにより実現する場合、図22に示したハードウェア構成(例えば、CPU、ROM、RAM、入力部、出力部等をバスBusにより接続したハードウェア構成)を用いて、各機能部をソフトウェア処理により実現するようにしてもよい。 For example, when the functional blocks of the above embodiments (including modifications) are implemented by software, the hardware configuration shown in FIG. Each functional unit may be realized by software processing using a hardware configuration connected by

また、上記実施の形態における処理方法の実行順序は、必ずしも、上記実施の形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Also, the execution order of the processing methods in the above embodiment is not necessarily limited to the description of the above embodiment, and the execution order can be changed without departing from the gist of the invention.

前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the method described above and a computer-readable recording medium that records the program are included in the scope of the present invention. Examples of computer-readable recording media include flexible disks, hard disks, CD-ROMs, MOs, DVDs, DVD-ROMs, DVD-RAMs, large-capacity DVDs, next-generation DVDs, and semiconductor memories. .

上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to being recorded on the recording medium, and may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.

以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。 Although the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit of the present invention.

100 車両
10、10A 移動物検出装置
11,11A 画像取得部
12,12A 移動状況取得部
13 第1検出部
14,14A,14B 優先領域設定部
15 画質調整部
16 第2検出部
17 検出結果出力部
31,32,32,34 カメラ
100 Vehicles 10, 10A Moving object detection devices 11, 11A Image acquisition units 12, 12A Movement status acquisition unit 13 First detection units 14, 14A, 14B Priority region setting unit 15 Image quality adjustment unit 16 Second detection unit 17 Detection result output unit 31,32,32,34 camera

Claims (10)

車両に搭載された第1カメラにより生成された第1撮影画像を取得し、前記車両に搭載された第2カメラにより生成された第2撮影画像を取得する画像取得部と、
前記画像取得部により取得された第1撮影画像から前記車両の周辺を移動する第1移動物を検出する第1検出部と、
前記第1検出部により検出された第1移動物の第1撮影画像における位置と、前記検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを前記画像取得部により取得された第2撮影画像に設定する優先領域設定部と、
前記第2撮影画像の画素数を減少させることにより、前記非優先領域の画像の画質を調整する画質調整部と、
前記優先領域の画像及び前記画質調整部により画質が調整された非優先領域の画像の各々から、前記車両の周辺を移動する第2移動物を検出する第2検出部と、を備える移動物検出装置。
an image acquisition unit that acquires a first captured image generated by a first camera mounted on a vehicle and acquires a second captured image generated by a second camera mounted on the vehicle;
a first detection unit that detects a first moving object moving around the vehicle from the first captured image acquired by the image acquisition unit;
a priority area and a non-priority area based on the position of the first moving object detected by the first detection unit in the first captured image and the moving direction of the detected first moving object in the first captured image; a priority area setting unit that sets the second captured image acquired by the image acquisition unit;
an image quality adjustment unit that adjusts the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image;
a moving object detection unit that detects a second moving object moving around the vehicle from each of the image of the priority area and the image of the non-priority area whose image quality is adjusted by the image quality adjustment unit. Device.
請求項1に記載の移動物検出装置であって、
前記第1移動物の前記第1撮影画像における位置が、前記第1撮影画像に予め設定された連携基準領域内である場合、前記優先領域設定部は、前記優先領域及び非優先領域を設定し、
前記第1撮影画像における前記連携基準領域の画像は、前記第2カメラの撮影範囲と前記第1カメラの撮影範囲とが重複する重複範囲が撮影された画像を含む、移動物検出装置。
The moving object detection device according to claim 1,
When the position of the first moving object in the first captured image is within a cooperation reference area preset in the first captured image, the priority area setting unit sets the priority area and the non-priority area. ,
The moving object detection device, wherein the image of the cooperation reference area in the first captured image includes an image of an overlapping range in which the capturing range of the second camera and the capturing range of the first camera overlap.
請求項2に記載の移動物検出装置であって、
前記優先領域設定部は、前記第1移動物の第1撮影画像における移動方向に基づいて、前記第1移動物が前記車両よりも速く、かつ、前記第1移動物と前記車両とが同一方向に進んでいるか否かを判断し、
前記優先領域設定部は、前記第1移動物が前記車両よりも速く、かつ、前記第1移動物と前記車両とが同一方向に進んでいると判断した場合、前記優先領域及び前記非優先領域を前記第2撮影画像に設定する、移動物検出装置。
The moving object detection device according to claim 2,
The priority area setting unit determines, based on a moving direction of the first moving object in the first photographed image, that the first moving object is moving faster than the vehicle and that the first moving object and the vehicle move in the same direction. determine whether it is progressing to
The priority area setting unit determines that the first moving object is faster than the vehicle and that the first moving object and the vehicle are traveling in the same direction, the priority area and the non-priority area. to the second captured image.
請求項2又は3に記載の移動物検出装置であって、
前記第1移動物の前記第1撮影画像における位置が、前記第1撮影画像に予め設定された連携基準領域内である場合、前記優先領域設定部は、優先領域と非優先領域とを前記取得された第1撮影画像に設定し、
前記画質調整部は、前記第1撮影画像の画素数を減少させることにより、前記第1撮影画像に設定された非優先領域の画像の画質を調整し、
前記第1検出部は、前記第1撮影画像に設定された優先領域の画像から移動物を検出し、前記第1撮影画像に設定され、かつ、画質が調整された非優先領域の画像から移動物を検出する、移動物検出装置。
The moving object detection device according to claim 2 or 3,
When the position of the first moving object in the first captured image is within a cooperation reference region preset in the first captured image, the priority region setting unit acquires the priority region and the non-priority region. set it to the first shot image that was captured,
The image quality adjustment unit adjusts the image quality of the image of the non-priority area set in the first captured image by reducing the number of pixels of the first captured image,
The first detection unit detects a moving object from the image of the priority area set in the first captured image, and moves from the image of the non-priority area set in the first captured image and whose image quality is adjusted. A moving object detection device that detects objects.
請求項1~4のいずれか1項に記載の移動物検出装置であって、さらに、
前記車両の移動状況を取得する移動状況取得部、を備え、
前記移動状況取得部により取得された移動状況が所定の条件を満たす場合、前記第1検出部は、前記第1移動物の検出を開始する、移動物検出装置。
The moving object detection device according to any one of claims 1 to 4, further comprising:
a movement status acquisition unit that acquires the movement status of the vehicle;
The moving object detection device, wherein the first detection unit starts detecting the first moving object when the movement status acquired by the movement status acquisition unit satisfies a predetermined condition.
請求項5に記載の移動物検出装置であって、
前記移動状況取得部は、
前記車両が交差点に進入するか否かを判断する進入判断部と、
前記車両が旋回するか否かを判断する旋回判断部と、を含み、
前記優先領域設定部は、前記車両が交差点に進入すると前記進入判断部により判断され、かつ、前記車両が旋回すると旋回判断部により判断された場合、優先領域及び非優先領域を設定する、移動物検出装置。
The moving object detection device according to claim 5,
The movement status acquisition unit
an entry determination unit that determines whether the vehicle enters an intersection;
a turn determination unit that determines whether the vehicle turns,
The priority area setting unit sets a priority area and a non-priority area when the entry determination unit determines that the vehicle enters an intersection and the turn determination unit determines that the vehicle turns. detection device.
請求項6に記載の移動物検出装置であって、
前記進入判断部は、前記車両の前方を撮影するフロントカメラによって撮影された撮影画像から横断歩道を検出し、
前記旋回判断部は、前記車両の旋回方向が前記車両に搭載された方向指示スイッチにより指示されたか否かを判断し、
前記優先領域設定部は、横断歩道が前記進入判断部により検出され、かつ、前記旋回方向が前記方向指示スイッチにより指示された場合、優先領域及び非優先領域を設定する、移動物検出装置。
The moving object detection device according to claim 6,
The entry determination unit detects a pedestrian crossing from a captured image captured by a front camera that captures an area in front of the vehicle,
The turning determination unit determines whether or not a turning direction of the vehicle is indicated by a direction indicator switch mounted on the vehicle,
The moving object detection device, wherein the priority area setting unit sets a priority area and a non-priority area when the pedestrian crossing is detected by the entry determination unit and the turning direction is indicated by the direction switch.
請求項1~4のいずれか1項に記載の移動物検出装置であって、
前記車両は、複数のカメラを搭載し、
前記画像取得部は、
前記複数のカメラにより生成された複数の撮影画像の各々を所定の順序に従って選択する画像選択部と、
前記画像選択部により選択された撮影画像を前記第1撮影画像として前記第1検出部に出力する画像出力部と、を含み、
前記第1検出部が前記第1移動物を検出した場合、前記優先領域設定部は、第1移動物が検出された撮影画像と、前記第1移動物の第1撮影画像における位置と前記第1移動物の第1撮影画像における移動方向とに基づいて前記第2撮影画像を決定し、決定した第2撮影画像を前記画質調整部に出力することを前記画像選択部に指示する、移動物検出装置。
The moving object detection device according to any one of claims 1 to 4,
The vehicle is equipped with a plurality of cameras,
The image acquisition unit is
an image selection unit that selects each of the plurality of captured images generated by the plurality of cameras according to a predetermined order;
an image output unit that outputs the captured image selected by the image selection unit as the first captured image to the first detection unit;
When the first detection unit detects the first moving object, the priority area setting unit detects the captured image in which the first moving object is detected, the position of the first moving object in the first captured image, and the first moving object. determining the second captured image based on the movement direction of the first moving object in the first captured image, and instructing the image selection unit to output the determined second captured image to the image quality adjustment unit. detection device.
請求項8に記載の移動物検出装置であって、さらに、
前記車両の移動状況を取得する移動状況取得部、を備え、
前記移動状況取得部により取得された移動状況が、前記車両が駐車場を走行していることを示す場合、前記画像選択部は、前記複数の撮影画像の選択を開始する、移動物検出装置。
The moving object detection device according to claim 8, further comprising:
a movement status acquisition unit that acquires the movement status of the vehicle;
The moving object detection device, wherein when the movement status acquired by the movement status acquisition section indicates that the vehicle is traveling in a parking lot, the image selection section starts selecting the plurality of captured images.
車両に搭載された第1カメラにより生成された第1撮影画像を取得し、前記車両に搭載された第2カメラにより生成された第2撮影画像を取得するステップと、
前記取得された第1撮影画像から前記車両の周辺を移動する第1移動物を検出するステップと、
前記検出された第1移動物の第1撮影画像における位置と、前記検出された第1移動物の第1撮影画像における移動方向とに基づいて、優先領域と非優先領域とを前記取得された第2撮影画像に設定するステップと、
前記第2撮影画像の画素数を減少させることにより、前記非優先領域の画像の画質を調整するステップと、
前記優先領域の画像及び前記画質が調整された非優先領域の画像の各々から、前記車両の周辺を移動する第2移動物を検出するステップと、を備える移動物検出方法。
obtaining a first captured image generated by a first camera mounted on a vehicle and obtaining a second captured image generated by a second camera mounted on the vehicle;
detecting a first moving object moving around the vehicle from the acquired first captured image;
The priority area and the non-priority area are obtained based on the detected position of the first moving object in the first captured image and the moving direction of the detected first moving object in the first captured image. a step of setting a second captured image;
adjusting the image quality of the image of the non-priority area by reducing the number of pixels of the second captured image;
and detecting a second moving object moving around the vehicle from each of the image of the priority area and the image of the non-priority area whose image quality has been adjusted.
JP2019084219A 2019-04-25 2019-04-25 Moving object detector Active JP7218237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019084219A JP7218237B2 (en) 2019-04-25 2019-04-25 Moving object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019084219A JP7218237B2 (en) 2019-04-25 2019-04-25 Moving object detector

Publications (2)

Publication Number Publication Date
JP2020181381A JP2020181381A (en) 2020-11-05
JP7218237B2 true JP7218237B2 (en) 2023-02-06

Family

ID=73024163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019084219A Active JP7218237B2 (en) 2019-04-25 2019-04-25 Moving object detector

Country Status (1)

Country Link
JP (1) JP7218237B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032029A1 (en) * 2021-08-31 2023-03-09 三菱電機株式会社 Blocking determination device, passenger monitoring device, and blocking determination method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214258A (en) 2012-04-04 2013-10-17 Denso It Laboratory Inc Pedestrian detection device and method, and collision determination device for vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013214258A (en) 2012-04-04 2013-10-17 Denso It Laboratory Inc Pedestrian detection device and method, and collision determination device for vehicle

Also Published As

Publication number Publication date
JP2020181381A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
US11192557B2 (en) Road profile along a predicted path
JP6081570B2 (en) Driving support device and image processing program
US8477191B2 (en) On-vehicle image pickup apparatus
JP6213567B2 (en) Predicted course presentation device and predicted course presentation method
JP5262515B2 (en) Vehicle display device and display method
JP2017159884A (en) Drive control device, drive control method and drive control program
JP7218237B2 (en) Moving object detector
JP2012153256A (en) Image processing apparatus
JP2009105741A (en) In-vehicle perimeter monitoring system
JP2014106740A (en) In-vehicle parking frame recognizing device
JP4930432B2 (en) Vehicle periphery monitoring device
JP2007025739A (en) Image display device for vehicle
JP7275586B2 (en) Video processing device and video processing method
WO2018020751A1 (en) Display control device for vehicle, display system for vehicle, display control method for vehicle, and program
JP7122394B2 (en) Imaging unit controller
JP7300316B2 (en) Moving object detector
US20210129751A1 (en) Side and rear reflection controller and side and rear reflection control method
JP7181956B2 (en) Mobile body control device, control method, and vehicle
US20240132154A1 (en) Road profile along a predicted path
JP4535264B2 (en) Nose view monitor device
JP2022186190A (en) Display device for vehicle, display system for vehicle, display method for vehicle, and program
JP2022157399A (en) Image processing device and image processing method, vehicle control device, and program
JP2023063062A (en) On-vehicle display device, control method, and program
JP2020107063A (en) Object detection device
JP2021008246A (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230125

R150 Certificate of patent or registration of utility model

Ref document number: 7218237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150