JP2024065130A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2024065130A
JP2024065130A JP2021042580A JP2021042580A JP2024065130A JP 2024065130 A JP2024065130 A JP 2024065130A JP 2021042580 A JP2021042580 A JP 2021042580A JP 2021042580 A JP2021042580 A JP 2021042580A JP 2024065130 A JP2024065130 A JP 2024065130A
Authority
JP
Japan
Prior art keywords
image
width
distance
information processing
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021042580A
Other languages
Japanese (ja)
Inventor
崇史 正根寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2021042580A priority Critical patent/JP2024065130A/en
Priority to PCT/JP2022/008162 priority patent/WO2022196316A1/en
Publication of JP2024065130A publication Critical patent/JP2024065130A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】単眼による精度の高い距離測定を実現する。【解決手段】情報処理装置は、記憶部と、処理部と、を備える。前記処理部は、第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、前記仮想直線の間の実際の距離を取得し、前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する。【選択図】図1[Problem] To achieve highly accurate distance measurement using a single eye. [Solution] An information processing device includes a storage unit and a processing unit. The processing unit acquires an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction, detects at least a portion of a plurality of straight lines extending upward from a lower end in the second direction of the image with an inclination within a predetermined angle range, acquires virtual straight lines from at least a portion of the detected multiple straight lines, acquires actual distances between the virtual straight lines, and measures the distance to the object from the position of the object relative to the virtual straight lines in the image and the width between the virtual straight lines at the position of the object. [Selected Figure] Figure 1

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.

距離測定は、車載カメラ、ロボット制御等の広い分野において必要な技術であり、種々の研究開発が進められている。この測距技術は、多くの場合、ステレオカメラにより撮像された画像等を用いて実装されている。2以上の複数のカメラを用いて測距することにより精度の高い測定が実現できるためである。 Distance measurement is a necessary technology in a wide range of fields, including in-vehicle cameras and robot control, and various research and development efforts are underway. This distance measurement technology is often implemented using images captured by stereo cameras. This is because highly accurate measurements can be achieved by measuring distances using two or more cameras.

一方で、2以上のカメラを用いる場合には、これらのカメラ同士を所定距離離れた位置に配置することによるキャプチャ側の配置の問題がある。複数のカメラを用いることによりキャリブレーションが必要となり、このキャリブレーションは、振動、温度等の状況により変更する必要があり、このキャリブレーションの変更を適切に適用する必要がある。また、複数のカメラから取得したデータを同じタイミングで処理する必要があるため、情報処理を実行するプロセッサ等においても処理の軽減が求められる。この他、複数のカメラを測距装置に搭載することにより、カメラ自体のコストがその分だけ高くなるという問題もある。 On the other hand, when using two or more cameras, there is a problem with the placement of the capture side, since the cameras are placed at positions separated by a certain distance. The use of multiple cameras requires calibration, which must be changed depending on conditions such as vibration and temperature, and the changes in calibration must be applied appropriately. In addition, since data obtained from multiple cameras must be processed at the same time, a reduction in processing is also required in processors that execute information processing. Another problem is that the cost of the cameras themselves increases by that much when multiple cameras are installed in a distance measuring device.

特開2007-240316号公報JP 2007-240316 A

そこで、本開示では、単眼による精度の高い距離測定を実現する情報処理装置を提供する。 Therefore, this disclosure provides an information processing device that can achieve highly accurate distance measurement using a single eye.

一実施形態によれば、情報処理装置は、記憶部と、処理部と、を備える。前記処理部は、第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、前記仮想直線の間の実際の距離を取得し、前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する。 According to one embodiment, the information processing device includes a storage unit and a processing unit. The processing unit acquires an image having pixels in an array in a first direction and a second direction intersecting the first direction, detects at least a portion of a plurality of straight lines extending upward from a lower end in the second direction of the image with an inclination within a predetermined angle range, acquires virtual straight lines from at least a portion of the detected plurality of straight lines, acquires actual distances between the virtual straight lines, and measures the distance to the object from the position of the object relative to the virtual straight lines in the image and the width between the virtual straight lines at the position of the object.

前記処理部は、前記仮想直線と前記下端との交差する点に基づいて、画像内の前記第2方向の下端における前記第1方向の前記仮想直線の幅と、現実の前記複数の直線の幅との比率を取得してもよい。 The processing unit may obtain a ratio between the width of the virtual straight line in the first direction at the bottom end of the second direction in the image and the width of the actual straight lines based on the point of intersection of the virtual straight line and the bottom end.

前記処理部は、前記対象の下端の前記第2方向における座標値を取得し、前記対象の前記第2方向における下端の座標値における前記仮想直線の間の前記第1方向における幅と、前記画像の下端における前記仮想直線の前記第1方向における幅と、の比に基づいて、記対象までの距離を算出してもよい。 The processing unit may acquire the coordinate value of the bottom end of the object in the second direction, and calculate the distance to the object based on the ratio between the width in the first direction between the virtual straight lines at the coordinate value of the bottom end of the object in the second direction and the width in the first direction of the virtual straight line at the bottom end of the image.

前記処理部は、前記仮想直線の幅が一定値であるとして、前記対象までの距離を算出してもよい。 The processing unit may calculate the distance to the target by assuming that the width of the virtual straight line is a constant value.

前記処理部は、前記複数の直線の少なくとも一部から、複数の消失点を検出し、前記複数の消失点が所定範囲内にない場合には、前記対象までの間に傾斜が変化する箇所が存在することを検出してもよい。 The processing unit may detect multiple vanishing points from at least a portion of the multiple straight lines, and if the multiple vanishing points are not within a predetermined range, detect that there is a point where the slope changes between the straight lines and the target.

前記処理部は、前記複数の消失点が所定範囲内にない場合に、前記複数の消失点の位置のずれから、変化する前記傾斜の程度を算出してもよい。 When the multiple vanishing points are not within a predetermined range, the processing unit may calculate the degree of change in the tilt from the deviation in the positions of the multiple vanishing points.

前記処理部は、さらに、前記傾斜の変化に基づいて、前記対象までの距離を測定してもよい。 The processing unit may further measure the distance to the object based on the change in tilt.

前記処理部は、HDマップ(高精度3次元地図データ)に基づいて、前記対象の位置における前記仮想直線の間の幅を補正し、前記対象までの距離を算出してもよい。 The processing unit may correct the width between the virtual straight lines at the position of the target based on an HD map (high-precision three-dimensional map data) and calculate the distance to the target.

前記処理部は、前記画像における前記仮想直線の幅に対する前記対象の幅に基づいて、前記対象の現実の幅を測定してもよい。 The processing unit may measure the actual width of the object based on the width of the object relative to the width of the virtual straight line in the image.

前記画像は、映像情報のフレームとして取得された画像であってもよく、前記処理部はさらに、前記画像における1又は複数の過去のフレームの画像を用いて、少なくとも1つの処理を実行してもよい。 The image may be an image acquired as a frame of video information, and the processing unit may further perform at least one process using images of one or more past frames of the image.

検出する前記直線の少なくとも一部は、道路上の白線であってもよい。 At least a portion of the straight line to be detected may be a white line on the road.

検出する前記直線の少なくとも一部は、ガードレールの上端又は下端であってもよい。 At least a portion of the straight line to be detected may be the upper or lower end of the guardrail.

検出する前記直線の少なくとも一部は、道路端であってもよい。 At least a portion of the straight line to be detected may be a road edge.

前記対象は、人又は動物であってもよい。 The subject may be a human or an animal.

前記対象は、自動車であってもよい。 The object may be a car.

前記対象は、障害物であってもよい。 The object may be an obstacle.

一実施形態によれば、情報処理方法は、処理部により、第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、前記仮想直線の間の実際の距離を取得し、前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する。 According to one embodiment, the information processing method includes a processing unit that acquires an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction, detects at least a portion of a plurality of straight lines extending upward from a lower end in the second direction of the image with an inclination within a predetermined angle range, acquires virtual straight lines from at least a portion of the detected plurality of straight lines, acquires actual distances between the virtual straight lines, and measures the distance to the object from the position of the object in the image relative to the virtual straight lines and the width between the virtual straight lines at the position of the object.

情報処理方法は、上記に記載の情報処理装置の各ステップを実行する方法のうち少なくとも1ステップを含んでもよい。 The information processing method may include at least one step of the method for executing each step of the information processing device described above.

一実施形態によれば、プログラムは、コンピュータに実行させると、第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、前記仮想直線の間の実際の距離を取得し、前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、ことを実行する。 According to one embodiment, when executed by a computer, the program acquires an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction, detects at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range, acquires virtual straight lines from at least a portion of the detected plurality of straight lines, acquires actual distances between the virtual straight lines, and measures the distance to the object from the position of the object in the image relative to the virtual straight lines and the width between the virtual straight lines at the position of the object.

プログラムは、コンピュータに、上記に記載の情報処理装置の各ステップを実行する方法のうち少なくとも1ステップを含む方法を実行させてもよい。 The program may cause a computer to execute a method including at least one of the methods for executing each step of the information processing device described above.

一実施形態に係る情報処理装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an information processing apparatus according to an embodiment. カメラのピッチと垂直方向の位置のずれを示すグラフ。A graph showing camera pitch and vertical misalignment. 一実施形態に係る基準幅から対象の位置の取得を示す図。FIG. 13 is a diagram illustrating obtaining a target position from a reference width according to an embodiment. 一実施形態に係る仮想直線の取得を示す図。FIG. 13 is a diagram showing acquisition of a virtual straight line according to an embodiment. 一実施形態に係る情報処理装置の処理を示すフローチャート。10 is a flowchart showing a process of an information processing device according to an embodiment. 一実施形態に係る情報処理装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an information processing device according to an embodiment. 一実施形態に係る対象幅の測定を示す図。FIG. 13 illustrates measuring a width of interest according to one embodiment. 一実施形態に係る情報処理装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an information processing apparatus according to an embodiment. 一実施形態に係る勾配の変化検出を示す図。FIG. 13 illustrates gradient change detection according to an embodiment. 一実施形態に係る勾配の変動の算出を示す図。FIG. 13 illustrates a calculation of gradient variation according to an embodiment. 一実施形態に係る情報処理装置の構成を示すブロック図。FIG. 1 is a block diagram showing a configuration of an information processing apparatus according to an embodiment. 車両制御システムの概略的な構成の一例を示すブロック図。FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system. 車外情報検出部及び撮像部の設置位置の一例を示す説明図。FIG. 4 is an explanatory diagram showing an example of the installation positions of an outside-vehicle information detection unit and an imaging unit.

以下、図面を参照して本開示における実施形態の説明をする。図面は、説明のために用いるものであり、実際の装置における各部の構成の形状、サイズ、又は、他の構成とのサイズの比等が図に示されている通りである必要はない。また、図面は、簡略化して書かれているため、図に書かれている以外にも実装上必要な構成は、適切に備えるものとする。また、明細書中等に、「以上」「以下」等の文言が用いられているかもしれないが、これは適宜適切に「より大きい(高い、多い)」「より小さい(低い、少ない)」と読み替えることが可能であり、逆も同様である。 Below, the embodiments of the present disclosure will be explained with reference to the drawings. The drawings are used for explanatory purposes, and the shape, size, or size ratio of each component in the actual device to other components need not be as shown in the drawings. In addition, since the drawings are simplified, components necessary for implementation other than those shown in the drawings are to be appropriately included. In addition, while the words "more than" and "less than" may be used in the specification, etc., these can be appropriately interpreted as "greater (higher, more)" and "smaller (lower, less)," and vice versa.

以下においては、自動車の車載装置を用いて説明するが、本願の適用範囲は、自動車の車載装置に限定されるものではない。例えば、ドローン、ロボット等に適用することもできる。 The following description will be given using an on-board device for an automobile, but the scope of application of this application is not limited to on-board devices for automobiles. For example, it can also be applied to drones, robots, etc.

(第1実施形態)
図1は、一実施形態に係る情報処理装置の構成を示すブロック図である。情報処理装置1は、撮像部100と、記憶部102と、画像処理部104と、仮想直線取得部106と、基準幅取得部108と、距離算出部110と、を備える。情報処理装置1は、撮像部100から取得した画像又は映像の情報に基づいて、対象となる障害物までの距離を測定する。対象は、人、動物、自動車、障害物等のものであるが、これに限定されるものではない。例えば、自転車に乗った人等も対象とすることができる。
(First embodiment)
1 is a block diagram showing a configuration of an information processing device according to an embodiment. The information processing device 1 includes an imaging unit 100, a storage unit 102, an image processing unit 104, a virtual line acquisition unit 106, a reference width acquisition unit 108, and a distance calculation unit 110. The information processing device 1 measures the distance to a target obstacle based on image or video information acquired from the imaging unit 100. The target may be a person, an animal, a car, an obstacle, or the like, but is not limited thereto. For example, a person riding a bicycle may also be the target.

撮像部100は、例えば、カメラを備えて構成される。カメラは、例えば、自動車の前方の状態を画像、映像情報として取得するように自動車に搭載される。図1においては、情報処理装置1に撮像部100が備えられる形態としているが、これには限られない。例えば、情報処理装置1の外部に撮像部100が備えられていてもよい。撮像部100は、第1方向及び第1方向に交わる第2方向にアレイ状に受光画素を有し、この受光画素が受光した光を光電変換する信号に基づいて、第1方向及び第2方向にアレイ状の画素を有する画像を取得する。 The imaging unit 100 is configured to include, for example, a camera. The camera is mounted on the vehicle to capture, for example, the state in front of the vehicle as image and video information. In FIG. 1, the imaging unit 100 is provided in the information processing device 1, but this is not limiting. For example, the imaging unit 100 may be provided outside the information processing device 1. The imaging unit 100 has light-receiving pixels in an array in a first direction and a second direction intersecting the first direction, and captures an image having pixels in an array in the first direction and the second direction based on signals that photoelectrically convert light received by the light-receiving pixels.

記憶部102は、撮像部100が取得した情報、及び、距離測定に必要な情報が格納される。情報処理装置1の少なくとも一部の機能が、ソフトウェアによる情報処理がハードウェア資源を用いて具体的に実現される場合には、記憶部102は、このソフトウェアに関するプログラム、実行ファイル等を格納してもよい。記憶部102は、非一時的な記憶領域を備えていてもよい。また、記憶部102は、フレームバッファ等の一時的な記憶領域を備えていてもよい。 The storage unit 102 stores information acquired by the imaging unit 100 and information necessary for distance measurement. When at least some of the functions of the information processing device 1 are realized by software information processing using hardware resources, the storage unit 102 may store programs, executable files, etc. related to this software. The storage unit 102 may include a non-temporary storage area. The storage unit 102 may also include a temporary storage area such as a frame buffer.

画像処理部104は、撮像部100が取得した画像、映像情報等に対して適切な画像処理を施す。画像処理部104は、例えば、撮像部100の光学系による歪みを補正する。歪みの補正は、撮像部100により予め設定されているパラメータ等により実行されてもよい。このパラメータ等は、任意のタイミング、又は、所定のタイミングで更新できるもであってもよい。 The image processing unit 104 performs appropriate image processing on the images, video information, etc. acquired by the imaging unit 100. The image processing unit 104 corrects, for example, distortion caused by the optical system of the imaging unit 100. The distortion correction may be performed using parameters, etc., that are set in advance by the imaging unit 100. These parameters, etc. may be updated at any timing or at a specified timing.

仮想直線取得部106は、画像処理部104が処理した画像について、画像の下方から上方へと向かっている複数の直線、半直線、線分等を抽出する。例えば、仮想直線取得部106は、画像における下方(例えば、画像の下半分、下1/4といった所定領域であってもよいし、これ以外の領域を設定してもよい)に存在する線分を抽出する。抽出する線分等は、例えば、水平方向と垂直方向における傾きが所定角度範囲(例えば、60°~120°、70°~110°等で、これらに限られるものではない)に含まれるものに限定してもよい。所定角度範囲は、画像の左右の位置に依存する範囲であってもよい。抽出した線分に基づいて、仮想直線取得部106は、仮想直線を取得する。この処理についての詳細は、後述にて図面を用いて説明する。 The virtual line acquisition unit 106 extracts a plurality of lines, half lines, line segments, etc. that run from the bottom to the top of the image processed by the image processing unit 104. For example, the virtual line acquisition unit 106 extracts line segments that exist in the bottom of the image (for example, this may be a predetermined area such as the bottom half or the bottom 1/4 of the image, or another area may be set). The extracted line segments, etc. may be limited to those whose inclination in the horizontal and vertical directions is within a predetermined angle range (for example, 60° to 120°, 70° to 110°, etc., but is not limited to these). The predetermined angle range may be a range that depends on the left and right positions of the image. Based on the extracted line segments, the virtual line acquisition unit 106 acquires virtual lines. Details of this process will be described later with reference to the drawings.

基準幅取得部108は、画像の下端における仮想直線の幅に基づいて、仮想直線間の幅と、自動車の前方の現実の状態における直線間との幅との比率を取得する。画像の下端において基準幅の比率を取得するのは、撮像部100のカメラのピッチ方向の影響を、道路を映している画像においては、他の領域よりも受けづらいためである。なお、画像の下端まで直線が続いている場合には、仮想直線を求める前に、画像処理部104が出力した画像に基づいて基準幅の比率を取得してもよい。また、この基準幅の比率の取得は、1フレームごと、すなわち、入力された画像の全てに対して実行される必要はなく、例えば、所定のタイミングごとに実行したり、仮想直線が大きく変化した場合に実行したり、と、実行のタイミングを適切な範囲で任意に変更することも可能である。 The reference width acquisition unit 108 acquires the ratio between the width between the virtual straight lines and the width between the straight lines in the actual state in front of the vehicle based on the width of the virtual straight line at the bottom edge of the image. The reason for acquiring the reference width ratio at the bottom edge of the image is that the image showing the road is less affected by the pitch direction of the camera of the imaging unit 100 than other areas. Note that if the straight line continues to the bottom edge of the image, the reference width ratio may be acquired based on the image output by the image processing unit 104 before determining the virtual straight line. In addition, the acquisition of the reference width ratio does not need to be performed for each frame, that is, for all input images, and the timing of execution can be changed arbitrarily within an appropriate range, for example, at a predetermined timing or when the virtual straight line changes significantly.

図2は、カメラから物体までの実際の距離と、実際の距離において撮像される物体の位置のずれと、の関係をピッチのずれに基づいて示す図である。この図に示すように、ピッチのずれに対する現実の物体の位置のずれは、物体の位置がカメラに近いほど小さくなる。一般的に、通常走行時におけるピッチは、±1°程度のずれが生じるが、これに対する画像下端における長さのずれは、±3~4%程度であり、距離測定において大きな影響を及ぼさない。 Figure 2 shows the relationship between the actual distance from the camera to an object and the positional deviation of the object captured at that actual distance, based on the pitch deviation. As shown in this figure, the deviation of the actual object's position relative to the pitch deviation becomes smaller the closer the object is to the camera. Generally, the pitch during normal driving deviates by about ±1°, but the corresponding deviation in length at the bottom edge of the image is about ±3-4%, which does not have a significant effect on distance measurement.

図1に戻り、距離算出部110は、仮想直線取得部106が取得した仮想直線及び基準幅取得部108が取得した基準幅比に基づいて、対象までの距離を算出する。 Returning to FIG. 1, the distance calculation unit 110 calculates the distance to the target based on the virtual line acquired by the virtual line acquisition unit 106 and the reference width ratio acquired by the reference width acquisition unit 108.

図3は、基準幅比率から物体の距離を求める一例を示す図である。例えば、人が対象Oとして撮影された場合に、この対象Oとの距離を測定することについて説明する。撮像面の垂線と、撮像面から垂直に焦点距離fの点と、撮像面における幅yとにより直角三角形を形成する。この図3に示すように、距離算出部110は、例えば、対象Oを検出した矩形の下端、又は、対象Oを検出した領域の下端における垂直座標を取得してもよい。対象Oのこの他の位置における垂直座標を取得してもよいが、例えば、車載に用いる情報処理装置1である場合、安全に配慮して距離が一番短く取得される下端の位置とすることが望ましい。 Figure 3 is a diagram showing an example of finding the distance to an object from the reference width ratio. For example, when a person is photographed as the object O, measuring the distance to this object O will be described. A right triangle is formed by the perpendicular line to the imaging plane, a point at a focal length f perpendicular to the imaging plane, and a width y on the imaging plane. As shown in this Figure 3, the distance calculation unit 110 may obtain, for example, the vertical coordinate of the bottom edge of the rectangle in which the object O is detected, or the bottom edge of the area in which the object O is detected. The vertical coordinate of the object O at other positions may also be obtained, but for example, in the case of an information processing device 1 to be mounted on a vehicle, it is desirable to use the bottom position at which the distance is the shortest for safety reasons.

図に示すように、対象Oの距離における撮像面と平行な直線と、撮像面の垂線を含む相似な直角三角形を形成する。このように定義すると、対象Oまでの距離は、以下のように示すことができる。

Figure 2024065130000002
As shown in the figure, a similar right triangle is formed including a straight line parallel to the imaging plane at the distance of the object O and a perpendicular line to the imaging plane. With this definition, the distance to the object O can be expressed as follows:
Figure 2024065130000002

距離算出部110は、この(1)式におけるYを固定値、例えば、車線幅として固定とすることにより、対象Oの位置における仮想直線の幅に基づいて対象Oまでの距離を取得することができる。例えば、対象Oの位置(以下、対象Oの垂直方向における画像の下側の位置を単に位置ということもある)における仮想直線の幅が撮像面においてuピクセルで取得されたとする。すなわち、画像において、対象Oの位置における仮想直線の幅がuピクセルであったとする。この場合、y = u × (ピクセルピッチ又はピクセル幅)とすることができる。ピクセルのピッチ又はピクセルの幅は、撮像部100の構成により取得することができる固定値である。このため、(1)式を用いることにより、距離算出部110は、対象Oまでの距離を算出することができる。 The distance calculation unit 110 can obtain the distance to the target O based on the width of the virtual line at the position of the target O by fixing Y in this equation (1) as a fixed value, for example, the lane width. For example, it is assumed that the width of the virtual line at the position of the target O (hereinafter, the position of the target O below the image in the vertical direction may be simply referred to as the position) is obtained as u pixels on the imaging surface. In other words, it is assumed that the width of the virtual line at the position of the target O in the image is u pixels. In this case, it can be expressed as y = u × (pixel pitch or pixel width). The pixel pitch or pixel width is a fixed value that can be obtained by the configuration of the imaging unit 100. Therefore, by using equation (1), the distance calculation unit 110 can calculate the distance to the target O.

距離算出部110により算出された距離を対象Oまでの距離として、情報処理装置1は、出力する。複数の対象がある場合には、対象ごとに距離を測定して出力してもよい。例えば、車線幅は、法律等により決められた値であることが多い。このため、車線幅を固定値、例えば、一般道では3m、高速道路では3.5m等とすることにより、適切に対象Oまでの距離を測定することができる。なお、対象の抽出は、各種特徴量を用いる等、適切な方法を用いることが可能である。 The information processing device 1 outputs the distance calculated by the distance calculation unit 110 as the distance to the object O. If there are multiple objects, the distance may be measured and output for each object. For example, lane width is often a value determined by law or the like. For this reason, the lane width can be set to a fixed value, for example, 3 m for general roads and 3.5 m for expressways, so that the distance to the object O can be measured appropriately. Note that the object can be extracted using an appropriate method, such as using various feature amounts.

また、車線幅は、距離測定する対象までは同じであると定義する一方で、画像下端での車線幅を適切に取得する形態としてもよい。例えば、撮像部100に備えられる車載カメラにおいて車のボンネットの一部が下端に撮像される場合には、このボンネットの一部の大きさ(固定値)に基づいて、仮想直線の画像下端における幅を算出してもよい。また、高速道路においては、自車がいるレーンによって車線幅が異なることがある。このような場合に対応するべく、自車のいるレーンにより、仮想直線の画像下端における幅を設定する態様としてもよい。車線幅は、道路によって異なることもある。このような場合には、例えば、GPS(Global Positioning System)等から受信した情報、CAN(Controller Area Network)等を介して取得した位置情報に基づいて、データベース等から車線幅を取得してもよい。もちろん、レーンごとの車線幅を取得することも可能である。 The lane width may be defined as being the same up to the object to which the distance is measured, while the lane width at the bottom of the image may be appropriately acquired. For example, if a part of the hood of the car is captured at the bottom by the vehicle-mounted camera provided in the imaging unit 100, the width of the virtual straight line at the bottom of the image may be calculated based on the size (fixed value) of this part of the hood. On expressways, the lane width may differ depending on the lane in which the vehicle is located. To deal with such cases, the width of the virtual straight line at the bottom of the image may be set depending on the lane in which the vehicle is located. The lane width may also differ depending on the road. In such cases, the lane width may be acquired from a database, etc., based on information received from a GPS (Global Positioning System), etc., or position information acquired via a CAN (Controller Area Network), etc. Of course, it is also possible to acquire the lane width for each lane.

別の例として、基準幅取得部108は、画像の下端と、仮想直線との交点に基づいて、基準となる車線幅を求めてもよい。これは、撮像部100の設置される位置が固定されていることから、画像下端における車線の幅が、画像処理部104により処理された画像においては、測定可能であるためである。このように、基準幅取得部108は、実際の車線と、仮想直線の間の幅との比率を求めるのではなく、車線幅又は仮想直線の間の実際の距離を取得してもよい。この場合にも上記の式等は同様の処理を実行することができる。 As another example, the reference width acquisition unit 108 may obtain a reference lane width based on the intersection between the bottom edge of the image and a virtual straight line. This is because the position at which the imaging unit 100 is installed is fixed, and therefore the width of the lane at the bottom edge of the image is measurable in the image processed by the image processing unit 104. In this way, the reference width acquisition unit 108 may obtain the lane width or the actual distance between the virtual straight lines, rather than obtaining the ratio between the actual lane and the width between the virtual straight lines. In this case as well, the above formulas etc. can be used to perform similar processing.

次に、仮想直線取得部106による仮想直線の取得について説明する。道路が直進しており、車線が直進している場合には、種々の白線検出等の検出方法により取得した直線を仮想直線と同等のものとして利用することができる。このような場合には、仮想直線を取得する必要はない。 Next, the acquisition of a virtual line by the virtual line acquisition unit 106 will be described. When the road is straight and the lanes are straight, a line acquired by various detection methods such as white line detection can be used as equivalent to a virtual line. In such a case, there is no need to acquire a virtual line.

一方で、道路がカーブしている場合には、白線検出した結果は、カーブした形状となる。このような場合、上記のように車線幅から距離を検出することが困難となる。例えば、対象Oの存在する領域(水平、垂直含む)の手前側を通る白線の法線を求めることが必要となる。このような複雑な演算は、フレームレートにより制限される実時間内の処理では困難なことが多い。このような場合には、仮想直線を検出する方法が有効となる。 On the other hand, if the road is curved, the result of detecting the white lines will be a curved shape. In such cases, it becomes difficult to detect the distance from the lane width as described above. For example, it becomes necessary to find the normal of the white line that passes through the front side of the area (including horizontal and vertical) where the object O exists. Such complex calculations are often difficult to process in real time, which is limited by the frame rate. In such cases, a method of detecting virtual straight lines is effective.

図4は、一実施形態に係る仮想直線の算出について説明するための図である。なお、以下において、図4に示されるように第1方向及び第2方向を定義することがある。すなわち、車線等の幅は、同一の第2方向の座標を有する第1方向における距離を示す。また、下端の位置等は、第2方向の座標値を示す。例えば、画像の下端が第2方向における座標の0であり、この座標値に基づいて、ピクセルごとに上方へいくほど座標値が増加する形態としてもよい。 Figure 4 is a diagram for explaining the calculation of a virtual straight line according to one embodiment. In the following, the first direction and the second direction may be defined as shown in Figure 4. That is, the width of a lane or the like indicates the distance in the first direction having the same coordinate in the second direction. The position of the bottom end or the like indicates the coordinate value in the second direction. For example, the bottom end of the image may have a coordinate value of 0 in the second direction, and based on this coordinate value, the coordinate value may increase for each pixel going upward.

図は、例えば、画像処理部104により歪み等が補正された後の画像を示す。仮想直線取得部106は、種々の白線検出手法のうち1つを用いて、白線検出を実行する。白線検出は、所定角度範囲の傾きを有する範囲内において実行されてもよい。検出された白線のうち、所定領域、限定されない一例として、画像の下1/4といった領域等における直線のフィッティングを行い、仮想直線を取得する。このフィッティングも、種々の方法を用いることができる。 The figure shows an image after distortion and the like have been corrected by the image processing unit 104, for example. The virtual straight line acquisition unit 106 performs white line detection using one of various white line detection methods. White line detection may be performed within a range having a tilt within a predetermined angle range. A virtual straight line is acquired by fitting a straight line in a predetermined region of the detected white line, such as, as a non-limiting example, the bottom 1/4 of the image. Various methods can be used for this fitting as well.

このように仮想直線を取得することにより、カーブしている道路においても適切に対象までの距離を測定することが可能となる。例えば、対象Oの画像内における下端の垂直位置における仮想直線同士の幅を用いて(1)式により対象Oまでの距離を測定してもよい。この場合、上記と同様に、距離算出部110は、対象Oの検出された矩形の下端、又は、対象Oの下端を基準にした仮想直線同士の幅を取得することが望ましい。 By acquiring virtual straight lines in this way, it becomes possible to measure the distance to an object appropriately even on a curved road. For example, the distance to object O may be measured using equation (1) by using the width between the virtual straight lines at the vertical position of the bottom edge of object O in the image. In this case, similar to the above, it is desirable for the distance calculation unit 110 to acquire the bottom edge of the detected rectangle of object O, or the width between the virtual straight lines based on the bottom edge of object O.

図5は、本実施形態に係る情報処理装置1の処理の一例を示すフローチャートである。 Figure 5 is a flowchart showing an example of processing by the information processing device 1 according to this embodiment.

まず、撮像部100は、画像を取得する(S100)。上述したように、撮像部100は、情報処理装置1に備えられてもよいし、外部に備えられていてもよい。外部に備えられている場合には、情報処理装置1は、本ステップにおいて撮像部100から画像を受信等することにより取得する。 First, the imaging unit 100 acquires an image (S100). As described above, the imaging unit 100 may be provided in the information processing device 1 or may be provided externally. If the imaging unit 100 is provided externally, the information processing device 1 acquires the image in this step by receiving the image from the imaging unit 100, etc.

次に、画像処理部104は、画像処理を実行する(S102)。画像取得と、画像処理との間に、記憶部102に画像データが格納されてもよい。この場合、画像処理部104は、記憶部102に格納されている画像データを読み込み、画像処理を実行する。適切に処理された画像は、記憶部102に再度格納されてもよい。 Next, the image processing unit 104 executes image processing (S102). Image data may be stored in the storage unit 102 between image acquisition and image processing. In this case, the image processing unit 104 reads the image data stored in the storage unit 102 and executes image processing. The appropriately processed image may be stored again in the storage unit 102.

次に、仮想直線取得部106は、画像処理された画像において仮想直線を取得する(S104)。なお、白線検出等により白線が直線として検出されている場合には、このステップは省略し、検出された白線を以下の処理に用いてもよい。すなわち、この処理は、任意に省略することができる。 Next, the virtual straight line acquisition unit 106 acquires a virtual straight line in the processed image (S104). Note that if the white line has been detected as a straight line by white line detection or the like, this step may be omitted and the detected white line may be used in the following processing. In other words, this processing may be omitted at will.

次に、基準幅取得部108は、車線の幅、又は、仮想直線同士の幅に対する車線の幅の比率を取得する(S106)。基準幅取得部108は、白線検出の結果に基づいて、画像の下端において車線幅等を取得してもよい。仮想直線が取得されている場合には、基準幅取得部108は、仮想直線と画像下端との交点の位置に基づいて、画像の下端における車線幅を取得してもよい。 Next, the reference width acquisition unit 108 acquires the width of the lane or the ratio of the lane width to the width between the virtual straight lines (S106). The reference width acquisition unit 108 may acquire the lane width, etc., at the bottom edge of the image based on the results of the white line detection. If a virtual straight line has been acquired, the reference width acquisition unit 108 may acquire the lane width at the bottom edge of the image based on the position of the intersection between the virtual straight line and the bottom edge of the image.

次に、距離算出部110は、対象を検出し、この検出結果と上記の各ステップで取得されたデータ等に基づいて、対象までの距離を測定する(S108)。例えば、距離算出部110は、上述したように検出された対象を表す矩形領域の下端の位置に基づいて距離を算出する。また、距離算出部110は、対象が複数検出された場合には、複数の対象について距離を取得してもよい。 Next, the distance calculation unit 110 detects the target and measures the distance to the target based on the detection result and the data acquired in each step above (S108). For example, the distance calculation unit 110 calculates the distance based on the position of the bottom edge of the rectangular area representing the detected target as described above. Furthermore, when multiple targets are detected, the distance calculation unit 110 may acquire the distances to the multiple targets.

このように、画像を用いて対象までの距離を測定する。これらの処理は、例えば、フレームごとに繰り返されてもよい。また、S106の処理は、フレームごとに実行される必要はない。例えば、所定のフレームごとに、S106の処理が実行されてもよい。また、別の例として、過去のフレームの情報を用いてS102からS108までの少なくとも1つの処理を実行してもよい。例えば、過去フレームと現フレームとの画像における差異に基づいて、仮想直線を取得、補正したり、斜線幅を取得、補正したり、距離を取得、補正したりしてもよい。 In this way, the image is used to measure the distance to the object. These processes may be repeated for each frame, for example. Also, the process of S106 does not have to be executed for each frame. For example, the process of S106 may be executed for each predetermined frame. As another example, at least one of the processes from S102 to S108 may be executed using information from a past frame. For example, a virtual straight line may be obtained and corrected, a diagonal line width may be obtained and corrected, or a distance may be obtained and corrected based on the difference between the images of the past frame and the current frame.

以上のように、本実施形態によれば、単眼カメラを用いて適切に高精度な対象までの距離測定を実現することが可能となる。この結果、複数のカメラを用いることによる金銭的及び搭載位置等のコストを削減することができる。さらに、複数カメラを用いた場合における煩雑なキャリブレーション処理、また、複数カメラのデータを取り扱いに関する演算コストをも削減することができる。 As described above, according to this embodiment, it is possible to appropriately measure the distance to a target with high accuracy using a monocular camera. As a result, it is possible to reduce the financial and mounting costs, etc., that would otherwise be incurred by using multiple cameras. Furthermore, it is possible to reduce the cumbersome calibration process that would be required when using multiple cameras, as well as the computational costs associated with handling data from multiple cameras.

(第2実施形態)
上述の情報処理装置1と同じデータを用いることにより、対象の幅を推定することも可能である。
Second embodiment
By using the same data as the information processing device 1 described above, it is also possible to estimate the width of the target.

図6は、本実施形態に係る情報処理装置1を示すブロック図である。情報処理装置1は、図1の構成に加えて、対象幅取得部112を備えてもよい。対象幅取得部112は、基準幅取得部108が取得した車線の幅及び対象の画像上の幅に基づいて、対象の幅を取得する。 Figure 6 is a block diagram showing the information processing device 1 according to this embodiment. In addition to the configuration of Figure 1, the information processing device 1 may include a target width acquisition unit 112. The target width acquisition unit 112 acquires the width of the target based on the lane width acquired by the reference width acquisition unit 108 and the width of the target on the image.

対象幅取得部112は、対象の下端(前述の実施形態と同様に検出された矩形の下端でもよい)の垂直座標における車線同士の画素数及び対象の下端の幅の画素数を取得する。 The target width acquisition unit 112 acquires the number of pixels between the lanes in the vertical coordinate of the bottom edge of the target (which may be the bottom edge of the detected rectangle as in the previous embodiment) and the number of pixels of the width of the bottom edge of the target.

図7は、本実施形態における情報処理装置1において取得された画像の一例を示す。車線同士の距離は、例えば、図7においては、3.5mで固定されている。このため、対象の位置における車線の幅[pixel]と、対象の幅[pixel]と、に基づいて、対象の幅[m]を測定することができる。 Figure 7 shows an example of an image acquired by the information processing device 1 in this embodiment. The distance between lanes is fixed at, for example, 3.5 m in Figure 7. Therefore, the width [m] of an object can be measured based on the width [pixel] of the lane at the object's position and the width [pixel] of the object.

例えば、図に示すように、対象の位置における車線幅が140ピクセル、対象の幅が120ピクセルである場合には、3.5[m] × 120 / 140 = 3.0[m]と求めることができる。 For example, as shown in the figure, if the lane width at the target position is 140 pixels and the target width is 120 pixels, then we can calculate 3.5[m] × 120 / 140 = 3.0[m].

このように、本実施形態によれば、対象の幅も同様のステップで求めることが可能となる。例えば、このように対象の幅を取得することにより、道路走行中における対象の車の種別を取得することもできる。車の種別を取得することにより、ADAS(Advanced Driver-Assistance Systems)に用いるデータとして利用することも可能である。 In this way, according to this embodiment, the width of the target can also be obtained in the same steps. For example, by obtaining the width of the target in this way, it is also possible to obtain the type of vehicle of the target that is traveling on the road. By obtaining the type of vehicle, it is also possible to use it as data to be used in ADAS (Advanced Driver-Assistance Systems).

(第3実施形態)
上記のように仮想直線を用いることにより、撮像している画像において傾斜の変動がある場合にも対象との距離を測定することができる。本実施形態においては、道路の勾配が変化する場合における情報処理装置1の処理について説明する。
Third embodiment
By using the virtual straight line as described above, the distance to the object can be measured even when there is a change in the slope of the captured image. In this embodiment, the process of the information processing device 1 when the slope of the road changes will be described.

勾配が変化する場合には、対象の高さによらず対象の幅、車線幅は、前述の実施形態と同様に取得することができるが、対象までの直線距離は、勾配により異なるものとなる。このため、勾配に関する情報を取得し、直線距離を算出する必要がある。 When the gradient changes, the width of the object and the lane width can be obtained in the same way as in the previous embodiment, regardless of the height of the object, but the straight-line distance to the object will differ depending on the gradient. For this reason, it is necessary to obtain information about the gradient and calculate the straight-line distance.

図8は、本実施形態における情報処理装置1を示すブロック図である。情報処理装置1は、前述の第1実施形態の情報処理装置1に加え、消失点取得部114と、勾配算出部116と、を備える。なお、第2実施形態における情報処理装置1に加えて消失点取得部114と、勾配算出部116と、を備える構成であってもよい。 Figure 8 is a block diagram showing the information processing device 1 in this embodiment. In addition to the information processing device 1 of the first embodiment described above, the information processing device 1 includes a vanishing point acquisition unit 114 and a gradient calculation unit 116. Note that the information processing device 1 may also be configured to include a vanishing point acquisition unit 114 and a gradient calculation unit 116 in addition to the information processing device 1 of the second embodiment.

消失点取得部114は、画像から検出された直線、半直線、線分に基づいて、消失点を取得する。消失点の取得は、一般的な手法で実行されてもよい。消失点の取得には、仮想直線取得部106が取得した仮想直線に関する情報を用いてもよく、例えば、消失点取得部114は、仮想直線取得部106が取得した仮想直線同士が交わる点を算出し、この点を消失点として取得してもよい。消失点取得部114は、例えば、画像下端からの直線に基づいて、第1消失点を検出する。そして、白線検出を行った結果において、画像内における傾きが所定値以上に変動する箇所で、そこから上部における直線検出等により、第2消失点を検出してもよい。 The vanishing point acquisition unit 114 acquires a vanishing point based on lines, half lines, and line segments detected from the image. The vanishing point may be acquired by a general method. Information about virtual lines acquired by the virtual line acquisition unit 106 may be used to acquire the vanishing point. For example, the vanishing point acquisition unit 114 may calculate a point where the virtual lines acquired by the virtual line acquisition unit 106 intersect, and acquire this point as the vanishing point. The vanishing point acquisition unit 114 detects a first vanishing point based on a line from the bottom edge of the image, for example. Then, in the result of the white line detection, a second vanishing point may be detected by detecting a line above a point where the inclination in the image changes by a predetermined value or more.

勾配算出部116は、取得された消失点から、勾配が変化する位置及び勾配の変化度合いを算出する。算出方法については、後述にて詳しく説明する。 The gradient calculation unit 116 calculates the position where the gradient changes and the degree of change in the gradient from the acquired vanishing point. The calculation method will be explained in detail later.

図9は、複数の消失点が検出される一例を示す図である。この図に示すように、画像内で勾配が大きく変動する場合、異なる位置に消失点が発生する。そこで、仮想直線取得部106により、勾配が変動する前後において消失点の位置を検出する。例えば、仮想直線取得部106は、画像を第2方向において所定領域ごとに分割しておき、当該領域内における線分等の検出を実行してもよい。そして、それぞれの領域において検出された傾きの差又は比が所定値を越える場合には、それぞれに対して仮想直線を取得してもよい。 Figure 9 is a diagram showing an example in which multiple vanishing points are detected. As shown in this figure, when the gradient varies greatly within an image, vanishing points occur at different positions. Therefore, the virtual line acquisition unit 106 detects the positions of the vanishing points before and after the gradient varies. For example, the virtual line acquisition unit 106 may divide the image into predetermined regions in the second direction and detect line segments, etc. within the regions. Then, when the difference or ratio of the slopes detected in each region exceeds a predetermined value, a virtual line may be acquired for each of them.

消失点取得部114は、取得された複数組の仮想直線から、複数の消失点を取得する。図9の場合、下端からの仮想直線の組による第1消失点と、上方の仮想直線の組による第2消失点と、を抽出する。そして、これらの消失点の第2方向における距離を画素単位で抽出する。 The vanishing point acquisition unit 114 acquires multiple vanishing points from the acquired multiple sets of virtual straight lines. In the case of FIG. 9, a first vanishing point formed by a set of virtual straight lines from the bottom end and a second vanishing point formed by a set of virtual straight lines above are extracted. Then, the distance between these vanishing points in the second direction is extracted in pixel units.

図10は、図9のような勾配の変動を有する道路について、その横からの断面図を模式的に示す図である。実線が道路を表し、点線が消失点の方向を示す。この図には、例えば、撮像面が示されている。この図から、以下の式により勾配の変動値を取得することができる。

Figure 2024065130000003
f[m]及びピクセルピッチは、カメラの構成により取得できる値であり、diff[pix]は、上記の説明により取得することが可能である。このため、(2)式に基づいて、道路の勾配の変動がどの程度であるかを算出することが可能となる。 FIG. 10 is a schematic diagram showing a cross-sectional view of a road having a gradient variation as shown in FIG. 9. The solid line represents the road, and the dotted line represents the direction of the vanishing point. For example, the imaging surface is shown in this diagram. From this diagram, the gradient variation value can be obtained by the following formula.
Figure 2024065130000003
f[m] and pixel pitch are values that can be obtained from the camera configuration, and diff[pix] can be obtained from the above explanation. Therefore, it is possible to calculate the degree of change in road gradient based on formula (2).

白線の検出結果と、車線の幅により、カメラからどの距離までが勾配が変化せず、どこから勾配が変化するかを取得することが可能となる。この結果、これらの距離と勾配により、対象までの距離を距離算出部110が算出することが可能となる。 The results of white line detection and the width of the lane make it possible to determine up to what distance from the camera the gradient does not change and at what point the gradient begins to change. As a result, the distance calculation unit 110 can calculate the distance to the object based on these distances and gradients.

また、計算を簡略化し、以下のように対象までの距離を算出することも可能である。

Figure 2024065130000004
Xは、(1)式に基づいて、対象Oの位置における車線幅から求められた距離であり、θは、(2)式に基づいて求められた勾配である。(3)式により、対象Oまでの直線距離を近似して求める形態としてもよい。 It is also possible to simplify the calculation and calculate the distance to the target as follows:
Figure 2024065130000004
X is the distance calculated from the lane width at the position of the target O based on the formula (1), and θ is the gradient calculated based on the formula (2). The straight-line distance to the target O may be calculated by approximation based on the formula (3).

以上のように、画像内において勾配の変動がある場合であっても、LiDAR(Light Detection and Ranging)等の他のセンサ等が必要となる情報がない場合でも、単眼カメラにおいて精度のよい対象までの距離計測を実現することが可能となる。 As described above, even if there is a gradient change in the image, or if there is no information that requires other sensors such as LiDAR (Light Detection and Ranging), it is possible to achieve accurate distance measurement to the target using a monocular camera.

なお、消失点の検出は、多くの方法においてブレが発生することがある。このようなブレの影響を少なくするために、例えば、図9における第2消失点が、第1消失点から破線で示す所定範囲内にない場合に、第2消失点から勾配を求めるようにしてもよい。このブレは、第2方向のみにおいて考慮してもよい。 Note that many methods for detecting vanishing points can result in blurring. To reduce the effects of such blurring, for example, if the second vanishing point in FIG. 9 is not within a predetermined range from the first vanishing point as indicated by the dashed line, the gradient may be found from the second vanishing point. This blurring may be taken into account only in the second direction.

(第4実施形態)
前述した各実施形態においては、車線の幅は一定であるという仮定の下、距離測定を実行していた。しかしながら、場所によっては車線の幅は一定ではないことがある。このような場合、前述の各実施形態における距離測定方法では、距離の算出誤差が生じることを回避するのは困難である。そこで、本実施形態における距離計測は、このような場合にも対応しようとするものである。
(Fourth embodiment)
In each of the above-described embodiments, distance measurement is performed under the assumption that the lane width is constant. However, the lane width may not be constant depending on the location. In such a case, it is difficult to avoid the occurrence of distance calculation errors using the distance measurement method in each of the above-described embodiments. Therefore, the distance measurement in this embodiment is intended to deal with such a case.

図11は、本実施形態に係る情報処理装置1を示すブロック図である。情報処理装置1は、図1の構成に加え、さらにマップ読込部118を備える。なお、第2実施形態又は第3実施形態に係る情報処理装置1にマップ読込部118を備えている構成であってもよい。 Figure 11 is a block diagram showing an information processing device 1 according to this embodiment. In addition to the configuration of Figure 1, the information processing device 1 further includes a map reading unit 118. Note that the information processing device 1 according to the second or third embodiment may be configured to include the map reading unit 118.

マップ読込部118は、外部又は記憶部102からマップを読み込む。マップ読込部118が読み込むマップは、例えば、HDマップであってもよい。このマップには、車線幅の情報が記録されている。マップ読込部118は、自車の現在の位置に基づいて周辺のマップを適切なタイミングで読み込む。自車の現在の位置は、情報処理装置1に備えられるGPS受信装置(図示しない)から取得してもよいし、ハンドル等の積分値により読み込んでもよいし、SLAM(Simultaneous Localization and Mapping)等の技術により取得されてもよい。 The map reading unit 118 reads a map from the outside or from the memory unit 102. The map read by the map reading unit 118 may be, for example, an HD map. Information on lane width is recorded on this map. The map reading unit 118 reads a surrounding map at an appropriate time based on the current position of the vehicle. The current position of the vehicle may be obtained from a GPS receiver (not shown) provided in the information processing device 1, may be read from an integrated value of the steering wheel, or may be obtained by a technology such as SLAM (Simultaneous Localization and Mapping).

距離算出部110は、取得したマップに基づいて、画像における車線幅が一定であるか否かを確認した上で、対象までの距離を測定する。 The distance calculation unit 110 checks whether the lane width in the image is constant based on the acquired map, and then measures the distance to the object.

HDマップを用いる場合には、自車からの距離により車線幅が一定であるか否かを確認することができる。このため、距離算出部110は、車線幅が一定であると仮定した上で、一度対象までの距離を測定する。そして、この距離がHDマップから取得された車線幅が一定ではない距離に属する場合には、HDマップから取得された車線幅に基づいて、距離を再計算する。距離算出部110は、例えば、対象の位置における車線幅と、画像下端における車線幅との比率に基づいて、対象までの距離を再計算する。一例として、車線が一定であると仮定して算出された距離に、(対象の位置における車線幅) / (画像下端おける車線幅)を積算することにより、車線幅を考慮した距離に補正することができる。 When using an HD map, it is possible to check whether the lane width is constant based on the distance from the vehicle. For this reason, the distance calculation unit 110 measures the distance to the target once, assuming that the lane width is constant. If this distance belongs to a distance where the lane width obtained from the HD map is not constant, the distance is recalculated based on the lane width obtained from the HD map. The distance calculation unit 110 recalculates the distance to the target, for example, based on the ratio between the lane width at the target position and the lane width at the bottom edge of the image. As an example, the distance calculated assuming that the lane is constant can be multiplied by (lane width at the target position) / (lane width at the bottom edge of the image) to correct the distance to one that takes the lane width into account.

このようにマップ読込部118が読み込んだ車線幅により距離算出部110が距離を補正することができる。 In this way, the distance calculation unit 110 can correct the distance based on the lane width read by the map reading unit 118.

車線幅が画像において手前側より奥側が狭くなっており、対象が奥側に存在する場合には、対象の位置は、実際の位置よりも遠くに検出される。このため、車線幅を一定として算出した対象の位置は、実際の位置よりも遠く算出され、車線幅が変動した位置よりも奥であると検出される。この場合には、距離算出部110は、車線幅が変動した向こう側に対象があることを検知して、対象の距離の再計算を実行する。そして、この際計算により、精度の高い距離測定を実行することができる。 When the lane width is narrower at the rear than at the front in the image and the object is at the rear, the object's position is detected as being farther away than its actual position. Therefore, the object's position calculated assuming the lane width to be constant is calculated as being farther away than its actual position, and is detected as being further away than the position where the lane width has changed. In this case, the distance calculation unit 110 detects that the object is on the other side of the changed lane width and recalculates the distance to the object. This calculation allows for highly accurate distance measurement.

逆に、車線幅が画像において手前側より奥側が広くなっており、対象が奥側に存在する場合には、対象の位置は、実際の位置よりも近くに検出される。この場合、車線幅が一定として検出した場合の距離に基づいてHDマップにおける車線幅が変動する位置と比較しても、車線幅が変化する前の位置と判断される可能性がある。このような場合には、再計算されないことがある。 Conversely, if the lane width is wider at the back than at the front in the image and the object is at the back, the object's position will be detected as closer than its actual position. In this case, even if it is compared with the position where the lane width changes in the HD map based on the distance detected as if the lane width were constant, it may be determined to be the position before the lane width changed. In such cases, it may not be recalculated.

距離測定の精度を求める上に置いては、車線幅が変動する可能性がある範囲においては、車線幅が一定である距離と、車線幅が変動した後の距離とを算出し、これらの距離と、自車と変動位置との距離とに基づいて、求めた複数の距離から実際の距離を選択する態様としてもよい。 When determining the accuracy of distance measurement, in the range where lane width may fluctuate, the distance where the lane width is constant and the distance after the lane width has changed may be calculated, and the actual distance may be selected from the multiple distances calculated based on these distances and the distance between the vehicle and the position of the change.

以上のように、本実施形態によれば、車線幅が変化する場合においても、適切に対象までの距離を測定することができる。 As described above, this embodiment makes it possible to properly measure the distance to an object even when the lane width changes.

なお、このようにHDマップを用いる場合には、基準幅取得部108により基準となる車線幅を取得することなく対象までの距離を測定する態様とすることもできる。すなわち、基準となる画像下端における仮想直線間の距離を、HDマップ上における自車位置から読み取った値とすることが可能となる。 When using an HD map in this manner, it is also possible to measure the distance to the target without acquiring the reference lane width by the reference width acquisition unit 108. In other words, it is possible to use the distance between the virtual straight lines at the bottom edge of the image, which serves as the reference, as a value read from the vehicle's position on the HD map.

上記においては、車線として説明したが、これは車線ではなくてもよい。例えば、道路脇に備えられるガードレールの上端又は下端を直線として検出してもよい。別の例としては、道路端を直線として検出してもよい。道路端は、例えば、高速道路であれば中央分離帯や側壁と道路面との設置面、一般道であれば、側道、歩行者道との境界を検出する形態であってもよい。 Although lanes have been described above, they do not have to be lanes. For example, the top or bottom of a guardrail installed on the side of the road may be detected as a straight line. As another example, the edge of the road may be detected as a straight line. The edge of the road may be, for example, the boundary between the center divider or side wall and the road surface on a highway, or the boundary between a side road or pedestrian path on a general road.

本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。 The technology disclosed herein can be applied to a variety of products. For example, the technology disclosed herein may be realized as a device mounted on any type of moving object, such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, personal mobility, an airplane, a drone, a ship, a robot, construction machinery, or an agricultural machine (tractor).

図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図12に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。 FIG. 12 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technology disclosed herein can be applied. The vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010. In the example shown in FIG. 12, the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside vehicle information detection unit 7400, an inside vehicle information detection unit 7500, and an integrated control unit 7600. The communication network 7010 connecting these multiple control units may be, for example, an in-vehicle communication network conforming to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark).

各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図12では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。 Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores the programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Each control unit includes a network I/F for communicating with other control units via a communication network 7010, and a communication I/F for communicating with devices or sensors inside and outside the vehicle by wired or wireless communication. In FIG. 12, the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I/F 7660, an audio/image output unit 7670, an in-vehicle network I/F 7680, and a storage unit 7690. Other control units also include a microcomputer, a communication I/F, a storage unit, and the like.

駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。 The drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs. For example, the drive system control unit 7100 functions as a control device for a drive force generating device for generating a drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force of the vehicle. The drive system control unit 7100 may also function as a control device such as an ABS (Antilock Brake System) or ESC (Electronic Stability Control).

駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。 The drive system control unit 7100 is connected to a vehicle state detection unit 7110. The vehicle state detection unit 7110 includes at least one of a gyro sensor that detects the angular velocity of the axial rotational motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or a sensor for detecting the amount of operation of the accelerator pedal, the amount of operation of the brake pedal, the steering angle of the steering wheel, the engine speed, or the rotation speed of the wheels, for example. The drive system control unit 7100 performs arithmetic processing using the signal input from the vehicle state detection unit 7110, and controls the internal combustion engine, the drive motor, the electric power steering device, the brake device, etc.

ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。 The body system control unit 7200 controls the operation of various devices installed in the vehicle body according to various programs. For example, the body system control unit 7200 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps. In this case, radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 7200. The body system control unit 7200 receives these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.

バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。 The battery control unit 7300 controls the secondary battery 7310, which is the power supply source for the drive motor, according to various programs. For example, information such as the battery temperature, battery output voltage, or remaining capacity of the battery is input to the battery control unit 7300 from a battery device equipped with the secondary battery 7310. The battery control unit 7300 performs calculations using these signals, and controls the temperature regulation of the secondary battery 7310 or a cooling device or the like equipped in the battery device.

車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。 The outside vehicle information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000. For example, at least one of the imaging unit 7410 and the outside vehicle information detection unit 7420 is connected to the outside vehicle information detection unit 7400. The imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras. The outside vehicle information detection unit 7420 includes at least one of an environmental sensor for detecting the current weather or climate, or a surrounding information detection sensor for detecting other vehicles, obstacles, pedestrians, etc., around the vehicle equipped with the vehicle control system 7000.

環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。 The environmental sensor may be, for example, at least one of a raindrop sensor that detects rain, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall. The surrounding information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device. The imaging unit 7410 and the outside vehicle information detection unit 7420 may each be provided as an independent sensor or device, or may be provided as a device in which multiple sensors or devices are integrated.

ここで、図13は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。 Here, FIG. 13 shows an example of the installation positions of the imaging unit 7410 and the vehicle exterior information detection unit 7420. The imaging units 7910, 7912, 7914, 7916, and 7918 are provided, for example, at least one of the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle cabin of the vehicle 7900. The imaging unit 7910 provided on the front nose and the imaging unit 7918 provided on the upper part of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 7900. The imaging units 7912 and 7914 provided on the side mirrors mainly acquire images of the sides of the vehicle 7900. The imaging unit 7916 provided on the rear bumper or back door mainly acquires images of the rear of the vehicle 7900. The imaging unit 7918 provided on the upper part of the windshield inside the vehicle cabin is mainly used to detect leading vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.

なお、図13には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。 In addition, FIG. 13 shows an example of the imaging ranges of each of the imaging units 7910, 7912, 7914, and 7916. Imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose, imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors, respectively, and imaging range d indicates the imaging range of the imaging unit 7916 provided on the rear bumper or back door. For example, an overhead image of the vehicle 7900 viewed from above is obtained by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916.

車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。 External information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners, and upper part of the windshield inside the vehicle 7900 may be, for example, ultrasonic sensors or radar devices. External information detection units 7920, 7926, and 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield inside the vehicle 7900 may be, for example, LIDAR devices. These external information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, etc.

図12に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。 Returning to FIG. 12, the explanation will be continued. The outside-vehicle information detection unit 7400 causes the imaging unit 7410 to capture an image outside the vehicle and receives the captured image data. The outside-vehicle information detection unit 7400 also receives detection information from the connected outside-vehicle information detection unit 7420. If the outside-vehicle information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the outside-vehicle information detection unit 7400 transmits ultrasonic waves or electromagnetic waves and receives information on the received reflected waves. The outside-vehicle information detection unit 7400 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, or characters on the road surface based on the received information. The outside-vehicle information detection unit 7400 may perform environmental recognition processing for recognizing rainfall, fog, road surface conditions, etc. based on the received information. The outside-vehicle information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.

また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。 The outside vehicle information detection unit 7400 may also perform image recognition processing or distance detection processing to recognize people, cars, obstacles, signs, or characters on the road surface based on the received image data. The outside vehicle information detection unit 7400 may perform processing such as distortion correction or alignment on the received image data, and may also generate an overhead image or a panoramic image by synthesizing image data captured by different imaging units 7410. The outside vehicle information detection unit 7400 may also perform viewpoint conversion processing using image data captured by different imaging units 7410.

車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。 The in-vehicle information detection unit 7500 detects information inside the vehicle. For example, a driver state detection unit 7510 that detects the state of the driver is connected to the in-vehicle information detection unit 7500. The driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects the driver's biometric information, or a microphone that collects sound inside the vehicle. The biosensor is provided, for example, on the seat or steering wheel, and detects the biometric information of a passenger sitting in the seat or a driver holding the steering wheel. The in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or may determine whether the driver is dozing. The in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected sound signal.

統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。 The integrated control unit 7600 controls the overall operation of the vehicle control system 7000 according to various programs. The input unit 7800 is connected to the integrated control unit 7600. The input unit 7800 is realized by a device that can be operated by the passenger, such as a touch panel, a button, a microphone, a switch, or a lever. Data obtained by voice recognition of a voice input by a microphone may be input to the integrated control unit 7600. The input unit 7800 may be, for example, a remote control device using infrared or other radio waves, or an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. The input unit 7800 may be, for example, a camera, in which case the passenger can input information by gestures. Alternatively, data obtained by detecting the movement of a wearable device worn by the passenger may be input. Furthermore, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by the passenger using the above-mentioned input unit 7800 and outputs the input signal to the integrated control unit 7600. Passengers and others can operate the input unit 7800 to input various data and instruct processing operations to the vehicle control system 7000.

記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。 The storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, etc. The storage unit 7690 may also be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device, etc.

汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。 The general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication between various devices present in the external environment 7750. The general-purpose communication I/F 7620 may implement cellular communication protocols such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced), or other wireless communication protocols such as wireless LAN (also called Wi-Fi (registered trademark)) and Bluetooth (registered trademark). The general-purpose communication I/F 7620 may connect to devices (e.g., application servers or control servers) present on an external network (e.g., the Internet, a cloud network, or a carrier-specific network) via, for example, a base station or an access point. The general-purpose communication I/F 7620 may also connect to terminals (e.g., drivers', pedestrians', or store terminals, or MTC (Machine Type Communication) terminals) present in the vicinity of the vehicle, for example, using P2P (Peer To Peer) technology.

専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。 The dedicated communication I/F 7630 is a communication I/F that supports a communication protocol developed for use in vehicles. The dedicated communication I/F 7630 may implement a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or a cellular communication protocol, which is a combination of the lower layer IEEE 802.11p and the higher layer IEEE 1609. The dedicated communication I/F 7630 typically performs V2X communication, which is a concept that includes one or more of vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.

測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。 The positioning unit 7640 performs positioning by receiving, for example, GNSS signals from GNSS (Global Navigation Satellite System) satellites (for example, GPS signals from GPS (Global Positioning System) satellites) and generates position information including the latitude, longitude, and altitude of the vehicle. The positioning unit 7640 may determine the current position by exchanging signals with a wireless access point, or may obtain position information from a terminal such as a mobile phone, PHS, or smartphone that has a positioning function.

ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。 The beacon receiver 7650 receives, for example, radio waves or electromagnetic waves transmitted from radio stations installed on the road, and acquires information such as the current location, congestion, road closures, and travel time. The functions of the beacon receiver 7650 may be included in the dedicated communication I/F 7630 described above.

車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。 The in-vehicle device I/F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle. The in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB). The in-vehicle device I/F 7660 may also establish a wired connection such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface), or MHL (Mobile High-definition Link) via a connection terminal (and a cable, if necessary) not shown. The in-vehicle device 7760 may include, for example, at least one of a mobile device or wearable device owned by a passenger, or an information device carried into or attached to the vehicle. The in-vehicle device 7760 may also include a navigation device that searches for a route to an arbitrary destination. The in-vehicle device I/F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.

車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。 The in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010. The in-vehicle network I/F 7680 transmits and receives signals, etc. in accordance with a specific protocol supported by the communication network 7010.

統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。 The microcomputer 7610 of the integrated control unit 7600 controls the vehicle control system 7000 according to various programs based on information acquired through at least one of the general-purpose communication I/F 7620, the dedicated communication I/F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I/F 7660, and the in-vehicle network I/F 7680. For example, the microcomputer 7610 may calculate the control target value of the driving force generating device, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and output a control command to the drive system control unit 7100. For example, the microcomputer 7610 may perform cooperative control for the purpose of realizing the functions of an ADAS (Advanced Driver Assistance System), including vehicle collision avoidance or impact mitigation, following driving based on the distance between vehicles, vehicle speed maintenance driving, vehicle collision warning, vehicle lane departure warning, etc. In addition, the microcomputer 7610 may control the driving force generating device, steering mechanism, braking device, etc. based on the acquired information about the surroundings of the vehicle, thereby performing cooperative control for the purpose of autonomous driving, which allows the vehicle to travel autonomously without relying on the driver's operation.

マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。 The microcomputer 7610 may generate three-dimensional distance information between the vehicle and objects such as surrounding structures and people based on information acquired through at least one of the general-purpose communication I/F 7620, the dedicated communication I/F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I/F 7660, and the in-vehicle network I/F 7680, and may create local map information including information about the surroundings of the vehicle's current position. In addition, the microcomputer 7610 may predict dangers such as vehicle collisions, the approach of pedestrians, or entry into closed roads based on the acquired information, and generate warning signals. The warning signals may be, for example, signals for generating warning sounds or turning on warning lights.

音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図12の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。 The audio/image output unit 7670 transmits at least one of audio and image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle of information. In the example of FIG. 12, an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices. The display unit 7720 may include, for example, at least one of an on-board display and a head-up display. The display unit 7720 may have an AR (Augmented Reality) display function. The output device may be other devices such as headphones, a wearable device such as a glasses-type display worn by the passenger, a projector, or a lamp, in addition to these devices. When the output device is a display device, the display device visually displays the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, graphs, etc. When the output device is an audio output device, the audio output device converts an audio signal consisting of reproduced audio data or acoustic data into an analog signal and audibly outputs it.

なお、図12に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。 In the example shown in FIG. 12, at least two control units connected via the communication network 7010 may be integrated into one control unit. Alternatively, each control unit may be composed of multiple control units. Furthermore, the vehicle control system 7000 may include another control unit not shown. In the above description, some or all of the functions performed by any control unit may be provided by another control unit. In other words, as long as information is transmitted and received via the communication network 7010, a predetermined calculation process may be performed by any control unit. Similarly, a sensor or device connected to any control unit may be connected to another control unit, and multiple control units may transmit and receive detection information to each other via the communication network 7010.

なお、図1等を用いて説明した本実施形態に係る情報処理装置1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。 A computer program for implementing each function of the information processing device 1 according to this embodiment described with reference to FIG. 1 and the like can be implemented in any control unit or the like. A computer-readable recording medium on which such a computer program is stored can also be provided. The recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. The computer program may also be distributed, for example, via a network, without using a recording medium.

以上説明した車両制御システム7000において、図1等を用いて説明した本実施形態に係る情報処理装置1は、図12に示した応用例の車外情報検出ユニット7400、撮像部7410及び車外情報検出部7420の少なくとも一部に適用することができる。 In the vehicle control system 7000 described above, the information processing device 1 according to this embodiment described using FIG. 1 etc. can be applied to at least a part of the outside vehicle information detection unit 7400, the imaging unit 7410, and the outside vehicle information detection unit 7420 of the application example shown in FIG. 12.

また、図1等を用いて説明した情報処理装置1の少なくとも一部の構成要素は、図12に示した車外情報検出ユニット7400、撮像部7410及び車外情報検出部7420の少なくとも一部のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1等を用いて説明した情報処理装置1が、図12に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。 In addition, at least some of the components of the information processing device 1 described using FIG. 1 etc. may be realized in a module (e.g., an integrated circuit module configured on a single die) for at least some of the outside vehicle information detection unit 7400, the imaging unit 7410, and the outside vehicle information detection unit 7420 shown in FIG. 12. Alternatively, the information processing device 1 described using FIG. 1 etc. may be realized by multiple control units of the vehicle control system 7000 shown in FIG. 12.

前述した実施形態は、以下のような形態としてもよい。 The above-described embodiment may be modified as follows:

(1)
記憶部と、処理部と、を備え、
前記処理部は、
第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、
前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、
前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、
前記仮想直線の間の実際の距離を取得し、
前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、
情報処理装置。
(1)
A storage unit and a processing unit are provided,
The processing unit includes:
Acquiring an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction;
Detecting at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range;
acquiring a virtual straight line from at least a portion of the detected straight lines;
Obtaining the actual distance between the imaginary lines;
measuring a distance to the object from a position of the object relative to the virtual line in the image and a width between the virtual lines at the position of the object;
Information processing device.

(2)
前記処理部は、
前記仮想直線と前記下端との交差する点に基づいて、画像内の前記第2方向の下端における前記第1方向の前記仮想直線の幅と、現実の前記複数の直線の幅との比率を取得する、
(1)に記載の情報処理装置。
(2)
The processing unit includes:
acquiring a ratio between a width of the virtual straight line in the first direction at the lower end in the second direction in the image and a width of the actual straight lines based on an intersection point between the virtual straight line and the lower end;
An information processing device as described in (1).

(3)
前記処理部は、
前記対象の下端の前記第2方向における座標値を取得し、
前記対象の前記第2方向における下端の座標値における前記仮想直線の間の前記第1方向における幅と、前記画像の下端における前記仮想直線の前記第1方向における幅と、の比に基づいて、前記対象までの距離を算出する、
(1)又は(2)に記載の情報処理装置。
(3)
The processing unit includes:
obtaining a coordinate value of a lower end of the object in the second direction;
calculating a distance to the object based on a ratio between a width in the first direction between the virtual straight lines at a coordinate value of a lower end of the object in the second direction and a width in the first direction of the virtual straight line at a lower end of the image;
An information processing device according to (1) or (2).

(4)
前記処理部は、
前記仮想直線の幅が一定値であるとして、前記対象までの距離を算出する、
(3)に記載の情報処理装置。
(Four)
The processing unit includes:
Calculating the distance to the target assuming that the width of the virtual straight line is a constant value;
(3) An information processing device.

(5)
前記処理部は、
前記複数の直線の少なくとも一部から、複数の消失点を検出し、
前記複数の消失点が所定範囲内にない場合には、前記対象までの間に傾斜が変化する箇所が存在することを検出する、
(1)から(4)のいずれかに記載の情報処理装置。
(Five)
The processing unit includes:
Detecting a plurality of vanishing points from at least a portion of the plurality of straight lines;
If the plurality of vanishing points are not within a predetermined range, a point where a slope changes is detected on the way to the object.
An information processing device according to any one of (1) to (4).

(6)
前記処理部は、
前記複数の消失点が所定範囲内にない場合に、前記複数の消失点の位置のずれから、変化する前記傾斜の程度を算出する、
(5)に記載の情報処理装置。
(6)
The processing unit includes:
When the plurality of vanishing points are not within a predetermined range, the degree of change in the inclination is calculated from the deviation of the positions of the plurality of vanishing points.
(5) An information processing device according to the present invention.

(7)
前記処理部は、
さらに、前記傾斜の変化に基づいて、前記対象までの距離を測定する、
(6)に記載の情報処理装置。
(7)
The processing unit includes:
and determining a distance to the object based on the change in tilt.
(6) An information processing device.

(8)
前記処理部は、
HDマップ(高精度3次元地図データ)に基づいて、前記対象の位置における前記仮想直線の間の幅を補正し、前記対象までの距離を算出する、
(1)から(7)のいずれかに記載の情報処理装置。
(8)
The processing unit includes:
Based on an HD map (high-precision three-dimensional map data), a width between the virtual straight lines at the position of the object is corrected, and a distance to the object is calculated.
An information processing device according to any one of (1) to (7).

(9)
前記処理部は、
前記画像における前記仮想直線の幅に対する前記対象の幅に基づいて、前記対象の現実の幅を測定する、
(1)から(8)のいずれかに記載の情報処理装置。
(9)
The processing unit includes:
measuring a real width of the object based on a width of the object relative to a width of the imaginary line in the image;
An information processing device according to any one of (1) to (8).

(10)
前記画像は、映像情報のフレームとして取得された画像であり、
前記処理部はさらに、
前記画像における1又は複数の過去のフレームの画像を用いて、少なくとも1つの処理を実行する、
(1)から(9)のいずれかに記載の情報処理装置。
(Ten)
the image is an image captured as a frame of video information;
The processing unit further comprises:
performing at least one process using one or more past frame images of the image;
An information processing device according to any one of (1) to (9).

(11)
検出する前記直線の少なくとも一部は、道路上の白線である、
(1)から(10)のいずれかに記載の情報処理装置。
(11)
At least a part of the straight line to be detected is a white line on a road.
An information processing device according to any one of (1) to (10).

(12)
検出する前記直線の少なくとも一部は、ガードレールの上端又は下端である、
(1)から(11)のいずれかに記載の情報処理装置。
(12)
At least a part of the straight line to be detected is the upper end or the lower end of the guardrail.
An information processing device according to any one of (1) to (11).

(13)
検出する前記直線の少なくとも一部は、道路端である、
(1)から(12)のいずれかに記載の情報処理装置。
(13)
At least a part of the straight line to be detected is a road edge.
An information processing device according to any one of (1) to (12).

(14)
前記対象は、人又は動物である、
(1)から(13)のいずれかに記載の情報処理装置。
(14)
The subject is a human or an animal.
An information processing device according to any one of (1) to (13).

(15)
前記対象は、自動車である、
(1)から(14)のいずれかに記載の情報処理装置。
(15)
The object is an automobile.
An information processing device according to any one of (1) to (14).

(16)
前記対象は、障害物である、
(1)から(15)のいずれかに記載の情報処理装置。
(16)
The object is an obstacle.
An information processing device according to any one of (1) to (15).

(17)
処理部により、
第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、
前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、
前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、
前記仮想直線の間の実際の距離を取得し、
前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、
情報処理方法。
(17)
The processing section:
Acquiring an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction;
Detecting at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range;
acquiring a virtual straight line from at least a part of the detected straight lines;
Obtaining the actual distance between the imaginary lines;
measuring a distance to the object from a position of the object relative to the virtual line in the image and a width between the virtual lines at the position of the object;
Information processing methods.

(18)
(2)から(16)に記載の情報処理装置の各ステップを実行する方法のうち少なくとも1ステップを含む、
(17)に記載の情報処理方法。
(18)
The method includes at least one step of executing each step of the information processing device according to (2) to (16),
(17) An information processing method according to (17).

(19)
コンピュータに実行させると、
第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、
前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、
前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、
前記仮想直線の間の実際の距離を取得し、
前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、
プログラム。
(19)
When you run it on your computer,
Acquiring an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction;
Detecting at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range;
acquiring a virtual straight line from at least a part of the detected straight lines;
Obtaining the actual distance between the imaginary lines;
measuring a distance to the object from a position of the object relative to the virtual line in the image and a width between the virtual lines at the position of the object;
program.

(20)
コンピュータに、
(2)から(16)に記載の情報処理装置の各ステップを実行する方法のうち少なくとも1ステップを含む方法を実行させる、
(19)に記載のプログラム。
(20)
On the computer,
Executing a method including at least one step among the methods for executing each step of the information processing device according to (2) to (16);
(19) The program according to (19).

本開示の態様は、前述した実施形態に限定されるものではなく、想到しうる種々の変形も含むものであり、本開示の効果も前述の内容に限定されるものではない。各実施形態における構成要素は、適切に組み合わされて適用されてもよい。すなわち、特許請求の範囲に規定された内容及びその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。 The aspects of the present disclosure are not limited to the above-described embodiments, but include various conceivable modifications, and the effects of the present disclosure are not limited to the above-described contents. The components in each embodiment may be appropriately combined and applied. In other words, various additions, modifications, and partial deletions are possible within the scope that does not deviate from the conceptual idea and intent of the present disclosure derived from the contents defined in the claims and their equivalents.

1: 情報処理装置、
100: 撮像部、102: 記憶部、104: 画像処理部、106: 仮想直線取得部、108: 基準幅取得部、110: 距離算出部、
112: 対象幅取得部、
114: 消失点取得部、116: 勾配算出部、
118: マップ読込部
1: Information processing device;
100: imaging unit, 102: storage unit, 104: image processing unit, 106: virtual straight line acquisition unit, 108: reference width acquisition unit, 110: distance calculation unit,
112: target width acquisition unit,
114: vanishing point acquisition unit, 116: gradient calculation unit,
118: Map reader

Claims (12)

記憶部と、処理部と、を備え、
前記処理部は、
第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、
前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、
前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、
前記仮想直線の間の実際の距離を取得し、
前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、
情報処理装置。
A storage unit and a processing unit are provided,
The processing unit includes:
Acquiring an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction;
Detecting at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range;
acquiring a virtual straight line from at least a portion of the detected straight lines;
Obtaining the actual distance between the imaginary lines;
measuring a distance to the object from a position of the object relative to the virtual line in the image and a width between the virtual lines at the position of the object;
Information processing device.
前記処理部は、
前記仮想直線と前記下端との交差する点に基づいて、画像内の前記第2方向の下端における前記第1方向の前記仮想直線の幅と、現実の前記複数の直線の幅との比率を取得する、
請求項1に記載の情報処理装置。
The processing unit includes:
acquiring a ratio between a width of the virtual straight line in the first direction at the lower end in the second direction in the image and a width of the actual straight lines based on an intersection point between the virtual straight line and the lower end;
The information processing device according to claim 1.
前記処理部は、
前記対象の下端の前記第2方向における座標値を取得し、
前記対象の前記第2方向における下端の座標値における前記仮想直線の間の前記第1方向における幅と、前記画像の下端における前記仮想直線の前記第1方向における幅と、の比に基づいて、前記対象までの距離を算出する、
請求項1に記載の情報処理装置。
The processing unit includes:
obtaining a coordinate value of a lower end of the object in the second direction;
calculating a distance to the object based on a ratio between a width in the first direction between the virtual straight lines at a coordinate value of a lower end of the object in the second direction and a width in the first direction of the virtual straight line at a lower end of the image;
The information processing device according to claim 1.
前記処理部は、
前記仮想直線の幅が一定値であるとして、前記対象までの距離を算出する、
請求項3に記載の情報処理装置。
The processing unit includes:
Calculating the distance to the target assuming that the width of the virtual straight line is a constant value;
The information processing device according to claim 3.
前記処理部は、
前記複数の直線の少なくとも一部から、複数の消失点を検出し、
前記複数の消失点が所定範囲内にない場合には、前記対象までの間に傾斜が変化する箇所が存在することを検出する、
請求項1に記載の情報処理装置。
The processing unit includes:
Detecting a plurality of vanishing points from at least a portion of the plurality of straight lines;
If the plurality of vanishing points are not within a predetermined range, a point where a slope changes is detected on the way to the object.
The information processing device according to claim 1.
前記処理部は、
前記複数の消失点が所定範囲内にない場合に、前記複数の消失点の位置のずれから、変化する前記傾斜の程度を算出する、
請求項5に記載の情報処理装置。
The processing unit includes:
When the plurality of vanishing points are not within a predetermined range, the degree of change in the inclination is calculated from the deviation of the positions of the plurality of vanishing points.
The information processing device according to claim 5.
前記処理部は、
さらに、前記傾斜の変化に基づいて、前記対象までの距離を測定する、
請求項6に記載の情報処理装置。
The processing unit includes:
and determining a distance to the object based on the change in tilt.
The information processing device according to claim 6.
前記処理部は、
HDマップ(高精度3次元地図データ)に基づいて、前記対象の位置における前記仮想直線の間の幅を補正し、前記対象までの距離を算出する、
請求項1に記載の情報処理装置。
The processing unit includes:
Based on an HD map (high-precision three-dimensional map data), a width between the virtual straight lines at the position of the object is corrected, and a distance to the object is calculated.
The information processing device according to claim 1.
前記処理部は、
前記画像における前記仮想直線の幅に対する前記対象の幅に基づいて、前記対象の現実の幅を測定する、
請求項1に記載の情報処理装置。
The processing unit includes:
measuring a real width of the object based on a width of the object relative to a width of the imaginary line in the image;
The information processing device according to claim 1.
前記画像は、映像情報のフレームとして取得された画像であり、
前記処理部はさらに、
前記画像における1又は複数の過去のフレームの画像を用いて、少なくとも1つの処理を実行する、
請求項1に記載の情報処理装置。
the image is an image captured as a frame of video information;
The processing unit further comprises:
performing at least one process using one or more past frame images of the image;
The information processing device according to claim 1.
処理部により、
第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、
前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、
前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、
前記仮想直線の間の実際の距離を取得し、
前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、
情報処理方法。
The processing section:
Acquiring an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction;
Detecting at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range;
acquiring a virtual straight line from at least a portion of the detected straight lines;
Obtaining the actual distance between the imaginary lines;
measuring a distance to the object from a position of the object relative to the virtual line in the image and a width between the virtual lines at the position of the object;
Information processing methods.
コンピュータに実行させると、
第1方向及び前記第1方向に交わる第2方向にアレイ状に画素を有する画像を取得し、
前記画像の前記第2方向における下端から上方へ向けて所定角度範囲内の傾きを有して延伸される複数の直線の少なくとも一部を検出し、
前記複数の直線について、検出された少なくとも一部から、仮想直線を取得し、
前記仮想直線の間の実際の距離を取得し、
前記画像における、前記仮想直線に対する対象の位置及び前記対象の位置における前記仮想直線の間の幅から、前記対象までの距離を測定する、
プログラム。
When you run it on your computer,
Acquiring an image having pixels arranged in an array in a first direction and a second direction intersecting the first direction;
Detecting at least a portion of a plurality of straight lines extending upward from a lower end of the image in the second direction with an inclination within a predetermined angle range;
acquiring a virtual straight line from at least a part of the detected straight lines;
Obtaining the actual distance between the imaginary lines;
measuring a distance to the object from a position of the object relative to the virtual line in the image and a width between the virtual lines at the position of the object;
program.
JP2021042580A 2021-03-16 2021-03-16 Information processing device, information processing method, and program Pending JP2024065130A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021042580A JP2024065130A (en) 2021-03-16 2021-03-16 Information processing device, information processing method, and program
PCT/JP2022/008162 WO2022196316A1 (en) 2021-03-16 2022-02-28 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021042580A JP2024065130A (en) 2021-03-16 2021-03-16 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2024065130A true JP2024065130A (en) 2024-05-15

Family

ID=83321284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021042580A Pending JP2024065130A (en) 2021-03-16 2021-03-16 Information processing device, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2024065130A (en)
WO (1) WO2022196316A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4610425B2 (en) * 2005-06-27 2011-01-12 アルパイン株式会社 Map information updating method and navigation apparatus
JP2007124676A (en) * 2006-11-22 2007-05-17 Hitachi Ltd On-vehicle image processor
JP6816401B2 (en) * 2016-08-09 2021-01-20 株式会社リコー Image processing device, imaging device, mobile device control system, image processing method, and program
JP6889005B2 (en) * 2017-04-05 2021-06-18 株式会社Soken Road parameter estimator
CN111144179A (en) * 2018-11-06 2020-05-12 富士通株式会社 Scene detection device and method

Also Published As

Publication number Publication date
WO2022196316A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
JP6834964B2 (en) Image processing equipment, image processing methods, and programs
US11076141B2 (en) Image processing device, image processing method, and vehicle
WO2017057044A1 (en) Information processing device and information processing method
JP6764573B2 (en) Image processing equipment, image processing methods, and programs
CN110574357B (en) Imaging control apparatus, method for controlling imaging control apparatus, and moving body
JP7294148B2 (en) CALIBRATION DEVICE, CALIBRATION METHOD AND PROGRAM
CN110691986A (en) Apparatus, method and computer program for computer vision
WO2017188017A1 (en) Detection device, detection method, and program
JP6922169B2 (en) Information processing equipment and methods, vehicles, and information processing systems
US20220319013A1 (en) Image processing device, image processing method, and program
JP7363890B2 (en) Information processing device, information processing method and program
WO2022024602A1 (en) Information processing device, information processing method and program
US11436706B2 (en) Image processing apparatus and image processing method for improving quality of images by removing weather elements
US20220012552A1 (en) Information processing device and information processing method
WO2022196316A1 (en) Information processing device, information processing method, and program
JP2022037373A (en) Information processor and method for processing information
US20210248756A1 (en) Image processing apparatus, vehicle-mounted apparatus, image processing method, and program
WO2020195969A1 (en) Information processing device, information processing method, and program
WO2022059489A1 (en) Information processing device, information processing method, and program
US20230412923A1 (en) Signal processing device, imaging device, and signal processing method
US20230119187A1 (en) Circuitry and method
US11989901B2 (en) Information processing device and information processing method
US20220290996A1 (en) Information processing device, information processing method, information processing system, and program