JP2018194538A - Information processing system and program - Google Patents

Information processing system and program Download PDF

Info

Publication number
JP2018194538A
JP2018194538A JP2018003976A JP2018003976A JP2018194538A JP 2018194538 A JP2018194538 A JP 2018194538A JP 2018003976 A JP2018003976 A JP 2018003976A JP 2018003976 A JP2018003976 A JP 2018003976A JP 2018194538 A JP2018194538 A JP 2018194538A
Authority
JP
Japan
Prior art keywords
region
road surface
area
distance
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018003976A
Other languages
Japanese (ja)
Other versions
JP7058128B2 (en
Inventor
亮太 藤村
Ryota Fujimura
亮太 藤村
育規 石井
Yasunori Ishii
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US15/956,399 priority Critical patent/US10789727B2/en
Priority to EP18168907.6A priority patent/EP3410345B1/en
Publication of JP2018194538A publication Critical patent/JP2018194538A/en
Application granted granted Critical
Publication of JP7058128B2 publication Critical patent/JP7058128B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing system and a program capable of precisely estimating the distance from a monocular camera to an object.SOLUTION: An information processing system 100 comprises: an image acquisition part 110 configured to acquire an image picked up by one monocular camera 10; an area determination part 120 configured to determine an area of an object in the image; an area division part 150 configured to divide the area of the object on the basis of changes of an end portion of the area of the determined object in a Y axial direction with respect to the Y axial direction; and a distance estimation part 170 configured to estimate the distance from the monocular camera 10 to the object corresponding to a partial area of the object with respect to at least one of the partial area of the object obtained by division of the object area.SELECTED DRAWING: Figure 4

Description

本開示は、情報処理装置およびプログラムに関する。   The present disclosure relates to an information processing apparatus and a program.

近年では、カメラの撮像で得られた画像から障害物を認識し、予め決められた距離テーブルに基づいて自車から障害物までの距離を算出する距離推定装置が知られている。しかし、単に距離テーブルに基づいて自車から障害物までの距離を算出するだけでは、道路が傾斜している場合に、正しい距離を算出することが難しい場合がある。   In recent years, a distance estimation device that recognizes an obstacle from an image obtained by imaging with a camera and calculates a distance from the vehicle to the obstacle based on a predetermined distance table is known. However, simply calculating the distance from the vehicle to the obstacle based on the distance table may make it difficult to calculate the correct distance when the road is inclined.

そこで、特許文献1では、道路が傾斜している場合でも自車から障害物までの距離を算出することが可能な距離推定装置が開示されている。距離推定装置は、自車に搭載された撮像用のビデオカメラと、自車と障害物との距離を算出する距離算出部とを備える。   Therefore, Patent Document 1 discloses a distance estimation device that can calculate the distance from the vehicle to an obstacle even when the road is inclined. The distance estimation apparatus includes a video camera for imaging mounted on the own vehicle and a distance calculation unit that calculates the distance between the own vehicle and the obstacle.

距離推定装置は、ビデオカメラの撮像により得られた画像から障害物の法線ベクトルを抽出し、抽出された法線ベクトルに基づき、自車が傾斜路の上を走行している状態であるか否かの判定を行う。そして、距離推定装置は、自車が傾斜路の上を走行している状態であると判定される場合、平坦路に対する傾斜路の傾斜角を算出する。そして、距離算出部は、平坦路と傾斜路との境界から障害物までの距離を、算出された傾斜角に基づいて補正し、自車と障害物との距離を算出する。   The distance estimation device extracts a normal vector of an obstacle from an image obtained by imaging with a video camera, and based on the extracted normal vector, is the vehicle traveling on a ramp Determine whether or not. Then, when it is determined that the host vehicle is traveling on an inclined road, the distance estimating device calculates an inclination angle of the inclined road with respect to the flat road. The distance calculation unit corrects the distance from the boundary between the flat road and the slope to the obstacle based on the calculated inclination angle, and calculates the distance between the vehicle and the obstacle.

特開2013−92820号公報JP2013-92820A

しかし、特許文献1に開示されるような距離推定装置では、自社から障害物までの距離を正確に推定することが困難な場合がある。例えば、当該距離推定装置では、自車から障害物までの距離を傾斜角に基づいて補正することはできても、障害物と路面との接地位置を正確に算出することが困難な場合がある。このため、自車から障害物までの距離との間に誤差が生じてしまう。   However, in the distance estimation device disclosed in Patent Document 1, it may be difficult to accurately estimate the distance from the company to the obstacle. For example, in the distance estimation device, although the distance from the vehicle to the obstacle can be corrected based on the inclination angle, it may be difficult to accurately calculate the contact position between the obstacle and the road surface. . For this reason, an error occurs between the distance from the vehicle to the obstacle.

そこで、本開示は、単眼カメラから物体までの距離を正確に推定することができる情報処理装置およびプログラムを提供する。   Therefore, the present disclosure provides an information processing apparatus and a program that can accurately estimate the distance from a monocular camera to an object.

上記目的を達成するために、本開示の一形態に係る情報処理装置は、1つの単眼カメラの撮像により得られた画像を取得する画像取得部と、前記画像における物体の領域を判定する領域判定部と、判定された前記物体の領域の所定方向の端部の、前記所定方向についての変化に基づいて前記物体の領域を分割する領域分割部と、前記物体の領域の分割により得られる前記物体の部分領域の少なくとも1つについて、前記単眼カメラから前記物体の部分領域に対応する前記物体までの距離を推定する距離推定部とを備える。   In order to achieve the above object, an information processing apparatus according to an embodiment of the present disclosure includes an image acquisition unit that acquires an image obtained by imaging with a single monocular camera, and an area determination that determines an area of an object in the image A region dividing unit that divides the region of the object based on a change in the predetermined direction of an end portion of the determined region of the object in a predetermined direction, and the object obtained by dividing the region of the object A distance estimation unit that estimates a distance from the monocular camera to the object corresponding to the partial area of the object for at least one of the partial areas.

また、本開示の一形態に係るプログラムは、1つの単眼カメラの撮像により得られた画像を取得することと、前記画像における物体の領域を判定することと、判定された前記物体の領域の所定方向の端部の、前記所定方向についての変化に基づいて前記物体の領域を分割することと、前記物体の領域の分割により得られる前記物体の部分領域の少なくとも1つについて、前記単眼カメラから前記物体の部分領域に対応する前記物体までの距離を推定することとを含む方法をコンピュータに実行させる。   The program according to an embodiment of the present disclosure acquires an image obtained by imaging with a single monocular camera, determines an object region in the image, and determines a predetermined region of the object. Dividing the region of the object based on a change in the predetermined direction at the end of the direction, and at least one of the partial regions of the object obtained by dividing the region of the object, from the monocular camera Causing a computer to perform a method comprising estimating a distance to the object corresponding to a partial region of the object.

本開示の情報処理装置およびプログラムによれば、単眼カメラから物体までの距離を正確に推定することができる。   According to the information processing apparatus and program of the present disclosure, it is possible to accurately estimate the distance from the monocular camera to the object.

図1は、実施の形態に係る情報処理装置を搭載した車両を示す模式図である。FIG. 1 is a schematic diagram illustrating a vehicle equipped with an information processing apparatus according to an embodiment. 図2は、実施の形態に係る情報処理装置の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the information processing apparatus according to the embodiment. 図3は、実施の形態に係る情報処理装置が行う処理を説明するための図である。FIG. 3 is a diagram for explaining processing performed by the information processing apparatus according to the embodiment. 図4は、実施の形態に係る情報処理装置の動作を示すフローチャートである。FIG. 4 is a flowchart illustrating the operation of the information processing apparatus according to the embodiment.

上述したように、単眼カメラ(以下、単にカメラとも称する。)を用いた距離測定技術は従来からあるが、その従来技術には様々な課題がある。具体的には、カメラに映る路面と物体の接地面に基づいて距離を測定する場合、カメラ画像中から物体の接地面を検出する必要があるが、従来技術では接地面を正確に検出することが困難な場合がある。これに対し、本願の発明者は、領域分割技術を利用することを考えた。領域分割技術は、画像を当該画像に映る物体に対応した領域に分割する技術である。しかし、領域分割技術を用いても、画像上で複数の物体が重なる又は隣接する場合は、カメラから当該複数の物体の各々までの距離をそれぞれ正確に算出することが困難となりうる。   As described above, there has been a distance measuring technique using a monocular camera (hereinafter also simply referred to as a camera), but the conventional technique has various problems. Specifically, when measuring the distance based on the road surface reflected on the camera and the ground contact surface of the object, it is necessary to detect the ground contact surface of the object from the camera image. May be difficult. On the other hand, the inventor of the present application considered using a region division technique. The area division technique is a technique that divides an image into areas corresponding to objects reflected in the image. However, even when the region division technique is used, when a plurality of objects overlap or are adjacent to each other on the image, it may be difficult to accurately calculate the distance from the camera to each of the plurality of objects.

そこで、本開示の一形態に係る情報処理装置は、1つの単眼カメラの撮像により得られた画像を取得する画像取得部と、前記画像における物体の領域を判定する領域判定部と、判定された前記物体の領域の所定方向の端部の、前記所定方向についての変化に基づいて前記物体の領域を分割する領域分割部と、前記物体の領域の分割により得られる前記物体の部分領域の少なくとも1つについて、前記単眼カメラから前記物体の部分領域に対応する前記物体までの距離を推定する距離推定部とを備える。   Therefore, an information processing apparatus according to an embodiment of the present disclosure is determined with an image acquisition unit that acquires an image obtained by imaging with a single monocular camera, and an area determination unit that determines an area of an object in the image. An area dividing unit that divides the object area based on a change in the predetermined direction at an end of the object area in a predetermined direction, and at least one of the object partial areas obtained by dividing the object area And a distance estimation unit that estimates a distance from the monocular camera to the object corresponding to the partial region of the object.

このように、画像に映る物体の領域の端部における所定方向の変化に基づいて物体の領域を分割するため、当該物体の領域が複数の物体を含む場合であっても個々の物体を区別することができる。このため、単眼カメラから個々の物体までの距離をそれぞれ推定することができる。   As described above, since the object region is divided based on the change in the predetermined direction at the end of the object region shown in the image, individual objects are distinguished even when the object region includes a plurality of objects. be able to. For this reason, the distance from the monocular camera to each object can be estimated.

したがって、この情報処理装置では、複数の物体が画像に映る場合であっても、単眼カメラから所望の物体までの距離を正確に推定することができる。   Therefore, in this information processing apparatus, it is possible to accurately estimate the distance from the monocular camera to the desired object even when a plurality of objects appear in the image.

また、本開示の一形態に係るプログラムは、1つの単眼カメラの撮像により得られた画像を取得することと、前記画像における物体の領域を判定することと、判定された前記物体の領域の所定方向の端部の、前記所定方向についての変化に基づいて前記物体の領域を分割することと、前記物体の領域の分割により得られる前記物体の部分領域の少なくとも1つについて、前記単眼カメラから前記物体の部分領域に対応する前記物体までの距離を推定することとを含む方法をコンピュータに実行させる。   The program according to an embodiment of the present disclosure acquires an image obtained by imaging with a single monocular camera, determines an object region in the image, and determines a predetermined region of the object. Dividing the region of the object based on a change in the predetermined direction at the end of the direction, and at least one of the partial regions of the object obtained by dividing the region of the object, from the monocular camera Causing a computer to perform a method comprising estimating a distance to the object corresponding to a partial region of the object.

このように、上記プログラムを実行することにより情報処理装置は上述の作用効果を奏する。   As described above, the information processing apparatus exhibits the above-described effects by executing the program.

なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   These comprehensive or specific modes may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. The system, method, integrated circuit, computer program And any combination of recording media.

以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   Hereinafter, embodiments will be specifically described with reference to the drawings. Note that each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

なお、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化する。   Each figure is a schematic diagram and is not necessarily illustrated strictly. Moreover, in each figure, the same code | symbol is attached | subjected to the substantially same structure, The overlapping description is abbreviate | omitted or simplified.

以下、本開示の実施の形態に係る情報処理装置およびプログラムについて説明する。   Hereinafter, an information processing apparatus and a program according to an embodiment of the present disclosure will be described.

(実施の形態)
[構成]
まず、本実施の形態に係る情報処理装置100および情報処理装置100を搭載した車両3の構成について図1〜図3を用いて説明する。
(Embodiment)
[Constitution]
First, the configuration of the information processing apparatus 100 according to the present embodiment and the vehicle 3 on which the information processing apparatus 100 is mounted will be described with reference to FIGS.

図1は、実施の形態に係る情報処理装置100を搭載した車両3を示す模式図である。図2は、実施の形態に係る情報処理装置100の機能構成を示すブロック図である。図3は、実施の形態に係る情報処理装置100が行う処理を説明するための図である。   FIG. 1 is a schematic diagram showing a vehicle 3 equipped with an information processing apparatus 100 according to an embodiment. FIG. 2 is a block diagram illustrating a functional configuration of the information processing apparatus 100 according to the embodiment. FIG. 3 is a diagram for explaining processing performed by the information processing apparatus 100 according to the embodiment.

図1および図2に示すように、情報処理装置100は、単眼カメラ10が撮像で得られた画像に基づいて、単眼カメラ10から物体までの距離を推定することが可能な装置である。車両3には、単眼カメラ10と、情報処理装置100とが搭載されている。画像は、静止画像でもよく、動画像でもよい。   As illustrated in FIGS. 1 and 2, the information processing apparatus 100 is an apparatus that can estimate a distance from the monocular camera 10 to an object based on an image obtained by imaging with the monocular camera 10. A monocular camera 10 and an information processing apparatus 100 are mounted on the vehicle 3. The image may be a still image or a moving image.

単眼カメラ10は、車両3の周囲を撮像することが可能なように、車両3に配置されている。本実施の形態では、単眼カメラ10は、車両3の車内に前方を撮像するように配置されているが、例えばラジエータグリル、ボンネット等に配置されていてもよく、物体を撮像可能に配置されていれば、如何様に配置されていてもよい。   The monocular camera 10 is disposed on the vehicle 3 so that the surroundings of the vehicle 3 can be imaged. In the present embodiment, the monocular camera 10 is disposed so as to image the front in the vehicle 3, but may be disposed, for example, on a radiator grill, a hood, or the like, and is disposed so as to be able to image an object. If it is, it may be arranged in any way.

単眼カメラ10は、情報処理装置100に電気的に接続され、撮像により得られた画像に所定の処理を施し、画像データを生成し、画像データを情報処理装置100に出力する。単眼カメラ10は、所定の時間間隔で車両3の周囲を撮像する。なお、本実施の形態では、単眼カメラ10が情報処理装置100の外部に配置されているが、単眼カメラ10が情報処理装置100に内蔵されていてもよい。   The monocular camera 10 is electrically connected to the information processing apparatus 100, performs predetermined processing on an image obtained by imaging, generates image data, and outputs the image data to the information processing apparatus 100. The monocular camera 10 images the surroundings of the vehicle 3 at predetermined time intervals. In the present embodiment, the monocular camera 10 is arranged outside the information processing apparatus 100, but the monocular camera 10 may be built in the information processing apparatus 100.

情報処理装置100は、画像取得部110と、領域判定部120と、抽出部130と、算出部140と、領域分割部150と、路面接触判定部160と、距離推定部170と、出力部180とを備える。   The information processing apparatus 100 includes an image acquisition unit 110, an area determination unit 120, an extraction unit 130, a calculation unit 140, an area division unit 150, a road surface contact determination unit 160, a distance estimation unit 170, and an output unit 180. With.

図3のaは、単眼カメラ10の撮像により得られた画像データを示す。図3のaに示すように、画像取得部110は、1つの単眼カメラ10の撮像により得られた画像データを取得する。具体的には、画像取得部110は、画像データを領域判定部120および路面接触判定部160に出力する。   FIG. 3 a shows image data obtained by imaging with the monocular camera 10. As shown in a of FIG. 3, the image acquisition unit 110 acquires image data obtained by imaging with one monocular camera 10. Specifically, the image acquisition unit 110 outputs the image data to the region determination unit 120 and the road surface contact determination unit 160.

領域判定部120は、画像取得部110から画像データを取得する。図3のbは、画像データの示す画像における領域の判定結果を示す。図3のbに示すように、領域判定部120は、少なくとも画像における物体の領域および画像における路面の領域を判定する。具体的には、領域判定部120は、セマンティックセグメンテーション(Semantic Segmentation)と呼ばれる、画像のピクセルごとに画像に映る物体の種類を判定し、この判定結果に基づいて物体の種類毎に物体の領域を検出する技術を用いる。例えば、領域判定部120は、セマンティックセグメンテーションにより、図3のbに示すように、画像における物体としての車両、路面としての車道および背景を判定し、車両の領域、車道の領域および背景の領域を抽出する。そして、領域判定部120は、抽出された物体の領域、路面の領域等を示す領域データを抽出部130、領域分割部150および路面接触判定部160に出力する。物体は、例えば、人、自動車、自動二輪車又は自転車等である。また、路面は、車道、歩道等の物体が通行する道路である。   The area determination unit 120 acquires image data from the image acquisition unit 110. FIG. 3B shows the determination result of the area in the image indicated by the image data. As shown in b of FIG. 3, the region determination unit 120 determines at least the region of the object in the image and the region of the road surface in the image. Specifically, the region determination unit 120 determines the type of an object appearing in the image for each pixel of the image, which is called semantic segmentation, and determines the region of the object for each type of object based on the determination result. Use detection technology. For example, the area determination unit 120 determines the vehicle as the object in the image, the roadway and the background as the road surface by semantic segmentation, and determines the vehicle area, the roadway area, and the background area as shown in FIG. Extract. Then, the region determination unit 120 outputs region data indicating the extracted object region, road surface region, and the like to the extraction unit 130, the region division unit 150, and the road surface contact determination unit 160. The object is, for example, a person, a car, a motorcycle or a bicycle. The road surface is a road through which objects such as roadways and sidewalks pass.

抽出部130は、領域判定部120から、領域データを取得する。図3のcは、物体の領域の輪郭の抽出結果を示す。図3のcに示すように、抽出部130は、領域データから物体の領域の輪郭を抽出する。具体的には、抽出部130は、領域データの示す領域のうちの物体の領域の輪郭を抽出する。例えば、抽出部130は、図3のcに示すように、2台の車両を含む1つの物体の領域の輪郭を抽出する。   The extraction unit 130 acquires region data from the region determination unit 120. FIG. 3c shows the contour extraction result of the object region. As illustrated in c of FIG. 3, the extraction unit 130 extracts the contour of the object region from the region data. Specifically, the extraction unit 130 extracts the contour of the object region in the region indicated by the region data. For example, the extraction unit 130 extracts the outline of a region of one object including two vehicles, as illustrated in FIG.

図3のdは、物体の領域の輪郭の下端の抽出結果を示す。図3のdに示すように、抽出部130は、物体の領域の輪郭の抽出結果から、当該輪郭の所定方向の端を抽出する。例えば、画像の水平方向をX軸方向と、画像の垂直方向をY軸方向とした場合、抽出部130は、Y軸方向を所定方向として、当該輪郭のY軸方向の下端を抽出する。そして、抽出部130は、抽出した物体の領域の輪郭の下端を示す下端データを算出部140に出力する。また、抽出部130は、抽出した物体の領域の輪郭を示す輪郭データを領域分割部150に出力する。なお、領域判定部120が物体の領域の輪郭を抽出し、物体の領域の輪郭の下端を抽出してもよい。物体の領域のY軸方向の端点の集合は、物体の領域の輪郭の下端の一例である。   FIG. 3d shows the extraction result of the lower end of the contour of the object region. As illustrated in d of FIG. 3, the extraction unit 130 extracts an end of the contour in a predetermined direction from the contour extraction result of the object region. For example, when the horizontal direction of the image is the X-axis direction and the vertical direction of the image is the Y-axis direction, the extraction unit 130 extracts the lower end of the contour in the Y-axis direction with the Y-axis direction as a predetermined direction. Then, the extraction unit 130 outputs the lower end data indicating the lower end of the contour of the extracted object region to the calculation unit 140. Further, the extraction unit 130 outputs contour data indicating the contour of the extracted region of the object to the region dividing unit 150. Note that the region determination unit 120 may extract the contour of the object region and extract the lower end of the contour of the object region. The set of end points in the Y-axis direction of the object region is an example of the lower end of the contour of the object region.

算出部140は、抽出部130から下端データを取得する。図3のeは、物体の領域の輪郭の下端のY軸方向の変化を示す。図3のeに示すように、算出部140は、物体の領域の端部のY軸方向の変化を検出する。具体的には、算出部140は、物体の領域の輪郭の下端のY軸方向の変化量ΔYを算出する。算出部140は、算出した変化量ΔYが示された変化量データを、輪郭データと対応付けて、領域分割部150に出力する。   The calculation unit 140 acquires the lower end data from the extraction unit 130. FIG. 3e shows a change in the Y-axis direction at the lower end of the contour of the object region. As illustrated in e of FIG. 3, the calculation unit 140 detects a change in the Y-axis direction at the end of the object region. Specifically, the calculation unit 140 calculates the amount of change ΔY in the Y-axis direction at the lower end of the contour of the object region. The calculating unit 140 outputs the change amount data indicating the calculated change amount ΔY to the region dividing unit 150 in association with the contour data.

領域分割部150は、抽出部130が出力した輪郭データと、算出部140が出力した変化量データとを取得する。領域分割部150は、変化量データの示す変化量ΔYが所定の閾値以上であるか否かを判定し、当該変化量ΔYが所定の閾値以上である端部に基づいて物体の領域を分割する。   The area dividing unit 150 acquires the contour data output from the extraction unit 130 and the change amount data output from the calculation unit 140. The region dividing unit 150 determines whether or not the change amount ΔY indicated by the change amount data is greater than or equal to a predetermined threshold value, and divides the object region based on the end portion where the change amount ΔY is greater than or equal to the predetermined threshold value. .

図3のfは、分割された物体の領域を示す。図3のfに示すように、領域分割部150は、算出部140が算出した変化量が所定の閾値以上である下端部分に基づいて、Y軸方向に物体の領域を切断する。例えば、領域分割部150は、物体の領域の輪郭の下端を構成する下端点のうちY軸方向の変化量が所定の閾値以上となる2つの下端点を特定し、当該2つ下端点のうちのX軸方向側の下端点を通るY軸方向の直線で、この物体の領域の輪郭を切断することにより物体の領域の輪郭を分割する。物体の領域の輪郭は、領域分割部150により2つ以上に分割される。領域分割部150は、物体の領域の輪郭の分割結果を示す分割データを路面接触判定部160に出力する。なお、物体の領域の輪郭が分割される例を説明したが、物体の領域そのものが分割されてもよい。   FIG. 3f shows a region of the divided object. As illustrated in f of FIG. 3, the region dividing unit 150 cuts the region of the object in the Y-axis direction based on the lower end portion in which the change amount calculated by the calculation unit 140 is equal to or greater than a predetermined threshold. For example, the region dividing unit 150 identifies two lower end points whose amount of change in the Y-axis direction is equal to or greater than a predetermined threshold among the lower end points constituting the lower end of the contour of the object region, and out of the two lower end points The contour of the object region is divided by cutting the contour of the object region along the straight line in the Y-axis direction passing through the lower end point on the X-axis direction side. The contour of the object region is divided into two or more by the region dividing unit 150. The area dividing unit 150 outputs division data indicating the result of dividing the contour of the object area to the road surface contact determination unit 160. Although the example in which the contour of the object region is divided has been described, the object region itself may be divided.

また、領域分割部150は、2つの下端点を特定し、当該2つ下端点のうちの一方を通るY軸方向の直線で、この物体の領域の輪郭を切断することにより物体の領域の輪郭を分割したが、分割の方法はこれに限定されない。   Further, the region dividing unit 150 identifies the two lower end points, and cuts the contour of the object region by cutting the contour of the object region with a straight line passing through one of the two lower end points. However, the dividing method is not limited to this.

ここで、変化量の閾値は、例えば物体の領域の大きさに応じて設定される。例えば、領域分割部150は、変化量の閾値として、物体の領域が所定値よりも大きければ第1の閾値を設定し、物体の領域の大きさが所定値以下であれば第1の閾値よりも小さい第2の閾値を設定してもよい。   Here, the threshold value of the change amount is set according to the size of the object region, for example. For example, the region dividing unit 150 sets the first threshold value as the threshold value of the amount of change if the object region is larger than a predetermined value, and sets the first threshold value if the size of the object region is equal to or smaller than the predetermined value. A small second threshold value may be set.

具体的には、物体の領域が所定値よりも大きい場合としては、車両3の近くに物体が存在する場合が想定される。物体が車両3に近いほど物体の領域が大きくなるため、Y軸方向の変化量は、物体の領域の大きさに応じて大きくなりやすい。このため、領域分割部150は、第2の閾値よりも大きい第1の閾値を設定してもよい。   Specifically, as a case where the area of the object is larger than a predetermined value, a case where an object exists near the vehicle 3 is assumed. Since the area of the object increases as the object is closer to the vehicle 3, the amount of change in the Y-axis direction tends to increase according to the size of the area of the object. For this reason, the region dividing unit 150 may set a first threshold value that is larger than the second threshold value.

また、物体の領域が所定値よりも小さい場合としては、車両3の遠くに物体が存在する場合が想定される。物体が車両3から遠いほど物体の領域が小さくなるため、Y軸方向の変化量は、物体の領域の大きさに応じて小さくなりやすい。このため、領域分割部150は、第1の閾値よりも小さい第2の閾値を設定してもよい。   Further, as a case where the area of the object is smaller than a predetermined value, a case where the object exists in the distance of the vehicle 3 is assumed. Since the area of the object is smaller as the object is farther from the vehicle 3, the amount of change in the Y-axis direction is likely to be smaller depending on the size of the area of the object. For this reason, the area dividing unit 150 may set a second threshold value smaller than the first threshold value.

なお、第1の閾値および第2の閾値は、所定の閾値の一例であるため、変化量の閾値は2つの閾値に限定されず3つ以上用意されてもよい。また、変化量の閾値は、物体の領域の大きさを入力として算出される値であってもよい。また、上記の所定値、第1の閾値および第2の閾値は、任意に設定することができる。所定値は、1つに限定されず、複数の所定値が設定されていてもよい。   Note that the first threshold value and the second threshold value are examples of predetermined threshold values, and thus the change amount threshold value is not limited to two threshold values, and three or more threshold values may be prepared. The change amount threshold value may be a value calculated using the size of the object region as an input. In addition, the predetermined value, the first threshold value, and the second threshold value can be arbitrarily set. The predetermined value is not limited to one, and a plurality of predetermined values may be set.

路面接触判定部160は、領域判定部120から領域データを取得する。また、路面接触判定部160は、分割データを領域分割部150から取得する。路面接触判定部160は、分割データが示す物体の領域の分割により得られた物体の部分領域が路面の領域と接しているか否かを判定する。具体的には、路面接触判定部160は、物体の部分領域の輪郭の下端を含む接地判定領域を設定し、接地判定領域に対する路面の領域の包含の程度に基づいて接地有無を判定する。本実施の形態では、路面接触判定部160は、例えば、物体の部分領域の輪郭の下端から所定数のピクセル内が接地判定領域として設定し、当該接地判定領域内に路面の領域が所定の割合以上含まれているか否かを判定する。そして、路面接触判定部160は、当該接地判定領域内に路面の領域が所定の割合以上含まれている物体の部分領域を示す接地データを距離推定部170に出力する。   The road surface contact determination unit 160 acquires region data from the region determination unit 120. In addition, the road surface contact determination unit 160 acquires the divided data from the region dividing unit 150. The road surface contact determination unit 160 determines whether or not the partial region of the object obtained by dividing the object region indicated by the divided data is in contact with the road surface region. Specifically, the road surface contact determination unit 160 sets a ground contact determination region including the lower end of the contour of the partial region of the object, and determines whether there is a ground contact based on the degree of inclusion of the road surface region with respect to the ground contact determination region. In the present embodiment, the road surface contact determination unit 160 sets, for example, a predetermined number of pixels from the lower end of the contour of the partial region of the object as the ground contact determination region, and the road surface region has a predetermined ratio within the ground contact determination region. It is determined whether or not it is included. Then, the road surface contact determination unit 160 outputs to the distance estimation unit 170 ground contact data indicating a partial region of the object in which the road surface region is included in the ground contact determination region in a predetermined ratio or more.

距離推定部170は、物体の部分領域について、単眼カメラ10から当該物体の部分領域に対応する物体までの距離を推定する。具体的には、距離推定部170は、物体の部分領域と路面の領域とが接していると路面接触判定部160が判定した場合に、単眼カメラ10から当該物体の部分領域に対応する物体までの距離を推定する。このため、物体の部分領域が路面の領域と接していない場合には、距離推定部170は、単眼カメラ10から当該物体の部分領域に対応する物体までの距離を推定しない。   The distance estimation unit 170 estimates the distance from the monocular camera 10 to the object corresponding to the partial area of the object for the partial area of the object. Specifically, when the road surface contact determination unit 160 determines that the partial area of the object is in contact with the road surface area, the distance estimation unit 170 moves from the monocular camera 10 to the object corresponding to the partial area of the object. Estimate the distance. For this reason, when the partial area of the object is not in contact with the road area, the distance estimation unit 170 does not estimate the distance from the monocular camera 10 to the object corresponding to the partial area of the object.

物体の部分領域が路面の領域と接している場合において、距離推定部170は、さらに、予め定められた種類の路面について、単眼カメラ10から物体の部分領域に対応する物体までの距離を推定する。路面の種類は、路面接触判定部160により判定される。例えば、車道を走行する(すなわち車道に接地する)自動車は、車道を走行する車両3の進路に影響を与える可能性がある。そのため、距離推定部170は、路面の種類が車道である場合、距離を推定する。一方で、例えば、歩道に植えられた(すなわち歩道に接地する)街路樹は、車道を走行する車両3の進路に影響を与え難い。そのため、距離推定部170は、路面の種類が歩道である場合、距離を推定しない。   When the partial region of the object is in contact with the road surface region, the distance estimation unit 170 further estimates the distance from the monocular camera 10 to the object corresponding to the partial region of the object for a predetermined type of road surface. . The type of road surface is determined by the road surface contact determination unit 160. For example, an automobile traveling on the roadway (that is, grounding on the roadway) may affect the course of the vehicle 3 traveling on the roadway. Therefore, the distance estimation unit 170 estimates the distance when the road surface type is a roadway. On the other hand, for example, a roadside tree planted on a sidewalk (that is, grounded on the sidewalk) hardly affects the course of the vehicle 3 traveling on the roadway. Therefore, the distance estimation unit 170 does not estimate the distance when the road surface type is a sidewalk.

また、物体の部分領域が路面の領域と接している場合において、距離推定部170は、さらに、予め定められた種類の物体について、単眼カメラ10から物体の部分領域に対応する物体までの距離を推定する。例えば、人又は自動車等の移動体は、車両3の進路に影響を与える可能性がある。そのため、距離推定部170は、物体の種類が移動体である場合、距離を推定する。一方で、例えば、建物又は樹木等の固定物は、車両3の進路に影響を与え難い。そのため、距離推定部170は、物体の種類が固定物である場合、距離を推定しない。このように、路面の種類および物体の種類は、車両3の進路又は速度などの車両3の挙動又は制御に影響を与えるか否かによって定められてもよい。   Further, when the partial area of the object is in contact with the road surface area, the distance estimation unit 170 further calculates the distance from the monocular camera 10 to the object corresponding to the partial area of the object for a predetermined type of object. presume. For example, a moving object such as a person or a car may affect the course of the vehicle 3. Therefore, the distance estimation unit 170 estimates the distance when the type of the object is a moving object. On the other hand, for example, a fixed object such as a building or a tree hardly affects the course of the vehicle 3. Therefore, the distance estimation unit 170 does not estimate the distance when the type of the object is a fixed object. Thus, the type of road surface and the type of object may be determined depending on whether or not the behavior or control of the vehicle 3 such as the course or speed of the vehicle 3 is affected.

また、距離推定部170は、さらに、路面の種類および物体の種類の組が所定の組である場合、距離を推定してもよい。具体的には、距離推定部170は、判定された路面の種類および物体の種類の組が、車道および自動車の組、歩道および人の組、歩道および街路樹の組等といった所定の組であれば、単眼カメラ10から物体の部分領域に対応する物体までの距離を推定してもよい。   Further, the distance estimation unit 170 may further estimate the distance when the combination of the road surface type and the object type is a predetermined group. Specifically, the distance estimation unit 170 may determine whether the determined road surface type and object type group is a predetermined group such as a roadway and car group, a sidewalk and person group, a sidewalk and street tree group, or the like. For example, the distance from the monocular camera 10 to the object corresponding to the partial region of the object may be estimated.

距離推定部170は、分割データに含まれる物体ごとの下端座標と単眼カメラ10の特性に基づいて単眼カメラ10から当該物体までの距離とを推定する。例えば、距離推定部170は、物体の部分領域に対応する下端座標、および単眼カメラ10のレンズの焦点距離、単眼カメラ10の車両3への設置情報を用いて、単眼カメラ10から当該物体までの距離を推定する。なお、当該距離の推定には、物体の部分領域に対応する物体ごとに距離を推定する他の手法が用いられてもよい。また、当該距離の推定には、物体の部分領域に対応する物体の実際の大きさと当該物体の画像上の大きさを用いて補正を行ってもよい。   The distance estimation unit 170 estimates the distance from the monocular camera 10 to the object based on the lower end coordinates for each object included in the divided data and the characteristics of the monocular camera 10. For example, the distance estimation unit 170 uses the lower end coordinates corresponding to the partial region of the object, the focal length of the lens of the monocular camera 10, and installation information of the monocular camera 10 on the vehicle 3, from the monocular camera 10 to the object. Estimate distance. In addition, the other method of estimating a distance for every object corresponding to the partial area | region of an object may be used for the estimation of the said distance. In addition, the distance may be estimated by using the actual size of the object corresponding to the partial region of the object and the size of the object on the image.

距離推定部170は、推定された距離を示す距離データを出力部180に出力する。距離データは、推定された距離の数値(1次元データ)であってもよく、2次元又は3次元空間上の位置関係を示すデータ(2次元又は3次元データ)であってもよい。また、距離推定部170は、距離データに基づく画像データを出力部180に出力してもよい。図3のgは、物体の認識結果および推定された距離が重畳された画像を示す一例である。図3のgに示すように、距離推定部170は、画像取得部110から得た画像データに、単眼カメラ10から物体までの距離を示すデータを対応付け、出力部180に出力してもよい。例えば、距離推定部170は、画像データに、抽出された物体の部分領域を示すオブジェクトと当該物体の部分領域ごとに推定された距離を示すオブジェクトとが重畳された画像データを出力部180に出力する。   The distance estimation unit 170 outputs distance data indicating the estimated distance to the output unit 180. The distance data may be a numerical value of the estimated distance (one-dimensional data) or data (two-dimensional or three-dimensional data) indicating a positional relationship in a two-dimensional or three-dimensional space. In addition, the distance estimation unit 170 may output image data based on the distance data to the output unit 180. FIG. 3G is an example showing an image in which the recognition result of the object and the estimated distance are superimposed. As illustrated in g of FIG. 3, the distance estimation unit 170 may associate data indicating the distance from the monocular camera 10 to the object with the image data obtained from the image acquisition unit 110 and output the data to the output unit 180. . For example, the distance estimation unit 170 outputs, to the output unit 180, image data in which an object indicating the extracted partial region of the object and an object indicating the distance estimated for each partial region of the object are superimposed on the image data. To do.

出力部180は、距離推定部170が推定した単眼カメラ110から画像に映る物体までの距離を、外部の装置に出力する。具体的には、出力部180は、距離推定部170から取得した距離データを外部の装置へ出力する。また、出力部180は、距離推定部170から取得した画像データを外部の装置へ出力してもよい。外部の装置は、例えば、自動運転を行うために車両3が備える制御装置、又は画像を表示する表示装置としてのカーナビゲーション、スマートフォン等である。例えば、制御装置は、取得された距離データを用いて車両3の加速、減速、操舵又は走行ルート設定などの制御を実行する。   The output unit 180 outputs the distance from the monocular camera 110 estimated by the distance estimation unit 170 to the object shown in the image to an external device. Specifically, the output unit 180 outputs the distance data acquired from the distance estimation unit 170 to an external device. The output unit 180 may output the image data acquired from the distance estimation unit 170 to an external device. The external device is, for example, a control device included in the vehicle 3 for performing automatic driving, or a car navigation, a smartphone, or the like as a display device that displays an image. For example, the control device executes control such as acceleration, deceleration, steering, or travel route setting of the vehicle 3 using the acquired distance data.

[動作]
次に、本実施の形態における情報処理装置100の動作について、図3および図4を用いて説明する。
[Operation]
Next, the operation of the information processing apparatus 100 in the present embodiment will be described with reference to FIGS.

図4は、実施の形態に係る情報処理装置100の動作を示すフローチャートである。   FIG. 4 is a flowchart showing the operation of the information processing apparatus 100 according to the embodiment.

このフローチャートでは、情報処理装置100を搭載した車両の走行中において、路面を走行している他の車両が存在している場合を想定している。   In this flowchart, it is assumed that there is another vehicle traveling on the road surface while the vehicle equipped with the information processing apparatus 100 is traveling.

図3のaおよび図4のS1に示すように、まず、単眼カメラ10が撮像により得られた画像データを画像取得部110に送信し、画像取得部110は、画像データを受信する。画像取得部110は、画像データを領域判定部120および路面接触判定部160に出力する。   As illustrated in a of FIG. 3 and S1 of FIG. 4, first, the monocular camera 10 transmits image data obtained by imaging to the image acquisition unit 110, and the image acquisition unit 110 receives the image data. The image acquisition unit 110 outputs the image data to the region determination unit 120 and the road surface contact determination unit 160.

図3のbおよび図4のS2に示すように、次に、領域判定部120は、画像取得部110から取得した画像データに基づいて、画像データにおける物体の領域および路面の領域を判定する。領域判定部120は、判定された物体の領域および路面の領域を示す領域データを抽出部130および路面接触判定部160に出力する。   Next, as illustrated in b of FIG. 3 and S2 of FIG. 4, the region determination unit 120 next determines the region of the object and the region of the road surface in the image data based on the image data acquired from the image acquisition unit 110. The area determination unit 120 outputs area data indicating the determined object area and road surface area to the extraction unit 130 and the road surface contact determination unit 160.

図3のcおよび図4のS3に示すように、次に、抽出部130は、取得した領域データに基づいて、物体の領域と路面の領域とを抽出し、抽出した物体の領域から、物体の領域の輪郭を抽出する。   Next, as illustrated in c of FIG. 3 and S3 of FIG. 4, the extraction unit 130 extracts an object region and a road surface region based on the acquired region data, and the object region is extracted from the extracted object region. The outline of the region is extracted.

図3のdおよび図4のS4に示すように、次に、抽出部130は、抽出された物体の領域の輪郭から、物体の領域の輪郭の下端を抽出する。具体的には、抽出部130は、抽出された物体の領域の輪郭のY軸方向の下端を抽出する。抽出部130は、抽出した物体の領域の輪郭の下端を示す下端データを算出部140および領域分割部150に出力する。また、抽出部130は、抽出した物体の領域の輪郭を示す輪郭データを領域分割部150に出力する。   Next, as illustrated in d of FIG. 3 and S4 of FIG. 4, the extraction unit 130 extracts the lower end of the contour of the object region from the contour of the extracted object region. Specifically, the extraction unit 130 extracts the lower end in the Y-axis direction of the contour of the extracted object region. The extraction unit 130 outputs lower end data indicating the lower end of the contour of the extracted object region to the calculation unit 140 and the region division unit 150. Further, the extraction unit 130 outputs contour data indicating the contour of the extracted region of the object to the region dividing unit 150.

図3のeおよび図4のS5に示すように、次に、算出部140は、取得した下端データの示す物体の領域の輪郭の下端のY軸方向の変化量ΔYを算出する。算出部140は、算出した変化量ΔYが示された変化量データを領域分割部150に出力する。   Next, as shown in e of FIG. 3 and S5 of FIG. 4, the calculation unit 140 calculates the amount of change ΔY in the Y-axis direction of the lower end of the contour of the object region indicated by the acquired lower end data. The calculating unit 140 outputs the change amount data indicating the calculated change amount ΔY to the region dividing unit 150.

図4のS6に示すように、次に、領域分割部150は、取得した輪郭データに含まれる1以上の物体の領域の輪郭のうち、物体の領域が所定値よりも大きいか否かを判断する。   Next, as shown in S6 of FIG. 4, the region dividing unit 150 determines whether or not the object region is larger than a predetermined value among the contours of one or more object regions included in the acquired contour data. To do.

図4のS7に示すように、物体の領域が所定値よりも大きい場合(S6でYES)、領域分割部150は、所定の閾値を第1の閾値に設定する。一方、図4のS8に示すように、物体の領域の大きさが所定値以下である場合(S6でNO)、領域分割部150は、所定の閾値を第2の閾値に設定する。   As illustrated in S <b> 7 of FIG. 4, when the region of the object is larger than the predetermined value (YES in S <b> 6), the region dividing unit 150 sets the predetermined threshold as the first threshold. On the other hand, as shown in S8 of FIG. 4, when the size of the area of the object is equal to or smaller than the predetermined value (NO in S6), the area dividing unit 150 sets the predetermined threshold as the second threshold.

図4のS9に示すように、次に、領域分割部150は、取得した変化量データの示す変化量ΔYがステップS7又はS8で設定した第1の閾値以上又は第2の閾値以上であるか否かを判断する。   As shown in S9 of FIG. 4, the area dividing unit 150 next determines whether the change amount ΔY indicated by the acquired change amount data is equal to or greater than the first threshold value or the second threshold value set in step S7 or S8. Judge whether or not.

図3のfおよび図4のS10に示すように、変化量が第1の閾値又は第2の閾値以上である場合(S9でYES)に、領域分割部150は、当該変化量データに対応する物体の領域の輪郭の下端部分で、この物体の領域の輪郭をY軸方向に分割する。なお、第1の閾値又は第2の閾値以上の変化が複数検出される場合は、領域分割部150は、物体の領域の輪郭を複数に分割する。そして、領域分割部150は、分割した物体の部分領域を示す分割データを路面接触判定部160に出力する。   As shown in f of FIG. 3 and S10 of FIG. 4, when the change amount is equal to or greater than the first threshold value or the second threshold value (YES in S9), the region dividing unit 150 corresponds to the change amount data. At the lower end portion of the contour of the object region, the contour of the object region is divided in the Y-axis direction. When a plurality of changes greater than or equal to the first threshold value or the second threshold value are detected, the region dividing unit 150 divides the contour of the object region into a plurality of regions. Then, the region dividing unit 150 outputs divided data indicating the divided partial regions of the object to the road surface contact determining unit 160.

一方、変化量が第1の閾値又は第2の閾値以上でない場合(S9でNO)、処理がステップS1に戻る。   On the other hand, when the amount of change is not equal to or greater than the first threshold value or the second threshold value (NO in S9), the process returns to step S1.

図4のS11に示すように、次に、路面接触判定部160は、取得した分割データの示す物体の部分領域が路面の領域と接しているか否かを判定する。本実施の形態では、路面接触判定部160は、物体の部分領域についての接地判定領域内に路面の領域が存在しているか否かで、物体の部分領域が路面の領域と接しているか否かを判定する。   Next, as shown in S11 of FIG. 4, the road surface contact determination unit 160 determines whether or not the partial region of the object indicated by the acquired divided data is in contact with the road surface region. In the present embodiment, the road surface contact determination unit 160 determines whether or not the partial area of the object is in contact with the road surface area depending on whether or not the road surface area exists in the ground contact determination area for the partial area of the object. Determine.

図3のgおよび図4のS12に示すように、1以上の物体の部分領域が路面の領域と接していると判定された場合(S11でYES)、距離推定部170は、路面の種類および物体の種類の組が所定の組であるか否かを判定する。路面の種類および物体の種類の組が所定の組でない場合(S12でNO)、処理がS1に戻る。なお、S12の処理が行われずにS13に処理が進んでもよい。   As shown in g of FIG. 3 and S12 of FIG. 4, when it is determined that the partial region of one or more objects is in contact with the road surface region (YES in S11), the distance estimation unit 170 determines the type of the road surface and It is determined whether the set of object types is a predetermined set. If the combination of the road surface type and the object type is not a predetermined group (NO in S12), the process returns to S1. Note that the process may proceed to S13 without performing the process of S12.

図4のS13に示すように、一方、路面の種類および物体の種類の組が所定の組である場合(S12でYES)、距離推定部170は、単眼カメラ10から当該物体の部分領域に対応する物体までの距離を推定する。そして、距離推定部170は、推定した距離を外部の装置に出力部180を介して出力する。そして、処理がステップS1に戻り、同様の動作が繰り返される。   On the other hand, as shown in S13 of FIG. 4, when the combination of the road surface type and the object type is a predetermined group (YES in S12), the distance estimation unit 170 corresponds to the partial region of the object from the monocular camera 10. Estimate the distance to the target object. Then, the distance estimation unit 170 outputs the estimated distance to an external device via the output unit 180. And a process returns to step S1 and the same operation | movement is repeated.

一方、全ての物体の部分領域が路面の領域と接していないと判断された場合(S11でNO)、距離推定部170は、単眼カメラ10から物体までの距離を推定しない。そして、処理がステップS1に戻り、同様の動作が繰り返される。   On the other hand, when it is determined that the partial areas of all objects are not in contact with the road area (NO in S11), the distance estimation unit 170 does not estimate the distance from the monocular camera 10 to the object. And a process returns to step S1 and the same operation | movement is repeated.

[作用効果]
次に、本実施の形態における情報処理装置100およびプログラムの作用効果について説明する。
[Function and effect]
Next, the effects of the information processing apparatus 100 and the program according to the present embodiment will be described.

上述したように、本実施の形態に係る情報処理装置100は、1つの単眼カメラ10の撮像により得られた画像を取得する画像取得部110と、画像における物体の領域を判定する領域判定部120と、判定された物体の領域のY軸方向の端部の、Y軸方向についての変化に基づいて物体の領域を分割する領域分割部150と、物体の領域の分割により得られる物体の部分領域の少なくとも1つについて、単眼カメラ10から物体の部分領域に対応する物体までの距離を推定する距離推定部170とを備える。   As described above, the information processing apparatus 100 according to the present embodiment includes the image acquisition unit 110 that acquires an image obtained by imaging with one monocular camera 10 and the region determination unit 120 that determines the region of an object in the image. A region dividing unit 150 that divides the object region based on a change in the Y-axis direction at the end of the determined object region in the Y-axis direction, and a partial region of the object obtained by dividing the object region A distance estimation unit 170 that estimates a distance from the monocular camera 10 to an object corresponding to the partial region of the object.

このように、画像に映る物体の領域の端部におけるY軸方向の変化に基づいて物体の領域を分割するため、当該物体の領域が複数の物体を含む場合であっても個々の物体を区別することができる。このため、単眼カメラ10から個々の物体までの距離をそれぞれ推定することができる。   As described above, since the object region is divided based on the change in the Y-axis direction at the end of the object region shown in the image, individual objects are distinguished even when the object region includes a plurality of objects. can do. For this reason, the distance from the monocular camera 10 to each object can be estimated.

したがって、この情報処理装置100では、複数の物体が画像に映る場合であっても、単眼カメラ10から所望の物体までの距離を正確に推定することができる。   Therefore, in this information processing apparatus 100, the distance from the monocular camera 10 to the desired object can be accurately estimated even when a plurality of objects appear in the image.

また、本実施の形態に係るプログラムは、1つの単眼カメラ10の撮像により得られた画像を取得することと、画像における物体の領域を判定することと、判定された物体の領域のY軸方向の端部の、Y軸方向についての変化に基づいて物体の領域を分割することと、物体の領域の分割により得られる物体の部分領域の少なくとも1つについて、単眼カメラ10から物体の部分領域に対応する物体までの距離を推定することとを含む方法をコンピュータに実行させる。   The program according to the present embodiment acquires an image obtained by imaging with one monocular camera 10, determines an object region in the image, and the Y-axis direction of the determined object region. The object region is divided based on the change in the Y-axis direction at the end of the object, and at least one of the object partial regions obtained by dividing the object region is changed from the monocular camera 10 to the object partial region. Causing a computer to perform a method including estimating a distance to a corresponding object.

このように、上記プログラムを実行することにより情報処理装置1は上述の作用効果を奏する。   As described above, the information processing apparatus 1 exhibits the above-described effects by executing the program.

また、本実施の形態に係る情報処理装置100において、領域判定部120は、さらに、画像における路面の領域を判定する。また、情報処理装置100は、さらに、物体の部分領域が路面の領域と接しているか否かを判定する路面接触判定部160を備える。そして、距離推定部170は、物体の部分領域と路面の領域とが接していると路面接触判定部160が判定した場合に、距離を推定する。   In the information processing apparatus 100 according to the present embodiment, the region determination unit 120 further determines a road surface region in the image. The information processing apparatus 100 further includes a road surface contact determination unit 160 that determines whether or not the partial region of the object is in contact with the region of the road surface. The distance estimation unit 170 estimates the distance when the road surface contact determination unit 160 determines that the partial region of the object is in contact with the road surface region.

このように、物体の部分領域と路面の領域とが接していると路面接触判定部160が判定した場合、距離推定部170が単眼カメラ10から路面の領域と接している物体の部分領域に対応する物体までの距離を推定するため、単眼カメラ10から路面の領域と接している物体の部分領域に対応する物体以外の物体までの距離を推定することはない。このため、距離の誤検出を抑制することができる。   As described above, when the road surface contact determination unit 160 determines that the object partial area and the road surface area are in contact with each other, the distance estimation unit 170 corresponds to the partial area of the object in contact with the road surface area from the monocular camera 10. Therefore, the distance from the monocular camera 10 to an object other than the object corresponding to the partial area of the object in contact with the road surface area is not estimated. For this reason, erroneous detection of distance can be suppressed.

また、本実施の形態に係る情報処理装置100において、路面接触判定部160は、さらに、物体の部分領域と接している路面の領域が所定の種類の路面の領域であるか否かを判定する。そして、距離推定部170は、さらに、物体の部分領域と接している路面の領域が所定の種類の路面の領域であると路面接触判定部160が判定した場合に、距離を推定する。   In the information processing apparatus 100 according to the present embodiment, the road surface contact determination unit 160 further determines whether or not the road surface area in contact with the partial area of the object is a predetermined type of road surface area. . The distance estimation unit 170 further estimates the distance when the road surface contact determination unit 160 determines that the road surface area in contact with the partial region of the object is a predetermined type of road surface area.

例えば、車道を走行する自動車は、車道を走行する車両3の進路に影響を与える可能性がある。一方で、例えば、歩道に植えられた街路樹は、車道を走行する車両3の進路に影響を与え難い。これに対し上記構成によれば、距離推定部170は、路面の種類が車道である場合、この距離を推定し、路面の種類が歩道である場合、距離を推定しない。このため、距離推定部170による処理を高速化でき、推定される距離を車両制御処理などのリアルタイム性が要求される処理へタイムラグを抑制して提供することができる。   For example, an automobile traveling on a roadway may affect the course of the vehicle 3 traveling on the roadway. On the other hand, for example, a roadside tree planted on a sidewalk hardly affects the course of the vehicle 3 traveling on the roadway. On the other hand, according to the above configuration, the distance estimation unit 170 estimates the distance when the road surface type is a roadway, and does not estimate the distance when the road surface type is a sidewalk. For this reason, the processing by the distance estimation unit 170 can be speeded up, and the estimated distance can be provided with a time lag suppressed to processing that requires real-time performance such as vehicle control processing.

また、本実施の形態に係る情報処理装置100において、路面接触判定部160は、さらに、路面の領域と接している物体の部分領域に対応する物体が所定の種類の物体であるか否かを判定する。そして、距離推定部170は、さらに、路面の領域と接している物体の部分領域に対応する物体が所定の種類の物体であると路面接触判定部160が判定した場合に、距離を推定する。   In the information processing apparatus 100 according to the present embodiment, the road surface contact determination unit 160 further determines whether or not the object corresponding to the partial area of the object in contact with the road surface area is a predetermined type of object. judge. The distance estimation unit 170 further estimates the distance when the road surface contact determination unit 160 determines that the object corresponding to the partial region of the object in contact with the road surface region is a predetermined type of object.

例えば、人又は自動車等の移動体は、車両3の進路に影響を与える可能性がある。一方で、例えば、建物又は樹木等の固定物は、車道を走行する車両3の進路に影響を与え難い。これに対し上記構成によれば、距離推定部170は、物体の種類が移動体である場合、距離を推定し、物体の種類が移動体でない場合、距離を推定しない。このため、距離推定部170による処理を高速化でき、推定される距離を車両制御処理などのリアルタイム性が要求される処理へタイムラグを抑制して提供することができる。   For example, a moving object such as a person or a car may affect the course of the vehicle 3. On the other hand, for example, a fixed object such as a building or a tree hardly affects the course of the vehicle 3 traveling on the roadway. On the other hand, according to the above configuration, the distance estimation unit 170 estimates the distance when the type of the object is a moving object, and does not estimate the distance when the type of the object is not a moving object. For this reason, the processing by the distance estimation unit 170 can be speeded up, and the estimated distance can be provided with a time lag suppressed to processing that requires real-time performance such as vehicle control processing.

また、本実施の形態に係る情報処理装置100において、路面接触判定部160は、さらに、物体の部分領域と接している路面の領域に対応する路面の種類、および、路面の領域と接している物体の部分領域に対応する物体の種類、を判定する。そして、距離推定部170は、路面の種類および物体の種類の組が所定の組である場合、距離を推定する。   In the information processing apparatus 100 according to the present embodiment, the road surface contact determination unit 160 is further in contact with the road surface type corresponding to the road surface area in contact with the partial area of the object and the road surface area. The type of the object corresponding to the partial area of the object is determined. Then, the distance estimation unit 170 estimates the distance when the combination of the road surface type and the object type is a predetermined group.

このように、路面接触判定部160が路面の種類と物体の種類とを判定し、距離推定部170は路面の種類および物体の種類の組が所定の組である場合に距離を推定する。一方で、路面の種類および物体の種類の組が所定の組でない場合は、距離推定部170は距離を推定しない。このため、距離推定部170による処理を高速化でき、推定される距離を車両制御処理などのリアルタイム性が要求される処理へタイムラグを抑制して提供することができる。   As described above, the road surface contact determination unit 160 determines the type of the road surface and the type of the object, and the distance estimation unit 170 estimates the distance when the combination of the road surface type and the object type is a predetermined group. On the other hand, when the combination of the road surface type and the object type is not a predetermined group, the distance estimation unit 170 does not estimate the distance. For this reason, the processing by the distance estimation unit 170 can be speeded up, and the estimated distance can be provided with a time lag suppressed to processing that requires real-time performance such as vehicle control processing.

また、本実施の形態に係る情報処理装置100は、さらに、端部の、Y軸方向についての変化量を算出する算出部140を備える。そして、領域分割部150は、算出部140が算出した変化量が所定の閾値以上である端部に基づいて物体の領域を分割する。   The information processing apparatus 100 according to the present embodiment further includes a calculation unit 140 that calculates the amount of change in the Y-axis direction at the end. Then, the region dividing unit 150 divides the region of the object based on the end portion whose change amount calculated by the calculating unit 140 is equal to or greater than a predetermined threshold.

このように、算出部140がY軸方向についての変化量を算出し、領域分割部150は、変化量が所定の閾値以上となる端部に基づいて物体の領域を切断することにより分割する。このため、変化が急峻な箇所を特定することができ、物体の領域を適切に分割することができる。従って、各々の物体ごとに単眼カメラ10との距離を正確に推定することができる。   Thus, the calculation unit 140 calculates the amount of change in the Y-axis direction, and the region dividing unit 150 divides the object by cutting the region of the object based on the end portion where the amount of change is equal to or greater than a predetermined threshold. For this reason, it is possible to specify a portion where the change is steep, and to appropriately divide the object region. Therefore, the distance from the monocular camera 10 can be accurately estimated for each object.

また、本実施の形態に係る情報処理装置100において、所定の閾値は、物体の領域の大きさに応じて設定される。   In the information processing apparatus 100 according to the present embodiment, the predetermined threshold is set according to the size of the object region.

例えば物体が車両3に近いほど画像における物体の領域が大きくなるため、物体の領域の下端の変化量も大きくなる。ここで、上記所定の閾値が一定である場合、単独の物体についての物体の領域が分割されてしまうおそれがある。また、反対に、物体が車両3から遠いほど画像における物体の領域が小さくなるため、物体の領域の下端の変化量も小さくなる。ここで、上記所定の閾値が一定である場合、複数の物体についての物体の領域が分割されないおそれがある。これに対し、上記構成によれば、単独の物体についての物体の領域が分割されること、および複数の物体についての物体の領域が分割されないこと、を抑制することができる。   For example, the closer the object is to the vehicle 3, the larger the area of the object in the image, so the amount of change at the lower end of the object area also increases. Here, when the predetermined threshold value is constant, there is a possibility that the object region of a single object is divided. On the other hand, since the area of the object in the image becomes smaller as the object is farther from the vehicle 3, the amount of change at the lower end of the area of the object is also reduced. Here, when the predetermined threshold value is constant, there is a possibility that the object regions of the plurality of objects are not divided. On the other hand, according to the said structure, it can suppress that the area | region of the object about a single object is divided | segmented, and the area | region of the object about several objects is not divided | segmented.

また、本実施の形態に係る情報処理装置100において、領域分割部150は、物体の領域をY軸方向に分割する。   In the information processing apparatus 100 according to the present embodiment, the region dividing unit 150 divides the object region in the Y-axis direction.

この構成によれば、物体の領域の下端の変化の方向に沿って物体の領域を分割することができる。このため、物体の形状に近い形に物体の領域を分割することができる。   According to this configuration, the object region can be divided along the direction of change of the lower end of the object region. For this reason, it is possible to divide the object region into a shape close to the shape of the object.

(その他変形例)
以上、本開示の実施の形態に係る情報処理装置およびプログラムについて説明したが、本開示の実施の形態は上述の実施の形態に限定されるものではない。例えば、上記の実施の形態では、情報処理装置100が搭載される車両3が四輪自動車である例を説明したが、情報処理装置100は他の種類の移動体に搭載されてもよい。
(Other variations)
Although the information processing apparatus and the program according to the embodiments of the present disclosure have been described above, the embodiments of the present disclosure are not limited to the above-described embodiments. For example, in the above-described embodiment, an example in which the vehicle 3 on which the information processing apparatus 100 is mounted is a four-wheeled vehicle has been described, but the information processing apparatus 100 may be mounted on other types of mobile objects.

また、上記の実施の形態では、物体の領域の所定方向の端部が、物体の領域の路面方向(Y軸方向)の下端点の集合であり、当該下端点の集合の路面方向(Y軸方向)についての変化に基づいて物体の領域が分割される例を説明したが、物体の領域の分割はこの例に限定されない。具体的には、物体の領域の所定方向の端部は、物体の領域の路面方向の境界線又は物体の領域の路面方向の部分領域であってもよい。例えば、物体の領域と路面との境界となる境界線の路面方向の成分の変化に基づいて物体の領域が分割されてもよく、物体の領域のうち路面と接する部分領域の路面方向の形状変化に基づいて物体の領域が分割されてもよい。   In the above embodiment, the end of the object region in the predetermined direction is a set of lower end points in the road surface direction (Y-axis direction) of the object region, and the road surface direction (Y-axis) of the set of lower end points. Although the example in which the object region is divided based on the change in the (direction) has been described, the division of the object region is not limited to this example. Specifically, the end in the predetermined direction of the object region may be a road boundary in the object region or a partial region in the road direction of the object region. For example, the object region may be divided based on a change in the road surface direction component of the boundary line that becomes the boundary between the object region and the road surface, and the shape change in the road surface direction of the partial region in contact with the road surface in the object region The region of the object may be divided based on

また、上記実施の形態に係る情報処理装置および車両に含まれる各処理部は典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。   Each processing unit included in the information processing apparatus and the vehicle according to the above embodiment is typically realized as an LSI which is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them.

また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Further, the circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。   In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.

また、本開示の一態様は、情報処理装置およびプログラムにより実行される情報処理方法として実現されてもよい。   One embodiment of the present disclosure may be realized as an information processing method executed by an information processing device and a program.

また、上記で用いた数字は、全て本開示を具体的に説明するために例示するものであり、本開示の実施の形態は例示された数字に制限されない。   Moreover, all the numbers used above are illustrated for specifically explaining the present disclosure, and embodiments of the present disclosure are not limited to the illustrated numbers.

また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。   In addition, division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, a single functional block can be divided into a plurality of functions, or some functions can be transferred to other functional blocks. May be. In addition, functions of a plurality of functional blocks having similar functions may be processed in parallel or time-division by a single hardware or software.

また、フローチャートにおける各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。   In addition, the order in which the steps in the flowchart are executed is for illustration in order to specifically describe the present disclosure, and may be in an order other than the above. Also, some of the above steps may be executed simultaneously (in parallel) with other steps.

以上、一つ又は複数の態様に係る情報処理装置およびプログラムについて、実施の形態に基づいて説明したが、本開示の実施の形態は当該複数の態様に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つ又は複数の態様の範囲内に含まれてもよい。   As described above, the information processing apparatus and the program according to one or a plurality of aspects have been described based on the embodiments, but the embodiments of the present disclosure are not limited to the plurality of aspects. Unless it deviates from the gist of the present disclosure, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included.

100 情報処理装置
110 画像取得部
120 領域判定部
140 算出部
150 領域分割部
160 路面接触判定部
170 距離推定部
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 110 Image acquisition part 120 Area determination part 140 Calculation part 150 Area division part 160 Road surface contact determination part 170 Distance estimation part

Claims (10)

1つの単眼カメラの撮像により得られた画像を取得する画像取得部と、
前記画像における物体の領域を判定する領域判定部と、
判定された前記物体の領域の所定方向の端部の、前記所定方向についての変化に基づいて前記物体の領域を分割する領域分割部と、
前記物体の領域の分割により得られる前記物体の部分領域の少なくとも1つについて、前記単眼カメラから前記物体の部分領域に対応する前記物体までの距離を推定する距離推定部とを備える
情報処理装置。
An image acquisition unit for acquiring an image obtained by imaging with one monocular camera;
An area determination unit for determining an area of an object in the image;
A region dividing unit that divides the region of the object based on a change in the predetermined direction of an end portion of the determined region of the object in a predetermined direction;
A distance estimation unit that estimates a distance from the monocular camera to the object corresponding to the partial area of the object for at least one of the partial areas of the object obtained by dividing the region of the object.
前記領域判定部は、さらに、前記画像における路面の領域を判定し、
さらに、前記物体の部分領域が前記路面の領域と接しているか否かを判定する路面接触判定部を備え、
前記距離推定部は、前記物体の部分領域と前記路面の領域とが接していると前記路面接触判定部が判定した場合に、前記距離を推定する
請求項1に記載の情報処理装置。
The region determination unit further determines a region of the road surface in the image,
Furthermore, a road surface contact determination unit that determines whether or not the partial region of the object is in contact with the region of the road surface,
The information processing apparatus according to claim 1, wherein the distance estimation unit estimates the distance when the road surface contact determination unit determines that the partial region of the object is in contact with the road surface region.
前記路面接触判定部は、さらに、前記物体の部分領域と接している前記路面の領域が所定の種類の前記路面の領域であるか否かを判定し、
前記距離推定部は、さらに、前記物体の部分領域と接している前記路面の領域が所定の種類の前記路面の領域であると前記路面接触判定部が判定した場合に、前記距離を推定する
請求項2に記載の情報処理装置。
The road surface contact determination unit further determines whether or not the road surface area in contact with the partial area of the object is a predetermined type of the road surface area,
The distance estimation unit further estimates the distance when the road surface contact determination unit determines that the road surface area in contact with the partial area of the object is a predetermined type of the road surface area. Item 3. The information processing device according to Item 2.
前記路面接触判定部は、さらに、前記路面の領域と接している前記物体の部分領域に対応する物体が所定の種類の物体であるか否かを判定し、
前記距離推定部は、さらに、前記路面の領域と接している前記物体の部分領域に対応する物体が所定の種類の物体であると前記路面接触判定部が判定した場合に、前記距離を推定する
請求項2又は3に記載の情報処理装置。
The road surface contact determination unit further determines whether or not the object corresponding to the partial area of the object in contact with the road surface area is a predetermined type of object,
The distance estimation unit further estimates the distance when the road surface contact determination unit determines that the object corresponding to the partial region of the object in contact with the road surface region is a predetermined type of object. The information processing apparatus according to claim 2 or 3.
前記路面接触判定部は、さらに、前記物体の部分領域と接している前記路面の領域に対応する路面の種類、および、前記路面の領域と接している前記物体の部分領域に対応する物体の種類、を判定し、
前記距離推定部は、前記路面の種類および前記物体の種類の組が所定の組である場合、前記距離を推定する
請求項2〜4のいずれか1項に記載の情報処理装置。
The road surface contact determination unit further includes a road surface type corresponding to the road surface area in contact with the partial area of the object, and an object type corresponding to the partial area of the object in contact with the road surface area. , And
The information processing apparatus according to claim 2, wherein the distance estimation unit estimates the distance when the combination of the road surface type and the object type is a predetermined group.
さらに、前記端部の、前記所定方向についての変化量を算出する算出部を備え、
前記領域分割部は、前記算出部が算出した前記変化量が所定の閾値以上である前記端部に基づいて前記物体の領域を分割する
請求項1〜5のいずれか1項に記載の情報処理装置。
Further, a calculation unit that calculates a change amount of the end portion in the predetermined direction is provided.
The information processing according to any one of claims 1 to 5, wherein the region dividing unit divides the region of the object based on the end portion in which the change amount calculated by the calculating unit is equal to or greater than a predetermined threshold. apparatus.
前記所定の閾値は、前記物体の領域の大きさに応じて設定される
請求項6に記載の情報処理装置。
The information processing apparatus according to claim 6, wherein the predetermined threshold is set according to a size of an area of the object.
前記領域分割部は、前記物体の領域を前記所定方向に分割する、
請求項1〜7のいずれか1項に記載の情報処理装置。
The region dividing unit divides the region of the object in the predetermined direction.
The information processing apparatus according to claim 1.
前記所定方向は、前記画像における路面に向かう路面方向であり、
前記端部は、前記物体の領域の前記路面方向の端点の集合、前記物体の領域の前記路面方向の境界線又は前記物体の領域の前記路面方向の部分領域である、
請求項1〜8のいずれか1項に記載の情報処理装置。
The predetermined direction is a road surface direction toward the road surface in the image,
The end portion is a set of end points in the road surface direction of the object region, a boundary line in the road surface direction of the object region, or a partial region in the road surface direction of the object region.
The information processing apparatus according to any one of claims 1 to 8.
1つの単眼カメラの撮像により得られた画像を取得することと、
前記画像における物体の領域を判定することと、
判定された前記物体の領域の所定方向の端部の、前記所定方向についての変化に基づいて前記物体の領域を分割することと、
前記物体の領域の分割により得られる前記物体の部分領域の少なくとも1つについて、前記単眼カメラから前記物体の部分領域に対応する前記物体までの距離を推定することとを含む方法をコンピュータに実行させる
プログラム。
Obtaining an image obtained by imaging with a single monocular camera;
Determining the area of the object in the image;
Dividing the region of the object based on a change in the predetermined direction of an end portion of the determined region of the object in the predetermined direction;
Causing a computer to execute a method including estimating a distance from the monocular camera to the object corresponding to the partial region of the object for at least one of the partial regions of the object obtained by dividing the region of the object program.
JP2018003976A 2017-05-18 2018-01-15 Information processing equipment and programs Active JP7058128B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/956,399 US10789727B2 (en) 2017-05-18 2018-04-18 Information processing apparatus and non-transitory recording medium storing thereon a computer program
EP18168907.6A EP3410345B1 (en) 2017-05-18 2018-04-24 Information processing apparatus and non-transitory recording medium storing thereon a computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017098663 2017-05-18
JP2017098663 2017-05-18

Publications (2)

Publication Number Publication Date
JP2018194538A true JP2018194538A (en) 2018-12-06
JP7058128B2 JP7058128B2 (en) 2022-04-21

Family

ID=64570338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018003976A Active JP7058128B2 (en) 2017-05-18 2018-01-15 Information processing equipment and programs

Country Status (1)

Country Link
JP (1) JP7058128B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021050945A (en) * 2019-09-23 2021-04-01 株式会社デンソー Object recognition device and object recognition program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61147381A (en) * 1984-12-20 1986-07-05 Fuji Electric Co Ltd Discriminating method of superposed pattern
JPH08320999A (en) * 1995-05-25 1996-12-03 Nissan Motor Co Ltd Vehicle recognizing device
JP2003077099A (en) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd Preceding vehicle recognition system
US20070154068A1 (en) * 2006-01-04 2007-07-05 Mobileye Technologies, Ltd. Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera
JP2008130087A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Target area division method and target area division device
JP2013109455A (en) * 2011-11-18 2013-06-06 Clarion Co Ltd Image processing device, vehicle system, and image processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61147381A (en) * 1984-12-20 1986-07-05 Fuji Electric Co Ltd Discriminating method of superposed pattern
JPH08320999A (en) * 1995-05-25 1996-12-03 Nissan Motor Co Ltd Vehicle recognizing device
JP2003077099A (en) * 2001-08-31 2003-03-14 Nissan Motor Co Ltd Preceding vehicle recognition system
US20070154068A1 (en) * 2006-01-04 2007-07-05 Mobileye Technologies, Ltd. Estimating Distance To An Object Using A Sequence Of Images Recorded By A Monocular Camera
JP2008130087A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Target area division method and target area division device
JP2013109455A (en) * 2011-11-18 2013-06-06 Clarion Co Ltd Image processing device, vehicle system, and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021050945A (en) * 2019-09-23 2021-04-01 株式会社デンソー Object recognition device and object recognition program
WO2021059967A1 (en) * 2019-09-23 2021-04-01 株式会社デンソー Object recognition device and object recognition program
JP7151676B2 (en) 2019-09-23 2022-10-12 株式会社デンソー Object recognition device and object recognition program

Also Published As

Publication number Publication date
JP7058128B2 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
US10690770B2 (en) Navigation based on radar-cued visual imaging
US11500101B2 (en) Curb detection by analysis of reflection images
JP6163453B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP6702340B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6139465B2 (en) Object detection device, driving support device, object detection method, and object detection program
JP2017083326A (en) Image processor, imaging apparatus, equipment control system, frequency distribution image generation method, and program
JP6499047B2 (en) Measuring device, method and program
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6592991B2 (en) Object detection apparatus, object detection method, and program
EP3324359B1 (en) Image processing device and image processing method
KR102519666B1 (en) Device and method to convert image
EP3115933A1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP6069938B2 (en) Pop-up detection device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP7058128B2 (en) Information processing equipment and programs
CN110570680A (en) Method and system for determining position of object using map information
JP6416654B2 (en) White line detector
KR101340014B1 (en) Apparatus and method for providing location information
JP7134780B2 (en) stereo camera device
JP7064400B2 (en) Object detection device
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
CN112286178B (en) Identification system, vehicle control system, identification method, and storage medium
JP2016004447A (en) Moving information estimation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7058128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150