JP2017142613A - Information processing device, information processing system, information processing method and information processing program - Google Patents

Information processing device, information processing system, information processing method and information processing program Download PDF

Info

Publication number
JP2017142613A
JP2017142613A JP2016022858A JP2016022858A JP2017142613A JP 2017142613 A JP2017142613 A JP 2017142613A JP 2016022858 A JP2016022858 A JP 2016022858A JP 2016022858 A JP2016022858 A JP 2016022858A JP 2017142613 A JP2017142613 A JP 2017142613A
Authority
JP
Japan
Prior art keywords
frames
information data
image
dimensional information
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016022858A
Other languages
Japanese (ja)
Other versions
JP2017142613A5 (en
JP6544257B2 (en
Inventor
伊藤 泉
Izumi Ito
泉 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016022858A priority Critical patent/JP6544257B2/en
Publication of JP2017142613A publication Critical patent/JP2017142613A/en
Publication of JP2017142613A5 publication Critical patent/JP2017142613A5/en
Priority to JP2019113805A priority patent/JP6988860B2/en
Application granted granted Critical
Publication of JP6544257B2 publication Critical patent/JP6544257B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To connect information corresponding to a plurality of images including overlapping areas with high accuracy.SOLUTION: An information processing device includes: an acquisition part for acquiring stereo picked-up images of at least two or more frames having an overlapping imaging area of prescribed width imaged by a stereo camera, and three-dimensional information data of two or more frames having three-dimensional information calculated the respective picked-up images; a feature point extraction part for extracting feature points from the three-dimensional information data and the picked-up images; a weighting determination part for determining weighting to the three-dimensional information data and the picked-up images on the basis of the number of extracted feature points which is equal to or more than a prescribed threshold; and an image processing part for performing connection processing for connecting two frames of at least either the three-dimensional information data or the picked-up images so as to overlap overlapping imaged areas on the basis of the three-dimensional information data of the two frames and the picked-up images of the two frames, and the weighting determined by the weighting determination part.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及び情報処理プログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, an information processing method, and an information processing program.

道路(路面)の凹凸や、白線が消えていないかなどの状態を点検することが安全管理上求められている。従来、道路の状態を確認するためには、目視による確認やレーザ装置を使った確認が行われていたが、目視では判断基準にばらつきが生じやすく、レーザ装置を使う場合には非常に高価な専用車両が必要であった。そこで、ステレオカメラを車両に設置し、ステレオカメラで撮った輝度画像又は視差画像から道路の状態を検知することが行われている。   For safety management, it is required to inspect the road (road surface) unevenness and whether the white line has disappeared. Conventionally, in order to confirm the state of the road, visual confirmation or confirmation using a laser device has been performed, but the judgment criteria are likely to vary by visual inspection, which is very expensive when using a laser device. A dedicated vehicle was needed. In view of this, a stereo camera is installed in a vehicle, and a road state is detected from a luminance image or a parallax image taken by the stereo camera.

例えば、特許文献1には、ステレオカメラにより自車両の前方の景色を撮像して得た画像データ対に映し出された対象物の視差に基づいて当該対象物の距離データを算出し、画像データと距離データとに基づいて走行環境を認識するステレオ式車外監視装置が開示されている。   For example, in Patent Document 1, distance data of an object is calculated based on the parallax of the object displayed on an image data pair obtained by capturing a scene in front of the host vehicle with a stereo camera, and the image data and A stereo-type vehicle exterior monitoring device that recognizes a traveling environment based on distance data is disclosed.

しかしながら、一度に撮像することができない領域を複数回に分けて撮像し、複数の撮像画像をつなげて全領域の撮像画像を生成する場合に、撮像画像を精度よくつなげることができないことがあった。   However, when a region that cannot be captured at once is captured in multiple times and a plurality of captured images are connected to generate a captured image of the entire region, the captured images may not be connected accurately. .

本発明は、上記に鑑みてなされたものであって、重複する領域を含む複数の画像に相当する情報を精度よくつなぎ合わせることができる情報処理装置、情報処理システム、情報処理方法及び情報処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and is an information processing apparatus, an information processing system, an information processing method, and an information processing program capable of accurately joining information corresponding to a plurality of images including overlapping regions. The purpose is to provide.

上述した課題を解決し、目的を達成するために、本発明は、ステレオカメラにより撮像された所定幅の重複する撮像領域を有する少なくとも2フレーム以上のステレオの撮像画像、および、該撮像画像それぞれから算出された三次元情報を有する2フレーム以上の三次元情報データを取得する取得部と、前記取得部が取得した前記三次元情報データ及び前記撮像画像から特徴点を抽出する特徴点抽出部と、前記特徴点抽出部が前記三次元情報データ及び前記撮像画像それぞれから抽出した所定の閾値以上の特徴点の数に基づいて、前記三次元情報データ及び前記撮像画像に対する重み付けを決定する重み付け決定部と、前記取得部が取得した2フレームの前記三次元情報データ及び2フレームの前記撮像画像、並びに前記重み付け決定部が決定した重み付けに基づいて、前記三次元情報データ及び前記撮像画像の少なくともいずれかの2フレームを前記重複する撮像領域が重なるようにつなげるつなぎ処理を行う画像処理部と、を有する。   In order to solve the above-described problems and achieve the object, the present invention provides at least two frames or more of stereo captured images having overlapping imaging regions of a predetermined width captured by a stereo camera, and each of the captured images. An acquisition unit that acquires two or more frames of three-dimensional information data having the calculated three-dimensional information; a feature point extraction unit that extracts feature points from the three-dimensional information data and the captured image acquired by the acquisition unit; A weight determining unit for determining weights for the three-dimensional information data and the captured image based on the number of feature points equal to or greater than a predetermined threshold extracted from the three-dimensional information data and the captured image by the feature point extracting unit; The two-dimensional three-dimensional information data acquired by the acquisition unit, the two frames of the captured image, and the weight determination unit are determined. Based on the weighting, with a, an image processing unit that performs boundary processing of connecting to the imaging regions overlap to the overlapping at least one of two frames of the three-dimensional information data and the captured image.

本発明によれば、重複する領域を含む複数の画像に相当する情報を精度よくつなぎ合わせることができるという効果を奏する。   According to the present invention, there is an effect that information corresponding to a plurality of images including overlapping regions can be joined together with high accuracy.

図1は、実施形態にかかる情報処理システムの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of an information processing system according to the embodiment. 図2は、車載装置が車両に設置されて撮像する状態を模式的に示す図である。FIG. 2 is a diagram schematically showing a state in which the in-vehicle device is installed in the vehicle and picks up an image. 図3は、第1ステレオカメラ及び第2ステレオカメラの設置位置を例示する図である。FIG. 3 is a diagram illustrating the installation positions of the first stereo camera and the second stereo camera. 図4は、取得部が取得する輝度画像及び視差画像を模式的に例示する図である。FIG. 4 is a diagram schematically illustrating a luminance image and a parallax image acquired by the acquisition unit. 図5は、画像処理部が行うつなぎ処理を模式的に例示する図である。FIG. 5 is a diagram schematically illustrating connection processing performed by the image processing unit. 図6は、画像処理部がつなぎ処理において行う付加処理の第1例を模式的に示す図である。FIG. 6 is a diagram schematically illustrating a first example of additional processing performed by the image processing unit in connection processing. 図7は、画像処理部がつなぎ処理において行う付加処理の第2例を模式的に示す図である。FIG. 7 is a diagram schematically illustrating a second example of the addition process performed by the image processing unit in the connection process. 図8は、時間の経過と共に継続して取得される複数の画像フレームを示す図である。FIG. 8 is a diagram illustrating a plurality of image frames that are continuously acquired over time. 図9は、つなぎ処理に用いられるパラメータを例示する図である。FIG. 9 is a diagram illustrating parameters used for the linkage process. 図10は、情報処理装置が行う処理の第1例を示す図である。FIG. 10 is a diagram illustrating a first example of processing performed by the information processing apparatus. 図11は、情報処理装置が行う処理の第2例を示す図である。FIG. 11 is a diagram illustrating a second example of processing performed by the information processing apparatus. 図12は、パラメータの調整方法を例示する図である。FIG. 12 is a diagram illustrating a parameter adjustment method.

以下に添付図面を参照して、実施形態にかかる情報処理システムを詳細に説明する。図1は、実施形態にかかる情報処理システム10の構成例を示すブロック図である。図1に示すように、情報処理システム10は、例えば車載装置20及び情報処理装置30を有する。   Hereinafter, an information processing system according to an embodiment will be described in detail with reference to the accompanying drawings. FIG. 1 is a block diagram illustrating a configuration example of an information processing system 10 according to the embodiment. As illustrated in FIG. 1, the information processing system 10 includes, for example, an in-vehicle device 20 and an information processing device 30.

車載装置20は、例えば第1ステレオカメラ200、第2ステレオカメラ202、傾斜センサ(姿勢センサ)204、GPS(位置センサ)206、加速度センサ(車速センサ)208、視差画像生成部210及び第1通信部212を有し、後述する車両100などに積載(設置)されて動作する。   The in-vehicle device 20 includes, for example, a first stereo camera 200, a second stereo camera 202, an inclination sensor (attitude sensor) 204, a GPS (position sensor) 206, an acceleration sensor (vehicle speed sensor) 208, a parallax image generation unit 210, and a first communication. It has a section 212 and operates by being loaded (installed) on a vehicle 100 or the like to be described later.

第1ステレオカメラ200は、例えば2つのレンズ及び2つの撮像素子を備え、2つの輝度画像(右眼相当及び左眼相当の撮像画像)を同時に撮影する。第2ステレオカメラ202は、第1ステレオカメラ200と同様に、例えば2つのレンズ及び2つの撮像素子を備え、2つの輝度画像(右眼相当及び左眼相当の撮像画像)を同時に撮影する。つまり、車載装置20は、第1ステレオカメラ200及び第2ステレオカメラ202によって、同時に4つの輝度画像を撮影する。なお、第1ステレオカメラ200及び第2ステレオカメラ202が撮像する撮像画像は、輝度画像に限られず、他の画素値が配列された偏光画像及び分光画像などの撮像画像であってもよい。   The first stereo camera 200 includes, for example, two lenses and two image sensors, and simultaneously captures two luminance images (captured images corresponding to the right eye and the left eye). Similar to the first stereo camera 200, the second stereo camera 202 includes, for example, two lenses and two image sensors, and simultaneously captures two luminance images (captured images corresponding to the right eye and the left eye). That is, the in-vehicle device 20 captures four luminance images at the same time using the first stereo camera 200 and the second stereo camera 202. The captured images captured by the first stereo camera 200 and the second stereo camera 202 are not limited to luminance images, and may be captured images such as a polarized image and a spectral image in which other pixel values are arranged.

車載装置20は、例えば図2に示すように車両100の進行方向に続く領域を、所定幅の重複する撮像領域(画像重複部)を含むように異なる時刻に異なるフレーム(撮影画像)として撮像する。画像重複部は、例えば撮像画像の幅の10〜30%にされる。なお、図2においては、第1ステレオカメラ200及び第2ステレオカメラ202が備える合計4つの撮像素子のいずれか1つが異なる時刻に撮像するフレームが模式的に示されている。   For example, as illustrated in FIG. 2, the in-vehicle device 20 captures an area continuing in the traveling direction of the vehicle 100 as different frames (captured images) at different times so as to include overlapping imaging areas (image overlapping portions) having a predetermined width. . The image overlapping portion is, for example, 10 to 30% of the width of the captured image. In FIG. 2, frames that are imaged at different times by any one of a total of four imaging elements included in the first stereo camera 200 and the second stereo camera 202 are schematically illustrated.

より具体的には、第1ステレオカメラ200及び第2ステレオカメラ202は、例えば図3に示すように、車両100の後方に並べて配置され、道路の幅方向の全領域を上方から同時に撮像する。第1ステレオカメラ200及び第2ステレオカメラ202は、フレームレートが例えば30fpsに設定されている。この場合、1/30sでの車両100の進行方向の移動距離は、0.37m@40km/hや、0.46m@50km/hなどとなる。この場合、進行方向の撮像画像の幅を0.6mとすると、画像重複部は0.23mや0.14mとなる。また、第1ステレオカメラ200及び第2ステレオカメラ202は、車両100の移動速度に応じてフレームレートが設定されてもよい。   More specifically, the first stereo camera 200 and the second stereo camera 202 are arranged side by side behind the vehicle 100 as shown in FIG. 3, for example, and simultaneously image all regions in the width direction of the road from above. The frame rate of the first stereo camera 200 and the second stereo camera 202 is set to 30 fps, for example. In this case, the moving distance of the vehicle 100 in the traveling direction at 1/30 s is 0.37 m @ 40 km / h, 0.46 m @ 50 km / h, or the like. In this case, if the width of the captured image in the traveling direction is 0.6 m, the image overlap portion is 0.23 m or 0.14 m. Further, the frame rate of the first stereo camera 200 and the second stereo camera 202 may be set according to the moving speed of the vehicle 100.

また、車載装置20は、2つのステレオカメラを備えることに限定されず、道路の幅方向の領域を効率よく撮像するために、3つ以上のステレオカメラが設けられてもよい。また、ステレオカメラのいずれかは、道路からの高さが他のステレオカメラとは異なるように設定されてもよい。また、車載装置20には、第1ステレオカメラ200及び第2ステレオカメラ202が撮像するタイミングにテクスチャを投影する投影装置が設けられていてもよい。   The in-vehicle device 20 is not limited to having two stereo cameras, and three or more stereo cameras may be provided in order to efficiently capture an area in the width direction of the road. Also, any of the stereo cameras may be set so that the height from the road is different from other stereo cameras. The in-vehicle device 20 may be provided with a projection device that projects a texture at the timing when the first stereo camera 200 and the second stereo camera 202 capture images.

傾斜センサ204(図1)は、重力方向の加速度等を検出し、道路の傾斜に応じて変化する車載装置20の姿勢(傾き)を検出する。GPS206は、車載装置20の位置を検出する位置センサとして機能する。加速度センサ208は、車載装置20(車両100)の移動における加速度を検出する。また、加速度センサ208は、加速度から車載装置20の位置を検出する位置センサとしての機能も備える。   The inclination sensor 204 (FIG. 1) detects the acceleration in the direction of gravity and the like, and detects the attitude (inclination) of the in-vehicle device 20 that changes according to the inclination of the road. The GPS 206 functions as a position sensor that detects the position of the in-vehicle device 20. The acceleration sensor 208 detects acceleration in movement of the in-vehicle device 20 (vehicle 100). The acceleration sensor 208 also has a function as a position sensor that detects the position of the in-vehicle device 20 from the acceleration.

また、加速度センサ208が検出した加速度(又は移動速度)に応じて、第1ステレオカメラ200及び第2ステレオカメラ202が撮像するフレームレートが設定されてもよい。例えば、車両100の秒速が1m/sであり、第1ステレオカメラ200の撮像範囲が進行方向で50cmである場合、第1ステレオカメラ200は1秒間に3回以上撮像する。なお、第1ステレオカメラ200及び第2ステレオカメラ202は、車両100の移動速度が0のときには、撮像処理を行わず、総データ量を低減するようにされている。   Further, the frame rate captured by the first stereo camera 200 and the second stereo camera 202 may be set according to the acceleration (or moving speed) detected by the acceleration sensor 208. For example, when the speed of the vehicle 100 is 1 m / s and the imaging range of the first stereo camera 200 is 50 cm in the traveling direction, the first stereo camera 200 captures images three times or more per second. Note that when the moving speed of the vehicle 100 is 0, the first stereo camera 200 and the second stereo camera 202 do not perform the imaging process and reduce the total data amount.

視差画像生成部210は、第1ステレオカメラ200及び第2ステレオカメラ202がそれぞれ撮像した輝度画像を用いて視差画像をそれぞれ生成する。視差画像生成部210は、ハードウェアによって構成されてもよいし、一部又は全部がソフトウェアによって構成されてもよい。第1通信部212は、車載装置20を構成する各部が出力する情報を情報処理装置30に対して送信する例えば無線通信装置である。   The parallax image generation unit 210 generates parallax images using luminance images captured by the first stereo camera 200 and the second stereo camera 202, respectively. The parallax image generation unit 210 may be configured by hardware, or a part or all of the parallax image generation unit 210 may be configured by software. The first communication unit 212 is, for example, a wireless communication device that transmits information output from each unit configuring the in-vehicle device 20 to the information processing device 30.

情報処理装置30は、例えばCPU及び記憶装置を備えたサーバであり、第2通信部300、取得部302、特徴点抽出部304、重み付け決定部306、画像処理部308及び処理制御部310を有する。ただし、情報処理装置30は、車載装置20と一体に構成されてもよい。   The information processing apparatus 30 is a server including, for example, a CPU and a storage device, and includes a second communication unit 300, an acquisition unit 302, a feature point extraction unit 304, a weight determination unit 306, an image processing unit 308, and a processing control unit 310. . However, the information processing device 30 may be configured integrally with the in-vehicle device 20.

第2通信部300は、第1通信部212が送信する情報を受信する例えば無線通信装置である。取得部302は、輝度画像取得部312、視差画像取得部314及び三次元情報変換部316を有し、第1通信部212が送信する情報を、第2通信部300を介して取得する。   The second communication unit 300 is, for example, a wireless communication device that receives information transmitted by the first communication unit 212. The acquisition unit 302 includes a luminance image acquisition unit 312, a parallax image acquisition unit 314, and a three-dimensional information conversion unit 316, and acquires information transmitted by the first communication unit 212 via the second communication unit 300.

より具体的には、輝度画像取得部312は、第1ステレオカメラ200及び第2ステレオカメラ202が撮像した輝度画像それぞれの各フレームを取得する。視差画像取得部314は、視差画像生成部210が生成した視差画像を取得する。三次元情報変換部316は、視差画像取得部314が取得した視差画像を、傾斜センサ204、GPS206及び加速度センサ208の少なくともいずれかが検出した情報を用いて、道路の状態(凹凸など)を示す三次元データに変換する。この三次元データは、XYZ座標を有する点(画素)が群となっているため、点群データと記すことがある。また、点群データは、例えば三次元情報データであり、Z方向の値(ステレオカメラからの距離、又は路面の高さ情報)に応じて異なる色などが付されたXY平面上の画像(三次元情報画像)に相当する。つまり、三次元情報変換部316は、三次元情報を平面上に示す三次元情報画像を生成する。なお、視差画像も、三次元情報を含む画像(三次元情報画像)であると言える。   More specifically, the luminance image acquisition unit 312 acquires each frame of luminance images captured by the first stereo camera 200 and the second stereo camera 202. The parallax image acquisition unit 314 acquires the parallax image generated by the parallax image generation unit 210. The three-dimensional information conversion unit 316 indicates the state of the road (such as unevenness) using the parallax image acquired by the parallax image acquisition unit 314 using information detected by at least one of the inclination sensor 204, the GPS 206, and the acceleration sensor 208. Convert to 3D data. This three-dimensional data is sometimes referred to as point group data because points (pixels) having XYZ coordinates form a group. The point cloud data is, for example, three-dimensional information data, and is an image (third order) on the XY plane with different colors or the like according to values in the Z direction (distance from the stereo camera or road surface height information). Correspond to the original information image). That is, the three-dimensional information conversion unit 316 generates a three-dimensional information image indicating the three-dimensional information on a plane. In addition, it can be said that a parallax image is also an image (three-dimensional information image) containing three-dimensional information.

特徴点抽出部304は、第1ステレオカメラ200及び第2ステレオカメラ202が撮像した輝度画像(撮像画像)、及び三次元情報変換部316が変換により生成した三次元情報画像それぞれから、例えばHarris作用素などによって特徴点を抽出する。   The feature point extraction unit 304 uses, for example, a Harris operator from the luminance image (captured image) captured by the first stereo camera 200 and the second stereo camera 202 and the 3D information image generated by the conversion by the 3D information conversion unit 316. Feature points are extracted by

重み付け決定部306は、特徴点抽出部304が三次元情報画像及び撮像画像それぞれから抽出した所定の閾値以上の特徴点の数に基づいて、三次元情報画像及び撮像画像に対する重み付けを決定する。   The weighting determination unit 306 determines the weighting for the three-dimensional information image and the captured image based on the number of feature points that are equal to or larger than a predetermined threshold extracted from the three-dimensional information image and the captured image by the feature point extraction unit 304.

画像処理部308は、補間処理部318を備え、取得部302が取得した2フレームの三次元情報画像(又は視差画像)及び2フレームの撮像画像、並びに重み付け決定部306が決定した重み付けに基づいて、三次元情報画像(又は視差画像)及び撮像画像の少なくともいずれかの2フレームを重複する撮像領域が重なるようにつなげるつなぎ処理を行う。補間処理部318は、2つのフレームの画像重複部の各画素がそれぞれ同じ場所を撮影した画素であるとは限らないため、補間処理を行うことにより、サブピクセル単位で画素の重なりを特定可能にする。また、画像処理部308は、撮像画像又は三次元情報画像のいずれか一方の2フレームに対して行ったつなぎ処理を、他方の2フレームに対しても行うように構成されてもよい。   The image processing unit 308 includes an interpolation processing unit 318, and is based on the two-frame three-dimensional information image (or parallax image) acquired by the acquisition unit 302 and the two-frame captured image, and the weighting determined by the weighting determination unit 306. Then, a linkage process is performed in which the imaging regions that overlap at least two frames of at least one of the three-dimensional information image (or parallax image) and the captured image are overlapped. Since the interpolation processing unit 318 does not always have the pixels in the image overlapping portion of the two frames captured at the same location, the interpolation processing can be performed to identify pixel overlap in units of subpixels. To do. In addition, the image processing unit 308 may be configured to perform the joining process performed on one of the two frames of the captured image or the three-dimensional information image also on the other two frames.

また、画像処理部308は、つなぎ処理を各フレームに対して連続して行うことにより、第1ステレオカメラ200及び第2ステレオカメラ202が撮像する全領域に対応する画像をつなぐことが可能である。また、画像処理部308は、3フレーム以上、すなわち、時刻T1,T2,T3の画像の特徴点が一致している場合は、つなぎ処理を停止させる。また、画像処理部308は、加速度センサ208の検出結果から車両100が減速後に停止(一定加速度)して再度加速したと判定される場合、つなぎ処理を行わないようにされている。また、画像処理部308は、車載装置20の移動速度に応じてつなぎ処理の処理頻度を変えるように構成されてもよい。   In addition, the image processing unit 308 can continuously connect the images corresponding to the entire area captured by the first stereo camera 200 and the second stereo camera 202 by performing the connection process continuously for each frame. . Further, the image processing unit 308 stops the linkage process when the feature points of the images at three frames or more, that is, at the times T1, T2, and T3 match. Further, when it is determined from the detection result of the acceleration sensor 208 that the vehicle 100 has stopped (definite acceleration) and accelerated again from the detection result of the acceleration sensor 208, the image processing unit 308 is configured not to perform the linkage process. Further, the image processing unit 308 may be configured to change the processing frequency of the connection processing according to the moving speed of the in-vehicle device 20.

処理制御部310は、情報処理装置30を構成する各部が行う処理を制御する。なお、取得部302、特徴点抽出部304、重み付け決定部306、画像処理部308及び処理制御部310は、ハードウェアによって構成されてもよいし、一部又は全部がソフトウェアによって構成されてもよい。   The processing control unit 310 controls processing performed by each unit configuring the information processing apparatus 30. The acquisition unit 302, the feature point extraction unit 304, the weight determination unit 306, the image processing unit 308, and the processing control unit 310 may be configured by hardware, or part or all may be configured by software. .

次に、情報処理システム10の動作について図を用いて説明する。図4は、取得部302が取得する輝度画像及び視差画像を模式的に例示する図である。まず、第1ステレオカメラ200は、時刻T1に輝度画像A1と輝度画像B1を撮像する。視差画像生成部210は、輝度画像A1と輝度画像B1から視差画像1を生成する。さらに、第1ステレオカメラ200は、時刻T2に輝度画像A2と輝度画像B2を撮像する。視差画像生成部210は、輝度画像A2と輝度画像B2から視差画像2を生成する。   Next, the operation of the information processing system 10 will be described with reference to the drawings. FIG. 4 is a diagram schematically illustrating a luminance image and a parallax image acquired by the acquisition unit 302. First, the first stereo camera 200 captures the luminance image A1 and the luminance image B1 at time T1. The parallax image generation unit 210 generates the parallax image 1 from the luminance image A1 and the luminance image B1. Furthermore, the first stereo camera 200 captures the luminance image A2 and the luminance image B2 at time T2. The parallax image generation unit 210 generates the parallax image 2 from the luminance image A2 and the luminance image B2.

時刻T1に撮像された輝度画像と、時刻T2に撮像された輝度画像には、同じ領域(道路)を撮像した画像重複部が存在している。輝度画像取得部312は、視差画像1及び視差画像2を取得する。また、視差画像取得部314は、例えば輝度画像B1と撮影範囲が重複する輝度画像A1の領域を、重複部輝度画像1として取得する。また、視差画像取得部314は、例えば輝度画像B2と撮影範囲が重複する輝度画像A2の領域を、重複部輝度画像2として取得する。   The luminance image captured at time T1 and the luminance image captured at time T2 include an image overlap portion in which the same region (road) is captured. The luminance image acquisition unit 312 acquires the parallax image 1 and the parallax image 2. In addition, the parallax image acquisition unit 314 acquires, for example, a region of the luminance image A1 where the photographing range overlaps with the luminance image B1 as the overlapping portion luminance image 1. In addition, the parallax image acquisition unit 314 acquires, for example, a region of the luminance image A2 where the photographing range overlaps with the luminance image B2 as the overlapping portion luminance image 2.

図5は、画像処理部308が行うつなぎ処理を模式的に例示する図である。画像処理部308は、重複部輝度画像1と重複部輝度画像2とをつなぐ処理、及び視差画像1と視差画像2とをつなぐ処理を行う。なお、輝度画像A1と輝度画像A2は、同じ場所(面積)を写しているピクセル(画素)があるとは限らない。そこで、画像処理部308は、補間処理部318が補間処理等を行うことにより、サブピクセル単位で重なりを特定する。   FIG. 5 is a diagram schematically illustrating a connection process performed by the image processing unit 308. The image processing unit 308 performs processing for connecting the overlapping portion luminance image 1 and the overlapping portion luminance image 2 and processing for connecting the parallax image 1 and the parallax image 2. It should be noted that the luminance image A1 and the luminance image A2 do not necessarily have pixels (pixels) showing the same location (area). Therefore, the image processing unit 308 specifies the overlap in units of subpixels by the interpolation processing unit 318 performing interpolation processing or the like.

図6は、画像処理部308がつなぎ処理において行う付加処理の第1例を模式的に示す図である。図6においては、視差(凸凹)がほぼない道路を走行する車両100がフレーム間で横にずれて移動した場合が示されている。輝度画像A1及び輝度画像A2では、道路の白線は、コントラストが高く、特徴点が現れやすい。一方、道路の白線は、形状としては僅かな段差のみがあり、視差による特徴点が得にくい。   FIG. 6 is a diagram schematically illustrating a first example of addition processing performed by the image processing unit 308 in connection processing. FIG. 6 shows a case where the vehicle 100 traveling on a road having almost no parallax (unevenness) moves laterally shifted between frames. In the luminance image A1 and the luminance image A2, the white line on the road has high contrast and feature points are likely to appear. On the other hand, the white line of the road has only a slight step in shape, and it is difficult to obtain feature points due to parallax.

輝度画像では、白線は輝度が高く映るため、輝度画像A1と輝度画像A2を特徴点によって正確につなぐことは容易となる。そこで、重み付け決定部306は、図6に示したように輝度画像の方が視差画像よりも所定の閾値以上の特徴点が多い場合、輝度画像の情報に重みを付ける決定を行う。画像処理部308は、重み付け決定部306が決定した重みに基づいて、つなぎ処理を行う。つまり、画像処理部308は、ここでは輝度画像のつなぎ方を用いて、対応する視差画像をつなぐ処理を行う。例えば、画像処理部308は、輝度画像から視差画像1の下端5ピクセルと視差画像2の上端5ピクセルが重なる領域であると特定できた場合、その条件で視差画像1と視差画像2をつなぐ。   In the luminance image, since the luminance of the white line is high, it is easy to accurately connect the luminance image A1 and the luminance image A2 with the feature points. Therefore, when the luminance image has more feature points equal to or greater than the predetermined threshold than the parallax image as illustrated in FIG. 6, the weighting determination unit 306 determines to weight the luminance image information. The image processing unit 308 performs a joining process based on the weight determined by the weight determining unit 306. In other words, the image processing unit 308 performs processing for connecting the corresponding parallax images using the method of connecting the luminance images. For example, if the image processing unit 308 can identify the region where the lower 5 pixels of the parallax image 1 and the upper 5 pixels of the parallax image 2 overlap from the luminance image, the image processing unit 308 connects the parallax image 1 and the parallax image 2 under the conditions.

図7は、画像処理部308がつなぎ処理において行う付加処理の第2例を模式的に示す図である。図7においては、視差(凸凹)がほぼない道路を走行する車両100がフレーム間で回転運動をした場合が示されている。車両100が回転運動した(曲がった)場合、画像処理部308は、視差画像1に対して視差画像2を回転させながら画素の一致度を確認し、どの角度の回転のときに最も一致度が高いかを判断して、視差画像1と視差画像2をつなぐ。   FIG. 7 is a diagram schematically illustrating a second example of the addition process performed by the image processing unit 308 in the connection process. FIG. 7 shows a case where the vehicle 100 traveling on a road having almost no parallax (unevenness) has a rotational motion between frames. When the vehicle 100 rotates (bends), the image processing unit 308 checks the coincidence of pixels while rotating the parallax image 2 with respect to the parallax image 1, and the degree of coincidence is the highest at which angle of rotation. It is determined whether it is high, and the parallax image 1 and the parallax image 2 are connected.

この場合、視差が小さいと視差画像では一致する領域を探すことは難しい。そこで、重み付け決定部306は、所定の閾値以上の特徴点が多い輝度画像A1と輝度画像A2の情報に重みを付ける決定を行う。画像処理部308は、重み付け決定部306が決定した重みに基づいて、つなぎ処理を行う。つまり、画像処理部308は、ここでは輝度画像のつなぎ方を用いて、対応する視差画像をつなぐ処理を行う。   In this case, if the parallax is small, it is difficult to find a matching area in the parallax image. Therefore, the weighting determination unit 306 determines to weight the information on the luminance image A1 and the luminance image A2 having many feature points that are equal to or greater than a predetermined threshold. The image processing unit 308 performs a joining process based on the weight determined by the weight determining unit 306. In other words, the image processing unit 308 performs processing for connecting the corresponding parallax images using the method of connecting the luminance images.

また、画像処理部308は、回転の角度に関しては、機械学習などにより物体認識を行い、その角度変化から角度のみを検出してもよい。図7に示した付加処理は、白線などの直線状の物体を含む場合に有効である。   Further, the image processing unit 308 may perform object recognition by machine learning or the like regarding the rotation angle, and detect only the angle from the change in the angle. The addition processing shown in FIG. 7 is effective when a linear object such as a white line is included.

一方、道路のわだちなどは、輝度画像では特徴点が表れにくい。よって、重み付け決定部306は、わだちなどが撮影された輝度画像をつなぐ処理を行う場合などに、視差画像に重みをつける決定を行う。   On the other hand, features such as roadsides are difficult to appear in the luminance image. Therefore, the weight determination unit 306 determines to give weight to the parallax image when performing processing for connecting the luminance images in which the frames are taken.

以上説明したように、情報処理装置30は、車載装置20から取得した輝度画像及び視差画像を用いて、つなぎ処理を行う。そして、情報処理装置30は、図8にも示したように、時間の経過と共に継続して複数の画像フレームを車載装置20から取得し、輝度画像と点群データ(三次元情報画像)をつなぐ処理を行う。   As described above, the information processing apparatus 30 performs the linkage process using the luminance image and the parallax image acquired from the in-vehicle apparatus 20. Then, as illustrated in FIG. 8, the information processing device 30 continuously acquires a plurality of image frames from the in-vehicle device 20 as time elapses, and connects the luminance image and the point cloud data (three-dimensional information image). Process.

ここで、画像処理部308は、図9に示した輝度画像から得られる情報(X、Y、θz:Z軸周りの回転角)と、傾斜センサ(姿勢センサ)204、GPS(位置センサ)206及び加速度センサ(車速センサ)208から得られる各情報とを用いてつなぎ処理を行う。   Here, the image processing unit 308 includes information (X, Y, θz: rotation angle around the Z axis) obtained from the luminance image shown in FIG. 9, an inclination sensor (attitude sensor) 204, and a GPS (position sensor) 206. And the connection processing is performed using each information obtained from the acceleration sensor (vehicle speed sensor) 208.

図10は、情報処理装置30が行う処理の第1例を示す図である。図10に示すように、特徴点抽出部304は、隣接2フレーム分の点群データ(Cn,Cn+1:図8参照)を用いて特徴点抽出処理を行い(S100)、隣接2フレーム分の輝度画像(Dn,Dn+1:図8参照)を用いて特徴点抽出処理を行う(S102)。特徴点抽出部304は、例えば特徴点を画像平面上の位置と強度の情報として出力する。   FIG. 10 is a diagram illustrating a first example of processing performed by the information processing apparatus 30. As shown in FIG. 10, the feature point extraction unit 304 performs feature point extraction processing using point group data (Cn, Cn + 1: see FIG. 8) for two adjacent frames (S100), and luminance for two adjacent frames. Feature point extraction processing is performed using images (Dn, Dn + 1: see FIG. 8) (S102). The feature point extraction unit 304 outputs, for example, the feature points as position and intensity information on the image plane.

重み付け決定部306は、特徴点抽出部304が出力した各特徴点に対し、強度が所定の閾値以下の特徴点を無効として、重みWを決定する(重み出力処理:S104)。輝度の閾値はTh_bとされ、点群データの閾値はTh_sとされている。ここで、各閾値は、特徴点が3点以上確保されるように設定されている。   The weight determination unit 306 determines a weight W for each feature point output from the feature point extraction unit 304 by invalidating a feature point having an intensity equal to or less than a predetermined threshold (weight output process: S104). The threshold value for luminance is Th_b, and the threshold value for point cloud data is Th_s. Here, each threshold value is set so that three or more feature points are secured.

所定の閾値以上の輝度の特徴点はCb(n_Cb)(Px,Py,I)とされ、点群データの特徴点はCs(n_Cs)(Px,Py,I)とされる。なお、Px,Pyは画像面内の位置を示し、Iは強度を示す。(n_Cb)、(n_Cs)は強度が所定の閾値以上の特徴点の個数を示す。   A feature point having a luminance equal to or higher than a predetermined threshold is Cb (n_Cb) (Px, Py, I), and a feature point of the point cloud data is Cs (n_Cs) (Px, Py, I). Px and Py indicate positions in the image plane, and I indicates intensity. (N_Cb) and (n_Cs) indicate the number of feature points having an intensity equal to or greater than a predetermined threshold.

重みWの算出方法には、以下のようなものがある。   There are the following methods for calculating the weight W.

所定の閾値以上の特徴点の個数の比に応じて重みWを決定する場合には、下式1によって重みWが算出される。   When the weight W is determined according to the ratio of the number of feature points equal to or greater than a predetermined threshold, the weight W is calculated by the following equation 1.

W=n_Cb/(n_Cb + n_Cs) ・・・(1)   W = n_Cb / (n_Cb + n_Cs) (1)

また、特徴点の強度の総和の比に応じて重みWを決定する場合には、下式2によって重みWが算出される。   Further, when the weight W is determined according to the ratio of the sum of the intensity of the feature points, the weight W is calculated by the following equation 2.

W=Σ(I_Cb)/{Σ(I_Cb)+Σ(I_Cs)} ・・・(2)
ここで、I_Cb、I_Csは各特徴点の強度を示す。
W = Σ (I_Cb) / {Σ (I_Cb) + Σ (I_Cs)} (2)
Here, I_Cb and I_Cs indicate the strength of each feature point.

また、特徴点の個数を例えば3個に限定し、強度上位3個の強度の比に応じて重みWを決定する場合には、下式3によって重みWが算出される。   Further, when the number of feature points is limited to, for example, 3 and the weight W is determined according to the ratio of the top three intensities, the weight W is calculated by the following equation 3.

W=Σ(I_Cb)/Σ(I_Cb+I_Cs) ・・・(3)   W = Σ (I_Cb) / Σ (I_Cb + I_Cs) (3)

さらに、各特徴点の「位置」から求まる「特徴点間距離の総和」と「強度」の積の比に応じて重みWを決定する場合には、下式4によって重みWが算出される。   Further, when the weight W is determined according to the ratio of the product of “total distance between feature points” and “intensity” obtained from the “position” of each feature point, the weight W is calculated by the following equation 4.

W=A_b/(A_b+A_s) ・・・(4)
但し、特徴点間距離の総和をD_b、D_sとし、各特徴点強度をI_Cb(n)、I_Cs(n)として、A_b=D_b・Σ(I_Cb(n))、A_s=D_s・Σ(I_Cs(n))とする。ここでは、特徴点間距離が大きいほど、θx、θy、θzの算出時の精度向上に寄与する。
W = A_b / (A_b + A_s) (4)
However, the sum of distances between feature points is D_b and D_s, and the intensity of each feature point is I_Cb (n) and I_Cs (n). n)). Here, the greater the distance between feature points, the greater the accuracy in calculating θx, θy, and θz.

そして、重み付け決定部306は、決定した重みWを用いた比較処理を行い、W>Th_W(重み閾値)を設け、輝度画像又は点群データのいずれに重みを置くかを決定する(S106)。重みWは、0<W<1の範囲内の値をとり得るので、Th_Wは例えば0.5とされる。   Then, the weight determination unit 306 performs a comparison process using the determined weight W, provides W> Th_W (weight threshold), and determines which of the luminance image and the point cloud data is to be weighted (S106). Since the weight W can take a value within the range of 0 <W <1, Th_W is set to 0.5, for example.

次に、画像処理部308は、隣接フレームの特徴点のマッチング処理を行い(S108)、相対パラメータ算出処理(つなぎ処理)を行う(S110)。ここで、画像処理部308は、例えばSIFT特徴量を用いてマッチング処理を行う。   Next, the image processing unit 308 performs matching processing of feature points of adjacent frames (S108), and performs relative parameter calculation processing (joining processing) (S110). Here, the image processing unit 308 performs matching processing using, for example, SIFT feature values.

そして、画像処理部308は、つなぎ処理において重みWを用いたパラメータ調整を行う。例えば、画像処理部308は、下式5に示した輝度画像と点群データの中間的な数値を生成してつなぎ処理に用いる。   Then, the image processing unit 308 performs parameter adjustment using the weight W in the connection process. For example, the image processing unit 308 generates an intermediate numerical value between the luminance image and the point cloud data shown in the following expression 5 and uses it for the connection process.

p_s’=(W・p_s+(1−W)・p_b)/2 ・・・(5)   p_s ′ = (W · p_s + (1−W) · p_b) / 2 (5)

なお、p_sは、図9に示したいずれかの点群データのパラメータであり、p_bは輝度画像のパラメータである。   Note that p_s is a parameter of any of the point group data shown in FIG. 9, and p_b is a parameter of the luminance image.

図11は、情報処理装置30が行う処理の第2例を示す図である。図11に示すように、特徴点抽出部304は、隣接2フレーム分の点群データ(Cn,Cn+1:図8参照)を用いて特徴点抽出処理を行い(S100)、隣接2フレーム分の輝度画像(Dn,Dn+1:図8参照)を用いて特徴点抽出処理を行う(S102)。特徴点抽出部304は、例えば特徴点を画像平面上の位置と強度の情報として、画像処理部308及び重み付け決定部306に対して出力する。   FIG. 11 is a diagram illustrating a second example of processing performed by the information processing apparatus 30. As shown in FIG. 11, the feature point extraction unit 304 performs feature point extraction processing using point group data (Cn, Cn + 1: see FIG. 8) for two adjacent frames (S100), and luminance for two adjacent frames. Feature point extraction processing is performed using images (Dn, Dn + 1: see FIG. 8) (S102). The feature point extraction unit 304 outputs, for example, the feature points to the image processing unit 308 and the weight determination unit 306 as position and intensity information on the image plane.

画像処理部308は、点群データのみを用いた特徴点のマッチング処理(S200)と、輝度画像のみを用いた特徴点のマッチング処理(S202)とを行い、点群データのみを用いた点群データのつなぎ処理(S204)と、輝度画像のみを用いた輝度画像つなぎ処理(S206)とを行う。   The image processing unit 308 performs a feature point matching process (S200) using only point cloud data and a feature point matching process (S202) using only a luminance image, and a point cloud using only point cloud data. Data connection processing (S204) and luminance image connection processing using only luminance images (S206) are performed.

重み付け決定部306は、重みWを決定する(重み出力処理:S208)。そして、画像処理部308は、重み付け決定部306が決定した重みWを用いて、S204及びS206の処理で実行したつなぎ処理の結果を図12に例示したように調整する(相対パラメータ調整処理:S210)。   The weight determination unit 306 determines the weight W (weight output processing: S208). Then, the image processing unit 308 uses the weight W determined by the weight determination unit 306 to adjust the result of the linkage processing executed in the processing of S204 and S206 as illustrated in FIG. 12 (relative parameter adjustment processing: S210). ).

このように、情報処理システム10は、道路の単位距離(例:数百メートル)の連続的な三次元形状データ(三次元情報画像)及び輝度画像を精度よく生成して出力する。三次元形状データは、道路の平坦度(進行方向の凹凸)、わだち(道路の幅方向の凹凸)、ひび、白線の状態を示すことが可能である。輝度画像は道路のひびなどを示すことが可能である。   As described above, the information processing system 10 accurately generates and outputs continuous three-dimensional shape data (three-dimensional information image) and luminance images of a road unit distance (eg, several hundred meters). The three-dimensional shape data can indicate the state of road flatness (unevenness in the traveling direction), rutting (unevenness in the width direction of the road), cracks, and white lines. The luminance image can show road cracks and the like.

10 情報処理システム
20 車載装置
30 情報処理装置
100 車両
200 第1ステレオカメラ
202 第2ステレオカメラ
204 傾斜センサ
206 GPS
208 加速度センサ
210 視差画像生成部
212 第1通信部
300 第2通信部
302 取得部
304 特徴点抽出部
306 重み付け決定部
308 画像処理部
310 処理制御部
312 輝度画像取得部
314 視差画像取得部
316 三次元情報変換部
318 補間処理部
DESCRIPTION OF SYMBOLS 10 Information processing system 20 In-vehicle apparatus 30 Information processing apparatus 100 Vehicle 200 First stereo camera 202 Second stereo camera 204 Inclination sensor 206 GPS
208 acceleration sensor 210 parallax image generation unit 212 first communication unit 300 second communication unit 302 acquisition unit 304 feature point extraction unit 306 weight determination unit 308 image processing unit 310 processing control unit 312 luminance image acquisition unit 314 parallax image acquisition unit 316 tertiary Original information conversion unit 318 Interpolation processing unit

特開2001−043495号公報JP 2001-043495 A

Claims (10)

ステレオカメラにより撮像された所定幅の重複する撮像領域を有する少なくとも2フレーム以上のステレオの撮像画像、および、該撮像画像それぞれから算出された三次元情報を有する2フレーム以上の三次元情報データを取得する取得部と、
前記取得部が取得した前記三次元情報データ及び前記撮像画像から特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部が前記三次元情報データ及び前記撮像画像それぞれから抽出した所定の閾値以上の特徴点の数に基づいて、前記三次元情報データ及び前記撮像画像に対する重み付けを決定する重み付け決定部と、
前記取得部が取得した2フレームの前記三次元情報データ及び2フレームの前記撮像画像、並びに前記重み付け決定部が決定した重み付けに基づいて、前記三次元情報データ及び前記撮像画像の少なくともいずれかの2フレームを前記重複する撮像領域が重なるようにつなげるつなぎ処理を行う画像処理部と、
を有することを特徴とする情報処理装置。
Acquire at least two frames or more of stereo imaged images having a predetermined width overlapping imaging area imaged by a stereo camera, and two or more frames of 3D information data having 3D information calculated from each of the imaged images. An acquisition unit to
A feature point extraction unit that extracts feature points from the three-dimensional information data and the captured image acquired by the acquisition unit;
A weight determining unit for determining weights for the three-dimensional information data and the captured image based on the number of feature points equal to or greater than a predetermined threshold extracted from the three-dimensional information data and the captured image by the feature point extracting unit; ,
Two of at least one of the three-dimensional information data and the captured image based on the two frames of the three-dimensional information data acquired by the acquisition unit, the two frames of the captured image, and the weighting determined by the weight determination unit. An image processing unit for performing a linking process for connecting frames so that the overlapping imaging areas overlap; and
An information processing apparatus comprising:
前記画像処理部は、
前記撮像画像又は前記三次元情報データのいずれか一方の2フレームに対して行ったつなぎ処理を、他方の2フレームに対しても行うこと
を特徴とする請求項1に記載の情報処理装置。
The image processing unit
The information processing apparatus according to claim 1, wherein the joining process performed on one of the two frames of the captured image or the three-dimensional information data is performed on the other two frames.
前記画像処理部は、
前記ステレオカメラの移動速度及び姿勢を示す角度の変化に基づいて、前記つなぎ処理を行うこと
を特徴とする請求項1又は2に記載の情報処理装置。
The image processing unit
The information processing apparatus according to claim 1, wherein the joining process is performed based on a change in an angle indicating a moving speed and a posture of the stereo camera.
前記画像処理部は、
前記ステレオカメラの移動速度に応じて、前記つなぎ処理の処理頻度を変えること
を特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
The image processing unit
The information processing apparatus according to any one of claims 1 to 3, wherein a processing frequency of the connection process is changed according to a moving speed of the stereo camera.
所定の速度で移動可能にされた前記ステレオカメラと、
請求項1乃至4のいずれか1項に記載の情報処理装置と、
を有することを特徴とする情報処理システム。
The stereo camera made movable at a predetermined speed;
An information processing apparatus according to any one of claims 1 to 4,
An information processing system comprising:
前記ステレオカメラは、
移動速度に応じてフレームレートが設定されていること
を特徴とする請求項5に記載の情報処理システム。
The stereo camera
The information processing system according to claim 5, wherein a frame rate is set according to the moving speed.
前記画像処理部は、
前記特徴点抽出部が抽出する特徴点が所定数のフレームにおいて一致する場合、前記つなぎ処理を停止させること
を特徴とする請求項5又は6に記載の情報処理システム。
The image processing unit
The information processing system according to claim 5 or 6, wherein when the feature points extracted by the feature point extraction unit match in a predetermined number of frames, the joining process is stopped.
前記画像処理部は、
前記ステレオカメラの移動が減速後に停止して再度加速するものである場合、前記ステレオカメラが停止していた期間に対する前記つなぎ処理を行わないこと
を特徴とする請求項5乃至7のいずれか1項に記載の情報処理システム。
The image processing unit
8. The connection process according to claim 5, wherein when the movement of the stereo camera is stopped after being decelerated and then accelerated again, the joining process is not performed for a period during which the stereo camera was stopped. Information processing system described in 1.
ステレオカメラにより撮像された所定幅の重複する撮像領域を有する少なくとも2フレーム以上のステレオの撮像画像、および、該撮像画像それぞれから算出された三次元情報を有する2フレーム以上の三次元情報データを取得する工程と、
取得した前記三次元情報データ及び前記撮像画像から特徴点を抽出する工程と、
前記三次元情報データ及び前記撮像画像それぞれから抽出した所定の閾値以上の特徴点の数に基づいて、前記三次元情報データ及び前記撮像画像に対する重み付けを決定する工程と、
取得した2フレームの前記三次元情報データ及び2フレームの前記撮像画像、並びに決定した重み付けに基づいて、前記三次元情報データ及び前記撮像画像の少なくともいずれかの2フレームを前記重複する撮像領域が重なるようにつなげるつなぎ処理を行う工程と、
を含む情報処理方法。
Acquire at least two frames or more of stereo imaged images having a predetermined width overlapping imaging area imaged by a stereo camera, and two or more frames of 3D information data having 3D information calculated from each of the imaged images. And a process of
Extracting a feature point from the acquired three-dimensional information data and the captured image;
Determining weights for the three-dimensional information data and the captured image based on the number of feature points equal to or greater than a predetermined threshold extracted from the three-dimensional information data and the captured image;
Based on the acquired two frames of the three-dimensional information data, two frames of the captured image, and the determined weighting, the overlapping imaging region overlaps at least two frames of the three-dimensional information data and the captured image. A step of performing a bridging process to connect,
An information processing method including:
ステレオカメラにより撮像された所定幅の重複する撮像領域を有する少なくとも2フレーム以上のステレオの撮像画像、および、該撮像画像それぞれから算出された三次元情報を有する2フレーム以上の三次元情報データを取得するステップと、
取得した前記三次元情報データ及び前記撮像画像から特徴点を抽出するステップと、
前記三次元情報データ及び前記撮像画像それぞれから抽出した所定の閾値以上の特徴点の数に基づいて、前記三次元情報データ及び前記撮像画像に対する重み付けを決定するステップと、
取得した2フレームの前記三次元情報データ及び2フレームの前記撮像画像、並びに決定した重み付けに基づいて、前記三次元情報データ及び前記撮像画像の少なくともいずれかの2フレームを前記重複する撮像領域が重なるようにつなげるつなぎ処理を行うステップと、
をコンピュータに実行させるための情報処理プログラム。
Acquire at least two frames or more of stereo imaged images having a predetermined width overlapping imaging area imaged by a stereo camera, and two or more frames of 3D information data having 3D information calculated from each of the imaged images. And steps to
Extracting feature points from the acquired three-dimensional information data and the captured image;
Determining weights for the three-dimensional information data and the captured image based on the number of feature points equal to or greater than a predetermined threshold extracted from the three-dimensional information data and the captured image;
Based on the acquired two frames of the three-dimensional information data, two frames of the captured image, and the determined weighting, the overlapping imaging region overlaps at least two frames of the three-dimensional information data and the captured image. The step of performing the bridging process to connect,
Processing program for causing a computer to execute.
JP2016022858A 2016-02-09 2016-02-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM Active JP6544257B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016022858A JP6544257B2 (en) 2016-02-09 2016-02-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
JP2019113805A JP6988860B2 (en) 2016-02-09 2019-06-19 Information processing system, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016022858A JP6544257B2 (en) 2016-02-09 2016-02-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019113805A Division JP6988860B2 (en) 2016-02-09 2019-06-19 Information processing system, information processing method and information processing program

Publications (3)

Publication Number Publication Date
JP2017142613A true JP2017142613A (en) 2017-08-17
JP2017142613A5 JP2017142613A5 (en) 2018-10-25
JP6544257B2 JP6544257B2 (en) 2019-07-17

Family

ID=59628660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016022858A Active JP6544257B2 (en) 2016-02-09 2016-02-09 INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP6544257B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107805999A (en) * 2017-09-28 2018-03-16 韦彩霞 A kind of effective pavement disease detecting system
JP2019144501A (en) * 2018-02-23 2019-08-29 トヨタ自動車株式会社 Map generation system
JP2019164136A (en) * 2018-03-19 2019-09-26 株式会社リコー Information processing device, image capturing device, mobile body, image processing system, and information processing method
WO2020116195A1 (en) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, program, mobile body control device, and mobile body
US11245888B2 (en) 2018-03-19 2022-02-08 Ricoh Company, Ltd. Information processing apparatus, image capture apparatus, image processing system, and method of processing a plurality of captured images of a traveling surface where a moveable apparatus travels
US11265485B2 (en) 2018-07-30 2022-03-01 Ricoh Company, Ltd. Measurement apparatus, movable apparatus, and vehicle
JP2022517940A (en) * 2019-02-01 2022-03-11 日立Astemo株式会社 Pothole detection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225289A (en) * 2012-03-21 2013-10-31 Ricoh Co Ltd Multi-lens camera apparatus and vehicle including the same
JP2014002608A (en) * 2012-06-19 2014-01-09 Toyota Motor Corp Road side object detection device
JP2014006885A (en) * 2012-05-31 2014-01-16 Ricoh Co Ltd Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP2014130429A (en) * 2012-12-28 2014-07-10 Ricoh Co Ltd Photographing device and three-dimensional object area detection program
JP2014225220A (en) * 2013-02-18 2014-12-04 株式会社リコー Moving surface information detection device, mobile apparatus control system using the same, and moving surface information detection program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013225289A (en) * 2012-03-21 2013-10-31 Ricoh Co Ltd Multi-lens camera apparatus and vehicle including the same
JP2014006885A (en) * 2012-05-31 2014-01-16 Ricoh Co Ltd Level difference recognition apparatus, level difference recognition method, and program for level difference recognition
JP2014002608A (en) * 2012-06-19 2014-01-09 Toyota Motor Corp Road side object detection device
JP2014130429A (en) * 2012-12-28 2014-07-10 Ricoh Co Ltd Photographing device and three-dimensional object area detection program
JP2014225220A (en) * 2013-02-18 2014-12-04 株式会社リコー Moving surface information detection device, mobile apparatus control system using the same, and moving surface information detection program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107805999A (en) * 2017-09-28 2018-03-16 韦彩霞 A kind of effective pavement disease detecting system
JP2019144501A (en) * 2018-02-23 2019-08-29 トヨタ自動車株式会社 Map generation system
JP7115869B2 (en) 2018-02-23 2022-08-09 トヨタ自動車株式会社 Map generation system
JP2019164136A (en) * 2018-03-19 2019-09-26 株式会社リコー Information processing device, image capturing device, mobile body, image processing system, and information processing method
JP2019164138A (en) * 2018-03-19 2019-09-26 株式会社リコー Information processing device, mobile body, image processing system, and information processing method
US11245888B2 (en) 2018-03-19 2022-02-08 Ricoh Company, Ltd. Information processing apparatus, image capture apparatus, image processing system, and method of processing a plurality of captured images of a traveling surface where a moveable apparatus travels
US11671574B2 (en) 2018-03-19 2023-06-06 Ricoh Company, Ltd. Information processing apparatus, image capture apparatus, image processing system, and method of processing a plurality of captured images of a traveling surface where a moveable apparatus travels
US11265485B2 (en) 2018-07-30 2022-03-01 Ricoh Company, Ltd. Measurement apparatus, movable apparatus, and vehicle
US11856304B2 (en) 2018-07-30 2023-12-26 Ricoh Company, Ltd. Measurement apparatus, movable apparatus, and vehicle
WO2020116195A1 (en) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, program, mobile body control device, and mobile body
JP2022517940A (en) * 2019-02-01 2022-03-11 日立Astemo株式会社 Pothole detection system
JP7301138B2 (en) 2019-02-01 2023-06-30 日立Astemo株式会社 Pothole detection system

Also Published As

Publication number Publication date
JP6544257B2 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
JP6544257B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM
US11024046B2 (en) Systems and methods for depth estimation using generative models
JP7134012B2 (en) Parallax estimation device and method
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
CN106960454B (en) Depth of field obstacle avoidance method and equipment and unmanned aerial vehicle
JP6561512B2 (en) Parallax value deriving device, moving body, robot, parallax value deriving method, parallax value producing method, and program
WO2013132947A1 (en) Distance calculation device and distance calculation method
CN105335955A (en) Object detection method and object detection apparatus
CN104685513A (en) Feature based high resolution motion estimation from low resolution images captured using an array source
JP6970577B2 (en) Peripheral monitoring device and peripheral monitoring method
JP6261266B2 (en) Moving body detection device
JP6306735B2 (en) Stereo camera device and vehicle equipped with stereo camera device
CN106033614B (en) A kind of mobile camera motion object detection method under strong parallax
WO2015098222A1 (en) Information processing device, information processing method, and program
Beltran et al. A comparison between active and passive 3d vision sensors: Bumblebeexb3 and Microsoft Kinect
JP2018503195A (en) Object detection method and object detection apparatus
CN104537627A (en) Depth image post-processing method
TWI571099B (en) Device and method for depth estimation
JP6860445B2 (en) Object distance detector
US9041778B2 (en) Image processing device and method of processing image
JP6988860B2 (en) Information processing system, information processing method and information processing program
WO2014054124A1 (en) Road surface markings detection device and road surface markings detection method
KR102410300B1 (en) Apparatus for measuring position of camera using stereo camera and method using the same
KR20180061803A (en) Apparatus and method for inpainting occlusion of road surface
CN113108919B (en) Human body temperature detection method, device and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180907

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180907

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6544257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151