JP2021131377A - Generation device, method for generation, and program - Google Patents

Generation device, method for generation, and program Download PDF

Info

Publication number
JP2021131377A
JP2021131377A JP2020209189A JP2020209189A JP2021131377A JP 2021131377 A JP2021131377 A JP 2021131377A JP 2020209189 A JP2020209189 A JP 2020209189A JP 2020209189 A JP2020209189 A JP 2020209189A JP 2021131377 A JP2021131377 A JP 2021131377A
Authority
JP
Japan
Prior art keywords
image
distance
reliability
distance image
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020209189A
Other languages
Japanese (ja)
Other versions
JP7532238B2 (en
Inventor
良亮 水野
Ryosuke Mizuno
良亮 水野
和之 古澤
Kazuyuki Furusawa
和之 古澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/168,292 priority Critical patent/US20210256665A1/en
Publication of JP2021131377A publication Critical patent/JP2021131377A/en
Application granted granted Critical
Publication of JP7532238B2 publication Critical patent/JP7532238B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To reduce a memory band necessary to calculate distance information.SOLUTION: The present invention relates to a generation device for generating distance information showing a distance to an object, and the generation device includes: generation means for generating a distance image on the basis of a pair of taken images having a parallax; and correction means for correcting a distortion in a distance image resulting from an optical system of imaging means which generated a pair of taken images for a region with a reliability of at least a threshold value of the distance image.SELECTED DRAWING: Figure 1

Description

本発明は、被写体までの距離を算出する測距技術に関する。 The present invention relates to a distance measuring technique for calculating a distance to a subject.

近年、自動運転やFA(Factory Automation)等、様々な用途で測距技術が使われており、様々な測距技術が存在する。測距技術として、例えばステレオカメラによる撮像画像を利用する技術がある。この方式では、ステレオカメラを使用して被写体を複数の撮像装置によって異なる方向から同時に撮像し、得られた複数の撮像画像の視差に基づいて被写体までの距離情報を算出する(特許文献1)。 In recent years, distance measurement technology has been used for various purposes such as automatic driving and FA (Factory Automation), and there are various distance measurement technologies. As a distance measuring technique, for example, there is a technique of using an image captured by a stereo camera. In this method, a stereo camera is used to simultaneously image a subject from different directions by a plurality of imaging devices, and distance information to the subject is calculated based on the parallax of the obtained plurality of captured images (Patent Document 1).

また別の測距技術として、1つの撮像素子の一部または全部の画素に測距機能を有する画素(測距画素)を配置し、位相差方式を用いて被写体までの距離を算出する技術がある(特許文献2)。この方式では、1つの測距画素に対して複数のフォトダイオードを配置し、それぞれ別々の撮像画像(それぞれA画像、B画像と呼ぶ)を生成し、撮像画像の位置ズレ量に基づいて被写体までの距離を算出する。 As another distance measuring technology, there is a technology in which pixels having a distance measuring function (distance measuring pixels) are arranged in a part or all of the pixels of one image sensor, and the distance to the subject is calculated by using a phase difference method. There is (Patent Document 2). In this method, a plurality of photodiodes are arranged for one distance measuring pixel, separate captured images (called A image and B image, respectively) are generated, and the subject is reached based on the amount of positional deviation of the captured images. Calculate the distance of.

また、撮像素子を使用しない測距方法もある。例えばTOF(Time Of Flight)方式では、被写体に対して光を照射し、光が反射して返ってくるまでの時間を検出することで被写体までの距離を測定する。 There is also a distance measuring method that does not use an image sensor. For example, in the TOF (Time Of Flight) method, the distance to the subject is measured by irradiating the subject with light and detecting the time until the light is reflected and returned.

これら測距技術を使った測距装置では、光学的要因に伴う歪みが発生する。例えば撮像素子を使用した測距装置においては、レンズの歪曲収差によって撮像画像に歪みが発生し、その歪みを含む撮像画像を基に距離を算出して距離画像を生成すると、距離画像にも歪みが生じてしまう。そのため、撮像画像に対して歪み補正を施し、歪み補正後の画像を基に距離画像を生成するか、もしくは生成した距離画像に対して歪み補正を施すのが一般的である。 In a distance measuring device using these distance measuring techniques, distortion due to an optical factor occurs. For example, in a distance measuring device using an image sensor, distortion occurs in the captured image due to distortion of the lens, and when the distance is calculated based on the captured image including the distortion and a distance image is generated, the distance image is also distorted. Will occur. Therefore, it is common to perform distortion correction on the captured image and generate a distance image based on the image after distortion correction, or perform distortion correction on the generated distance image.

歪み補正には様々な方法があるが、いずれの方法でも補正後画像の各画素に対応する補正前画像の画素やその周囲の画素値を参照する必要がある。 There are various methods for distortion correction, but in each method, it is necessary to refer to the pixels of the uncorrected image corresponding to each pixel of the corrected image and the pixel values around it.

特開2018−105682号公報JP-A-2018-105682 特許第5192096号公報Japanese Patent No. 5192096

しかしながら、歪み補正のために補正前画像の画素値をメモリから読み出す際のメモリ帯域は、精度の高い補正方法ほど増大するため、高精度の距離情報を算出しようとすると必要とするメモリ帯域が増大し、メモリ帯域不足を引き起こすという課題がある。 However, the memory bandwidth when reading the pixel value of the image before correction from the memory for distortion correction increases as the correction method has higher accuracy, so that the memory bandwidth required for calculating the distance information with high accuracy increases. However, there is a problem of causing a memory bandwidth shortage.

本発明は、被写体までの距離を表す距離画像を生成する生成装置であって、視差を有する一対の撮像画像に基づき距離画像を生成する生成手段と、距離画像のうち、信頼度が所定の閾値以上である領域について、一対の撮像画像を生成した撮像手段の光学系に起因する距離画像における歪みを補正する補正手段と、を備えることを特徴とする。 The present invention is a generation device that generates a distance image representing a distance to a subject, and is a generation means that generates a distance image based on a pair of captured images having a parallax, and a reliability of the distance image is a predetermined threshold value. It is characterized in that the above-mentioned region is provided with a correction means for correcting distortion in a distance image caused by the optical system of the imaging means that generated a pair of captured images.

本発明は、距離情報を算出するために必要とするメモリ帯域を削減することができる。 INDUSTRIAL APPLICABILITY The present invention can reduce the memory bandwidth required for calculating the distance information.

実施形態1における測距装置の構成を示す図である。It is a figure which shows the structure of the distance measuring apparatus in Embodiment 1. FIG. 実施形態1における処理フローを示す図である。It is a figure which shows the processing flow in Embodiment 1. FIG. 実施形態1における受信画像の例を示す図である。It is a figure which shows the example of the received image in Embodiment 1. FIG. 実施形態1における歪み補正方法に必要な帯域情報の例を示す図である。It is a figure which shows the example of the band information necessary for the distortion correction method in Embodiment 1. 実施形態1における歪み補正方法を説明する図である。It is a figure explaining the distortion correction method in Embodiment 1. FIG. 実施形態2における測距装置の構成を示す図である。It is a figure which shows the structure of the distance measuring apparatus in Embodiment 2. 実施形態2における処理フローを示す図である。It is a figure which shows the processing flow in Embodiment 2. 実施形態3における測距装置の構成を示す図である。It is a figure which shows the structure of the distance measuring apparatus in Embodiment 3. FIG. 実施形態3におけるキャッシュの構成を示す図である。It is a figure which shows the structure of the cache in Embodiment 3. 実施形態3における信頼度を説明する図である。It is a figure explaining the reliability in Embodiment 3. 実施形態3における歪み補正処理を説明する図である。It is a figure explaining the distortion correction process in Embodiment 3. 実施形態4における測距装置の構成を示す図である。It is a figure which shows the structure of the distance measuring apparatus in Embodiment 4. 実施形態4における歪み補正方法と追加処理の帯域情報の例を示す図である。It is a figure which shows the example of the distortion correction method and the band information of an additional process in Embodiment 4. 実施形態5における測距装置の構成を示す図である。It is a figure which shows the structure of the distance measuring apparatus in Embodiment 5. 実施形態5における処理フローの一例を示す図である。It is a figure which shows an example of the processing flow in Embodiment 5. 実施形態5における画像形状変形処理方法を説明する図である。It is a figure explaining the image shape deformation processing method in Embodiment 5. 実施形態6に係る測距装置の構成を示す図である。It is a figure which shows the structure of the distance measuring apparatus which concerns on Embodiment 6. 実施形態6に係る測距装置の構成の別例を示す図である。It is a figure which shows another example of the structure of the distance measuring apparatus which concerns on Embodiment 6. 実施形態6における処理フローの一例を示す図である。It is a figure which shows an example of the processing flow in Embodiment 6. 実施形態7における処理フローの一例を示す図である。It is a figure which shows an example of the processing flow in Embodiment 7.

以下では図面を使って本発明の測距装置の実施形態を説明する。以下の実施形態では測距方法として、1つの測距画素に対して複数のフォトダイオードを配置し、位相差方式を用い距離を算出する方法とステレオカメラを使った方法を例に説明するが、本発明を適用可能な測距方法は上記に限定されるものではない。TOFといった光学系に起因する歪みが発生する測距装置全てに適用可能である。また本実施形態では、撮像画像や距離画像の格納先をDRAM(Dynamic Random Access Memory)としたがその他のメモリであってもよい。その場合は、後述する各歪み補正で必要となるメモリ帯域の情報として、距離画像の格納先メモリに対応した帯域情報を与える必要がある。 Hereinafter, embodiments of the ranging device of the present invention will be described with reference to the drawings. In the following embodiment, as the distance measuring method, a method of arranging a plurality of photodiodes for one distance measuring pixel and calculating the distance using the phase difference method and a method using a stereo camera will be described as an example. The distance measuring method to which the present invention can be applied is not limited to the above. It can be applied to all distance measuring devices that generate distortion due to an optical system such as TOF. Further, in the present embodiment, the storage destination of the captured image and the distance image is set to DRAM (Dynamic Random Access Memory), but other memories may be used. In that case, it is necessary to provide the band information corresponding to the storage destination memory of the distance image as the memory band information required for each distortion correction described later.

(実施形態1)
本発明の実施形態1に係る測距装置について説明する。実施形態1では、1つの測距画素に対して数μmの間隔で複数のフォトダイオードが配置され、少なくとも1つの共通する光学系を備えた撮像装置により生成された視差を有する一対の撮像画像に対して、位相差方式を用いて距離を算出する方法を適用する。このように1つの光学系から2つの対をなす撮像画像を取得する場合には、2つの撮像画像の歪み量は近くなるため、先に2つの撮像画像から距離画像を生成した後に歪み補正をする構成が好適である。こうすることで、歪み補正を1つの距離画像に対してだけ行えばよいため、一対の撮像画像に対してそれぞれ歪み補正を行う場合に比べ、歪み補正に伴う画素値の読み出しのためのDRAMのアクセス帯域(DRAM帯域)を減らすことができる。
(Embodiment 1)
The distance measuring device according to the first embodiment of the present invention will be described. In the first embodiment, a plurality of photodiodes are arranged at intervals of several μm for one ranging pixel, and a pair of captured images having parallax generated by an imaging device having at least one common optical system On the other hand, a method of calculating the distance using the parallax method is applied. When two pairs of captured images are acquired from one optical system in this way, the amount of distortion of the two captured images is close, so distortion correction is performed after first generating a distance image from the two captured images. The configuration is suitable. By doing so, since the distortion correction needs to be performed only for one distance image, the DRAM for reading the pixel value accompanying the distortion correction is compared with the case where the distortion correction is performed for each of the pair of captured images. The access band (DRAM band) can be reduced.

図1は、実施形態1に係る測距装置のハードウェア構成図である。100は本実施形態の測距装置であり、歪み補正を施した被写体の距離画像を生成する。101は撮像部であり、被写体を撮像して画像データを生成する。102は距離画像生成部であり、撮像部101から画像データを受け取って距離画像を生成する。 FIG. 1 is a hardware configuration diagram of the distance measuring device according to the first embodiment. Reference numeral 100 denotes a distance measuring device of the present embodiment, which generates a distance image of a subject to which distortion correction has been performed. Reference numeral 101 denotes an image pickup unit, which captures an image of a subject and generates image data. Reference numeral 102 denotes a distance image generation unit, which receives image data from the imaging unit 101 and generates a distance image.

次に撮像部101の内部構成を説明する。103はレンズであり、被写体から反射された光を集めて撮像素子104へ導き、撮像面上に像を形成する。104は撮像素子であり、CMOSセンサやCCDセンサといったイメージセンサである。撮像素子104はレンズ103を通して受け取った光を電気信号に変換する。105は画像送信部であり、撮像素子104によって生成された電気信号を画像データとして距離画像生成部102へ送信する。 Next, the internal configuration of the imaging unit 101 will be described. Reference numeral 103 denotes a lens, which collects the light reflected from the subject and guides it to the image pickup device 104 to form an image on the image pickup surface. Reference numeral 104 denotes an image sensor, which is an image sensor such as a CMOS sensor or a CCD sensor. The image sensor 104 converts the light received through the lens 103 into an electric signal. Reference numeral 105 denotes an image transmission unit, which transmits the electric signal generated by the image sensor 104 to the distance image generation unit 102 as image data.

次に距離画像生成部102の内部構成を説明する。106は画像受信部であり、撮像部101から送信された画像データを受信する。107は画像補正部であり距離画像を生成する前処理として、画像受信部106が受信した画像データに対して必要な補正処理を行うが、このとき撮像部101の光学系に起因する画像データにおける歪みを補正する歪み補正は含まれない。108は視差算出部であり、画像補正部107によって補正された補正後画像の画素ごとに視差を算出する。109は距離算出部であり、視差算出部108が算出した視差データを距離画像に変換する。110はDRAMであり、本実施形態では距離算出部109で生成された距離画像を格納する。ここで距離算出部109により生成され、DRAM110に格納される距離画像は、本実施形態では歪み補正前の距離画像である。また、DRAM110には、歪み補正において補正後画像における各画素に対応する補正前画像の座標値の情報(以下座標変換マップ情報)が予め格納されているものとする。111は信頼度算出部であり、画像補正部107によって補正された補正後画像における任意の画素単位毎に信頼度を算出する。図1では、信頼度算出部111がDRAM110を介して画像データを取得する構成としたが、DRAM110を介さず画像補正部107から直接画像データを取得する構成としてもよい。112はSRAMであり、本実施形態では1画素毎に算出された信頼度を格納する。信頼度は1画素毎でなく複数画素毎に算出してもよいし、信頼度の格納先は必ずしもSRAMである必要はなくその他のメモリであってもよい。113はメモリアクセス処理内容選択部であり、本実施形態では、信頼度算出部111で算出した信頼度と、予め設定されている各歪み補正方法で必要なメモリアクセス帯域に基づいて、歪み補正方法を選択する。本実施形態では、DRAM帯域に基づいて選択する。114は歪み補正要否判定部であり、歪み補正後画像の各画素に対応する補正前画像の画素の信頼度に応じて、歪み補正をするか否かを判定する。このとき予めDRAM110に格納された座標変換マップを参照して、歪み補正後画像の各画素に対応する補正前画像の画素の座標値を取得する。115は歪み補正部であり、歪み補正要否判定部114で歪み補正が必要と判断された画素の歪み補正を、メモリアクセス処理内容選択部113で選択された方法で実施し、補正後の画素値を出力する。116はマスク部であり、歪み補正要否判定部114で歪み補正が不要と判断された歪み補正後画像の画素に予め定められた値を設定して出力する。 Next, the internal configuration of the distance image generation unit 102 will be described. Reference numeral 106 denotes an image receiving unit, which receives image data transmitted from the imaging unit 101. Reference numeral 107 denotes an image correction unit, which performs necessary correction processing on the image data received by the image receiving unit 106 as a preprocessing for generating a distance image. At this time, in the image data caused by the optical system of the imaging unit 101. Distortion correction to correct distortion is not included. Reference numeral 108 denotes a parallax calculation unit, which calculates the parallax for each pixel of the corrected image corrected by the image correction unit 107. Reference numeral 109 denotes a distance calculation unit, which converts the parallax data calculated by the parallax calculation unit 108 into a distance image. Reference numeral 110 denotes a DRAM, and in the present embodiment, the distance image generated by the distance calculation unit 109 is stored. Here, the distance image generated by the distance calculation unit 109 and stored in the DRAM 110 is a distance image before distortion correction in the present embodiment. Further, it is assumed that the DRAM 110 stores in advance information on the coordinate values of the uncorrected image (hereinafter referred to as coordinate conversion map information) corresponding to each pixel in the corrected image in the distortion correction. Reference numeral 111 denotes a reliability calculation unit, which calculates the reliability for each arbitrary pixel unit in the corrected image corrected by the image correction unit 107. In FIG. 1, the reliability calculation unit 111 acquires the image data via the DRAM 110, but the image data may be acquired directly from the image correction unit 107 without going through the DRAM 110. Reference numeral 112 denotes SRAM, which stores the reliability calculated for each pixel in the present embodiment. The reliability may be calculated not for each pixel but for each of a plurality of pixels, and the storage destination of the reliability does not necessarily have to be SRAM and may be another memory. Reference numeral 113 denotes a memory access processing content selection unit. In the present embodiment, the distortion correction method is based on the reliability calculated by the reliability calculation unit 111 and the memory access band required by each preset distortion correction method. Select. In this embodiment, selection is made based on the DRAM band. Reference numeral 114 denotes a distortion correction necessity determination unit, which determines whether or not to perform distortion correction according to the reliability of the pixels of the uncorrected image corresponding to each pixel of the image after distortion correction. At this time, the coordinate values of the pixels of the uncorrected image corresponding to each pixel of the image after distortion correction are acquired by referring to the coordinate conversion map stored in the DRAM 110 in advance. Reference numeral 115 denotes a distortion correction unit, which performs distortion correction of pixels determined to require distortion correction by the distortion correction necessity determination unit 114 by the method selected by the memory access processing content selection unit 113, and the corrected pixels. Output the value. Reference numeral 116 denotes a mask unit, and a predetermined value is set for the pixels of the image after distortion correction determined by the distortion correction necessity determination unit 114 to be output.

次に、各部の詳細な説明をフローチャートに沿って説明する。図2は、本実施形態の測距装置100における距離画像生成部102の処理の流れを示すフローチャートである。なお距離画像生成部102は、情報処理装置により実現することができ、DRAM110、SRAM112以外の構成は、プログラムを1つ以上のプロセッサーがプログラムを実行することにより実現可能である。後述する他の実施形態の距離画像生成部も同様である。 Next, a detailed explanation of each part will be described with reference to the flowchart. FIG. 2 is a flowchart showing a processing flow of the distance image generation unit 102 in the distance measuring device 100 of the present embodiment. The distance image generation unit 102 can be realized by an information processing device, and configurations other than the DRAM 110 and the SRAM 112 can be realized by executing the program by one or more processors. The same applies to the distance image generation unit of other embodiments described later.

S201では、画像受信部106によって、撮像部101から画像データを受け取る。本実施形態では図3(a)のような画像を受け取ったとする。 In S201, the image receiving unit 106 receives the image data from the imaging unit 101. In this embodiment, it is assumed that an image as shown in FIG. 3A is received.

S202では、画像補正部107により、受け取った画像に対して歪み補正以外の必要な補正処理を行う。補正処理の例としては、センサにキズがある場合のキズ補正や、レンズの中心から離れるにしたがって明るさが低下することで発生する輝度ムラを補正するシェーディング補正などがある。但し、ここで行う補正としては上記に限定されるものではない。 In S202, the image correction unit 107 performs necessary correction processing other than distortion correction on the received image. Examples of the correction process include scratch correction when the sensor has scratches, and shading correction for correcting brightness unevenness caused by a decrease in brightness as the distance from the center of the lens increases. However, the correction performed here is not limited to the above.

S203では、視差算出部108により、S202で補正した画像の画素ごとに視差を算出する。ここではテンプレートマッチングと呼ばれる視差算出方法について説明する。撮像部101が1つの画素内に複数のフォトダイオードを備えた撮像素子104を有するものとし、1つの画素内の複数のフォトダイオードから得られる撮像画像(A像、B像)の片方を基準画像とし、もう一方を参照画像とする。そして、基準画像内に着目点を中心とする任意の大きさの領域(照合領域と呼ぶ)を設定し、照合領域の画像を参照画像内で順次移動させながら参照画像内で一番類似度の高い領域を特定する。基準画像における照合領域の着目点と、参照画像内で照合領域との類似度が最も高い領域の中心点との距離を視差として算出する。ここで、照合領域の大きさや参照画像内での照合領域の移動ステップ数(単位移動量)は任意の値を設定可能である。また画像同士の類似度を求める方法も任意の方法が適用可能である。例えば、画素値の差分の二乗和で類似度を評価するSSD(Sum of Squared Difference)や、画素値の差分の絶対値の和で類似度を評価するSAD(Sum of Absolute Difference)などが使用可能である。 In S203, the parallax calculation unit 108 calculates the parallax for each pixel of the image corrected in S202. Here, a parallax calculation method called template matching will be described. It is assumed that the image pickup unit 101 has an image pickup element 104 having a plurality of photodiodes in one pixel, and one of the captured images (A image, B image) obtained from the plurality of photodiodes in one pixel is used as a reference image. And the other is the reference image. Then, an area of an arbitrary size (called a collation area) centered on the point of interest is set in the reference image, and the images in the collation area are sequentially moved in the reference image to have the highest degree of similarity in the reference image. Identify high areas. The distance between the point of interest in the collation area in the reference image and the center point of the area having the highest degree of similarity to the collation area in the reference image is calculated as parallax. Here, any value can be set for the size of the collation area and the number of steps (unit movement amount) of the collation area in the reference image. In addition, any method can be applied to the method of obtaining the similarity between images. For example, SSD (Sum of Squared Difference), which evaluates similarity by the sum of squares of pixel value differences, and SAD (Sum of Absolute Difference), which evaluates similarity by the sum of absolute values of pixel value differences, can be used. Is.

S204では、距離算出部109により、S203で算出した視差を基に画素ごとの距離を算出する。視差から三角測量の原理により距離を算出し、歪み補正前の距離画像が生成される。 In S204, the distance calculation unit 109 calculates the distance for each pixel based on the parallax calculated in S203. The distance is calculated from the parallax by the principle of triangulation, and a distance image before distortion correction is generated.

S205では、信頼度算出部111により、S202で補正した画像における所定の画素単位毎に信頼度を算出する。本実施形態では1画素単位で信頼度を算出するが、任意の画素単位で信頼度を算出してもよい。また、本実施形態では1ビットで信頼度を算出するが、任意のビット数で信頼度を算出してもよい。信頼度は、測距精度に影響を与える要因に基づいて算出するが、本実施形態における位相差方式を使った距離の算出では、コントラストの変化量に基づき信頼度を算出する。コントラストの変化量は、着目点及びその周囲の画素の画素値の分散から算出可能である。本実施形態では、図3(a)の入力画像に対して、図3(b)の領域300(空に相当する領域)が信頼度0、それ以外の領域が信頼度1として算出されるように信頼度算出アルゴリズムが調整されているものとする。ここでは閾値を1とし、閾値未満の0では信頼度が低く、閾値以上の1では信頼度が高いことを意味する。 In S205, the reliability calculation unit 111 calculates the reliability for each predetermined pixel unit in the image corrected in S202. In the present embodiment, the reliability is calculated in units of one pixel, but the reliability may be calculated in units of any pixel. Further, in the present embodiment, the reliability is calculated by 1 bit, but the reliability may be calculated by any number of bits. The reliability is calculated based on factors that affect the distance measurement accuracy, but in the calculation of the distance using the phase difference method in the present embodiment, the reliability is calculated based on the amount of change in contrast. The amount of change in contrast can be calculated from the dispersion of the pixel values of the point of interest and the pixels around it. In the present embodiment, with respect to the input image of FIG. 3 (a), the region 300 (the region corresponding to the sky) of FIG. 3 (b) is calculated as the reliability 0, and the other regions are calculated as the reliability 1. It is assumed that the reliability calculation algorithm has been adjusted. Here, the threshold value is set to 1, and 0 below the threshold value means low reliability, and 1 above the threshold value means high reliability.

また、算出された信頼度は、本実施形態では高速に読み出しができるようにSRAM(Static Random Access Memory)に座標値と対応付けて格納することとするが、その他のメモリに格納してもよい。また、本実施形態では信頼度が0である領域300は、画像全体の領域に対しておよそ14%である。 Further, in the present embodiment, the calculated reliability is stored in SRAM (Static Random Access Memory) in association with the coordinate values so that it can be read at high speed, but it may be stored in other memory. .. Further, in the present embodiment, the region 300 having a reliability of 0 is about 14% of the region of the entire image.

S206では、メモリアクセス処理内容選択部113により、S204で算出した信頼度と、予め設定されている各歪み補正方法で必要なDRAM帯域に基づいて、歪み補正方法を選択する。本実施形態では、歪み補正方法は、ニアレストネイバー、バイリニア、バイキュービックの3つの歪み補正方法の中から、信頼度の低い領域の割合に応じて選択されるものとする。ただし、歪み補正方法の種類としてはこれらに限定されるものではない。また、各歪み補正方法で必要なDRAM帯域の情報の与え方としては任意の方法で構わない。例えば、ユーザによる入力部を準備してもよいし、予めDRAMやSRAMといったメモリに格納しておいてもよい。本実施形態では図4に示す表のような帯域情報を与えるが、このフォーマットはあくまで一例であり、各歪み補正方法で必要な帯域がわかればどのようなフォーマットでもよい。図4に示す表の400の列は歪み補正方法の種類を表している。 In S206, the memory access processing content selection unit 113 selects the distortion correction method based on the reliability calculated in S204 and the DRAM band required for each of the preset distortion correction methods. In the present embodiment, the distortion correction method is selected from the three distortion correction methods of nearest neighbor, bilinear, and bicubic according to the ratio of the region having low reliability. However, the types of distortion correction methods are not limited to these. Further, any method may be used as the method of giving the information of the DRAM band required for each distortion correction method. For example, an input unit by the user may be prepared, or may be stored in a memory such as DRAM or SRAM in advance. In this embodiment, the band information as shown in the table shown in FIG. 4 is given, but this format is just an example, and any format may be used as long as the band required for each distortion correction method is known. The 400 columns in the table shown in FIG. 4 represent the types of distortion correction methods.

ここで、ニアレストネイバー、バイリニア、バイキュービックの3つの歪み補正方法について説明する。図5(a)は歪み補正について説明した図である。 Here, three distortion correction methods of nearest neighbor, bilinear, and bicubic will be described. FIG. 5A is a diagram illustrating distortion correction.

500は歪み補正後の画像を表しており、今、着目点503の画素について補正をしたいとする。そこでまず着目点503に対応する補正前画像の画素の座標値504(以下、補正前座標値と呼ぶ)を参照する。本実施形態では、補正前座標値504は、予め座標変換マップ502としてDRAM110に格納されているものから補正後座標値に対応する値を参照することによって取得するが、DRAM110以外のメモリに格納しておいてもよい。座標変換マップ502は、レンズ103の歪曲収差に応じた座標変換式に基づいて予め計算したものであるが、補正前座標値504の取得方法は上記の方法に限定されるものではない。補正前座標値504の取得方法は、補正前座標値504を、上記座標変換式により測距装置100内で逐一演算する方法であってもかまわない。 Reference numeral 500 denotes an image after distortion correction, and it is assumed that the pixel at the point of interest 503 is now corrected. Therefore, first, the coordinate value 504 of the pixel of the uncorrected image corresponding to the point of interest 503 (hereinafter, referred to as the uncorrected coordinate value) is referred to. In the present embodiment, the uncorrected coordinate value 504 is acquired by referring to the value corresponding to the corrected coordinate value from the coordinate conversion map 502 stored in the DRAM 110 in advance, but is stored in a memory other than the DRAM 110. You may keep it. The coordinate conversion map 502 is calculated in advance based on the coordinate conversion formula according to the distortion of the lens 103, but the method of acquiring the coordinate value 504 before correction is not limited to the above method. The method of acquiring the coordinate value 504 before correction may be a method of calculating the coordinate value 504 before correction one by one in the distance measuring device 100 by the above coordinate conversion formula.

501は補正前画像を表しており、着目点503に対応する補正前座標値504の座標位置を505(以下、補正前座標位置と呼ぶ)で表している。しかし一般的に座標変換式によって求められる補正前座標値504は小数点を含んでいる。そこでニアレストネイバーでは、図5(b)のように、補正前画像501における補正前座標位置505から最も近くにある画素である画素508の画素値を、着目点503における補正後画素値とする。一方、バイリニアでは、補正前画像501における補正前座標位置505の周囲4点の画素506、507、508、509の画素値から補間した値を、着目点503における補正後画素値とする。更にバイキュービックでは、補正前画像501における補正前座標位置505の周囲16個の画素値から補間した値を、着目点503の補正後画素値とする。よって、ニアレストネイバーでは1個の画素値だけをDRAM110から読めばよいが、バイリニアでは4個の画素値を読む必要があり、更にバイキュービックになると16個の画素値を読む必要があり、歪み補正方法の種類に応じてDRAM帯域が増加する。一方で、歪み補正の精度は、ニアレストネイバーよりもバイリニア、バイリニアよりもバイキュービックの方が高くなる。 Reference numeral 501 denotes a pre-correction image, and the coordinate position of the pre-correction coordinate value 504 corresponding to the point of interest 503 is represented by 505 (hereinafter, referred to as a pre-correction coordinate position). However, the uncorrected coordinate value 504, which is generally obtained by the coordinate conversion formula, includes a decimal point. Therefore, in Nearest Neighbor, as shown in FIG. 5B, the pixel value of the pixel 508, which is the pixel closest to the uncorrected coordinate position 505 in the uncorrected image 501, is set as the corrected pixel value at the point of interest 503. .. On the other hand, in bilinear, the value interpolated from the pixel values of the pixels 506, 507, 508, and 509 at the four points around the uncorrected coordinate position 505 in the uncorrected image 501 is used as the corrected pixel value at the point of interest 503. Further, in bicubic, the value interpolated from the 16 pixel values around the uncorrected coordinate position 505 in the uncorrected image 501 is used as the corrected pixel value of the point of interest 503. Therefore, in the nearest neighbor, only one pixel value needs to be read from the DRAM 110, but in bilinear, it is necessary to read four pixel values, and in bicubic, it is necessary to read 16 pixel values, which is distorted. The DRAM band increases depending on the type of correction method. On the other hand, the accuracy of distortion correction is higher in bilinear than in near rest neighbors and in bicubic than in bilinear.

次に、図4の401の列は各歪み補正方法のDRAM110の必要帯域の例を表している。上述したようにニアレストネイバーに対してバイリニアは4倍、バイキュービックは16倍の画素数の画素値を読む必要があるため、それら全ての画素値を毎回DRAM110から読む場合には、必要帯域もそれぞれ4倍、16倍になってしまう。しかし、例えばバイリニアにおいてある画素の歪み補正で使用した4つの補正前画像501の画素値の一部は、隣の画素の歪み補正でも参照する可能性が高い。そこで一般的にはDRAM110に対してキャッシュをもたせ、一度DRAM110から読んだ画素値を一時的に所定の期間キャッシュに格納している。これにより、一定期間内に再度同じ画素の画素値を読み出す際には、DRAM110にアクセスせずにキャッシュから読み出すことでDRAM帯域を減らしている。どれだけ帯域を減らせるかは、キャッシュのHit率に応じて変わる。本実施形態では、DRAM110に対してタイル単位(縦・横任意の画素数で構成された領域単位)でアクセスすることを想定し、更にレンズの歪曲収差や、各歪み補正方法で参照する画素の領域からキャッシュヒット率を推定している。図4に示すDRAM110の必要帯域401は、このような推定に基づき算出した値を例示している。 Next, the column 401 of FIG. 4 represents an example of the required band of the DRAM 110 of each distortion correction method. As described above, since it is necessary to read the pixel values of 4 times the number of pixels for bilinear and 16 times the number of pixels for bicubic with respect to the nearest neighbor, when all the pixel values are read from the DRAM 110 each time, the required bandwidth is also required. It will be 4 times and 16 times, respectively. However, for example, some of the pixel values of the four uncorrected images 501 used in the distortion correction of a certain pixel in bilinear are likely to be referred to in the distortion correction of the adjacent pixel. Therefore, in general, the DRAM 110 is provided with a cache, and the pixel values once read from the DRAM 110 are temporarily stored in the cache for a predetermined period. As a result, when the pixel value of the same pixel is read again within a certain period of time, the DRAM band is reduced by reading from the cache without accessing the DRAM 110. How much bandwidth can be reduced depends on the hit rate of the cache. In the present embodiment, it is assumed that the DRAM 110 is accessed in tile units (area units composed of arbitrary numbers of pixels in the vertical and horizontal directions), and the distortion of the lens and the pixels referred to in each distortion correction method are used. The cache hit rate is estimated from the area. The required band 401 of the DRAM 110 shown in FIG. 4 exemplifies a value calculated based on such an estimation.

402の列はニアレストネイバーを基準とした時の各歪み補正方法の帯域上昇率を表す。402を見ると、バイリニアの帯域上昇率は12%であり、バイキュービックの帯域上昇率は40%となる。ここでメモリアクセス処理内容選択部113は、まずS204で算出した信頼度を参照して、画像全体に対する信頼度が0の領域の割合を求める。ここでは14%として求められたとする。詳細は後述するが信頼度が0の領域は後段のステップで歪み補正が不要の画素として判定される。そのため、信頼度が0の領域が14%ということは、歪み補正する画素数を14%削減でき、それに伴いDRAM110から画素値を読むための必要帯域を14%削減できることを意味する。すなわち、信頼度0の領域の割合が14%の場合のニアレストネイバー、バイリニア、バイキュービックの必要帯域は、それぞれ4.3MB/Frame、4.8MB/Frame、6.0MB/Frameとなる。 The column 402 represents the band increase rate of each distortion correction method with respect to the nearest neighbor. Looking at 402, the bilinear band rise rate is 12%, and the bicubic band rise rate is 40%. Here, the memory access processing content selection unit 113 first refers to the reliability calculated in S204 to obtain the ratio of the region where the reliability is 0 with respect to the entire image. Here, it is assumed that it is calculated as 14%. Although the details will be described later, the region where the reliability is 0 is determined as a pixel that does not require distortion correction in the subsequent step. Therefore, the fact that the region where the reliability is 0 is 14% means that the number of pixels for distortion correction can be reduced by 14%, and the required band for reading the pixel value from the DRAM 110 can be reduced by 14% accordingly. That is, when the ratio of the region with zero reliability is 14%, the required bands of nearest neighbor, bilinear, and bicubic are 4.3MB / Frame, 4.8MB / Frame, and 6.0MB / Frame, respectively.

次に図4の各歪み補正方法の帯域上昇率を参照し、削減可能な帯域を使って、どの歪み補正方法が適用可能かを判定する。本実施形態では、全領域に歪み補正を行う場合のニアレストネイバーの必要帯域5.0MB/Frameを最大許容帯域とし、必要帯域が最大許容帯域以下(最大許容されるアクセス帯域以下)となる歪み補正方法を採用するものとする。上記のように帯域削減率が14%の場合、バイリニアが4.8MB/Frame、バイキュービックが6.0MB/Frameなので、必要帯域が5.0MB/Frame以下かつ最も精度の高い歪み補正方法であるバイリニアの歪み補正方法が選択される。例えば、帯域削減率が10%未満である場合は、バイリニアの必要帯域は5.0MB/Frameを超えるため、ニアレストネイバーの歪み補正方法を選択する。また、帯域削減率が28%以上である場合は、バイキュービックの必要帯域は5.0MB/Frame以下になるため、バイキュービックの歪み補正方法を選択することになる。 Next, the band increase rate of each distortion correction method in FIG. 4 is referred to, and which distortion correction method is applicable is determined using the band that can be reduced. In the present embodiment, the required band of 5.0 MB / Frame of the nearest neighbor when performing distortion correction in the entire area is set as the maximum allowable band, and the required band is the maximum allowable band or less (the maximum allowable access band or less). The correction method shall be adopted. As described above, when the band reduction rate is 14%, the bilinear is 4.8 MB / Frame and the bicubic is 6.0 MB / Frame, so the required band is 5.0 MB / Frame or less and the most accurate distortion correction method. The bilinear distortion correction method is selected. For example, when the band reduction rate is less than 10%, the required band of bilinear exceeds 5.0 MB / Frame, so the nearest neighbor distortion correction method is selected. When the bandwidth reduction rate is 28% or more, the required bandwidth of bicubic is 5.0 MB / Frame or less, so that the bicubic distortion correction method is selected.

このように本実施形態では、上述のように信頼度の低い領域を除く領域に各歪み補正方法で必要になるDRAM帯域と所定の最大許容帯域とに基づいて歪み補正方法を選択する。 As described above, in the present embodiment, the distortion correction method is selected based on the DRAM band required for each distortion correction method and the predetermined maximum allowable band in the region excluding the region having low reliability as described above.

S207では、歪み補正要否判定部114により、S204で生成した距離画像の各画素に対して歪み補正を行う必要があるかどうかを判定する。S207では、まず前述した信頼度の算出時と同様に、補正後画像における着目画素に対する補正前座標値504をDRAM110から読み出す。次に、読み出した着目画素に対応する補正前座標位置505から最も近くにある画素に対応する信頼度をSRAM112から読み出す。そして信頼度が0であれば歪み補正は不要と判定されS209に進み、信頼度が1であれば歪み補正は必要と判定されS208に進む。 In S207, the distortion correction necessity determination unit 114 determines whether or not it is necessary to perform distortion correction for each pixel of the distance image generated in S204. In S207, first, the uncorrected coordinate value 504 for the pixel of interest in the corrected image is read from the DRAM 110, as in the case of calculating the reliability described above. Next, the reliability corresponding to the pixel closest to the uncorrected coordinate position 505 corresponding to the read pixel of interest is read from the SRAM 112. If the reliability is 0, it is determined that distortion correction is unnecessary and the process proceeds to S209. If the reliability is 1, it is determined that distortion correction is necessary and the process proceeds to S208.

次にS208では、歪み補正部115によって、S207で歪み補正が必要と判定された着目画素に対して、S206で選択された歪み補正方法によって、歪み補正が行われる。本実施形態では、バイリニアの歪み補正方法が選択されているためバイリニアで歪み補正がなされる。このとき、歪み補正要否判定部114がDRAM110から読み出した補正前座標値504を歪み補正部115が受け取ることで、歪み補正部115はDRAM110から補正前座標値504を読み出す必要がなくなる。 Next, in S208, the distortion correction unit 115 performs distortion correction on the pixel of interest determined in S207 that distortion correction is necessary by the distortion correction method selected in S206. In the present embodiment, since the bilinear distortion correction method is selected, the bilinear distortion correction is performed. At this time, since the distortion correction unit 115 receives the uncorrected coordinate value 504 read from the DRAM 110 by the distortion correction necessity determination unit 114, the distortion correction unit 115 does not need to read the uncorrected coordinate value 504 from the DRAM 110.

一方、S209では、マスク部116によって、S207で歪み補正が不要と判定された画素に対して、歪み補正を行わずに所定の値を付与する。歪み補正が不要と判定された画素に対して歪み補正をしないため、歪み補正のためにDRAM110から補正前画素値を読み出す処理が不要になり、DRAM帯域を削減することができる。また、許容するDRAM帯域、本実施形態の場合では5.0MB/Frameから削減された分のDRAM帯域は、S208における歪み補正で使用することができる。 On the other hand, in S209, the mask unit 116 assigns a predetermined value to the pixel determined in S207 that distortion correction is unnecessary without performing distortion correction. Since the distortion correction is not performed on the pixel determined that the distortion correction is unnecessary, the process of reading the pre-correction pixel value from the DRAM 110 for the distortion correction becomes unnecessary, and the DRAM band can be reduced. Further, the allowable DRAM band, that is, the DRAM band reduced from 5.0 MB / Frame in the case of the present embodiment, can be used for the distortion correction in S208.

次にS210では、歪み補正部115又はマスク部116により、歪み補正された画素値又は所定の値でマスクされた画素値が出力される。本実施形態では、歪み補正部115とマスク部116は測距装置100の外部に歪み補正された画素値もしくはマスクされた画素値を出力する構成としたが、測距装置100内部のメモリ、例えばDRAM110に格納する形態でも構わない。 Next, in S210, the distortion correction unit 115 or the mask unit 116 outputs a distortion-corrected pixel value or a pixel value masked with a predetermined value. In the present embodiment, the distortion correction unit 115 and the mask unit 116 are configured to output the distortion-corrected pixel value or the masked pixel value to the outside of the distance measuring device 100, but the memory inside the distance measuring device 100, for example, It may be stored in the DRAM 110.

このようにS207からS210までで、距離画像における1つの画素についての画素値を生成して出力することができる。 In this way, from S207 to S210, the pixel value for one pixel in the distance image can be generated and output.

S211では、距離画像の全ての画素で歪み補正もしくはマスクが行われたかを判定し、まだ残っていればS207に戻る。このようなステップを全ての画素に対して繰り返し実施することで、歪み補正後の距離画像を出力できる。 In S211 it is determined whether distortion correction or masking has been performed on all the pixels of the distance image, and if it still remains, the process returns to S207. By repeatedly performing such a step for all the pixels, it is possible to output a distance image after distortion correction.

次にS212では、例えばユーザ入力に基づき、画像の受信が停止されていなければ、S201に戻り次の画像を受信する。以上のような処理を、画像受信が停止されるまで常に実行し続ける。 Next, in S212, if reception of the image is not stopped based on, for example, user input, the process returns to S201 and the next image is received. The above processing is always executed until the image reception is stopped.

このように1つの光学系から2つの撮像画像を取得する場合には、先に2つの撮像画像から距離画像を生成した後に歪み補正をする構成で本実施形態を適用するのが好適である。こうすることで、歪み補正を2つの撮像画像でなく、1つの距離画像に対してだけ行うことで、歪み補正のために読み出す画素値が半減するため、DRAM帯域を減らすことができる。これに加えて、信頼度が低い領域については歪み補正処理を行わないため、DRAM帯域をさらに削減することができる。その結果、帯域削減量に応じて歪み補正すべき領域の歪み補正方法を選択することができる。これにより削減した帯域を歪み補正すべき領域の歪み補正に割り当てることができ、より精度の高い歪み補正が可能となる。 In the case of acquiring two captured images from one optical system in this way, it is preferable to apply this embodiment with a configuration in which a distance image is first generated from the two captured images and then distortion correction is performed. By doing so, by performing the distortion correction only on one distance image instead of the two captured images, the pixel value read for the distortion correction is halved, so that the DRAM band can be reduced. In addition to this, since the distortion correction processing is not performed in the region with low reliability, the DRAM band can be further reduced. As a result, it is possible to select the distortion correction method of the region to be distortion-corrected according to the band reduction amount. As a result, the reduced band can be assigned to the distortion correction of the region to be distortion-corrected, and more accurate distortion correction becomes possible.

また、本実施形態では、信頼度は0又は1の2値としたが、3値以上の値を持たせてもよい。例えば、信頼度として、0、1、2の3値を有する場合、信頼度0の場合は歪み補正を行わず、信頼度1、2の場合はそれぞれ異なる歪み補正方法で歪み補正を行うようにしてもよい。 Further, in the present embodiment, the reliability is set to 2 values of 0 or 1, but may have a value of 3 values or more. For example, when the reliability has three values of 0, 1, and 2, the distortion correction is not performed when the reliability is 0, and the distortion is corrected by different distortion correction methods when the reliability is 1 and 2. You may.

(実施形態2)
実施形態1では、歪み補正をする前に距離画像を生成し、その後距離画像に対して歪み補正を行うが、実施形態2では、距離画像を生成する前に歪み補正を行い、その後距離画像を生成する。実施形態2では、撮像装置としてステレオカメラを使った測距装置について説明する。ステレオカメラのように数センチ〜十数センチほど離間して配置された複数の別々の光学系を使用して撮像画像を取得する場合は、光学系ごとに撮像画像の歪み量が異なる為、複数の撮像画像に対して歪み補正を行ってから距離画像を生成する構成が好適である。歪み量の異なる撮像画像同士で視差を算出すると誤差が大きくなってしまうため、先に撮像画像の歪み補正を行ってから視差を算出して距離画像を生成することで、精度の高い距離画像が得られる。
(Embodiment 2)
In the first embodiment, the distance image is generated before the distortion correction is performed, and then the distance image is subjected to the distortion correction. However, in the second embodiment, the distortion correction is performed before the distance image is generated, and then the distance image is generated. Generate. In the second embodiment, a distance measuring device using a stereo camera as an imaging device will be described. When acquiring captured images using multiple separate optical systems that are separated by several centimeters to a dozen centimeters, such as in a stereo camera, the amount of distortion of the captured image differs for each optical system, so there are multiple. It is preferable to perform distortion correction on the captured image of the above and then generate a distance image. If the parallax is calculated between captured images with different amounts of distortion, the error will be large. Therefore, by first performing the distortion correction of the captured image and then calculating the parallax to generate the distance image, a highly accurate distance image can be obtained. can get.

図6は、実施形態2の実施形態を示す測距装置の構成図である。600は本実施形態の測距装置であり、被写体の距離画像を生成する。測距装置600は2つの撮像部601aと601b及び、距離画像生成部602を含む。なお、撮像部601a、601bの処理は実施形態1の撮像部101と同じであるため詳細は省略する。 FIG. 6 is a configuration diagram of a distance measuring device showing the second embodiment. Reference numeral 600 denotes a distance measuring device of the present embodiment, which generates a distance image of a subject. The distance measuring device 600 includes two imaging units 601a and 601b and a distance image generation unit 602. Since the processing of the imaging units 601a and 601b is the same as that of the imaging unit 101 of the first embodiment, the details will be omitted.

距離画像生成部602は、2つの撮像部から所定の視差を有する画像データaと画像データbとからなる一対の撮像画像を受け取る。受け取った撮像画像データは、2つの画像受信部606a、606bで受信され、その後2つの画像補正部607a、607で歪み補正は含まない各種画像補正が行われる。画像受信部606a、606bと画像補正部607a、607の処理は実施形態1と同じであるため詳細は省略する。 The distance image generation unit 602 receives a pair of captured images composed of image data a and image data b having a predetermined parallax from the two imaging units. The received captured image data is received by the two image receiving units 606a and 606b, and then various image corrections including distortion correction are performed by the two image correction units 607a and 607. Since the processing of the image receiving units 606a and 606b and the image correction units 607a and 607 is the same as that of the first embodiment, the details will be omitted.

2つの画像補正部607a、607により、歪み補正前撮像画像aと歪み補正前撮像画像bが得られ、これらの歪み補正前撮像画像はDRAM610及び、信頼度算出部611に渡される。DRAM610に渡された2つの歪み補正前撮像画像a、bは、歪み補正時に参照される。また、DRAM610には、歪み補正における座標変換マップ情報が予め格納されているものとする。ここで、2つの撮像部で得られた各撮像画像の歪み量は異なる為、各撮像画像の歪み量に対応した2つの座標変換マップが格納されている。 The two image correction units 607a and 607 obtain a pre-distortion image captured image a and a pre-distortion image image b, and these pre-distortion image images are passed to the DRAM 610 and the reliability calculation unit 611. The two pre-distortion captured images a and b passed to the DRAM 610 are referred to at the time of distortion correction. Further, it is assumed that the coordinate conversion map information for distortion correction is stored in the DRAM 610 in advance. Here, since the amount of distortion of each captured image obtained by the two imaging units is different, two coordinate conversion maps corresponding to the amount of distortion of each captured image are stored.

一方、信頼度算出部611は、受け取った2つの歪み補正前撮像画像それぞれに対して信頼度を算出する。なお、信頼度算出部611は実施形態1の信頼度算出部111と同じであるため詳細は省略する。算出された各信頼度のデータはSRAM612に格納される。 On the other hand, the reliability calculation unit 611 calculates the reliability for each of the two received images before distortion correction. Since the reliability calculation unit 611 is the same as the reliability calculation unit 111 of the first embodiment, the details will be omitted. The calculated reliability data is stored in SRAM 612.

これ以降の、メモリアクセス処理内容選択部613、歪み補正要否判定部614、歪み補正部615、及びマスク部616の処理は、2つの撮像画像に対して処理をする。これらによる各撮像画像に対する処理は、実施形態1のメモリアクセス処理内容選択部113、歪み補正要否判定部114、歪み補正部115、マスク部116と同じであるため詳細は省略する。 Subsequent processing of the memory access processing content selection unit 613, the distortion correction necessity determination unit 614, the distortion correction unit 615, and the mask unit 616 processes the two captured images. The processing for each captured image by these is the same as the memory access processing content selection unit 113, the distortion correction necessity determination unit 114, the distortion correction unit 115, and the mask unit 116 of the first embodiment, and thus the details will be omitted.

次に、各部の詳細な説明をフローチャートに沿って説明する。図7は、本実施形態の測距装置600における距離画像生成部602の処理の流れを示すフローチャートである。 Next, a detailed explanation of each part will be described with reference to the flowchart. FIG. 7 is a flowchart showing a processing flow of the distance image generation unit 602 in the distance measuring device 600 of the present embodiment.

S710以外の他の各ステップは、図2のフローチャートと並び順が異なるが、それぞれ対応する各ステップと同じ処理を行う。S701、S702は、S201、S202に対応し、S703〜S709は、S205〜S211に対応し、S711、S712は、S203、S204に対応し、S713はS212に対応する。S710は、本実施形態では歪み補正前撮像画像aと歪み補正前撮像画像bに対して歪み補正を行うため追加されている。 Each step other than S710 has a different arrangement order from the flowchart of FIG. 2, but performs the same processing as each corresponding step. S701 and S702 correspond to S201 and S202, S703 to S709 correspond to S205 to S211, S711 and S712 correspond to S203 and S204, and S713 corresponds to S212. In the present embodiment, S710 is added to perform distortion correction on the image captured before distortion correction a and the image captured before distortion correction b.

これらの処理の中で実施形態1と同様に信頼度が低い領域の歪み補正を行わないことで、読み出す画素値を減らしてDRAM帯域を削減し、限られた最大許容帯域内でより精度の高い歪み補正を行うことが可能となる。 In these processes, by not performing distortion correction in a region with low reliability as in the first embodiment, the pixel value to be read is reduced to reduce the DRAM band, and the accuracy is higher within the limited maximum allowable band. Distortion correction can be performed.

このようにして、2つの撮像部から得られた撮像画像に対して、歪み補正が施された2つの歪み補正後画像が得られ、これらの歪み補正後画像から視差算出部617により視差が得られ、更に距離算出部618により距離画像が得られる。視差算出部617、距離算出部618の処理内容は、実施形態1の視差算出部108、距離算出部109と同じであるため詳細は省略する。 In this way, two distortion-corrected images obtained with distortion correction are obtained with respect to the captured images obtained from the two imaging units, and the parallax calculation unit 617 obtains the parallax from these distortion-corrected images. Further, a distance image is obtained by the distance calculation unit 618. Since the processing contents of the parallax calculation unit 617 and the distance calculation unit 618 are the same as those of the parallax calculation unit 108 and the distance calculation unit 109 of the first embodiment, the details will be omitted.

このように、ステレオカメラのような複数の別々の光学系を使用して複数の撮像画像を取得して距離画像を生成する測距装置では、光学系毎に撮像画像の歪み量が異なるため、本実施形態のように距離画像を生成する前に歪み補正を行うのが好適である。こうすることで、正しく歪み補正された撮像画像同士で視差を算出することができ精度の高い距離画像が得られる。加えて、信頼度が低い領域の歪み補正を行わないことでDRAM帯域を削減することができ、帯域削減量に応じて歪み補正すべき領域に適用する歪み補正方法を選択することができる。これにより削減した帯域を歪み補正すべき領域の歪み補正に割り当てることができ、より精度の高い歪み補正が可能となる。 In this way, in a distance measuring device that acquires a plurality of captured images and generates a distance image using a plurality of separate optical systems such as a stereo camera, the amount of distortion of the captured image differs for each optical system. It is preferable to perform distortion correction before generating a distance image as in the present embodiment. By doing so, the parallax can be calculated between the captured images correctly corrected for distortion, and a highly accurate distance image can be obtained. In addition, the DRAM band can be reduced by not performing distortion correction in a region having low reliability, and a distortion correction method applied to the region to be strain-corrected can be selected according to the amount of bandwidth reduction. As a result, the reduced band can be assigned to the distortion correction of the region to be distortion-corrected, and more accurate distortion correction becomes possible.

(実施形態3)
実施形態1では画素毎に信頼度を算出していたが、実施形態3ではキャッシュサイズに応じて複数画素毎に1つの信頼度を生成する。このようにすることで、キャッシュのHit率を向上させ、DRAM帯域を削減することができる。また、信頼度を格納するSRAMのサイズも減らすことができる。実施形態3では、実施形態1と同様に1つの測距画素に対して複数のフォトダイオードを配置し、位相差方式を用い距離を算出する方法を適用するものとする。そのため、距離画像を生成してから歪み補正をする構成とする。しかし、実施形態2のように歪み補正をしてから距離画像を生成する構成においても、キャッシュサイズに応じて複数画素毎に1つの信頼度を生成することができる。
(Embodiment 3)
In the first embodiment, the reliability is calculated for each pixel, but in the third embodiment, one reliability is generated for each of a plurality of pixels according to the cache size. By doing so, the hit rate of the cache can be improved and the DRAM bandwidth can be reduced. Also, the size of the SRAM that stores the reliability can be reduced. In the third embodiment, as in the first embodiment, a method of arranging a plurality of photodiodes for one ranging pixel and calculating the distance by using the phase difference method is applied. Therefore, the distortion is corrected after the distance image is generated. However, even in the configuration in which the distance image is generated after the distortion is corrected as in the second embodiment, one reliability can be generated for each of a plurality of pixels according to the cache size.

図8は、実施形態3の構成図である。構成図上は図1の構成に対してキャッシュ817が追加されている。キャッシュ817の構造例を、図9を使って説明する。キャッシュ817は、タイル状のバッファ900(以下タイルバッファと呼ぶ)を複数個分もつ構成になっている。また1つのタイルバッファは、縦4画素、横4画素の合計16画素分のデータを持つことができ、キャッシュの入れ替えはタイルバッファ単位で行われる。901は1つの画素を意味している。なお、縦4画素、横4画素というサイズは一例であり、縦横のサイズおよびタイルバッファの数は任意の数が設定可能である。 FIG. 8 is a block diagram of the third embodiment. On the configuration diagram, a cache 817 is added to the configuration of FIG. An example of the structure of the cache 817 will be described with reference to FIG. The cache 817 has a configuration having a plurality of tile-shaped buffers 900 (hereinafter referred to as tile buffers). Further, one tile buffer can have data for a total of 16 pixels of 4 vertical pixels and 4 horizontal pixels, and the cache is replaced in units of tile buffers. 901 means one pixel. The sizes of 4 pixels in the vertical direction and 4 pixels in the horizontal direction are examples, and the vertical and horizontal sizes and the number of tile buffers can be set to any number.

次に本実施形態の処理の流れを図2のフロー図を使って説明をする。 Next, the processing flow of the present embodiment will be described with reference to the flow chart of FIG.

S201からS204までは実施形態1と同じであるため詳細は省略する。 Since S201 to S204 are the same as those in the first embodiment, the details will be omitted.

次にS205では、信頼度算出部111によって、キャッシュ817における1つのタイルバッファの画素サイズ(タイルバッファサイズと呼ぶ)領域ごとの信頼度を算出する。本実施形態では縦4画素、横4画素の領域で1つの信頼度を算出する。タイルバッファサイズ領域ごとに信頼度を算出する方法は様々な方法があるが、本実施形態では、一旦1画素毎に全ての信頼度を算出した後、タイルバッファサイズ領域内に1つでも信頼度が1の画素がある場合は、その領域の信頼度は1とする。入力画像が、図3(a)とした場合に生成される信頼度のイメージを図10に示す。図10中の1つの小さな四角い領域1000が、1つのタイルバッファサイズ領域であり、これらの領域ごとに1つの信頼度が生成される。本実施形態では1001のように太線で囲まれている領域が信頼度0の領域となる。ここで、信頼度をタイルバッファサイズ毎に算出することで信頼度のデータ量が減り、信頼度を格納するのに必要なSRAMサイズを減らすことができる。 Next, in S205, the reliability calculation unit 111 calculates the reliability for each pixel size (referred to as tile buffer size) region of one tile buffer in the cache 817. In this embodiment, one reliability is calculated in a region of 4 vertical pixels and 4 horizontal pixels. There are various methods for calculating the reliability for each tile buffer size area, but in this embodiment, after calculating all the reliability for each pixel, even one within the tile buffer size area has the reliability. If there is a pixel with 1, the reliability of that area is 1. FIG. 10 shows an image of the reliability generated when the input image is shown in FIG. 3A. One small square area 1000 in FIG. 10 is one tile buffer size area, and one reliability is generated for each of these areas. In the present embodiment, the region surrounded by the thick line such as 1001 is the region with zero reliability. Here, by calculating the reliability for each tile buffer size, the amount of reliability data can be reduced, and the SRAM size required for storing the reliability can be reduced.

S206は実施形態1と同じであるため詳細は省略する。 Since S206 is the same as that of the first embodiment, the details will be omitted.

次にS207〜S209について、図11を使ってまとめて説明する。1100は歪み補正後画像であり、まず着目点1(1101)の歪み補正を行う。着目点1における補正前座標値1104を座標変換マップ1103から読み出す。そして、補正前座標値1104に対応するタイルバッファサイズ領域の信頼度を読む。ここで信頼度は1であるとする。もし歪み補正方法としてニアレストネイバーが選択されている場合は、補正前座標値1104に対応する歪み補正前座標位置1107に最も近い歪み補正前画像1106上の画素値をDRAM110から読みだそうとする。このとき、キャッシュ817に該当画素値が入っていなければ、該当画素値を含むタイルバッファサイズ領域1109のデータが、キャッシュ817のタイルバッファに格納され、キャッシュ817のタイルバッファから必要な画素値を読み出す。 Next, S207 to S209 will be collectively described with reference to FIG. Reference numeral 1100 is an image after distortion correction, and first, distortion correction of the point of interest 1 (1101) is performed. The uncorrected coordinate value 1104 at the point of interest 1 is read from the coordinate conversion map 1103. Then, the reliability of the tile buffer size area corresponding to the uncorrected coordinate value 1104 is read. Here, it is assumed that the reliability is 1. If Nearest Neighbor is selected as the distortion correction method, the pixel value on the pre-distortion image 1106 closest to the pre-correction coordinate position 1107 corresponding to the pre-correction coordinate value 1104 is read from the DRAM 110. .. At this time, if the corresponding pixel value is not contained in the cache 817, the data of the tile buffer size area 1109 including the corresponding pixel value is stored in the tile buffer of the cache 817, and the required pixel value is read from the tile buffer of the cache 817. ..

次に着目点2(1102)についての歪み補正を行う。ここで、着目点2における補正前座標値1105に対応するタイルバッファサイズ領域の信頼度を読むが、着目点2は着目点1の隣であるため、着目点1と着目点2とに対応するタイルバッファサイズ領域が同じである場合がある。ここでは、着目点1と着目点2とに対応するタイルバッファサイズ領域が同じあるとし、着目点2についても着目点1と同じタイルバッファサイズ領域1109における信頼度を読んで、信頼度として1を得る。信頼度が1であるため、歪み補正部115は歪み補正を行うために補正前座標値1105に対応する補正前座標位置1108に最も近い画素値を読み出そうとする。ここで着目点1と同じタイルバッファサイズ領域1109における信頼度を参照しているため、読みだそうとする画素値も着目点と同じタイルバッファサイズ領域1109にある。すると、タイルバッファサイズ領域1109は既にキャッシュ817のタイルバッファに入っているため、DRAM110にアクセスすることなくキャッシュ817から画素値を読み出すことができる(キャッシュヒットする)。 Next, distortion correction is performed for the point of interest 2 (1102). Here, the reliability of the tile buffer size area corresponding to the coordinate value 1105 before correction at the point of interest 2 is read, but since the point of interest 2 is next to the point of interest 1, it corresponds to the point of interest 1 and the point of interest 2. The tile buffer size area may be the same. Here, it is assumed that the tile buffer size area corresponding to the point of interest 1 and the point of interest 2 are the same, and the reliability of the point of interest 2 in the same tile buffer size area 1109 as that of the point of interest 1 is read, and 1 is set as the reliability. obtain. Since the reliability is 1, the distortion correction unit 115 tries to read the pixel value closest to the pre-correction coordinate position 1108 corresponding to the pre-correction coordinate value 1105 in order to perform distortion correction. Since the reliability in the tile buffer size area 1109 which is the same as the point of interest 1 is referred to here, the pixel value to be read is also in the tile buffer size area 1109 which is the same as the point of interest. Then, since the tile buffer size area 1109 is already in the tile buffer of the cache 817, the pixel value can be read from the cache 817 without accessing the DRAM 110 (cache hit).

上記ではニアレストネイバーの歪み補正方法で説明したが、バイリニアやバイキュービクでも補正前座標位置近傍の画素値をまとめてキャッシュ817に読み出すため、同様にキャッシュヒットする可能性が高くなる。このように、信頼度をキャッシュのタイルバッファサイズ領域ごとに生成することでキャッシュヒット率が上がり、効率的にDRAMのデータを読み出すことができる。また、信頼度をタイルバッファサイズ毎に算出することで信頼度のデータ量が減り、信頼度を格納するのに必要なSRAMサイズを減らすことができる。 In the above, the distortion correction method of the nearest neighbor has been described, but even in bilinear or bicubic, since the pixel values in the vicinity of the coordinate position before correction are collectively read into the cache 817, the possibility of a cache hit is also high. In this way, by generating the reliability for each tile buffer size area of the cache, the cache hit rate is increased, and the DRAM data can be read efficiently. Further, by calculating the reliability for each tile buffer size, the amount of reliability data can be reduced, and the SRAM size required for storing the reliability can be reduced.

なお図8では、信頼度算出部111がDRAM110を介して画像データを取得する構成としたが、DRAM110を介さず画像補正部107から直接画像データを取得する構成としてもよい。 In FIG. 8, the reliability calculation unit 111 acquires the image data via the DRAM 110, but the image data may be acquired directly from the image correction unit 107 without going through the DRAM 110.

(実施形態4)
実施形態1〜3では、信頼度が0の画素については歪み補正を行わないことで、歪み補正に伴うDRAM帯域を削減し、削減した帯域を信頼度の高い画素の歪み補正で使えるようにした。実施形態4では、削減した帯域を使って測距装置の付加価値を高めるための追加処理を行う例を説明する。
(Embodiment 4)
In the first to third embodiments, the DRAM band associated with the distortion correction is reduced by not performing the distortion correction for the pixel having the reliability of 0, and the reduced band can be used for the distortion correction of the pixel with high reliability. .. In the fourth embodiment, an example of performing additional processing for increasing the added value of the distance measuring device using the reduced band will be described.

図12は、実施形態4の実施形態を示す測距装置の構成図である。図1(実施形態1)では、メモリアクセス処理内容選択部113によって歪み補正方法を選択していたため、選択結果を歪み補正部115に渡していた。一方、図12(実施形態4)ではメモリアクセス処理内容選択部1213は、歪み補正とは別の追加処理の選択をするため、歪み補正部115と接続されている必要はない。代わりに、あらかじめ設定された歪み補正に必要なDRAM帯域、メモリアクセス処理内容選択部1213によって選択される追加処理に必要なDRAM帯域、及び信頼度が0の領域の割合によって、実行する追加処理を選択する。 FIG. 12 is a configuration diagram of a distance measuring device showing the embodiment of the fourth embodiment. In FIG. 1 (Embodiment 1), since the distortion correction method was selected by the memory access processing content selection unit 113, the selection result was passed to the distortion correction unit 115. On the other hand, in FIG. 12 (Embodiment 4), since the memory access processing content selection unit 1213 selects additional processing different from the distortion correction, it does not need to be connected to the distortion correction unit 115. Instead, the additional processing to be executed is performed according to the preset DRAM band required for distortion correction, the DRAM band required for the additional processing selected by the memory access processing content selection unit 1213, and the ratio of the area having zero reliability. select.

図13(a)は、使用される歪み補正方法で必要な帯域情報であり、本実施形態ではバイリニアの歪み補正方法を使うとするが、それ以外の歪み補正方法であっても構わない。次に、SRAMに格納された信頼度0の領域の割合を算出する。ここでは23%が信頼度0の領域であると仮定する。すると、バイリニアの歪み補正におけるDRAMの必要帯域(1301)である5.6MB/Frameの23%、すなわち1.3MB/Frameの帯域削減が可能である。 FIG. 13A shows band information required for the distortion correction method used. In the present embodiment, the bilinear distortion correction method is used, but other distortion correction methods may be used. Next, the ratio of the area with zero reliability stored in the SRAM is calculated. Here, it is assumed that 23% is a region with zero reliability. Then, it is possible to reduce the bandwidth of 5.6 MB / Frame, which is the required bandwidth (1301) of the DRAM in bilinear distortion correction, that is, 1.3 MB / Frame.

次に、メモリアクセス処理内容選択部1213によって選択される追加処理の情報を図13(b)に示す。ここでは追加処理1302として、物体認識処理と物体追尾処理の2種類が書かれており、それらのDRAMの必要帯域1303は、それぞれ1MB/Frame、3MB/Frameである。 Next, information on additional processing selected by the memory access processing content selection unit 1213 is shown in FIG. 13 (b). Here, as additional processing 1302, two types of object recognition processing and object tracking processing are described, and the required bands 1303 of these DRAMs are 1MB / Frame and 3MB / Frame, respectively.

次に、削減可能な帯域で実行可能な追加処理を選択する。本実施形態では、1.3MB/Frameの帯域が削減可能であるため、物体認識だけが選択される。仮に4MB/Frame以上の帯域削減が可能であれば、物体認識と物体追尾の両方が選択される。 Next, select additional processing that can be performed in the reduceable bandwidth. In this embodiment, since the band of 1.3MB / Frame can be reduced, only object recognition is selected. If the bandwidth can be reduced by 4MB / Frame or more, both object recognition and object tracking are selected.

本実施形態では、選択される候補の追加処理は2種類しかないが3種類以上であってもよい。また、どの追加処理を選択するかを決めるアルゴリズムは任意の方法で構わない。また、歪み補正方法や追加処理で必要なDRAM帯域情報の与え方としては任意の方法で構わない。例えば、それらの情報をユーザ入力から取得できるようにユーザによる入力部を準備してもよいし、予めDRAMやSRAMといったメモリに格納しておいてもよい。本実施形態では図13(a)、(b)に示すようなフォーマットで帯域情報を与えるが、このフォーマットはあくまで一例であり、別のフォーマットでもよい。 In the present embodiment, there are only two types of additional processing of the selected candidate, but there may be three or more types. In addition, the algorithm for determining which additional processing is selected may be any method. Further, any method may be used as the distortion correction method or the method of giving the DRAM band information required for the additional processing. For example, an input unit by the user may be prepared so that the information can be acquired from the user input, or may be stored in a memory such as DRAM or SRAM in advance. In the present embodiment, the band information is given in the format shown in FIGS. 13 (a) and 13 (b), but this format is just an example and may be another format.

このようにして、帯域削減量に応じて選択された物体認識処理が実行される。物体認識した結果と生成した距離画像を組み合わせることで、特定の対象物(人、動物、車両など)とその対象物までの距離情報を結び付けることができる。また、取得した距離情報や認識結果を複数のフレーム間で時系列に取り扱うことで対象物の軌跡や、速度を算出することができる。 In this way, the object recognition process selected according to the bandwidth reduction amount is executed. By combining the result of object recognition and the generated distance image, it is possible to link the distance information between a specific object (human, animal, vehicle, etc.) and the object. In addition, the trajectory and speed of the object can be calculated by handling the acquired distance information and the recognition result in time series between a plurality of frames.

以上説明したように、信頼度が低い領域の歪み補正を行わないことでDRAM帯域を削減でき、削減した帯域を使って測距装置の付加価値を高めるための追加処理を実行することができる。 As described above, the DRAM band can be reduced by not performing the distortion correction in the region with low reliability, and the reduced band can be used to execute additional processing for increasing the added value of the distance measuring device.

なお図12では、信頼度算出部111がDRAM110を介して画像データを取得する構成としたが、DRAM110を介さず画像補正部107から直接画像データを取得する構成としてもよい。 In FIG. 12, the reliability calculation unit 111 acquires the image data via the DRAM 110, but the image data may be acquired directly from the image correction unit 107 without going through the DRAM 110.

(実施形態5)
これまでの実施形態1〜4では、信頼度が0の画素、または信頼度が多値である場合において信頼度が低い画素について、歪み補正を行わないことで歪み補正に伴うDRAM帯域を削減する。
(Embodiment 5)
In the first to fourth embodiments so far, the DRAM band associated with the distortion correction is reduced by not performing the distortion correction for the pixels having a reliability of 0 or the pixels having a low reliability when the reliability is multi-valued. ..

これに対し実施形態5では、表示領域の拡大縮小や一部領域の切り出し、複数領域を指定した多画面表示など、歪み補正以外のDRAMアクセスを伴う処理においても、信頼度を用いた制御を行うことで使用するDRAM帯域を削減する。 On the other hand, in the fifth embodiment, control using reliability is performed even in processing involving DRAM access other than distortion correction, such as enlargement / reduction of a display area, cutting out a part of the area, and multi-screen display in which a plurality of areas are specified. This reduces the DRAM bandwidth used.

図14は、実施形態5に係る測距装置の構成を示す図である。前述の実施形態と重複する機能については同一符号を付している。 FIG. 14 is a diagram showing a configuration of a distance measuring device according to the fifth embodiment. Functions that overlap with the above-described embodiments are designated by the same reference numerals.

1400は、本実施形態に係る測距装置であり、指定した画像領域を表示するとともに、歪み補正を施した被写体の距離画像を生成する。1401は、距離画像生成部であり、撮像部101から画像データを受け取って距離画像を生成する。距離画像生成部1401は、距離画像の所定の画像領域が出力されるように、距離画像に対して、歪み補正だけでなく、切り出しや拡大縮小などの処理を行なった画像(以下表示画像)を出力することができる。 Reference numeral 1400 is a distance measuring device according to the present embodiment, which displays a designated image area and generates a distance image of a subject to which distortion correction has been performed. Reference numeral 1401 is a distance image generation unit, which receives image data from the imaging unit 101 and generates a distance image. The distance image generation unit 1401 outputs an image (hereinafter referred to as a display image) obtained by performing not only distortion correction but also processing such as cropping and enlargement / reduction on the distance image so that a predetermined image area of the distance image is output. Can be output.

距離画像生成部1401の内部構成を説明する。画像補正部107は、画像受信部106が受信した画像データに対して必要な補正処理を行なう。例えば、レンズ103を通すと生じる周辺光量落ちによる輝度むら補正処理や、撮像素子104の画素毎の感度むらといった特性ばらつきを補正する処理を行なう。視差算出部であり、画像補正部107によって補正された補正後画像の画素ごとに視差を算出する。109は距離算出部であり、視差算出部108が算出した視差データを距離画像に変換する。110はDRAMであり、距離算出部109で生成された距離画像を格納する。 The internal configuration of the distance image generation unit 1401 will be described. The image correction unit 107 performs necessary correction processing on the image data received by the image reception unit 106. For example, it performs a luminance unevenness correction process due to a drop in the amount of peripheral light that occurs when the lens 103 is passed through, and a process for correcting characteristic variations such as sensitivity unevenness for each pixel of the image sensor 104. It is a parallax calculation unit, and calculates the parallax for each pixel of the corrected image corrected by the image correction unit 107. Reference numeral 109 denotes a distance calculation unit, which converts the parallax data calculated by the parallax calculation unit 108 into a distance image. Reference numeral 110 denotes a DRAM, which stores a distance image generated by the distance calculation unit 109.

1402は、信頼度算出部であり、画像補正部107からの画像における任意の画素単位毎に信頼度を算出する。112はSRAMであり、本実施形態では1画素毎に算出された信頼度を格納する。信頼度は1画素毎でなく複数画素毎に算出してもよいし、信頼度の格納先は必ずしもSRAMである必要はなくその他のメモリであってもよい。 Reference numeral 1402 is a reliability calculation unit, which calculates the reliability for each arbitrary pixel unit in the image from the image correction unit 107. Reference numeral 112 denotes SRAM, which stores the reliability calculated for each pixel in the present embodiment. The reliability may be calculated not for each pixel but for each of a plurality of pixels, and the storage destination of the reliability does not necessarily have to be SRAM and may be another memory.

1403は、距離画像読み出し判定部である。表示画像に対応した距離画像の切り出し位置や拡大縮小度合に関する情報(以下表示領域情報)を参照し、表示画像の各画素に対応する距離画像の座標値を生成する。また、表示領域情報と、距離画像の画素毎の信頼度とに応じて、DRAM110から距離画像を読み出すか否かを判定する。歪み補正を行う場合は、距離画像読み出し判定部1403は、上述の他の実施形態と同様に、歪み補正前後の画像の座標値を対応付ける座標変換マップを参照して、歪み補正後画像の各画素に対応する歪み補正前画像の座標値を生成する。 Reference numeral 1403 is a distance image reading determination unit. The coordinate values of the distance image corresponding to each pixel of the display image are generated by referring to the information on the cutout position and the degree of enlargement / reduction of the distance image corresponding to the display image (hereinafter referred to as display area information). Further, it is determined whether or not to read the distance image from the DRAM 110 according to the display area information and the reliability of each pixel of the distance image. When performing distortion correction, the distance image readout determination unit 1403 refers to the coordinate conversion map that associates the coordinate values of the images before and after the distortion correction with each pixel of the image after the distortion correction, as in the other embodiment described above. Generates the coordinate values of the image before distortion correction corresponding to.

1404は、画像形状変形部であり、距離画像読み出し判定部1403で距離画像の読み出しが必要と判断された画素に対して、画像形状変形処理を実施し、画像形状変形後の画素値を出力する。画像形状変形処理は、距離画像読み出し判定部1403からの座標値を参照して、対応する距離画像の画素値をDRAM110から読み出す。画素値の算出方法は、周辺画素値を用いたバイリニアやバイキュービックに代表する補間方式を用いるとよいが、拡大縮小を行なわない、画像切り出しの場合は、座標値に従って距離画像をそのまま読み出してもよい。なお、画像形状変形部1404が行う画像形状変形処理には、切り出しや拡大縮小などに加え、歪み補正も含まれる。 Reference numeral 1404 is an image shape deformation unit, and image shape deformation processing is performed on the pixels determined by the distance image reading determination unit 1403 that the distance image needs to be read out, and the pixel values after the image shape deformation are output. .. The image shape deformation process reads the pixel value of the corresponding distance image from the DRAM 110 with reference to the coordinate value from the distance image reading determination unit 1403. As a method of calculating the pixel value, it is preferable to use an interpolation method typified by bilinear or bicubic using peripheral pixel values, but in the case of image cropping without scaling, the distance image can be read out as it is according to the coordinate values. good. The image shape deformation process performed by the image shape deformation unit 1404 includes distortion correction in addition to cutting out, enlargement / reduction, and the like.

1405は、マスク部であり、距離画像読み出し判定部1403で距離画像の読み出しが不要と判断された場合、表示画像の画素に予め定められた値を設定して出力する。 Reference numeral 1405 is a mask unit, and when the distance image reading determination unit 1403 determines that the reading of the distance image is unnecessary, a predetermined value is set for the pixels of the display image and output.

以上、図14を用いて、実施形態5に係る測距装置のハードウェア構成を説明した。 As described above, the hardware configuration of the distance measuring device according to the fifth embodiment has been described with reference to FIG.

なお、前述の実施形態のように歪み補正を行う場合についても、同様の構成で実現することができる。この場合、歪み補正前後の座標を対応付ける座標変換マップを予めDRAM110に格納しておき、座標変換マップに基づき歪み補正後画像の各画素に対応する歪み補正前画像の画素の座標値を生成する。以下、座標変換マップと表示領域情報を用いて、歪み補正を含む画像形状変形処理を行う場合の処理フローをフローチャートに沿って説明する。 In addition, even in the case of performing distortion correction as in the above-described embodiment, the same configuration can be realized. In this case, a coordinate conversion map for associating the coordinates before and after the distortion correction is stored in the DRAM 110 in advance, and the coordinate values of the pixels of the image before the distortion correction corresponding to each pixel of the image after the distortion correction are generated based on the coordinate conversion map. Hereinafter, the processing flow in the case of performing the image shape deformation processing including the distortion correction using the coordinate conversion map and the display area information will be described with reference to the flowchart.

図15は、本実施形態の測距装置1400における距離画像生成部1401の処理の流れを示すフローチャートの一例である。前述の実施形態と重複する機能については同一符号を付している。 FIG. 15 is an example of a flowchart showing a processing flow of the distance image generation unit 1401 in the distance measuring device 1400 of the present embodiment. Functions that overlap with the above-described embodiments are designated by the same reference numerals.

S201からS204は前述の実施形態のとおりであるため、説明を省略する。 Since S201 to S204 are the same as those in the above-described embodiment, the description thereof will be omitted.

S1501では、信頼度算出部1402により、S202で補正した画像における所定の画素単位毎に信頼度を算出する。本実施形態では1画素単位で信頼度を算出するが、任意の画素単位で信頼度を算出してもよい。また、本実施形態では1ビットで信頼度を算出するが、任意のビット数で信頼度を算出してもよい。信頼度は、測距精度に影響を与える要因に基づいて算出するが、本実施形態における位相差方式を使った距離の算出では、コントラストの変化量に基づき信頼度を算出する。コントラストの変化量は、着目点及びその周囲の画素の画素値の分散から算出可能である。算出した信頼度は歪み補正前画像の座標と対応付けてSRAMなどに格納する。S1501とS203からS204の処理は独立しており並行して処理してもよいし、S1501をS203の処理前に実施し、算出した信頼度を予めSRAMに格納しておいてもよい。 In S1501, the reliability calculation unit 1402 calculates the reliability for each predetermined pixel unit in the image corrected in S202. In the present embodiment, the reliability is calculated in units of one pixel, but the reliability may be calculated in units of any pixel. Further, in the present embodiment, the reliability is calculated by 1 bit, but the reliability may be calculated by any number of bits. The reliability is calculated based on factors that affect the distance measurement accuracy, but in the calculation of the distance using the phase difference method in the present embodiment, the reliability is calculated based on the amount of change in contrast. The amount of change in contrast can be calculated from the dispersion of the pixel values of the point of interest and the pixels around it. The calculated reliability is stored in SRAM or the like in association with the coordinates of the image before distortion correction. The processes of S1501 and S203 to S204 are independent and may be processed in parallel, or S1501 may be performed before the process of S203 and the calculated reliability may be stored in the SRAM in advance.

S1502では、距離画像読み出し判定部1403により、表示領域情報を参照し、表示画像の各画素に対応する歪み補正後画像の座標値を生成する。 In S1502, the distance image reading determination unit 1403 refers to the display area information and generates the coordinate values of the distortion-corrected image corresponding to each pixel of the display image.

S1503では、距離画像読み出し判定部1403により、座標変換マップを参照し、S1502で生成した歪み補正後画像の座標値に対応する、歪み補正前画像の座標値をDRAM110から読み出す。 In S1503, the distance image reading determination unit 1403 refers to the coordinate conversion map and reads out the coordinate values of the image before distortion correction corresponding to the coordinate values of the image after distortion correction generated in S1502 from the DRAM 110.

ここでS1502、S1503について図16を用いて説明する。図16は、実施形態5における画像形状変形処理のS1502、S1503において、歪み補正後画像1601を介して表示画像1600の座標値から歪み補正前画像の座標値を取得する方法を説明する図である。表示画像1600は、歪み補正後画像1601における、2つの画像領域(画像切り出し領域A1603と画像切り出し領域B1604)を切り出して表示している。 Here, S1502 and S1503 will be described with reference to FIG. FIG. 16 is a diagram illustrating a method of acquiring the coordinate value of the image before distortion correction from the coordinate value of the display image 1600 via the image 1601 after distortion correction in S1502 and S1503 of the image shape deformation processing in the fifth embodiment. .. The display image 1600 cuts out and displays two image areas (image cutout area A1603 and image cutout area B1604) in the distortion-corrected image 1601.

表示領域情報は、表示画像1600における、歪み補正後画像1601の各切り出し領域の座標値を指定した情報であり、表示画像1600の画素毎に座標値を持っていてもよいし、矩形領域を示す情報であってもよい。例えば、矩形領域が長方形である場合、長方形の左上頂点の開始座標(X1,Y1)と右下頂点の終了座標(X2,Y2)を持つ構成とすればよい。 The display area information is information that specifies the coordinate values of each cutout area of the distortion-corrected image 1601 in the display image 1600, and may have coordinate values for each pixel of the display image 1600, or indicates a rectangular area. It may be information. For example, when the rectangular area is a rectangle, the configuration may have the start coordinates (X1, Y1) of the upper left vertex and the end coordinates (X2, Y2) of the lower right vertex of the rectangle.

距離画像読み出し判定部1403は、まずS1502で表示領域情報を参照し、表示画像1600の着目画素1605に対応する歪み補正後座標位置1606を取得する。次に距離画像読み出し判定部1403は、S1503で座標変換マップを参照し、歪み補正後座標位置1606に対応する、歪み補正前座標位置1607を生成する。このようにして距離画像読み出し判定部1403は、表示画像1600の注目画素1605に対応する歪み補正前座標位置1607、すなわち歪み補正前画像の座標値を取得することができる。 The distance image reading determination unit 1403 first refers to the display area information in S1502, and acquires the distortion-corrected coordinate position 1606 corresponding to the pixel of interest 1605 of the display image 1600. Next, the distance image reading determination unit 1403 refers to the coordinate conversion map in S1503 and generates the coordinate position 1607 before distortion correction corresponding to the coordinate position 1606 after distortion correction. In this way, the distance image reading determination unit 1403 can acquire the coordinate value before distortion correction 1607 corresponding to the pixel of interest 1605 of the display image 1600, that is, the coordinate value of the image before distortion correction.

S1504では、読み出した歪み補正前座標位置1607から最も近くにある画素に対応する信頼度をSRAM112から読み出す。そして信頼度が0であれば距離画像の読み出しが不要と判定されS1506に進む。信頼度が1であれば、距離画像の読み出しが必要と判定されS1505に進む。 In S1504, the reliability corresponding to the pixel closest to the read out coordinate position before distortion correction 1607 is read from the SRAM 112. If the reliability is 0, it is determined that the reading of the distance image is unnecessary, and the process proceeds to S1506. If the reliability is 1, it is determined that the distance image needs to be read, and the process proceeds to S1505.

次にS1505では、画像形状変形部1404によって、S1504で距離画像の読み出しが必要と判定された歪み補正前画像上の歪み補正前座標位置1607の画素値を読み出す。そして、画像形状変形部1404によって読み出した画素値を表示画像上の着目点1605の画素値とする画像形状変形処理を行う。 Next, in S1505, the image shape deforming unit 1404 reads out the pixel value of the pre-distortion coordinate position 1607 on the pre-distortion image determined in S1504 to read the distance image. Then, the image shape deformation processing is performed in which the pixel value read by the image shape deformation unit 1404 is set as the pixel value of the point of interest 1605 on the display image.

一方、S1506では、画像形状変形部1404によって、S1504で距離画像の読み出しが不要と判定された歪み補正前画像上の歪み補正前座標位置1607の画素値の読み出しと画像形状変形処理とを行わない。代わりにマスク部1405によって所定の値を表示画像上の着目点1605の画素に付与するマスク処理を行う。 On the other hand, in S1506, the image shape deforming unit 1404 does not read out the pixel value of the pre-distortion coordinate position 1607 on the pre-distortion image determined in S1504 that the reading of the distance image is unnecessary, and does not perform the image shape deformation processing. .. Instead, the mask unit 1405 performs mask processing in which a predetermined value is applied to the pixels of the point of interest 1605 on the display image.

S211では、表示画像1600の全ての画素で画像形状変形処理もしくはマスク処理により画素値の付与が行われたかを判定し、画素値が付与されていない画素があればS1502に戻る。 In S211 it is determined whether or not the pixel value is added by the image shape deformation processing or the mask processing in all the pixels of the display image 1600, and if there is a pixel to which the pixel value is not given, the process returns to S1502.

このようなステップを表示画像の全ての画素に対して繰り返し実施することで、歪み補正及び画像切り出しや拡大縮小の処理が施された表示画像を出力できる。 By repeatedly performing such steps on all the pixels of the display image, it is possible to output a display image that has been subjected to distortion correction, image cropping, and enlargement / reduction processing.

S212では、例えばユーザ入力に基づき、画像の受信が停止されていなければ、S201に戻り次の画像を受信し、S202以降の処理を実行する。 In S212, for example, based on the user input, if the reception of the image is not stopped, the process returns to S201 to receive the next image, and the processing after S202 is executed.

以上、本実施形態によれば、歪み補正処理に加え、表示領域の拡大縮小や一部領域の切り出し、複数領域を指定した多画面表示などのDRAMアクセスを伴う処理においても、信頼度を用いた制御を行うことで、使用するDRAM帯域を削減することができる。 As described above, according to the present embodiment, in addition to the distortion correction processing, the reliability is also used in the processing involving DRAM access such as enlargement / reduction of the display area, cutting out of a part area, and multi-screen display in which a plurality of areas are specified. By performing control, the DRAM bandwidth used can be reduced.

(実施形態6)
実施形態6では、撮像した画像から所定の被写体を検出して、その被写体までの距離画像を出力する処理において、使用するDRAM帯域を削減する。
(Embodiment 6)
In the sixth embodiment, the DRAM band used in the process of detecting a predetermined subject from the captured image and outputting the distance image to the subject is reduced.

図17は、実施形態6に係る測距装置の構成を示す図である。前述の実施形態と重複する機能については同一符号を付し、説明を省略する。 FIG. 17 is a diagram showing a configuration of a distance measuring device according to the sixth embodiment. Functions that overlap with the above-described embodiments are designated by the same reference numerals, and description thereof will be omitted.

1702は物体検出処理部であり、画像補正部107から出力される一対の撮像画像のうちのいずれか一方を入力として、車番や標識の文字認識や、部品の形状識別といった被写体の認識、識別処理を行ない、物体位置情報を取得する。認識、識別処理には様々な手法がある。予め記憶した対象物とのパターンを比較して類似度を算出する手法でもよいし、多くのデータから関連性を見つけ出して推定する機械学習や、ニューラルネットワークなどの多層構造アルゴリズムを用いて対象物の推定を行なってもよい。 Reference numeral 1702 is an object detection processing unit, which receives one of a pair of captured images output from the image correction unit 107 as an input to recognize and identify a subject such as character recognition of a vehicle number or a sign and shape identification of a part. Performs processing and acquires object position information. There are various methods for recognition and identification processing. It may be a method of calculating the similarity by comparing the pattern with the object stored in advance, machine learning that finds and estimates the relevance from a lot of data, or a multi-layered structure algorithm such as a neural network. Estimates may be made.

物体検出処理部1702で生成する物体位置情報は、認識、識別対象の被写体に対応する画像領域を示す座標に関する情報である。1703はSRAMであり、本実施形態では1画素毎に算出された物体位置情報を格納する。物体位置情報は1画素毎でなく、被写体を含む矩形領域を示す情報であってもよい。例えば、矩形領域が長方形である場合、長方形の左上頂点の開始座標(X1,Y1)と右下頂点の終了座標(X2,Y2)を矩形領域毎に保持すればよい。物体位置情報の格納先は必ずしもSRAMである必要はなくその他のメモリであってもよい。 The object position information generated by the object detection processing unit 1702 is information related to coordinates indicating an image area corresponding to a subject to be recognized and identified. Reference numeral 1703 is an SRAM, and in the present embodiment, the object position information calculated for each pixel is stored. The object position information is not for each pixel, but may be information indicating a rectangular area including a subject. For example, when the rectangular area is a rectangle, the start coordinates (X1, Y1) of the upper left vertex and the end coordinates (X2, Y2) of the lower right vertex of the rectangle may be held for each rectangular area. The storage destination of the object position information does not necessarily have to be SRAM, and may be another memory.

1704は距離画像読み出し判定部である。前述の表示領域情報と、識別対象の被写体についての物体位置情報と、信頼度とに応じて、表示領域内に、認識、識別対象の被写体に対応する画像領域が有り、かつ、信頼度が1である場合、距離画像における表示領域の読み出しが必要と判定する。表示領域内に被写体に対応する画像領域が無い、または信頼度が0の場合は、距離画像の読み出しが不要と判定する。 Reference numeral 1704 is a distance image reading determination unit. Depending on the above-mentioned display area information, object position information about the subject to be identified, and reliability, there is an image area corresponding to the subject to be recognized and identified in the display area, and the reliability is 1. If, it is determined that the display area in the distance image needs to be read out. When there is no image area corresponding to the subject in the display area or the reliability is 0, it is determined that the reading of the distance image is unnecessary.

次に、本実施形態の別例として、歪み補正後画像を用いて物体検出を行ない、検出した被写体に対応する画像領域部分の距離画像を出力する構成を示す。図18は、実施形態6に係る測距装置の別構成を示す図であり、画像形状変形部1404とは別に、物体検出処理部の前段に歪み補正用の画像形状変形部を追加している。前述の図17に示す実施形態と重複する機能については同一符号を付し、説明を省略する。 Next, as another example of the present embodiment, a configuration is shown in which object detection is performed using a distortion-corrected image and a distance image of an image region portion corresponding to the detected subject is output. FIG. 18 is a diagram showing another configuration of the distance measuring device according to the sixth embodiment, in which an image shape deformation unit for distortion correction is added to the front stage of the object detection processing unit separately from the image shape deformation unit 1404. .. Functions that overlap with the above-described embodiment shown in FIG. 17 are designated by the same reference numerals, and description thereof will be omitted.

1803はDRAMであり、画像補正部107から出力される一対の撮像画像のうちのいずれか一方の画像データを格納する。本実施形態では、視差を有する画像データaと画像データbのうち、画像データaを用いることとし、画像データaに対して、画像補正部107によって補正した補正後画像を画像データAと呼ぶこととする。 Reference numeral 1803 is a DRAM, which stores image data of one of a pair of captured images output from the image correction unit 107. In the present embodiment, of the image data a and the image data b having the parallax, the image data a is used, and the corrected image corrected by the image correction unit 107 with respect to the image data a is referred to as the image data A. And.

1804は画像形状変形部であり、予めDRAM1803に格納された座標変換マップを参照して、歪み補正後画像の各画素に対応する補正前画像の画素の座標値を生成する。画像形状変形部1804は、座標変換マップに従って画像データAの歪みを補正して、歪み補正後の画像データA’を生成する。 Reference numeral 1804 is an image shape deforming unit, which generates coordinate values of pixels of the uncorrected image corresponding to each pixel of the image after distortion correction by referring to a coordinate conversion map stored in DRAM 1803 in advance. The image shape deformation unit 1804 corrects the distortion of the image data A according to the coordinate conversion map, and generates the image data A'after the distortion correction.

1802は、物体検出処理部であり、歪み補正後の画像データA’を用いて、車番や標識の文字認識や、部品の形状識別といった被写体の認識、識別処理を行ない、物体位置情報を取得する。認識、識別処理の手法は前述で説明した通りである。物体位置情報は図示しないSRAMに格納しておいてもよい。 Reference numeral 1802 is an object detection processing unit, which uses image data A'after distortion correction to perform subject recognition and identification processing such as character recognition of vehicle numbers and signs and shape identification of parts, and obtains object position information. do. The recognition and identification processing methods are as described above. Object position information may be stored in SRAM (not shown).

なお、歪み補正前の画像データAを格納するDRAM1803と、距離画像を格納するDRAM110は同一のDRAMを用いてもよい。この場合、同一の座標変換マップを参照することができる。また、物体検出処理部1802で扱う画像データサイズに予めリサイズするよう座標値を設定した座標変換マップ情報をDRAM1803に格納しておいてもよい。 The DRAM 1803 that stores the image data A before distortion correction and the DRAM 110 that stores the distance image may use the same DRAM. In this case, the same coordinate transformation map can be referred to. Further, the DRAM 1803 may store the coordinate conversion map information in which the coordinate values are set in advance so as to be resized to the image data size handled by the object detection processing unit 1802.

1805は距離画像読み出し判定部である。物体検出処理部1802で生成した物体位置情報と、信頼度算出部1402で算出した信頼度とを参照して、認識、識別対象の被写体に対応する画像領域で、かつ、信頼度が1であれば、距離画像上の物体位置情報が示す座標の画素値の読み出しが必要と判定する。 Reference numeral 1805 is a distance image reading determination unit. With reference to the object position information generated by the object detection processing unit 1802 and the reliability calculated by the reliability calculation unit 1402, the image area corresponding to the subject to be recognized and identified and the reliability is 1. For example, it is determined that it is necessary to read out the pixel values of the coordinates indicated by the object position information on the distance image.

図19は、本実施形態の測距装置1800における距離画像読み出し判定部1805による距離画像読み出し判定から距離画像の画像形状変形処理までの一例を示すフローチャートである。 FIG. 19 is a flowchart showing an example from the distance image reading determination by the distance image reading determination unit 1805 to the image shape deformation processing of the distance image in the distance measuring device 1800 of the present embodiment.

S1901では、物体検出処理部1802で生成した物体位置情報を取得する。物体位置情報は、被写体に対応する画像領域の座標を示す情報である。物体位置情報は、画素毎に被写体の有無を1ビット(被写体が有る場合は1、無い場合は0)で図示しないSRAMから読み出してもよいし、被写体に対応する画像領域を含む矩形領域を示す情報であってもよい。例えば、矩形領域が長方形である場合、長方形の左上頂点の開始座標(X1,Y1)と右下頂点の終了座標(X2,Y2)を持つ情報である。 In S1901, the object position information generated by the object detection processing unit 1802 is acquired. The object position information is information indicating the coordinates of the image area corresponding to the subject. The object position information may be read from an SRAM (not shown) with 1 bit (1 if there is a subject, 0 if there is no subject) for each pixel, or indicates a rectangular area including an image area corresponding to the subject. It may be information. For example, when the rectangular area is a rectangle, the information has the start coordinates (X1, Y1) of the upper left vertex and the end coordinates (X2, Y2) of the lower right vertex of the rectangle.

S1902では、DARM110から距離画像の座標変換マップを参照し、物体位置情報が示す座標に対応する画素の中から着目画素を選択し、選択した着目画素に対応する歪み補正前座標位置を生成する。 In S1902, the coordinate conversion map of the distance image is referred to from the DARM 110, the pixel of interest is selected from the pixels corresponding to the coordinates indicated by the object position information, and the coordinate position before distortion correction corresponding to the selected pixel of interest is generated.

S1903では、読み出した歪み補正前座標位置から最も近くにある画素に対応する信頼度をSRAM112から読み出す。そして信頼度が0であれば距離画像の読み出しが不要と判定されS1907に進む。信頼度が1であれば、距離画像上の着目画素の画素値の読み出しが必要と判定されS1906に進む。 In S1903, the reliability corresponding to the pixel closest to the read out coordinate position before distortion correction is read from the SRAM 112. If the reliability is 0, it is determined that the reading of the distance image is unnecessary, and the process proceeds to S1907. If the reliability is 1, it is determined that the pixel value of the pixel of interest on the distance image needs to be read, and the process proceeds to S1906.

次にS1906では、S1903で読み出しが必要と判定された距離画像上の着目画素に対して、画像形状変形部1404によって、対応する歪み補正前画像上の画素値の読出しと画像形状変形処理を行う。一方、S1905では、S1903で距離画像の読み出しが不要と判定された画素に対して、歪み補正前画像の読み出しと画像形状変形処理を行わずに、マスク部1405によって所定の値を付与するマスク処理を行う。 Next, in S1906, the image shape deforming unit 1404 reads out the pixel value on the corresponding uncorrected image and performs the image shape deformation processing on the pixel of interest on the distance image determined to be read in S1903. .. On the other hand, in S1905, a mask process in which a predetermined value is given by the mask unit 1405 to the pixels determined in S1903 that the reading of the distance image is unnecessary without reading the image before distortion correction and performing the image shape deformation processing. I do.

S1908では、S1906またはS1907で処理した距離画像の画素値を出力する。以上、図19を用いて説明した処理フローを物体位置情報が示す座標全てに対して繰り返し実施することで、識別対象の被写体のみについての距離画像を出力する。 In S1908, the pixel value of the distance image processed in S1906 or S1907 is output. By repeatedly executing the processing flow described with reference to FIG. 19 for all the coordinates indicated by the object position information, a distance image of only the subject to be identified is output.

以上、本実施形態によれば、所定の表示領域内の被写体に対応する画像領域を検出し、その被写体のみについての距離画像を出力する処理において、使用するDRAM帯域を削減することができる。これは本実施形態が、被写体の物体位置情報と信頼度を用いることで、DRAMから読み出す距離画像の画素値を限定することができるためである。 As described above, according to the present embodiment, it is possible to reduce the DRAM band used in the process of detecting the image area corresponding to the subject in the predetermined display area and outputting the distance image only for the subject. This is because the present embodiment can limit the pixel value of the distance image read from the DRAM by using the object position information and the reliability of the subject.

なお、被写体の物体位置情報を測距装置の外部から取得しても、前述の説明と同様に被写体の物体位置情報と画素ごとの信頼度を用いることで、DRAMから読み出す距離画像の画素値を限定することができる。本実施形態では物体位置情報の生成を行う構成としたが、物体位置情報の生成を外部装置で行うようにしてもよい。例えば、画像送信部105、または画像補正部107から撮像画像を外部装置(GPUなど)に出力し、外部装置で撮像画像上の被写体に対応する画像領域の検出結果を、物体位置情報として距離画像読み出し判定部1705、1805が取得してもよい。 Even if the object position information of the subject is acquired from the outside of the distance measuring device, the pixel value of the distance image read from the DRAM can be obtained by using the object position information of the subject and the reliability of each pixel as in the above description. Can be limited. In the present embodiment, the object position information is generated, but the object position information may be generated by an external device. For example, the image transmission unit 105 or the image correction unit 107 outputs the captured image to an external device (GPU, etc.), and the detection result of the image region corresponding to the subject on the captured image by the external device is used as object position information for a distance image. The read determination units 1705 and 1805 may acquire the image.

(実施形態7)
実施形態7では、2つの測距装置で生成された測距領域が重複する2つの距離画像、すなわち撮像領域が重複した撮像画像に基づき生成された2つの距離画像を合成して1つの合成距離画像を出力する処理において、使用するDRAM帯域を削減する。
(Embodiment 7)
In the seventh embodiment, two distance images with overlapping distance measuring regions generated by the two distance measuring devices, that is, two distance images generated based on the captured images with overlapping imaging regions are combined to form one composite distance. The DRAM band used in the image output process is reduced.

図20は、実施形態7に係る測距装置の構成を示す図である。 FIG. 20 is a diagram showing a configuration of a distance measuring device according to the seventh embodiment.

2001は、レンズおよび撮像素子を備えた第1撮像部であり、撮像素子で生成された画像データを出力する。 Reference numeral 2001 denotes a first image pickup unit including a lens and an image pickup device, which outputs image data generated by the image pickup element.

2002は、第1撮像画像処理部であり、第1撮像部2001から画像データを受信して処理する、画像補正部、視差算出部、距離算出部を有する。第1撮像画像処理部2002は、撮像した画像データを用いて、距離画像(距離画像1)を生成し、DRAM2007へ距離画像1を書き出す。 Reference numeral 2002 denotes a first captured image processing unit, which includes an image correction unit, a parallax calculation unit, and a distance calculation unit that receive and process image data from the first image pickup unit 2001. The first captured image processing unit 2002 generates a distance image (distance image 1) using the captured image data, and writes the distance image 1 to DRAM 2007.

2003は、第1信頼度算出部であり、第1撮像画像処理部から画像補正後の画像データに基づいて、距離の信頼度(信頼度1)を算出する。信頼度の算出方法は前述の実施形態で説明したとおりである。 Reference numeral 2003 denotes a first reliability calculation unit, which calculates the reliability of the distance (reliability 1) from the first captured image processing unit based on the image data after image correction. The method of calculating the reliability is as described in the above-described embodiment.

2004は、レンズおよび撮像素子を備えた第2撮像部であり、撮像素子で生成された画像データを出力する。 Reference numeral 2004 denotes a second image pickup unit including a lens and an image pickup device, which outputs image data generated by the image pickup element.

2005は、第2撮像画像処理部であり、第2撮像部2004から画像データを受信して処理する、画像補正部、視差算出部、距離算出部を有する。第2撮像画像処理部2005は、撮像した画像データを用いて、距離画像(距離画像2)を生成し、DRAM2007へ距離画像2を書き出す。 Reference numeral 2005 denotes a second image processing unit, which includes an image correction unit, a parallax calculation unit, and a distance calculation unit that receive and process image data from the second image processing unit 2004. The second captured image processing unit 2005 generates a distance image (distance image 2) using the captured image data, and writes the distance image 2 to DRAM 2007.

2006は、第2信頼度算出部であり、第2撮像画像処理部から画像補正後の画像データに基づいて、距離の信頼度(信頼度2)を算出する。信頼度の算出方法は前述の実施形態で説明したとおりである。 Reference numeral 2006 denotes a second reliability calculation unit, which calculates the reliability of the distance (reliability 2) from the second captured image processing unit based on the image data after image correction. The method of calculating the reliability is as described in the above-described embodiment.

2008は、距離画像読み出し判定部である。表示画像の各画素に対応する、距離画像1、距離画像2の座標値を生成する。具体的には、DRAM2007に予め格納された距離画像1、距離画像2それぞれに対応した歪み補正前後の距離画像の座標を対応付ける座標変換マップを参照し、各画素の座標値を生成する。距離画像読み出し判定部2006は、生成した座標値の最も近くにある画素に対応する信頼度を、第1信頼度算出部と第2信頼度算出部のそれぞれから取得する。 Reference numeral 2008 denotes a distance image reading determination unit. The coordinate values of the distance image 1 and the distance image 2 corresponding to each pixel of the display image are generated. Specifically, the coordinate values of each pixel are generated by referring to the coordinate conversion map that associates the coordinates of the distance images before and after the distortion correction corresponding to each of the distance image 1 and the distance image 2 stored in the DRAM 2007 in advance. The distance image reading determination unit 2006 acquires the reliability corresponding to the pixel closest to the generated coordinate value from each of the first reliability calculation unit and the second reliability calculation unit.

距離画像読み出し判定部2008は、距離画像1と距離画像2とに重複した領域が存在する場合、各信頼度の大小(信頼度の高い、低い)を判定し、信頼度の高い方の距離画像の画素値を読み出すよう距離情報合成部2009へ指示する。いずれの信頼度も0である場合は、距離画像の読み出しは不要と判定し、マスク部2010でマスク処理(表示画像の画素に予め定められた値を設定して出力)を行う。なお、各信頼度が0以外の同一値である場合は、どちらの距離画像の画素値を読み出すよう指示してもよい。但し、このよう場合、信頼度が算出された画素の座標値が第1撮像部2001又は第2撮像部2004の光軸中心から近い方の距離画像の画素値を読み出すことで、光学歪の影響を低減することができる。 When the distance image 1 and the distance image 2 have overlapping regions, the distance image readout determination unit 2008 determines the magnitude (high or low reliability) of each reliability, and the distance image having the higher reliability. The distance information synthesis unit 2009 is instructed to read out the pixel value of. When the reliability of any of them is 0, it is determined that the reading of the distance image is unnecessary, and the mask unit 2010 performs mask processing (setting a predetermined value to the pixel of the display image and outputting). If each reliability has the same value other than 0, it may be instructed to read the pixel value of either distance image. However, in such a case, the influence of optical distortion is caused by reading out the pixel value of the pixel whose reliability is calculated to be closer to the center of the optical axis of the first imaging unit 2001 or the second imaging unit 2004. Can be reduced.

距離情報合成部2009は、距離画像読み出し判定部2008からの指示に応じて、第1撮像部2001および第1撮像画像処理部2002、第2撮像部2004および第2撮像画像処理部2005のいずれか一方が生成した距離画像の読出しを行なう。なお、距離情報合成部2009は、前述の実施形態のとおり画質改善のための補間処理を行ってもよい。 The distance information synthesis unit 2009 is any one of the first imaging unit 2001 and the first imaging image processing unit 2002, the second imaging unit 2004, and the second imaging image processing unit 2005 in response to an instruction from the distance image reading determination unit 2008. The distance image generated by one of them is read out. The distance information synthesis unit 2009 may perform interpolation processing for improving image quality as described in the above-described embodiment.

以上、実施形態7に係る測距装置のハードウェア構成として、図20に示すような2つの撮像部2001、2004を備えた構成を例示したが、3つ以上の撮像部を用いた場合も同様に適用である。 As described above, as the hardware configuration of the distance measuring device according to the seventh embodiment, a configuration including two imaging units 2001 and 2004 as shown in FIG. 20 has been illustrated, but the same applies when three or more imaging units are used. It is applicable to.

以上、本実施形態によれば、複数の測距可能なカメラからの距離画像を合成して表示する際に、画素ごとの信頼度に基づきDRAMから読み出す距離画像の画素値を限定することで、使用するDRAM帯域を削減することができる。距離画像を合成する際に、光学歪みを補正する歪み補正を行うことも可能であり、同様に使用するDRAM帯域を削減することができる。なお、合成する複数の距離画像の重複した領域に対する歪み補正は、信頼度が最も高い距離画像に対してのみ行うことで、全ての距離画像に対して歪み補正を行う場合に比べ、使用するDRAM帯域を削減することができる。 As described above, according to the present embodiment, when the distance images from a plurality of distance-measurable cameras are combined and displayed, the pixel value of the distance image read from the DRAM is limited based on the reliability of each pixel. The DRAM band used can be reduced. When synthesizing a distance image, it is also possible to perform distortion correction for correcting optical distortion, and similarly, the DRAM band used can be reduced. Note that the distortion correction for the overlapping region of the plurality of distance images to be combined is performed only on the distance image having the highest reliability, so that the DRAM to be used is compared with the case where the distortion correction is performed on all the distance images. Bandwidth can be reduced.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

また、前述の実施形態では、測距方法として、1つの測距画素に対して複数のフォトダイオードを配置し、位相差方式を用い距離を算出する方法とステレオカメラを使った方法を説明した。しかし本発明は、これら測距方法に限定されず、TOFやミリ波レーダやLiDAR(Light Detection and Ranging)などで取得した距離情報を可視化して表示する際の形状変形処理にも適用できる。 Further, in the above-described embodiment, as the distance measuring method, a method of arranging a plurality of photodiodes for one distance measuring pixel and calculating the distance by using the phase difference method and a method using a stereo camera have been described. However, the present invention is not limited to these distance measuring methods, and can also be applied to shape deformation processing when visualizing and displaying distance information acquired by TOF, millimeter-wave radar, LiDAR (Light Detection and Ranger), or the like.

100 測距装置
101 撮像部
102 距離画像生成部
110 DRAM
111 信頼度算出部
115 歪み補正部
1404 画像形状変形部
1702 物体検出処理部
100 Distance measuring device 101 Imaging unit 102 Distance image generation unit 110 DRAM
111 Reliability calculation unit 115 Distortion correction unit 1404 Image shape deformation unit 1702 Object detection processing unit

Claims (19)

被写体までの距離を表す距離画像を生成する生成装置であって、
視差を有する一対の撮像画像に基づき前記距離画像を生成する生成手段と、
前記距離画像のうち、信頼度が所定の閾値以上である領域について、前記一対の撮像画像を生成した撮像手段の光学系に起因する前記距離画像における歪みを補正する補正手段と、
を備えることを特徴とする生成装置。
A generator that generates a distance image that represents the distance to the subject.
A generation means for generating the distance image based on a pair of captured images having parallax, and
A correction means for correcting distortion in the distance image caused by the optical system of the imaging means that generated the pair of captured images in a region of the distance image whose reliability is equal to or higher than a predetermined threshold value.
A generator characterized by comprising.
被写体までの距離を表す距離画像を生成する生成装置であって、
視差を有する一対の撮像画像のうち、信頼度が所定の閾値以上である領域について、前記一対の撮像画像を生成した撮像手段の光学系に起因する前記一対の撮像画像における歪みを補正する補正手段と、
前記補正手段により歪みを補正された一対の撮像画像に基づき距離画像を生成する生成手段と、
を備えることを特徴とする生成装置。
A generator that generates a distance image that represents the distance to the subject.
A correction means for correcting distortion in the pair of captured images due to the optical system of the imaging means that generated the pair of captured images in a region of the pair of captured images having parallax whose reliability is equal to or higher than a predetermined threshold value. When,
A generation means for generating a distance image based on a pair of captured images whose distortion has been corrected by the correction means, and a generation means.
A generator characterized by comprising.
前記補正手段は、前記信頼度を着目画素およびその周囲の画素の画素値に基づき算出する
ことを特徴とする請求項1又は2に記載の生成装置。
The generator according to claim 1 or 2, wherein the correction means calculates the reliability based on the pixel values of the pixel of interest and the pixels around the pixel of interest.
前記信頼度は、着目画素およびその周囲の画素の画素値の分散に基づき算出されるコントラストの変化量である
ことを特徴と得る請求項1乃至3のいずれか1項に記載の生成装置。
The generator according to any one of claims 1 to 3, wherein the reliability is an amount of change in contrast calculated based on the dispersion of pixel values of the pixel of interest and pixels around the pixel of interest.
前記補正手段は、前記信頼度が前記所定の閾値未満の領域の割合に応じて、異なる所定の歪み補正方法を適用する
ことを特徴とする請求項1乃至4のいずれか1項に記載の生成装置。
The generation according to any one of claims 1 to 4, wherein the correction means applies a different predetermined distortion correction method according to the ratio of the region where the reliability is less than the predetermined threshold value. Device.
前記信頼度が前記所定の閾値未満の領域の画素に所定の値を設定するマスク手段
をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の生成装置。
The generator according to any one of claims 1 to 5, further comprising a masking means for setting a predetermined value for pixels in a region where the reliability is less than the predetermined threshold value.
少なくとも前記距離画像を記憶する記憶手段への所定のアクセス帯域および前記信頼度が所定の閾値以上である領域の割合に基づいて、前記所定のアクセス帯域以下となる前記記憶手段へのアクセスを伴う処理を選択する選択手段
をさらに備えることを特徴とする請求項1乃至6のいずれか1項に記載の生成装置。
A process involving access to the storage means that is equal to or less than the predetermined access band based on at least the ratio of the predetermined access band to the storage means for storing the distance image and the area where the reliability is equal to or higher than the predetermined threshold value. The generator according to any one of claims 1 to 6, further comprising a selection means for selecting the above.
前記選択手段は、前記信頼度が所定の閾値未満の領域の割合と複数の所定の歪み補正方法のそれぞれで必要な前記記憶手段へのアクセス帯域とに基づいて、1つの歪み補正方法を選択し、
前記補正手段は、前記選択手段により選択された歪み補正方法を適用する
ことを特徴とする請求項7に記載の生成装置。
The selection means selects one distortion correction method based on the ratio of regions whose reliability is less than a predetermined threshold value and the access band to the storage means required for each of the plurality of predetermined distortion correction methods. ,
The generator according to claim 7, wherein the correction means applies the strain correction method selected by the selection means.
前記選択手段は、前記所定のアクセス帯域、前記信頼度が所定の閾値未満の領域の割合、前記選択された歪み補正方法で必要な前記記憶手段へのアクセス帯域、および複数の所定の追加の処理で必要な前記記憶手段へのアクセス帯域に基づいて、前記複数の所定の追加の処理から1つを選択する
ことを特徴とする請求項8記載の生成装置。
The selection means includes the predetermined access band, the proportion of the region whose reliability is less than a predetermined threshold, the access band to the storage means required by the selected distortion correction method, and a plurality of predetermined additional processes. 8. The generator according to claim 8, wherein one is selected from the plurality of predetermined additional processes based on the access band to the storage means required in the above.
前記選択手段は、歪み補正において画素値を補間する際に参照する画素が異なる前記複数の所定の歪み補正方法から1つの歪み補正方法を選択する
ことを特徴とする請求項8又は9に記載の生成装置。
8. The method according to claim 8 or 9, wherein the selection means selects one distortion correction method from the plurality of predetermined distortion correction methods having different pixels to be referred to when interpolating pixel values in distortion correction. Generator.
前記記憶手段は、所定の画素分の画素値を格納できるバッファを有し、バッファ単位で画素値の入れ替えを行うキャッシュ手段を含み、
前記補正手段は、前記バッファに対応する画素単位で信頼度を算出し、前記キャッシュ手段から歪み補正を行う画素値を取得する
ことを特徴とする請求項7乃至9のいずれか1項に記載の生成装置。
The storage means has a buffer capable of storing pixel values for a predetermined pixel, and includes a cache means for exchanging pixel values in buffer units.
The method according to any one of claims 7 to 9, wherein the correction means calculates the reliability in units of pixels corresponding to the buffer, and obtains a pixel value for distortion correction from the cache means. Generator.
前記距離画像の一部を切り出し領域として指定する指定手段をさらに備え、
前記補正手段は、前記切り出し領域と、前記信頼度が所定の閾値以上である領域とに基づいて、歪みを補正することを特徴とする請求項1に記載の生成装置。
Further provided with a designation means for designating a part of the distance image as a cutout area,
The generation device according to claim 1, wherein the correction means corrects distortion based on the cutout region and the region whose reliability is equal to or higher than a predetermined threshold value.
前記切り出し領域は、前記撮像画像における所定の物体に対応する画像領域であることを特徴とする請求項12に記載の生成装置。 The generator according to claim 12, wherein the cutout region is an image region corresponding to a predetermined object in the captured image. 撮像領域が重複した複数の対の前記撮像画像に基づき生成された、重複した領域を有する複数の前記距離画像を合成して合成距離画像を生成する合成手段をさらに備え、
前記合成手段は、前記合成距離画像の前記重複した領域に対応する領域の画素値に、前記重複した領域における複数の前記距離画像の画素値のうち、前記重複した領域の前記信頼度が最も高い前記距離画像の画素値を使用する、
ことを特徴とする請求項1乃至13のいずれか1項に記載の生成装置。
Further provided is a synthesizing means for generating a composite distance image by synthesizing a plurality of the distance images having overlapping regions generated based on a plurality of pairs of the captured images having overlapping imaging regions.
The synthesizing means has the highest reliability of the overlapping region among the pixel values of the plurality of distance images in the overlapping region with respect to the pixel value of the region corresponding to the overlapping region of the composite distance image. Using the pixel value of the distance image,
The generator according to any one of claims 1 to 13.
前記補正手段は、複数の前記距離画像それぞれの前記信頼度が閾値以上である領域のうち、前記重複した領域については、前記重複した領域の前記信頼度が最も高い前記距離画像の歪みを補正する、
ことを特徴とする請求項14に記載の生成装置。
The correction means corrects the distortion of the distance image having the highest reliability in the overlapping region in the overlapping region among the regions in which the reliability of each of the plurality of distance images is equal to or higher than the threshold value. ,
The generator according to claim 14.
被写体までの距離を表す距離画像を生成する生成方法であって、
視差を有する一対の撮像画像に基づき前記距離画像を生成する生成ステップと、
前記距離画像のうち、信頼度が所定の閾値以上である領域について、前記一対の撮像画像を生成した撮像手段の光学系に起因する前記距離画像における歪みを補正する補正ステップと、
を有することを特徴とする生成方法。
It is a generation method that generates a distance image showing the distance to the subject.
A generation step of generating the distance image based on a pair of captured images having parallax, and
A correction step for correcting distortion in the distance image caused by the optical system of the imaging means that generated the pair of captured images in a region of the distance image whose reliability is equal to or higher than a predetermined threshold value.
A production method characterized by having.
被写体までの距離を表す距離画像を生成する生成方法であって、
視差を有する一対の撮像画像のうち、信頼度が所定の閾値以上である領域について、前記一対の撮像画像を生成した撮像手段の光学系に起因する前記一対の撮像画像における歪みを補正する補正ステップと、
前記補正ステップにより歪みを補正された一対の撮像画像に基づき距離画像を生成する生成ステップと、
を有することを特徴とする生成方法。
It is a generation method that generates a distance image showing the distance to the subject.
A correction step for correcting distortion in the pair of captured images due to the optical system of the imaging means that generated the pair of captured images in a region of the pair of captured images having parallax whose reliability is equal to or higher than a predetermined threshold value. When,
A generation step of generating a distance image based on a pair of captured images whose distortion has been corrected by the correction step, and a generation step.
A production method characterized by having.
コンピュータに、
被写体までの距離を表す距離画像を生成する生成方法であって、
視差を有する一対の撮像画像に基づき前記距離画像を生成する生成ステップと、
前記距離画像のうち、信頼度が所定の閾値以上である領域について、前記一対の撮像画像を生成した撮像手段の光学系に起因する前記距離画像における歪みを補正する補正ステップと、
を有する方法の各ステップを実行させることを特徴とするプログラム。
On the computer
It is a generation method that generates a distance image showing the distance to the subject.
A generation step of generating the distance image based on a pair of captured images having parallax, and
A correction step for correcting distortion in the distance image caused by the optical system of the imaging means that generated the pair of captured images in a region of the distance image whose reliability is equal to or higher than a predetermined threshold value.
A program comprising performing each step of a method having.
コンピュータに、
被写体までの距離を表す距離画像を生成する生成方法であって、
視差を有する一対の撮像画像のうち、信頼度が所定の閾値以上である領域について、前記一対の撮像画像を生成した撮像手段の光学系に起因する前記一対の撮像画像における歪みを補正する補正ステップと、
前記補正ステップにより歪みを補正された一対の撮像画像に基づき距離画像を生成する生成ステップと、
を有する方法の各ステップを実行させることを特徴とするプログラム。
On the computer
It is a generation method that generates a distance image showing the distance to the subject.
A correction step for correcting distortion in the pair of captured images due to the optical system of the imaging means that generated the pair of captured images in a region of the pair of captured images having parallax whose reliability is equal to or higher than a predetermined threshold value. When,
A generation step of generating a distance image based on a pair of captured images whose distortion has been corrected by the correction step, and a generation step.
A program comprising performing each step of a method having.
JP2020209189A 2020-02-18 2020-12-17 GENERATION APPARATUS, GENERATION METHOD, AND PROGRAM Active JP7532238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/168,292 US20210256665A1 (en) 2020-02-18 2021-02-05 Generation apparatus, generation method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020025037 2020-02-18
JP2020025037 2020-02-18

Publications (2)

Publication Number Publication Date
JP2021131377A true JP2021131377A (en) 2021-09-09
JP7532238B2 JP7532238B2 (en) 2024-08-13

Family

ID=77550814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020209189A Active JP7532238B2 (en) 2020-02-18 2020-12-17 GENERATION APPARATUS, GENERATION METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7532238B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147281A (en) 2011-01-13 2012-08-02 Ricoh Co Ltd Image processing apparatus
JP5834810B2 (en) 2011-11-17 2015-12-24 株式会社リコー Camera calibration apparatus, occupant support apparatus, and distortion coefficient generation method for camera calibration
US10607417B2 (en) 2016-06-08 2020-03-31 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
JP6824817B2 (en) 2017-05-17 2021-02-03 キヤノン株式会社 Image processing device and image processing method
JP6789899B2 (en) 2017-08-31 2020-11-25 オリンパス株式会社 Measuring device and operating method of measuring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042995A1 (en) * 2022-08-24 2024-02-29 ソニーセミコンダクタソリューションズ株式会社 Light detection device and light detection system

Also Published As

Publication number Publication date
JP7532238B2 (en) 2024-08-13

Similar Documents

Publication Publication Date Title
US8693785B2 (en) Image matching devices and image matching methods thereof
WO2019042426A1 (en) Augmented reality scene processing method and apparatus, and computer storage medium
US20180181816A1 (en) Handling Perspective Magnification in Optical Flow Proessing
US9014463B2 (en) System for real-time stereo matching
EP3633606B1 (en) Information processing device, information processing method, and program
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
CN114217665B (en) Method and device for synchronizing time of camera and laser radar and storage medium
WO2021114773A1 (en) Target detection method, device, terminal device, and medium
US11132586B2 (en) Rolling shutter rectification in images/videos using convolutional neural networks with applications to SFM/SLAM with rolling shutter images/videos
US9355497B2 (en) Image processing system, image processing apparatus, and image processing method for combining CG image with captured image
US10600202B2 (en) Information processing device and method, and program
US20200202563A1 (en) 3d image reconstruction processing apparatus, 3d image reconstruction processing method and computer-readable storage medium storing 3d image reconstruction processing program
WO2022267444A1 (en) Method and device for camera calibration
CN111950370A (en) Dynamic environment offline visual milemeter expansion method
JP7532238B2 (en) GENERATION APPARATUS, GENERATION METHOD, AND PROGRAM
JP5727969B2 (en) Position estimation apparatus, method, and program
US20230260159A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US10846837B2 (en) Image processing apparatus, image processing method, and storage medium
JP2009302731A (en) Image processing apparatus, image processing program, image processing method, and electronic device
CN114140659B (en) Social distance monitoring method based on human body detection under unmanned aerial vehicle visual angle
US11847784B2 (en) Image processing apparatus, head-mounted display, and method for acquiring space information
US20210256665A1 (en) Generation apparatus, generation method, and storage medium
JP6218237B2 (en) Image conversion program, apparatus and method for parallelizing photographed image
US20240144624A1 (en) Measurement apparatus, measurement system, and measurement method
US11282280B2 (en) Method and system for node vectorisation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231213

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240731

R150 Certificate of patent or registration of utility model

Ref document number: 7532238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150