JP7008308B2 - Image processing device, ranging device, image pickup device, image processing method and program - Google Patents

Image processing device, ranging device, image pickup device, image processing method and program Download PDF

Info

Publication number
JP7008308B2
JP7008308B2 JP2018017791A JP2018017791A JP7008308B2 JP 7008308 B2 JP7008308 B2 JP 7008308B2 JP 2018017791 A JP2018017791 A JP 2018017791A JP 2018017791 A JP2018017791 A JP 2018017791A JP 7008308 B2 JP7008308 B2 JP 7008308B2
Authority
JP
Japan
Prior art keywords
image
region
instantaneous velocity
image processing
velocity distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018017791A
Other languages
Japanese (ja)
Other versions
JP2019135446A (en
Inventor
淳 内村
博 高橋
将人 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
NEC Corp
Original Assignee
NEC Platforms Ltd
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd, NEC Corp filed Critical NEC Platforms Ltd
Priority to JP2018017791A priority Critical patent/JP7008308B2/en
Priority to PCT/JP2019/001956 priority patent/WO2019151059A1/en
Publication of JP2019135446A publication Critical patent/JP2019135446A/en
Application granted granted Critical
Publication of JP7008308B2 publication Critical patent/JP7008308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、画像処理装置、測距装置、撮像装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, a distance measuring device, an imaging device, an image processing method and a program.

画像の中の移動物体を検出する種々の手法が検討されている。特許文献1には、動画を構成する複数のフレームを用いて移動物体を検出する方法が開示されている。特許文献1の方法では、連続する3つのフレームFr、Fr、Frに対し、フレームFrとフレームFrの差分Aと、フレームFrとフレームFrとの差分Bとを算出し、差分Aと差分Bとの論理和を取得することで、画像中の移動物体を検出することができる。 Various methods for detecting moving objects in images are being studied. Patent Document 1 discloses a method of detecting a moving object using a plurality of frames constituting a moving image. In the method of Patent Document 1, the difference A between the frame Fr 0 and the frame Fr 1 and the difference B between the frame Fr 1 and the frame Fr 2 are calculated for three consecutive frames Fr 0 , Fr 1 , and Fr 2 . By acquiring the logical sum of the difference A and the difference B, a moving object in the image can be detected.

特開2004-171431号公報Japanese Unexamined Patent Publication No. 2004-171431

特許文献1に記載されているような移動物体の検出方法では、動画のフレーム等の時間的に連続する複数の画像を処理に用いる必要があるため、1つの画像から移動物体を抽出することはできない。 In the method for detecting a moving object as described in Patent Document 1, it is necessary to use a plurality of temporally continuous images such as a frame of a moving image for processing. Therefore, it is not possible to extract a moving object from one image. Can not.

本発明は、上述の課題に鑑みてなされたものであって、1つの画像から移動物体を抽出することができる画像処理装置、測距装置、撮像装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and provides an image processing device, a distance measuring device, an image pickup device, an image processing method and a program capable of extracting a moving object from one image. The purpose.

本発明の一観点によれば、空間内の第1領域の中の物体の瞬間速度分布を取得する第1取得部と、前記第1領域の少なくとも一部を含む画像を取得する第2取得部と、前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出する検出部と、を有することを特徴とする画像処理装置が提供される。 According to one aspect of the present invention, a first acquisition unit for acquiring an instantaneous velocity distribution of an object in a first region in space and a second acquisition unit for acquiring an image including at least a part of the first region. And an image processing apparatus characterized by having a detection unit for detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution.

本発明の他の観点によれば、空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、前記第1領域の少なくとも一部を含む画像を取得するステップと、前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、を有することを特徴とする画像処理方法が提供される。 According to another aspect of the present invention, a step of acquiring an instantaneous velocity distribution of an object in a first region in space, a step of acquiring an image including at least a part of the first region, and the instantaneous velocity. Provided is an image processing method comprising: a step of detecting a second region indicating a moving object included in the image based on a distribution.

本発明の更に他の観点によれば、コンピュータに、空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、前記第1領域の少なくとも一部を含む画像を取得するステップと、前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、を実行させることを特徴とするプログラムが提供される。 According to still another aspect of the present invention, a step of acquiring an instantaneous velocity distribution of an object in a first region in space and a step of acquiring an image including at least a part of the first region are obtained by a computer. , A program comprising the step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution and the execution of the step is provided.

本発明によれば、1つの画像から移動物体を抽出することができる画像処理装置、測距装置、撮像装置、画像処理方法及びプログラムを提供することができる。 According to the present invention, it is possible to provide an image processing device, a distance measuring device, an image pickup device, an image processing method and a program capable of extracting a moving object from one image.

第1実施形態に係る画像処理装置を含む物体検出システムの概略構成を示す模式図である。It is a schematic diagram which shows the schematic structure of the object detection system including the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus which concerns on 1st Embodiment. 第1実施形態に係る測距装置の機能ブロック図である。It is a functional block diagram of the ranging device which concerns on 1st Embodiment. 第1実施形態に係る撮像装置の機能ブロック図である。It is a functional block diagram of the image pickup apparatus which concerns on 1st Embodiment. 第1実施形態に係る画像処理装置、測距装置及び撮像装置により行われる処理の概略を示すシーケンス図である。It is a sequence diagram which shows the outline of the processing performed by the image processing apparatus, the distance measuring apparatus and the image pickup apparatus which concerns on 1st Embodiment. 第1実施形態に係る測距装置により行われる処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the process performed by the distance measuring apparatus which concerns on 1st Embodiment. 測距の原理を示すグラフである。It is a graph which shows the principle of distance measurement. 瞬間速度測定の原理を示すグラフである。It is a graph which shows the principle of instantaneous velocity measurement. 瞬間速度測定の原理を示すグラフである。It is a graph which shows the principle of instantaneous velocity measurement. 第1実施形態に係る画像処理装置により行われる処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the processing performed by the image processing apparatus which concerns on 1st Embodiment. トリミング処理の概略を示す模式図である。It is a schematic diagram which shows the outline of the trimming process. 第2実施形態に係る物体検出システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the object detection system which concerns on 2nd Embodiment. 第3実施形態に係る物体検出システムの概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the object detection system which concerns on 3rd Embodiment. 第4実施形態に係る画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus which concerns on 4th Embodiment.

以下、図面を参照して、本発明の例示的な実施形態を説明する。図面において同様の要素又は対応する要素には同一の符号を付し、その説明を省略又は簡略化することがある。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. Similar elements or corresponding elements may be designated by the same reference numerals in the drawings, and the description thereof may be omitted or simplified.

[第1実施形態]
図1は、第1実施形態に係る画像処理装置10を含む物体検出システム1の概略構成を示す模式図である。物体検出システム1は、画像処理装置10、測距装置20及び撮像装置30を含む。
[First Embodiment]
FIG. 1 is a schematic diagram showing a schematic configuration of an object detection system 1 including an image processing device 10 according to the first embodiment. The object detection system 1 includes an image processing device 10, a distance measuring device 20, and an image pickup device 30.

測距装置20は、例えばLiDAR(Light Detection and Ranging)装置であり、所定の範囲における測距装置20からの距離、瞬間速度等の分布を取得することができる。撮像装置30は、例えばデジタルカメラであり、所定の範囲の画像を取得することができる。これらの機能により、物体検出システム1は、対象物2の検出を行うことができる。 The rangefinding device 20 is, for example, a LiDAR (Light Detection and Ranging) device, and can acquire the distribution of the distance, the instantaneous speed, and the like from the rangefinding device 20 in a predetermined range. The image pickup device 30 is, for example, a digital camera, and can acquire an image in a predetermined range. With these functions, the object detection system 1 can detect the object 2.

画像処理装置10は、例えばコンピュータであり、測距装置20により取得された情報に基づいて撮像装置30により取得された画像の処理を行う。画像処理装置10と測距装置20の間及び画像処理装置10と撮像装置30の間は有線又は無線により通信可能に接続される。 The image processing device 10 is, for example, a computer, and processes an image acquired by the image pickup device 30 based on the information acquired by the distance measuring device 20. The image processing device 10 and the distance measuring device 20 and the image processing device 10 and the image pickup device 30 are communicably connected by wire or wirelessly.

物体検出システム1は、画像処理装置10、測距装置20及び撮像装置30を統括的に制御する不図示の制御装置を更に含んでもよく、画像処理装置10として機能するコンピュータが当該制御の機能を有していてもよい。また、物体検出システム1は、通信可能に接続された複数の装置により構成されていてもよく、1つの装置として構成されていてもよい。 The object detection system 1 may further include a control device (not shown) that collectively controls the image processing device 10, the distance measuring device 20, and the image pickup device 30, and a computer functioning as the image processing device 10 performs the control function. You may have. Further, the object detection system 1 may be configured by a plurality of devices connected so as to be communicable, or may be configured as one device.

図2は、本発明の第1実施形態に係る画像処理装置10のハードウェア構成例を示すブロック図である。画像処理装置10は、例えば、測距装置20及び撮像装置30と一体に構成されたコンピュータであり得る。また、画像処理装置10は、測距装置20及び撮像装置30とは別の装置として構成されたコンピュータであってもよい。 FIG. 2 is a block diagram showing a hardware configuration example of the image processing apparatus 10 according to the first embodiment of the present invention. The image processing device 10 may be, for example, a computer integrally configured with the distance measuring device 20 and the image pickup device 30. Further, the image processing device 10 may be a computer configured as a device different from the distance measuring device 20 and the image pickup device 30.

画像処理装置10は、演算、制御及び記憶を行うコンピュータとして、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103及びHDD(Hard Disk Drive)104を備える。また、画像処理装置10は、通信I/F(インターフェース)105、表示装置106及び入力装置107を備える。CPU101、RAM102、ROM103、HDD104、通信I/F105、表示装置106及び入力装置107は、バス108を介して相互に接続される。なお、表示装置106及び入力装置107は、これらの装置を駆動するための不図示の駆動装置を介してバス108に接続されてもよい。 The image processing device 10 includes a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, and an HDD (Hard Disk Drive) 104 as a computer that performs calculation, control, and storage. Further, the image processing device 10 includes a communication I / F (interface) 105, a display device 106, and an input device 107. The CPU 101, RAM 102, ROM 103, HDD 104, communication I / F 105, display device 106, and input device 107 are connected to each other via the bus 108. The display device 106 and the input device 107 may be connected to the bus 108 via a drive device (not shown) for driving these devices.

図2では、画像処理装置10を構成する各部が一体の装置として図示されているが、これらの機能の一部は外付け装置により提供されるものであってもよい。例えば、表示装置106及び入力装置107は、CPU101等を含むコンピュータの機能を構成する部分とは別の外付け装置であってもよい。 In FIG. 2, each part constituting the image processing device 10 is shown as an integrated device, but some of these functions may be provided by an external device. For example, the display device 106 and the input device 107 may be external devices different from the parts constituting the functions of the computer including the CPU 101 and the like.

CPU101は、ROM103、HDD104等に記憶されたプログラムに従って所定の動作を行うとともに、画像処理装置10の各部を制御する機能をも有する。RAM102は、揮発性記憶媒体から構成され、CPU101の動作に必要な一時的なメモリ領域を提供する。ROM103は、不揮発性記憶媒体から構成され、画像処理装置10の動作に用いられるプログラム等の必要な情報を記憶する。HDD104は、不揮発性記憶媒体から構成され、画像データ、プログラム等の記憶を行う記憶装置である。 The CPU 101 performs a predetermined operation according to a program stored in the ROM 103, the HDD 104, and the like, and also has a function of controlling each part of the image processing device 10. The RAM 102 is composed of a volatile storage medium and provides a temporary memory area necessary for the operation of the CPU 101. The ROM 103 is composed of a non-volatile storage medium and stores necessary information such as a program used for the operation of the image processing device 10. The HDD 104 is a storage device composed of a non-volatile storage medium and storing image data, programs, and the like.

通信I/F105は、Wi-Fi(登録商標)、4G等の規格に基づく通信インターフェースであり、他の装置との通信を行うためのモジュールである。表示装置106は、液晶ディスプレイ、OLED(Organic Light Emitting Diode)ディスプレイ等であって、画像、文字、インターフェース等の表示に用いられる。入力装置107は、キーボード、ポインティングデバイス等であって、ユーザが画像処理装置10を操作するために用いられる。ポインティングデバイスの例としては、マウス、トラックボール、タッチパネル等が挙げられる。表示装置106及び入力装置107は、タッチパネルとして一体に形成されていてもよい。 The communication I / F 105 is a communication interface based on a standard such as Wi-Fi (registered trademark) and 4G, and is a module for communicating with other devices. The display device 106 is a liquid crystal display, an OLED (Organic Light Emitting Diode) display, or the like, and is used for displaying images, characters, interfaces, and the like. The input device 107 is a keyboard, a pointing device, or the like, and is used for the user to operate the image processing device 10. Examples of pointing devices include mice, trackballs, touch panels and the like. The display device 106 and the input device 107 may be integrally formed as a touch panel.

なお、図1に示されているハードウェア構成は例示であり、これら以外の装置が追加されていてもよく、一部の装置が設けられていなくてもよい。また、一部の装置が同様の機能を有する別の装置に置換されていてもよい。更に、本実施形態の一部の機能がネットワークを介して他の装置により提供されてもよく、本実施形態の機能が複数の装置に分散されて実現されるものであってもよい。例えば、HDD104は、半導体メモリを用いたSSD(Solid State Drive)に置換されていてもよく、クラウドストレージに置換されていてもよい。 The hardware configuration shown in FIG. 1 is an example, and devices other than these may be added or some devices may not be provided. Further, some devices may be replaced with other devices having similar functions. Further, some functions of the present embodiment may be provided by other devices via a network, or the functions of the present embodiment may be distributed and realized by a plurality of devices. For example, the HDD 104 may be replaced with an SSD (Solid State Drive) using a semiconductor memory, or may be replaced with a cloud storage.

図3は、本実施形態に係る画像処理装置10の機能ブロック図である。画像処理装置10は、第1取得部121、第2取得部122、検出部123、座標設定部124、トリミング処理部125及び記憶部126を有する。 FIG. 3 is a functional block diagram of the image processing apparatus 10 according to the present embodiment. The image processing device 10 includes a first acquisition unit 121, a second acquisition unit 122, a detection unit 123, a coordinate setting unit 124, a trimming processing unit 125, and a storage unit 126.

CPU101は、ROM103等に記憶されたプログラムをRAM102にロードして実行することにより、第1取得部121、第2取得部122、検出部123、座標設定部124及びトリミング処理部125の機能を実現する。これらの各部で行われる処理については後述する。CPU101は、HDD104を制御することにより記憶部126の機能を実現する。記憶部126は、測距装置20から取得された距離、瞬間速度等の分布、撮像装置30から取得した画像等の情報を記憶する。 The CPU 101 realizes the functions of the first acquisition unit 121, the second acquisition unit 122, the detection unit 123, the coordinate setting unit 124, and the trimming processing unit 125 by loading the program stored in the ROM 103 or the like into the RAM 102 and executing the program. do. The processing performed in each of these parts will be described later. The CPU 101 realizes the function of the storage unit 126 by controlling the HDD 104. The storage unit 126 stores information such as the distance acquired from the distance measuring device 20, the distribution of the instantaneous velocity, and the image acquired from the imaging device 30.

図4は、本実施形態に係る測距装置20の機能ブロック図である。図4には測距装置20の構成の一例として、FMCW(Frequency Modulated Continuous Wave)方式のLiDAR装置のブロック図が示されている。LiDAR装置は、赤外光、可視光、紫外光等のレーザー光を投射し、反射光を取得する動作を繰り返して所定範囲を走査することにより、反射光強度分布、距離分布等を取得する装置である。また、図4に示す測距装置20にはFMCW方式が適用されている。そのため、測距装置20は、ドップラー効果による周波数変化を測定することにより、瞬間速度分布を更に取得することができる。なお、LiDARは、レーザーレーダーと呼ばれることもある。また、周波数変化の測定にドップラー効果を利用することから、瞬間速度分布は、対象物2から測距装置20に向かう方向、あるいは、測距装置20から遠ざかる方向の瞬間速度を示すものであることが望ましい。 FIG. 4 is a functional block diagram of the distance measuring device 20 according to the present embodiment. FIG. 4 shows a block diagram of an FMCW (Frequency Modulated Continuous Wave) type LiDAR device as an example of the configuration of the distance measuring device 20. The LiDAR device is a device that acquires reflected light intensity distribution, distance distribution, etc. by projecting laser light such as infrared light, visible light, and ultraviolet light and scanning a predetermined range by repeating the operation of acquiring reflected light. Is. Further, the FMCW method is applied to the distance measuring device 20 shown in FIG. Therefore, the distance measuring device 20 can further acquire the instantaneous velocity distribution by measuring the frequency change due to the Doppler effect. LiDAR is sometimes called a laser radar. Further, since the Doppler effect is used for measuring the frequency change, the instantaneous velocity distribution indicates the instantaneous velocity in the direction from the object 2 toward the distance measuring device 20 or in the direction away from the distance measuring device 20. Is desirable.

測距装置20は、反射鏡ユニット201、LD(Laser Diode)204、PD(Photodiode)205、206、フィルタ207、208、209、変調器210、復調器211、212、三角波発生器213、振幅・周期比較器214、215、モータ制御部216及び演算部217を有する。反射鏡ユニット201は、反射鏡202及びモータ203を有する。 The distance measuring device 20 includes a reflecting mirror unit 201, LD (Laser Diode) 204, PD (Photodiode) 205, 206, filters 207, 208, 209, modulator 210, demodulators 211, 212, triangular wave generator 213, and amplitude. It has a period comparator 214, 215, a motor control unit 216, and a calculation unit 217. The reflector unit 201 has a reflector 202 and a motor 203.

三角波発生器213は、時間に対して電圧が増減を繰り返す三角波を生成する。三角波発生器213で生成された三角波は変調器210に出力される。また、当該三角波は振幅・周期等を参照するための参照信号として振幅・周期比較器214、215及び演算部217にも出力される。 The triangular wave generator 213 generates a triangular wave in which the voltage repeatedly increases and decreases with time. The triangular wave generated by the triangular wave generator 213 is output to the modulator 210. Further, the triangular wave is also output to the amplitude / period comparator 214, 215 and the calculation unit 217 as a reference signal for referring to the amplitude / period and the like.

変調器210は、VCO(Voltage-Controlled Oscillator)等を含み、三角波発生器213で生成された三角波状の電圧の入力に応じた周波数変調波を生成する。生成された周波数変調波は、フィルタ207に入力される。フィルタ207は、周波数変調波の周波数を通過帯域とする帯域通過フィルタである。フィルタ207を通過した周波数変調波は、LD204に入力される。LD204は、入力された周波数変調波に基づくレーザー光を生成する。なお、LD204は、例えば、近赤外領域の波長のレーザー光を射出する赤外線通信用の発光素子である。 The modulator 210 includes a VCO (Voltage-Controlled Oscillator) and the like, and generates a frequency modulated wave corresponding to an input of a triangular wave-shaped voltage generated by the triangular wave generator 213. The generated frequency modulated wave is input to the filter 207. The filter 207 is a band-passing filter whose passband is the frequency of the frequency-modulated wave. The frequency-modulated wave that has passed through the filter 207 is input to the LD204. The LD204 produces a laser beam based on the input frequency modulated wave. The LD204 is, for example, a light emitting element for infrared communication that emits a laser beam having a wavelength in the near infrared region.

LD204から射出されたレーザー光は、反射鏡ユニット201に入射される。反射鏡ユニット201内の反射鏡202は、入射されたレーザー光を反射し、レーザー光が投射される方向を変化させる。モータ203は、例えばエンコーダ付きのDC(Direct Current)モータであり、反射鏡202を回転させる。反射鏡202は、モータ203により回転駆動されることにより、レーザー光を所定範囲内で走査させることができる。レーザー光の一部は参照光としてPD205に入射され、他の一部は測距装置20の外部に投射される。 The laser beam emitted from the LD 204 is incident on the reflecting mirror unit 201. The reflecting mirror 202 in the reflecting mirror unit 201 reflects the incident laser light and changes the direction in which the laser light is projected. The motor 203 is, for example, a DC (Direct Current) motor with an encoder, and rotates the reflector 202. The reflector 202 is rotationally driven by the motor 203 so that the laser beam can be scanned within a predetermined range. A part of the laser light is incident on the PD 205 as reference light, and the other part is projected to the outside of the distance measuring device 20.

測距装置20の外部に投射されたレーザー光が対象物2で反射され測距装置20に再び入射すると、当該反射光は、PD206に入射される。なお、対象物2と測距装置20との間の距離をrとすると、反射光は参照光に対して光路が2rだけ長くなる。そのため、反射光がPD206に入射される時刻は、光速をcとすると、参照光がPD205に入射される時刻よりも2r/cだけ遅い時刻となる。 When the laser beam projected to the outside of the distance measuring device 20 is reflected by the object 2 and is incident on the distance measuring device 20 again, the reflected light is incident on the PD 206. Assuming that the distance between the object 2 and the distance measuring device 20 is r, the reflected light has an optical path longer than the reference light by 2r. Therefore, the time when the reflected light is incident on the PD206 is 2r / c later than the time when the reference light is incident on the PD205, where c is the speed of light.

PD205、206は、例えば、LD204と同程度の波長の光を受光して電荷に変換する赤外線通信用の光電変換素子である。PD205、206に光が入射すると、生成された電荷に基づく電圧の変化が電気信号として後段のフィルタ208、209に伝達される。フィルタ208、209も、フィルタ207と同様に、三角波発生器213で生成された周波数変調波の周波数を通過帯域とする帯域通過フィルタである。フィルタ208を通過した周波数変調波は、復調器211に入力され、フィルタ209を通過した周波数変調波は、復調器212に入力される。 PD205 and 206 are, for example, photoelectric conversion elements for infrared communication that receive light having a wavelength similar to that of LD204 and convert it into electric charges. When light is incident on PD205 and 206, the change in voltage based on the generated charge is transmitted to the subsequent filters 208 and 209 as an electric signal. Similar to the filter 207, the filters 208 and 209 are bandpass filters having the frequency of the frequency modulated wave generated by the triangular wave generator 213 as the passband. The frequency-modulated wave that has passed through the filter 208 is input to the demodulator 211, and the frequency-modulated wave that has passed through the filter 209 is input to the demodulator 212.

復調器211、212は、PLL(Phase-Locked Loop)等を含み、入力された周波数変調波を復調する。周波数変調波は三角波発生器213で生成された三角波に基づくものであるため、復調器211、212により復調された信号は三角波となる。復調器211における復調により得られた三角波は振幅・周期比較器214に入力され、復調器212における復調により得られた三角波は振幅・周期比較器215に入力される。 The demodulators 211 and 212 include a PLL (Phase-Locked Loop) and the like, and demodulate the input frequency-modulated wave. Since the frequency-modulated wave is based on the triangular wave generated by the triangular wave generator 213, the signal demodulated by the demodulators 211 and 212 becomes a triangular wave. The triangular wave obtained by demodulation in the demodulator 211 is input to the amplitude / period comparator 214, and the triangular wave obtained by demodulation in the demodulator 212 is input to the amplitude / period comparator 215.

振幅・周期比較器214、215は、ビート信号を生成するミキサ等を含む。振幅・周期比較器214は、三角波発生器213から出力される三角波の振幅・周期と、復調器211から出力される三角波の振幅・周期とを比較する。振幅・周期比較器214での比較結果は、演算部217に出力される。振幅・周期比較器215は、三角波発生器213から出力される三角波の振幅・周期と、復調器212から出力される三角波の振幅・周期とを比較する。振幅・周期比較器215での比較結果は、演算部217に出力される。ここで、比較結果とは、2つの入力信号の振幅・周期の差又は比であり得る。 The amplitude / period comparators 214 and 215 include a mixer and the like that generate a beat signal. The amplitude / period comparator 214 compares the amplitude / period of the triangular wave output from the triangular wave generator 213 with the amplitude / period of the triangular wave output from the demodulator 211. The comparison result of the amplitude / period comparator 214 is output to the calculation unit 217. The amplitude / period comparator 215 compares the amplitude / period of the triangular wave output from the triangular wave generator 213 with the amplitude / period of the triangular wave output from the demodulator 212. The comparison result of the amplitude / period comparator 215 is output to the calculation unit 217. Here, the comparison result may be the difference or ratio of the amplitude / period of the two input signals.

演算部217は、振幅・周期比較器214から出力された参照光に基づく信号と、三角波発生器213から出力される三角波とを用いて、振幅・周期比較器215から出力された反射光に基づく信号を補正する演算を行う。これにより演算部217は、反射光の強度、測距装置20と対象物2との距離及び対象物2の瞬間速度を算出する。測距装置20は、レーザー光を所定範囲内に走査させて反射光の強度、距離及び瞬間速度を測定することにより、これらを2次元状の反射光強度分布、距離分布及び瞬間速度分布として画像処理装置10に出力する。 The calculation unit 217 uses the signal based on the reference light output from the amplitude / period comparator 214 and the triangular wave output from the triangle wave generator 213, and is based on the reflected light output from the amplitude / period comparator 215. Performs an operation to correct the signal. As a result, the calculation unit 217 calculates the intensity of the reflected light, the distance between the distance measuring device 20 and the object 2, and the instantaneous speed of the object 2. The distance measuring device 20 scans the laser beam within a predetermined range to measure the intensity, distance, and instantaneous velocity of the reflected light, and images these as a two-dimensional reflected light intensity distribution, distance distribution, and instantaneous velocity distribution. Output to the processing device 10.

振幅・周期比較器214から出力される参照光の情報はモータ制御部216にも出力される。モータ制御部216は、振幅・周期比較器214から取得した情報と、モータ203に設けられたエンコーダから取得した情報とに基づき、反射鏡202の現在の位置、回転速度等を算出する。モータ制御部216は、反射鏡202の現在の位置、回転速度等の情報に基づき、モータ203の回転速度を増加又は低下させる制御を行うことで、反射鏡202の回転速度を所定の値に安定化させる。 The information of the reference light output from the amplitude / period comparator 214 is also output to the motor control unit 216. The motor control unit 216 calculates the current position, rotation speed, etc. of the reflector 202 based on the information acquired from the amplitude / period comparator 214 and the information acquired from the encoder provided in the motor 203. The motor control unit 216 controls the rotation speed of the motor 203 to be increased or decreased based on information such as the current position of the reflector 202 and the rotation speed, thereby stabilizing the rotation speed of the reflector 202 at a predetermined value. To make it.

フィルタ207、208、209、変調器210、復調器211、212、三角波発生器213、振幅・周期比較器214、215、モータ制御部216及び演算部217の一部又は全部は、一体の回路として形成されていてもよい。ここで、一体の回路とは、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)であり得る。 Filters 207, 208, 209, modulator 210, demodulators 211, 212, triangle wave generator 213, amplitude / period comparator 214, 215, motor control unit 216, and part or all of the calculation unit 217 are integrated circuits. It may be formed. Here, the integrated circuit may be an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図5は、本実施形態に係る撮像装置30の機能ブロック図である。図5には撮像装置30の構成の一例として、レンズ及び本体が一体となっているデジタルスチルカメラのブロック図が示されている。撮像装置30は、対象物2を含む所定の範囲(所定の画角)の画像をデジタルデータとして取得する。 FIG. 5 is a functional block diagram of the image pickup apparatus 30 according to the present embodiment. FIG. 5 shows a block diagram of a digital still camera in which a lens and a main body are integrated as an example of the configuration of the image pickup apparatus 30. The image pickup apparatus 30 acquires an image of a predetermined range (predetermined angle of view) including the object 2 as digital data.

撮像装置30は、レンズユニット301、撮像素子302、信号処理部303、撮像装置制御部304、外部I/F305及び記録媒体306を有する。撮像装置制御部304は、撮像装置30全体を制御する。レンズユニット301は、対象物2からの光を撮像素子302に導く光学系であり、1又は2以上のレンズを含む。また、レンズユニット301は、絞り、ズームレンズ、光学フィルタ、メカニカルシャッタ等の光学部材を更に含んでもよい。 The image pickup device 30 includes a lens unit 301, an image pickup element 302, a signal processing unit 303, an image pickup device control unit 304, an external I / F 305, and a recording medium 306. The image pickup device control unit 304 controls the entire image pickup device 30. The lens unit 301 is an optical system that guides the light from the object 2 to the image pickup device 302, and includes one or more lenses. Further, the lens unit 301 may further include an optical member such as a diaphragm, a zoom lens, an optical filter, and a mechanical shutter.

撮像素子302は、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal-Oxide-Semiconductor)イメージセンサ等であり得る。撮像素子302の撮像面には複数の画素が2次元状に配列されている。撮像素子302は、撮像面に投影された所定の画角の光学像に基づく画像信号を生成する。 The image pickup device 302 may be a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide-Semiconductor) image sensor, or the like. A plurality of pixels are arranged two-dimensionally on the image pickup surface of the image pickup element 302. The image pickup device 302 generates an image signal based on an optical image having a predetermined angle of view projected on the image pickup surface.

信号処理部303は、DSP(Digital Signal Processor)等のプロセッサであり得る。信号処理部303は、撮像素子302で生成された画像信号に対し、補正、圧縮等の処理を行い、画像データを生成する。生成された画像データは、フラッシュメモリ等により構成された不揮発性の記録媒体306に記憶される。外部I/F305は、記録媒体306に記憶された画像データを画像処理装置10に出力する。 The signal processing unit 303 may be a processor such as a DSP (Digital Signal Processor). The signal processing unit 303 performs processing such as correction and compression on the image signal generated by the image sensor 302 to generate image data. The generated image data is stored in a non-volatile recording medium 306 configured by a flash memory or the like. The external I / F 305 outputs the image data stored in the recording medium 306 to the image processing device 10.

図6は、第1実施形態に係る画像処理装置10、測距装置20及び撮像装置30により行われる処理の概略を示すシーケンス図である。図6を参照しつつ、処理の概略を説明する。 FIG. 6 is a sequence diagram showing an outline of the processing performed by the image processing device 10, the distance measuring device 20, and the image pickup device 30 according to the first embodiment. The outline of the process will be described with reference to FIG.

ステップS10において、測距装置20は、所定の範囲内の反射光強度分布、距離分布及び瞬間速度分布を取得する。これらの分布に関する情報は、総称として分布情報と呼ばれることもある。また、分布情報を取得する所定の範囲は、第1領域と呼ばれることもある。 In step S10, the ranging device 20 acquires the reflected light intensity distribution, the distance distribution, and the instantaneous velocity distribution within a predetermined range. Information on these distributions is sometimes collectively referred to as distribution information. Further, a predetermined range for acquiring distribution information may be referred to as a first region.

ステップS20において、撮像装置30は、反射光強度分布、距離分布及び瞬間速度分布を取得した範囲の少なくとも一部を含む範囲内の画像を撮影する。なお、図6では、ステップS10の後にステップS20が行われるように図示されているが、ステップS10とステップS20の順序は逆であってもよく、これらが並行して行われてもよい。 In step S20, the image pickup apparatus 30 captures an image within a range including at least a part of the range in which the reflected light intensity distribution, the distance distribution, and the instantaneous velocity distribution are acquired. Although it is shown in FIG. 6 that step S20 is performed after step S10, the order of step S10 and step S20 may be reversed, and these may be performed in parallel.

ステップS30において、測距装置20は、画像処理装置10に分布情報を送信する。ステップS40において、撮像装置30は、画像処理装置10に画像を送信する。なお、図6では、ステップS30の後にステップS40が行われるように図示されているが、ステップS30とステップS40の順序は逆であってもよく、これらが並行して行われてもよい。 In step S30, the distance measuring device 20 transmits distribution information to the image processing device 10. In step S40, the image pickup apparatus 30 transmits an image to the image processing apparatus 10. Although it is shown in FIG. 6 that step S40 is performed after step S30, the order of step S30 and step S40 may be reversed, and these may be performed in parallel.

ステップS50において、画像処理装置10は、少なくとも瞬間速度分布に基づいて画像の中から移動物体を検出する。検出された移動物体を含む画像中の範囲は、第2領域と呼ばれることもある。 In step S50, the image processing apparatus 10 detects a moving object in the image based on at least the instantaneous velocity distribution. The range in the image containing the detected moving object is sometimes referred to as the second region.

ステップS60において、画像処理装置10は、第2領域に対する画像処理を行う。ここで、画像処理の例としては、画像から第2領域を含む範囲を切り出して移動物体画像を生成するトリミング処理が挙げられる。 In step S60, the image processing device 10 performs image processing on the second region. Here, as an example of image processing, there is a trimming process of cutting out a range including a second region from an image to generate a moving object image.

図7乃至図10を参照して、測距装置20において行われる処理をより具体的に説明する。図7は、第1実施形態に係る測距装置20により行われる処理の概略を示すフローチャートである。図8は、測距の原理を示すグラフである。図9及び図10は、瞬間速度測定の原理を示すグラフである。 The processing performed in the distance measuring device 20 will be described more specifically with reference to FIGS. 7 to 10. FIG. 7 is a flowchart showing an outline of the processing performed by the distance measuring device 20 according to the first embodiment. FIG. 8 is a graph showing the principle of distance measurement. 9 and 10 are graphs showing the principle of instantaneous velocity measurement.

図7のステップS101からステップS104は、図6のステップS10に対応する処理である。図7のステップS105は、図6のステップS30に対応する処理である。ステップS101において、測距装置20は、近赤外光等の周波数帯域のレーザー光を投射する。ステップS102において、測距装置20は、対象物2から反射された反射光を受光する。 Steps S101 to S104 of FIG. 7 are processes corresponding to step S10 of FIG. Step S105 in FIG. 7 is a process corresponding to step S30 in FIG. In step S101, the ranging device 20 projects laser light in a frequency band such as near-infrared light. In step S102, the ranging device 20 receives the reflected light reflected from the object 2.

ステップS103において、測距装置20は、参照光、反射光等に基づく信号を用いて反射光強度、距離及び瞬間速度を算出する。ここで、FMCW方式による距離及び瞬間速度の算出方法について図8乃至図10を参照して説明する。 In step S103, the distance measuring device 20 calculates the reflected light intensity, the distance, and the instantaneous speed using a signal based on the reference light, the reflected light, and the like. Here, a method of calculating the distance and the instantaneous speed by the FMCW method will be described with reference to FIGS. 8 to 10.

まず、図8を参照しつつ距離の算出方法を説明する。図8のグラフは、参照光に基づく三角波の一部、反射光に基づく三角波の一部及びこれらのビートの周波数の時間変化を示している。図8より、参照光に基づく三角波は、時刻tにおいて周波数fであり、時間の経過とともに線形に周波数が増加する。その後、時間Tが経過した時刻t+Tにおいて、周波数f+Fとなる。すなわち、参照光に基づく三角波の傾きはF/Tである。三角波の傾きF/Tの値は、三角波発生器213で生成される三角波により定まるため、既知である。反射光に基づく三角波は、上述のように、参照光よりも時間Δt(=2r/c)だけ遅れて入力されるため、図8に示されるように、参照光を横方向に時間Δtだけシフトした波形となる。なお、図8において、対象物2は動いておらず、ドップラー効果による波形のシフトはないものとしている。 First, a method of calculating the distance will be described with reference to FIG. The graph of FIG. 8 shows a part of the triangle wave based on the reference light, a part of the triangle wave based on the reflected light, and the time change of the frequency of these beats. From FIG. 8, the triangular wave based on the reference light has a frequency f 0 at time t 0 , and the frequency increases linearly with the passage of time. After that, at the time t 0 + T when the time T has elapsed, the frequency becomes f 0 + F. That is, the slope of the triangular wave based on the reference light is F / T. The value of the slope F / T of the triangular wave is known because it is determined by the triangular wave generated by the triangular wave generator 213. As described above, the triangular wave based on the reflected light is input with a time Δt (= 2r / c) later than the reference light. Therefore, as shown in FIG. 8, the reference light is laterally shifted by the time Δt. The waveform becomes. In FIG. 8, it is assumed that the object 2 is not moving and the waveform is not shifted due to the Doppler effect.

時間Δtは極めて短い時間であるため、時間Δt自体を高精度に測定することは困難な場合があるが、周波数Δfはミキサ等によりビートを生成することで比較的高精度に測定することができる。そこで、参照光に基づく三角波と反射光に基づく三角波とを混合してビートを生成して、そのビートの周波数を測定することで、参照光の周波数と反射光の周波数の差Δfを取得する。ΔfとΔtの比は、図8から明らかなように、FとTの比と一致する。そのため、Δtは、ビートから得られたΔfと、既知の(F/T)の値を用いて、Δt=Δf/(F/T)と表すことができる。上述のΔt=2r/cの関係を考慮すると、測距装置20から対象物2までの距離は、以下の式(1)で表される。

Figure 0007008308000001
Since the time Δt is an extremely short time, it may be difficult to measure the time Δt itself with high accuracy, but the frequency Δf can be measured with relatively high accuracy by generating a beat with a mixer or the like. .. Therefore, a beat is generated by mixing a triangular wave based on the reference light and a triangular wave based on the reflected light, and the frequency of the beat is measured to obtain the difference Δf between the frequency of the reference light and the frequency of the reflected light. The ratio of Δf to Δt agrees with the ratio of F to T, as is clear from FIG. Therefore, Δt can be expressed as Δt = Δf / (F / T) by using Δf obtained from the beat and a known (F / T) value. Considering the above-mentioned relationship of Δt = 2r / c, the distance from the distance measuring device 20 to the object 2 is expressed by the following equation (1).
Figure 0007008308000001

したがって、時間の経過とともに線形に周波数が増加するように周波数変調された光を投射し、反射光に基づく信号と参照光に基づく信号のビートの周波数を測定することにより測距を行うことができる。 Therefore, distance measurement can be performed by projecting frequency-modulated light so that the frequency increases linearly with the passage of time, and measuring the beat frequencies of the signal based on the reflected light and the signal based on the reference light. ..

次に、図9及び図10を参照しつつ瞬間速度の算出方法を説明する。図9及び図10は、三角波の1周期分を含むように、図8に示したグラフをより広い時間範囲で示したグラフである。図9は、対象物2の瞬間速度がゼロである場合の周波数の時間変化を示している。図9より理解できるように、ビート周波数は、三角波の頂点付近を除き、Δfで一定である。 Next, a method of calculating the instantaneous velocity will be described with reference to FIGS. 9 and 10. 9 and 10 are graphs showing the graph shown in FIG. 8 over a wider time range so as to include one cycle of the triangular wave. FIG. 9 shows the time change of the frequency when the instantaneous velocity of the object 2 is zero. As can be understood from FIG. 9, the beat frequency is constant at Δf except near the apex of the triangular wave.

図10は、対象物2が測距装置20に向かう方向に動いている場合の周波数の時間変化を示している。測距装置20から投射された光は、対象物2で反射する際にドップラー効果により周波数が高くなる。これにより、三角波の周波数上昇時と下降時とで、ビート周波数がΔfとΔfの2種類の値を繰り返す。ドップラー効果による周波数変動量をΔfとすると、Δf=(Δf-Δf)/2で表される。また、上述の式(1)におけるΔfは、Δf=(Δf+Δf)/2で表される。したがって、ビート周波数としてΔfとΔfを取得することにより、対象物2が動いている場合においても式(1)に基づいて距離rを算出することができる。更に、Δfを光のドップラー効果の公式に入力することにより対象物2の瞬間速度を算出することができる。このように、本実施形態の測距装置20は、FMCW方式を用いたLiDAR装置であるため、距離分布及び瞬間速度分布を取得することができる。また、反射光に基づく信号の強度に基づき、本実施形態の測距装置20は、反射光強度分布を取得することができる。 FIG. 10 shows the time change of the frequency when the object 2 is moving in the direction toward the distance measuring device 20. The frequency of the light projected from the distance measuring device 20 becomes high due to the Doppler effect when it is reflected by the object 2. As a result, the beat frequency repeats two types of values, Δf 1 and Δf 2 , when the frequency of the triangular wave rises and falls. Assuming that the frequency fluctuation amount due to the Doppler effect is Δf d , it is expressed by Δf d = (Δf 2 -Δf 1 ) / 2. Further, Δf in the above equation (1) is represented by Δf = (Δf 1 + Δf 2 ) / 2. Therefore, by acquiring Δf 1 and Δf 2 as the beat frequencies, the distance r can be calculated based on the equation (1) even when the object 2 is moving. Further, the instantaneous velocity of the object 2 can be calculated by inputting Δf d into the formula of the Doppler effect of light. As described above, since the distance measuring device 20 of the present embodiment is a LiDAR device using the FMCW method, it is possible to acquire the distance distribution and the instantaneous velocity distribution. Further, the ranging device 20 of the present embodiment can acquire the reflected light intensity distribution based on the signal intensity based on the reflected light.

図7のステップS104において、測距装置20は、所定範囲内における反射光強度分布、距離分布及び瞬間速度分布の取得が完了しているか否かを判断する。これらの取得が完了していない場合(ステップS104においてNO)、処理はステップS101に移行し、光を照射する位置を変えて異なる測定点の反射光強度、距離及び瞬間速度の測定を行う。これらの取得が完了している場合(ステップS104においてYES)、処理はステップS105に移行する。このように、ステップS101からステップS104のループにおいては、反射光強度分布、距離分布及び瞬間速度分布の取得のための走査が行われる。 In step S104 of FIG. 7, the distance measuring device 20 determines whether or not the acquisition of the reflected light intensity distribution, the distance distribution, and the instantaneous velocity distribution within a predetermined range is completed. When these acquisitions are not completed (NO in step S104), the process proceeds to step S101, and the reflected light intensity, distance, and instantaneous velocity of different measurement points are measured by changing the position of irradiating the light. When these acquisitions are completed (YES in step S104), the process proceeds to step S105. As described above, in the loop from step S101 to step S104, scanning for acquiring the reflected light intensity distribution, the distance distribution, and the instantaneous velocity distribution is performed.

ステップS105において、測距装置20は、画像処理装置10に反射光強度分布、距離分布及び瞬間速度分布(分布情報)を送信する。 In step S105, the distance measuring device 20 transmits the reflected light intensity distribution, the distance distribution, and the instantaneous velocity distribution (distribution information) to the image processing device 10.

図11及び図12を参照して、画像処理装置10において行われる処理をより具体的に説明する。図11は、第1実施形態に係る画像処理装置10により行われる処理の概略を示すフローチャートである。図12は、トリミング処理の概略を示す模式図である。 The processing performed in the image processing apparatus 10 will be described more specifically with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing an outline of the processing performed by the image processing apparatus 10 according to the first embodiment. FIG. 12 is a schematic diagram showing an outline of the trimming process.

図11のステップS201は、図6のステップS30及び図7のステップS105に対応する処理である。図11のステップS202は、図6のステップS40に対応する処理である。図11のステップS203は、図6のステップS50に対応する処理である。図11のステップS204及びステップS205は、図6のステップS60に対応する処理である。 Step S201 of FIG. 11 is a process corresponding to step S30 of FIG. 6 and step S105 of FIG. 7. Step S202 of FIG. 11 is a process corresponding to step S40 of FIG. Step S203 of FIG. 11 is a process corresponding to step S50 of FIG. Step S204 and step S205 of FIG. 11 are processes corresponding to step S60 of FIG.

ステップS201において、画像処理装置10の第1取得部121は、測距装置20から空間内の第1領域の中の分布情報を取得する。取得された分布情報は、記憶部126に記憶され、後続の処理において、適宜記憶部126から読み出されて用いられる。ここで、分布情報は、少なくとも瞬間速度分布を含む。 In step S201, the first acquisition unit 121 of the image processing device 10 acquires distribution information in the first region in the space from the distance measuring device 20. The acquired distribution information is stored in the storage unit 126, and is appropriately read from the storage unit 126 and used in the subsequent processing. Here, the distribution information includes at least the instantaneous velocity distribution.

ステップS202において、画像処理装置10の第2取得部122は、測距装置20から第1領域の少なくとも一部を含む画像を取得する。取得された画像は、記憶部126に記憶され、後続の処理において、適宜記憶部126から読み出されて用いられる。ステップS201とステップS202の順序は逆であってもよく、これらが並行して行われてもよい。 In step S202, the second acquisition unit 122 of the image processing device 10 acquires an image including at least a part of the first region from the distance measuring device 20. The acquired image is stored in the storage unit 126, and is appropriately read from the storage unit 126 and used in the subsequent processing. The order of steps S201 and S202 may be reversed, and they may be performed in parallel.

ステップS203において、画像処理装置10の検出部123は、瞬間速度分布に基づいて、画像に含まれる移動物体を示す移動物体領域(第2領域)を検出する。ステップS203の処理について図12を参照してより詳細に説明する。 In step S203, the detection unit 123 of the image processing apparatus 10 detects a moving object region (second region) indicating a moving object included in the image based on the instantaneous velocity distribution. The process of step S203 will be described in more detail with reference to FIG.

図12の上段には第1領域における瞬間速度分布91が示されている。瞬間速度分布91は、瞬間速度の2次元分布が示されており、所定の閾値よりも大きい瞬間速度を有する部分がハッチングで示されている。図12より、瞬間速度分布91内に、人型の移動物体92が存在することがわかる。なお、ここでの瞬間速度を有する部分の判別は閾値に基づくものでなくてもよく、例えば、瞬間速度の微分値等を用いたエッジ抽出処理を行い、エッジに囲まれた領域を所定の瞬間速度を有する部分と判別するものであってもよい。 The upper part of FIG. 12 shows the instantaneous velocity distribution 91 in the first region. The instantaneous velocity distribution 91 shows a two-dimensional distribution of the instantaneous velocity, and a portion having an instantaneous velocity larger than a predetermined threshold value is shown by hatching. From FIG. 12, it can be seen that the humanoid moving object 92 exists in the instantaneous velocity distribution 91. It should be noted that the determination of the portion having the instantaneous velocity here does not have to be based on the threshold value. For example, an edge extraction process using a differential value of the instantaneous velocity is performed, and the area surrounded by the edges is defined as a predetermined moment. It may be discriminated as a portion having a speed.

図12の中段には、画像93が示されている。画像93は、静止画又は動画のうちの1フレームである。画像93のみを参照した場合、画像93の中のどの領域に移動物体があるのかを判別することは難しい。例えば、画像93の情報のみに基づいて画像93内の人型の部分が移動物体であることを判定することは困難である。そこで、検出部123は、瞬間速度分布91を参照して、画像93の中から移動物体92に対応する領域を検出する。この検出は、例えば、瞬間速度分布91内の移動物体92の形状と類似する形状を画像93内から探索することにより行われる。このようにして、移動物体92に対応する領域として、画像93内に人型の移動物体領域94が検出される。 Image 93 is shown in the middle of FIG. 12. The image 93 is one frame of a still image or a moving image. When only the image 93 is referred to, it is difficult to determine in which region of the image 93 the moving object is located. For example, it is difficult to determine that the humanoid portion in the image 93 is a moving object based only on the information in the image 93. Therefore, the detection unit 123 detects a region corresponding to the moving object 92 from the image 93 with reference to the instantaneous velocity distribution 91. This detection is performed, for example, by searching the image 93 for a shape similar to the shape of the moving object 92 in the instantaneous velocity distribution 91. In this way, the humanoid moving object region 94 is detected in the image 93 as the region corresponding to the moving object 92.

ステップS204において、座標設定部124は、瞬間速度分布91内の移動物体92の座標と、画像93内の移動物体領域94の座標との対応付けを行う。これにより、例えば、瞬間速度分布91を取得した範囲と画像93を取得した範囲との位置又は大きさが一致していない場合であっても、画像93内の移動物体領域94の範囲を明らかにすることができる。 In step S204, the coordinate setting unit 124 associates the coordinates of the moving object 92 in the instantaneous velocity distribution 91 with the coordinates of the moving object region 94 in the image 93. Thereby, for example, even if the position or size of the range in which the instantaneous velocity distribution 91 is acquired and the range in which the image 93 is acquired does not match, the range of the moving object region 94 in the image 93 is clarified. can do.

ステップS205において、トリミング処理部125は、画像93の一部を移動物体領域94が含まれるようにトリミングして移動物体画像95を生成する。生成された移動物体画像95は、記憶部126に記憶され、必要に応じて画像処理装置10から外部に出力可能である。このようにして、本処理によれば、移動物体領域94のみ、あるいは、移動物体領域94及びその近傍のみを含む移動物体画像95を取得することができる。 In step S205, the trimming processing unit 125 trims a part of the image 93 so as to include the moving object region 94 to generate the moving object image 95. The generated moving object image 95 is stored in the storage unit 126, and can be output to the outside from the image processing device 10 as needed. In this way, according to this process, it is possible to acquire the moving object image 95 including only the moving object region 94 or only the moving object region 94 and its vicinity.

本実施形態によれば、動画のフレーム等の時間的に連続する複数の画像を処理に用いることなく、1つの画像から移動物体を抽出することができる画像処理装置10が提供される。 According to the present embodiment, there is provided an image processing device 10 capable of extracting a moving object from one image without using a plurality of temporally continuous images such as a frame of a moving image for processing.

ここで、1つの画像から移動物体を抽出することの効果についてより具体的に説明する。複数の画像を比較して移動物体を検出する手法では、扱う情報量が多くなるため処理負荷が大きくなり得る。撮像装置から他の処理装置に複数の画像を送信して、他の処理装置で移動物体を検出する処理を行うことで処理を高速化する手法も考えられるが、この場合、複数の画像を送信することが必要になるため、通信負荷の増大を招き得る。これに対し、本実施形態では、処理に用いる画像は1つにすることができ、処理に用いる画像の個数を少なくすることができる。本実施形態の処理に用いられる瞬間速度分布は、画像に比べると情報量が小さい場合が多い。そのため、上述の要因による処理負荷、通信負荷の影響が低減される。 Here, the effect of extracting a moving object from one image will be described more specifically. In the method of detecting a moving object by comparing a plurality of images, the amount of information to be handled is large, so that the processing load can be large. A method of speeding up the processing by transmitting a plurality of images from the image pickup device to another processing device and performing a process of detecting a moving object by the other processing device is also conceivable. In this case, a plurality of images are transmitted. This can lead to an increase in communication load. On the other hand, in the present embodiment, the number of images used for processing can be one, and the number of images used for processing can be reduced. The instantaneous velocity distribution used in the processing of the present embodiment often has a smaller amount of information than the image. Therefore, the influence of the processing load and the communication load due to the above-mentioned factors is reduced.

移動物体のトリミングを行う際には、移動物体の全体が含まれるように余裕を持ったトリミングを行う必要があるため、移動物体の輪郭の検出精度が高いほどトリミング後の画像のサイズを小さくすることができる。本実施形態の手法では、瞬間速度を直接測定しているため、複数の画像の差分等から移動物体を推測して検出するような間接的な手法に比べ移動物体の検出精度が向上し得る。そのため、移動物体の輪郭を高精度に検出でき、トリミング後の移動物体画像の情報量を更に小さくすることができる。したがって、他の装置に移動物体画像を送信する際の通信負荷を低減することができる。 When trimming a moving object, it is necessary to perform trimming with a margin so that the entire moving object is included. Therefore, the higher the accuracy of detecting the contour of the moving object, the smaller the size of the trimmed image. be able to. Since the method of the present embodiment directly measures the instantaneous velocity, the detection accuracy of the moving object can be improved as compared with the indirect method of estimating and detecting the moving object from the difference between a plurality of images. Therefore, the contour of the moving object can be detected with high accuracy, and the amount of information of the moving object image after trimming can be further reduced. Therefore, it is possible to reduce the communication load when transmitting the moving object image to another device.

ステップS203における移動物体領域94の検出において、瞬間速度分布91に加えて、更に距離分布を用いてもよい。移動物体領域94とその他の領域とが等距離である場合は少なく、通常は両者の距離に差がある。したがって、距離分布においても移動物体の輪郭を検出可能な場合がある。そこで、瞬間速度分布91と距離分布の情報を総合して移動物体領域94の検出を行うことで、更に検出精度が向上し得る。 In the detection of the moving object region 94 in step S203, the distance distribution may be further used in addition to the instantaneous velocity distribution 91. It is rare that the moving object region 94 and the other regions are equidistant, and usually there is a difference in the distance between them. Therefore, it may be possible to detect the contour of a moving object even in the distance distribution. Therefore, the detection accuracy can be further improved by detecting the moving object region 94 by integrating the information of the instantaneous velocity distribution 91 and the distance distribution.

また、ステップS203における移動物体領域94の検出において、更に反射光強度分布を用いてもよい。移動物体領域94とその他の領域とが偶然同じ反射率であることは少なく、通常は反射率にも差がある。したがって、反射光強度分布においても移動物体の輪郭を検出可能な場合がある。そこで、瞬間速度分布91と反射光強度分布の情報を総合して移動物体領域94の検出を行うことで、更に検出精度が向上し得る。 Further, the reflected light intensity distribution may be further used in the detection of the moving object region 94 in step S203. It is unlikely that the moving object region 94 and the other regions happen to have the same reflectance, and usually there is a difference in the reflectance. Therefore, it may be possible to detect the contour of a moving object even in the reflected light intensity distribution. Therefore, the detection accuracy can be further improved by detecting the moving object region 94 by integrating the information of the instantaneous velocity distribution 91 and the reflected light intensity distribution.

処理に用いられる画像は、画質向上のため、静止画、あるいは、フレーム間の圧縮を行っていない形式の動画を構成するフレームのいずれかであることが望ましい。フレーム間の圧縮を行う形式であるMPEG4(Moving Picture Experts Group 4)等の動画から1つのフレームを取り出して本処理に用いる場合、フレーム間の圧縮に起因する画質劣化が生じ得る。これに対し、静止画、あるいは、フレーム間の圧縮を行っていない形式の動画から1つのフレームを取り出して本処理に用いる場合、この画質劣化は生じないためである。なお、フレーム間の圧縮を行っていない形式の動画は、例えば、Motion JPEG(Joint Photographic Experts Group)であり得る。 In order to improve the image quality, it is desirable that the image used for processing is either a still image or a frame constituting a moving image in a format in which compression between frames is not performed. When one frame is taken out from a moving image such as MPEG4 (Moving Picture Experts Group 4), which is a format for compressing between frames, and used for this processing, image quality deterioration due to compression between frames may occur. On the other hand, when one frame is taken out from a still image or a moving image in a format in which compression between frames is not performed and used for this processing, this deterioration in image quality does not occur. The moving image in a format in which compression between frames is not performed may be, for example, Motion JPEG (Joint Photographic Experts Group).

[第2実施形態]
本発明の第2実施形態として、測距装置40に画像処理装置10が組み込まれている場合の構成例を説明する。第1実施形態と共通する要素についての説明は省略又は簡略化する。
[Second Embodiment]
As a second embodiment of the present invention, a configuration example in which the image processing device 10 is incorporated in the distance measuring device 40 will be described. The description of the elements common to the first embodiment will be omitted or simplified.

図13は、第2実施形態に係る物体検出システム1の概略構成を示す模式図である。物体検出システム1は、測距装置40及び撮像装置30を含む。測距装置40は、画像処理装置10及び測定装置50を含む。測定装置50は、例えば第1実施形態で述べた測距装置20に相当するFMCW方式のLiDAR装置であり得る。測距装置40に含まれている画像処理装置10は、第1実施形態の画像処理装置10と同様の処理を行う。 FIG. 13 is a schematic diagram showing a schematic configuration of the object detection system 1 according to the second embodiment. The object detection system 1 includes a distance measuring device 40 and an imaging device 30. The distance measuring device 40 includes an image processing device 10 and a measuring device 50. The measuring device 50 may be, for example, an FMCW type LiDAR device corresponding to the distance measuring device 20 described in the first embodiment. The image processing device 10 included in the distance measuring device 40 performs the same processing as the image processing device 10 of the first embodiment.

本実施形態の測距装置40に画像処理装置10が組み込まれている構成においても、第1実施形態と同様の効果を得ることができる。したがって、動画のフレーム等の時間的に連続する複数の画像を処理に用いることなく、1つの画像から移動物体を抽出することができる測距装置40が提供される。 Even in the configuration in which the image processing device 10 is incorporated in the distance measuring device 40 of the present embodiment, the same effect as that of the first embodiment can be obtained. Therefore, there is provided a distance measuring device 40 capable of extracting a moving object from one image without using a plurality of temporally continuous images such as a frame of a moving image for processing.

[第3実施形態]
本発明の第3実施形態として、撮像装置60に画像処理装置10が組み込まれている場合の構成例を説明する。第1実施形態と共通する要素についての説明は省略又は簡略化する。
[Third Embodiment]
As a third embodiment of the present invention, a configuration example in which the image processing device 10 is incorporated in the image pickup device 60 will be described. The description of the elements common to the first embodiment will be omitted or simplified.

図14は、第3実施形態に係る物体検出システム1の概略構成を示す模式図である。物体検出システム1は、測距装置20及び撮像装置60を含む。撮像装置60は、画像処理装置10及び撮像素子を備えたカメラユニット70を含む。カメラユニット70は、例えば第1実施形態で述べた撮像装置30に対応するデジタルスチルカメラであり得る。撮像装置60に含まれている画像処理装置10は、第1実施形態の画像処理装置10と同様の処理を行う。 FIG. 14 is a schematic diagram showing a schematic configuration of the object detection system 1 according to the third embodiment. The object detection system 1 includes a distance measuring device 20 and an imaging device 60. The image pickup device 60 includes an image processing device 10 and a camera unit 70 including an image pickup element. The camera unit 70 may be, for example, a digital still camera corresponding to the image pickup apparatus 30 described in the first embodiment. The image processing device 10 included in the image pickup device 60 performs the same processing as the image processing device 10 of the first embodiment.

本実施形態の撮像装置60に画像処理装置10が組み込まれている構成においても、第1実施形態と同様の効果を得ることができる。したがって、動画のフレーム等の時間的に連続する複数の画像を処理に用いることなく、1つの画像から移動物体を抽出することができる撮像装置60が提供される。 Even in the configuration in which the image processing device 10 is incorporated in the image pickup device 60 of the present embodiment, the same effect as that of the first embodiment can be obtained. Therefore, there is provided an image pickup device 60 capable of extracting a moving object from one image without using a plurality of temporally continuous images such as a frame of a moving image for processing.

上述の実施形態において説明したシステムは以下の第4実施形態のようにも構成することができる。 The system described in the above-described embodiment can also be configured as in the following fourth embodiment.

[第4実施形態]
図15は、第4実施形態に係る画像処理装置800の機能ブロック図である。画像処理装置800は、第1取得部821、第2取得部822及び検出部823を備える。第1取得部821は、空間内の第1領域の中の物体の瞬間速度分布を取得する。第2取得部822は、第1領域の少なくとも一部を含む画像を取得する。検出部823は、瞬間速度分布に基づいて、画像に含まれる移動物体を示す第2領域を検出する。
[Fourth Embodiment]
FIG. 15 is a functional block diagram of the image processing apparatus 800 according to the fourth embodiment. The image processing device 800 includes a first acquisition unit 821, a second acquisition unit 822, and a detection unit 823. The first acquisition unit 821 acquires the instantaneous velocity distribution of the object in the first region in the space. The second acquisition unit 822 acquires an image including at least a part of the first region. The detection unit 823 detects a second region showing a moving object included in the image based on the instantaneous velocity distribution.

本実施形態によれば、1つの画像から移動物体を抽出することができる画像処理装置が提供される。 According to the present embodiment, an image processing device capable of extracting a moving object from one image is provided.

[変形実施形態]
本発明は、上述の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
[Modification Embodiment]
The present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the spirit of the present invention.

上述の実施形態の機能を実現するように該実施形態の構成を動作させるプログラムを記憶媒体に記録させ、記憶媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記憶媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記憶媒体だけでなく、そのプログラム自体も各実施形態に含まれる。また、上述の実施形態に含まれる1又は2以上の構成要素は、各構成要素の機能を実現するように構成されたASIC、FPGA等の回路であってもよい。 A processing method in which a program for operating the configuration of the embodiment is recorded in a storage medium so as to realize the functions of the above-described embodiment, the program recorded in the storage medium is read out as a code, and the program is executed in a computer is also described in each embodiment. Included in the category. That is, a computer-readable storage medium is also included in the scope of each embodiment. Further, not only the storage medium in which the above-mentioned program is recorded but also the program itself is included in each embodiment. Further, the one or more components included in the above-described embodiment may be a circuit such as an ASIC or FPGA configured to realize the function of each component.

該記憶媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD(Compact Disk)-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記憶媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。 As the storage medium, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD (Compact Disk) -ROM, a magnetic tape, a non-volatile memory card, or a ROM can be used. Further, not only the program recorded on the storage medium is executed by itself, but also the program that operates on the OS and executes the process in cooperation with other software and the function of the expansion board is also an embodiment. Is included in the category of.

上述の各実施形態の機能により実現されるサービスは、SaaS(Software as a Service)の形態でユーザに対して提供することもできる。 The service realized by the functions of each of the above-described embodiments can also be provided to the user in the form of SaaS (Software as a Service).

なお、上述の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

上述の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above embodiments may also be described, but not limited to:

(付記1)
空間内の第1領域の中の物体の瞬間速度分布を取得する第1取得部と、
前記第1領域の少なくとも一部を含む画像を取得する第2取得部と、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出する検出部と、
を有することを特徴とする画像処理装置。
(Appendix 1)
The first acquisition unit that acquires the instantaneous velocity distribution of the object in the first region in space,
A second acquisition unit that acquires an image including at least a part of the first region, and
A detection unit that detects a second region indicating a moving object included in the image based on the instantaneous velocity distribution.
An image processing device characterized by having.

(付記2)
前記瞬間速度分布は、前記瞬間速度分布を測定する測定装置に向かう方向又は前記測定装置から遠ざかる方向の瞬間速度の大きさを示す分布である
ことを特徴とする付記1に記載の画像処理装置。
(Appendix 2)
The image processing apparatus according to Appendix 1, wherein the instantaneous velocity distribution is a distribution indicating the magnitude of the instantaneous velocity in the direction toward the measuring device for measuring the instantaneous velocity distribution or in the direction away from the measuring device.

(付記3)
前記検出部は、前記瞬間速度分布の中の瞬間速度が所定の閾値よりも大きい領域を含むように前記第2領域を検出する
ことを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 3)
The image processing apparatus according to Appendix 1 or 2, wherein the detection unit detects the second region so that the instantaneous velocity in the instantaneous velocity distribution includes a region larger than a predetermined threshold value.

(付記4)
前記検出部は、前記瞬間速度分布の中の瞬間速度のエッジを検出し、前記エッジを含む領域を前記第2領域として検出する
ことを特徴とする付記1又は2に記載の画像処理装置。
(Appendix 4)
The image processing apparatus according to Appendix 1 or 2, wherein the detection unit detects an edge of an instantaneous velocity in the instantaneous velocity distribution and detects a region including the edge as the second region.

(付記5)
前記第1領域の座標と、前記画像の座標との対応付けを行う座標設定部を更に備える
ことを特徴とする付記1乃至4のいずれか1項に記載の画像処理装置。
(Appendix 5)
The image processing apparatus according to any one of Supplementary note 1 to 4, further comprising a coordinate setting unit that associates the coordinates of the first region with the coordinates of the image.

(付記6)
前記画像の一部を前記第2領域が含まれるようにトリミングすることにより移動物体画像を生成するトリミング処理部を更に備える
ことを特徴とする付記1乃至5のいずれか1項に記載の画像処理装置。
(Appendix 6)
The image processing according to any one of Supplementary note 1 to 5, further comprising a trimming processing unit for generating a moving object image by trimming a part of the image so as to include the second region. Device.

(付記7)
前記第1取得部は、更に、前記瞬間速度分布を測定する測定装置から被写体までの距離を示す距離分布を取得し、
前記検出部は、更に、前記距離分布に基づいて、前記第2領域を検出する
ことを特徴とする付記1乃至6のいずれか1項に記載の画像処理装置。
(Appendix 7)
The first acquisition unit further acquires a distance distribution indicating the distance from the measuring device for measuring the instantaneous velocity distribution to the subject.
The image processing apparatus according to any one of Supplementary note 1 to 6, wherein the detection unit further detects the second region based on the distance distribution.

(付記8)
前記第1取得部は、更に、前記第1領域に投射した光による被写体からの反射光の強度を示す反射光強度分布を取得し、
前記検出部は、更に、前記反射光強度分布に基づいて、前記第2領域を検出する
ことを特徴とする付記1乃至7のいずれか1項に記載の画像処理装置。
(Appendix 8)
The first acquisition unit further acquires a reflected light intensity distribution indicating the intensity of the reflected light from the subject by the light projected on the first region.
The image processing apparatus according to any one of Supplementary note 1 to 7, wherein the detection unit further detects the second region based on the reflected light intensity distribution.

(付記9)
前記瞬間速度分布は、FMCW(Frequency Modulated Continuous Wave)方式のLiDAR(Light Detection and Ranging)装置を用いて測定された、投射光の周波数と反射光の周波数とのドップラー効果に起因する差に基づいて取得される
ことを特徴とする付記1乃至8のいずれか1項に記載の画像処理装置。
(Appendix 9)
The instantaneous velocity distribution is based on the difference due to the Doppler effect between the frequency of the projected light and the frequency of the reflected light measured by using an FMCW (Frequency Modulated Continuous Wave) type LiDAR (Light Detection and Ranging) device. The image processing apparatus according to any one of Supplementary note 1 to 8, wherein the image processing apparatus is to be acquired.

(付記10)
前記画像は、フレーム間の圧縮を行っていない形式の動画を構成するフレームである
ことを特徴とする付記1乃至9のいずれか1項に記載の画像処理装置。
(Appendix 10)
The image processing apparatus according to any one of Supplementary note 1 to 9, wherein the image is a frame constituting a moving image in a format in which compression between frames is not performed.

(付記11)
前記画像は、静止画である
ことを特徴とする付記1乃至9のいずれか1項に記載の画像処理装置。
(Appendix 11)
The image processing apparatus according to any one of Supplementary note 1 to 9, wherein the image is a still image.

(付記12)
瞬間速度分布を測定する測定装置と、
付記1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする測距装置。
(Appendix 12)
A measuring device that measures the instantaneous velocity distribution,
The image processing apparatus according to any one of Supplementary note 1 to 11 and the image processing apparatus.
A ranging device characterized by having.

(付記13)
前記測定装置は、FMCW方式のLiDAR装置であり、投射光の周波数と反射光の周波数との間のドップラー効果に起因する差に基づいて前記瞬間速度分布を測定する
ことを特徴とする付記12に記載の測距装置。
(Appendix 13)
The measuring device is an FMCW type LiDAR device, and is characterized in that the instantaneous velocity distribution is measured based on the difference caused by the Doppler effect between the frequency of the projected light and the frequency of the reflected light. The range measuring device described.

(付記14)
前記測定装置は、前記測定装置から被写体までの距離を示す距離分布と、投射した光による被写体からの反射光の強度を示す反射光強度分布とを更に測定する
ことを特徴とする付記12又は13に記載の測距装置。
(Appendix 14)
Appendix 12 or 13 is characterized in that the measuring device further measures a distance distribution indicating the distance from the measuring device to the subject and a reflected light intensity distribution indicating the intensity of the reflected light from the subject due to the projected light. The distance measuring device described in.

(付記15)
入射光に基づく画像を生成する撮像素子と、
付記1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
(Appendix 15)
An image sensor that generates an image based on incident light,
The image processing apparatus according to any one of Supplementary note 1 to 11 and the image processing apparatus.
An imaging device characterized by having.

(付記16)
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を有することを特徴とする画像処理方法。
(Appendix 16)
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
An image processing method characterized by having.

(付記17)
コンピュータに、
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を実行させることを特徴とするプログラム。
(Appendix 17)
On the computer
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
A program characterized by executing.

10、800 画像処理装置
121、821 第1取得部
122、822 第2取得部
123、823 検出部
124 座標設定部
125 トリミング処理部
126 記憶部
10,800 Image processing device 121, 821 First acquisition unit 122, 822 Second acquisition unit 123, 823 Detection unit 124 Coordinate setting unit 125 Trimming processing unit 126 Storage unit

Claims (17)

空間内の第1領域の中の物体の瞬間速度分布を取得する第1取得部と、
前記第1領域の少なくとも一部を含む画像を取得する第2取得部と、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出する検出部と、
を有し、
前記検出部は、前記瞬間速度分布に含まれている所定の瞬間速度を有する移動物体の形状と類似する形状を前記画像の中から検索することにより、前記第2領域を検出する
ことを特徴とする画像処理装置。
The first acquisition unit that acquires the instantaneous velocity distribution of the object in the first region in space,
A second acquisition unit that acquires an image including at least a part of the first region, and
A detection unit that detects a second region indicating a moving object included in the image based on the instantaneous velocity distribution.
Have,
The detection unit detects the second region by searching the image for a shape similar to the shape of a moving object having a predetermined instantaneous velocity included in the instantaneous velocity distribution.
An image processing device characterized by this.
前記瞬間速度分布は、前記瞬間速度分布を測定する測定装置に向かう方向又は前記測定装置から遠ざかる方向の瞬間速度の大きさを示す分布である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the instantaneous velocity distribution is a distribution indicating the magnitude of the instantaneous velocity in the direction toward the measuring device for measuring the instantaneous velocity distribution or in the direction away from the measuring device. ..
前記検出部は、前記瞬間速度分布の中の瞬間速度が所定の閾値よりも大きい領域を含むように前記第2領域を検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2, wherein the detection unit detects the second region so that the instantaneous velocity in the instantaneous velocity distribution includes a region larger than a predetermined threshold value.
前記検出部は、前記瞬間速度分布の中の瞬間速度のエッジを検出し、前記エッジを含む領域を前記第2領域として検出する
ことを特徴とする請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1 or 2, wherein the detection unit detects an edge of an instantaneous velocity in the instantaneous velocity distribution and detects a region including the edge as the second region.
前記第1領域の座標と、前記画像の座標との対応付けを行う座標設定部を更に備える
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 4, further comprising a coordinate setting unit that associates the coordinates of the first region with the coordinates of the image.
前記画像の一部を前記第2領域が含まれるようにトリミングすることにより移動物体画像を生成するトリミング処理部を更に備える
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The image according to any one of claims 1 to 5, further comprising a trimming processing unit that generates a moving object image by trimming a part of the image so as to include the second region. Processing device.
前記第1取得部は、更に、前記瞬間速度分布を測定する測定装置から被写体までの距離を示す距離分布を取得し、
前記検出部は、更に、前記距離分布に基づいて、前記第2領域を検出する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
The first acquisition unit further acquires a distance distribution indicating the distance from the measuring device for measuring the instantaneous velocity distribution to the subject.
The image processing apparatus according to any one of claims 1 to 6, wherein the detection unit further detects the second region based on the distance distribution.
前記第1取得部は、更に、前記第1領域に投射した光による被写体からの反射光の強度を示す反射光強度分布を取得し、
前記検出部は、更に、前記反射光強度分布に基づいて、前記第2領域を検出する
ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
The first acquisition unit further acquires a reflected light intensity distribution indicating the intensity of the reflected light from the subject by the light projected on the first region.
The image processing apparatus according to any one of claims 1 to 7, wherein the detection unit further detects the second region based on the reflected light intensity distribution.
前記瞬間速度分布は、FMCW(Frequency Modulated Continuous Wave)方式のLiDAR(Light Detection and Ranging)装置を用いて測定された、投射光の周波数と反射光の周波数とのドップラー効果に起因する差に基づいて取得される
ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
The instantaneous velocity distribution is based on the difference due to the Doppler effect between the frequency of the projected light and the frequency of the reflected light measured by using an FMCW (Frequency Modulated Continuous Wave) type LiDAR (Light Detection and Ranging) device. The image processing apparatus according to any one of claims 1 to 8, wherein the image processing apparatus is obtained.
前記画像は、フレーム間の圧縮を行っていない形式の動画を構成するフレームである
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 9, wherein the image is a frame constituting a moving image in a format in which compression between frames is not performed.
前記画像は、静止画である
ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 9, wherein the image is a still image.
瞬間速度分布を測定する測定装置と、
請求項1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする測距装置。
A measuring device that measures the instantaneous velocity distribution,
The image processing apparatus according to any one of claims 1 to 11.
A ranging device characterized by having.
前記測定装置は、FMCW方式のLiDAR装置であり、投射光の周波数と反射光の周波数との間のドップラー効果に起因する差に基づいて前記瞬間速度分布を測定する
ことを特徴とする請求項12に記載の測距装置。
The measuring device is an FMCW type LiDAR device, and is characterized in that the instantaneous velocity distribution is measured based on the difference caused by the Doppler effect between the frequency of the projected light and the frequency of the reflected light. The distance measuring device described in.
前記測定装置は、前記測定装置から被写体までの距離を示す距離分布と、投射した光による被写体からの反射光の強度を示す反射光強度分布とを更に測定する
ことを特徴とする請求項12又は13に記載の測距装置。
13. 13. The distance measuring device according to 13.
入射光に基づく画像を生成する撮像素子と、
請求項1乃至11のいずれか1項に記載の画像処理装置と、
を有することを特徴とする撮像装置。
An image sensor that generates an image based on incident light,
The image processing apparatus according to any one of claims 1 to 11.
An imaging device characterized by having.
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を有し、
前記瞬間速度分布に含まれている所定の瞬間速度を有する移動物体の形状と類似する形状を前記画像の中から検索することにより、前記第2領域が検出される
ことを特徴とする画像処理方法。
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
Have,
The second region is detected by searching the image for a shape similar to the shape of a moving object having a predetermined instantaneous velocity included in the instantaneous velocity distribution.
An image processing method characterized by that.
コンピュータに、
空間内の第1領域の中の物体の瞬間速度分布を取得するステップと、
前記第1領域の少なくとも一部を含む画像を取得するステップと、
前記瞬間速度分布に基づいて、前記画像に含まれる移動物体を示す第2領域を検出するステップと、
を実行させるプログラムであって、
前記瞬間速度分布に含まれている所定の瞬間速度を有する移動物体の形状と類似する形状を前記画像の中から検索することにより、前記第2領域が検出される
ことを特徴とするプログラム。
On the computer
The step of acquiring the instantaneous velocity distribution of an object in the first region in space,
The step of acquiring an image including at least a part of the first region, and
A step of detecting a second region indicating a moving object included in the image based on the instantaneous velocity distribution, and a step of detecting the second region.
Is a program that executes
The second region is detected by searching the image for a shape similar to the shape of a moving object having a predetermined instantaneous velocity included in the instantaneous velocity distribution.
A program characterized by that.
JP2018017791A 2018-02-05 2018-02-05 Image processing device, ranging device, image pickup device, image processing method and program Active JP7008308B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018017791A JP7008308B2 (en) 2018-02-05 2018-02-05 Image processing device, ranging device, image pickup device, image processing method and program
PCT/JP2019/001956 WO2019151059A1 (en) 2018-02-05 2019-01-23 Image processing device, range finding device, imaging device, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018017791A JP7008308B2 (en) 2018-02-05 2018-02-05 Image processing device, ranging device, image pickup device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2019135446A JP2019135446A (en) 2019-08-15
JP7008308B2 true JP7008308B2 (en) 2022-01-25

Family

ID=67478204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018017791A Active JP7008308B2 (en) 2018-02-05 2018-02-05 Image processing device, ranging device, image pickup device, image processing method and program

Country Status (2)

Country Link
JP (1) JP7008308B2 (en)
WO (1) WO2019151059A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022195969A1 (en) 2021-03-17 2022-09-22 ソニーグループ株式会社 Information processing device, information processing method, and program
JPWO2023026920A1 (en) 2021-08-26 2023-03-02

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171140A (en) 2007-01-10 2008-07-24 Omron Corp Image processing apparatus, method and program
JP2008241434A (en) 2007-03-27 2008-10-09 Stanley Electric Co Ltd Distance image generation device
JP2011027457A (en) 2009-07-22 2011-02-10 Fujitsu Ten Ltd Object detecting device, information processing method and information processing system
US20160225148A1 (en) 2015-01-29 2016-08-04 Alpha Networks Inc. Intelligent monitoring system and method
JP2016138878A (en) 2009-02-20 2016-08-04 デジタル・シグナル・コーポレーション System and method for generating three-dimensional image using lidar and video measurements

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5786071A (en) * 1980-11-17 1982-05-28 Toshiba Corp Laser distance measuring device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008171140A (en) 2007-01-10 2008-07-24 Omron Corp Image processing apparatus, method and program
JP2008241434A (en) 2007-03-27 2008-10-09 Stanley Electric Co Ltd Distance image generation device
JP2016138878A (en) 2009-02-20 2016-08-04 デジタル・シグナル・コーポレーション System and method for generating three-dimensional image using lidar and video measurements
JP2011027457A (en) 2009-07-22 2011-02-10 Fujitsu Ten Ltd Object detecting device, information processing method and information processing system
US20160225148A1 (en) 2015-01-29 2016-08-04 Alpha Networks Inc. Intelligent monitoring system and method

Also Published As

Publication number Publication date
JP2019135446A (en) 2019-08-15
WO2019151059A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
EP2729826B1 (en) Improvements in or relating to the processing of time-of-flight signals
US10419741B2 (en) Systems and methods for compression of three dimensional depth sensing
US10878589B2 (en) Time-of-flight depth measurement using modulation frequency adjustment
US8159598B2 (en) Distance estimation apparatus, distance estimation method, storage medium storing program, integrated circuit, and camera
JP6863342B2 (en) Optical ranging device
US7379163B2 (en) Method and system for automatic gain control of sensors in time-of-flight systems
KR102194233B1 (en) Apparatus and method for generating a depth image
JP6261681B2 (en) Improvements in or relating to processing of time-of-flight signals
EP2927710B1 (en) Ranging system, information processing method and program thereof
KR20170050058A (en) Apparatus and method of sensing depth information
US20140347553A1 (en) Imaging devices with light sources for reduced shadow, controllers and methods
US11693093B2 (en) Distance-measuring apparatus that outputs precision information
JP7008308B2 (en) Image processing device, ranging device, image pickup device, image processing method and program
US11393115B2 (en) Filtering continuous-wave time-of-flight measurements, based on coded modulation images
KR20160026189A (en) Method and apparatus for generating depth image
CN112558090A (en) Distance measuring apparatus and method for measuring distance by using the same
US11353565B2 (en) Time-of-flight imaging apparatus and method
US20200175706A1 (en) Three-dimensional position detecting device, three-dimensional position detecting system and method for detecting three-dimensional positions
US20210293938A1 (en) Image capture device, range finding device, method and storage medium
US11567205B2 (en) Object monitoring system including distance measuring device
US11885880B2 (en) Unwrapped phases for time-of-flight modulation light
CN114868037A (en) Information processing device, imaging device, information processing method, and program
WO2023238741A1 (en) Photodetection device, system, and information processing device
WO2022176679A1 (en) Distance measurement correction device, distance measurement correction method, distance measurement correction program, and distance measurement device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

R150 Certificate of patent or registration of utility model

Ref document number: 7008308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150