JP7106332B2 - External recognition device - Google Patents

External recognition device Download PDF

Info

Publication number
JP7106332B2
JP7106332B2 JP2018079266A JP2018079266A JP7106332B2 JP 7106332 B2 JP7106332 B2 JP 7106332B2 JP 2018079266 A JP2018079266 A JP 2018079266A JP 2018079266 A JP2018079266 A JP 2018079266A JP 7106332 B2 JP7106332 B2 JP 7106332B2
Authority
JP
Japan
Prior art keywords
data
recognition device
external world
unit
world recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018079266A
Other languages
Japanese (ja)
Other versions
JP2019185666A (en
Inventor
健 志磨
琢馬 大里
裕史 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2018079266A priority Critical patent/JP7106332B2/en
Priority to CN201980025028.1A priority patent/CN111937035A/en
Priority to PCT/JP2019/014915 priority patent/WO2019203000A1/en
Publication of JP2019185666A publication Critical patent/JP2019185666A/en
Application granted granted Critical
Publication of JP7106332B2 publication Critical patent/JP7106332B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

本発明は、外界認識装置に関する。 The present invention relates to an external world recognition device.

カメラ画像による情報分析の信頼性を向上させることができる車両用画像処理装置が知られている(例えば、特許文献1参照)。 A vehicle image processing device capable of improving the reliability of information analysis based on camera images is known (see, for example, Patent Literature 1).

特許文献1には、「自車前方を撮像する撮像手段により撮像された画像の中で、前方車両または道路白線または標識を含む注目領域とそれ以外の非注目領域とを設定し、撮像手段により撮像された画像の中の注目領域と非注目領域における輝度情報を検出する。そして、注目領域と非注目領域の輝度情報に基づいて画像処理による自車前方の状況分析が困難な走行環境にあるか否かを判定する。」と記載されている。 In Patent Document 1, ``In an image captured by an imaging means for imaging the front of the own vehicle, an attention area including a forward vehicle, a road white line, or a sign and a non-attention area are set, and the imaging means Detecting luminance information in an attention area and a non-attention area in a captured image, and performing image processing based on the luminance information of the attention area and the non-attention area in a driving environment where it is difficult to analyze the situation ahead of the vehicle. determine whether or not.”

特開2005-135308号公報JP-A-2005-135308

近年、ステレオカメラ等の外界認識装置の高画素化に伴い、画像の容量が大きくなってきている。そのため、画像のデータを外部へ出力するときに転送遅延が生じるおそれがある。特許文献1では、このような転送遅延は考慮されていない。 2. Description of the Related Art In recent years, with the increase in the number of pixels of external recognition devices such as stereo cameras, the capacity of images has increased. Therefore, a transfer delay may occur when image data is output to the outside. Patent Document 1 does not consider such a transfer delay.

本発明の目的は、画像のデータを外部に出力するときに転送遅延を抑制することができる外界認識装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide an external world recognition device capable of suppressing a transfer delay when outputting image data to the outside.

上記目的を達成するために、本発明の一例は、画像を撮像する撮像部と、前記撮像部によって撮像された前記画像から複数種類のデータを生成するデータ生成部と、前記複数種類のデータからデータを抽出するデータ抽出部と、前記データ抽出部によって抽出されたデータを外部へ出力するデータ出力部と、車両を制御する制御装置からの要求を受け付ける要求受付部と、備える外界認識装置であって、前記要求は、電磁波又は音波を用いて物体の位置を検出するセンサによって検出された前記物体の位置に対応する画像上の位置を示す位置情報を含み、前記データ抽出部は、前記位置情報が示す画像上の位置のデータを抽出し、前記データ出力部は、前記データ抽出部によって抽出されたデータを前記制御装置へ出力する
In order to achieve the above object, an example of the present invention includes: an imaging unit that captures an image; a data generation unit that generates a plurality of types of data from the image captured by the imaging unit; An external world recognition device comprising: a data extraction unit for extracting data; a data output unit for outputting the data extracted by the data extraction unit to the outside ; and a request reception unit for receiving a request from a control device for controlling a vehicle. the request includes position information indicating a position on the image corresponding to the position of the object detected by a sensor that detects the position of the object using electromagnetic waves or sound waves; and the data output section outputs the data extracted by the data extraction section to the control device .

本発明によれば、画像のデータを外部に出力するときに転送遅延を抑制することができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, transfer delay can be suppressed when image data is output to the outside. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

本発明の実施形態によるステレオカメラを含むシステムの構成図である。1 is a configuration diagram of a system including stereo cameras according to an embodiment of the present invention; FIG. 本発明の実施形態によるステレオカメラの構成図である。1 is a configuration diagram of a stereo camera according to an embodiment of the present invention; FIG. 本発明の実施形態によるステレオカメラの機能を示すブロック図である。3 is a block diagram illustrating the functionality of a stereo camera according to an embodiment of the present invention; FIG. 通信インタフェースの例を示す図である。FIG. 3 is a diagram showing an example of a communication interface; FIG. 本発明の実施形態によるステレオカメラの動作を示すフローチャートである。4 is a flow chart showing the operation of the stereo camera according to the embodiment of the present invention; 変形例のステレオカメラの機能を示すブロック図である。FIG. 11 is a block diagram showing functions of a stereo camera of a modified example; 変形例のステレオカメラの動作を示すフローチャートである。10 is a flow chart showing the operation of the stereo camera of the modified example;

以下、図面を用いて、本発明の実施形態によるステレオカメラ(外界認識装置)の構成及び動作について説明する。なお、各図において、同一符号は同一部分を示す。 The configuration and operation of a stereo camera (external world recognition device) according to an embodiment of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code|symbol shows the same part.

(実施形態)
初めに、図1を用いて、システムの構成を説明する。図1は、本発明の実施形態によるステレオカメラ100を含むシステム1の構成図である。
(embodiment)
First, the configuration of the system will be described with reference to FIG. FIG. 1 is a configuration diagram of a system 1 including a stereo camera 100 according to an embodiment of the invention.

システム1は、ステレオカメラ100、自動運転ECU200(Electronic Control Unit)、ミリ波レーダ300、LIDAR400(Light Detecting And Ranging)等を備える。 The system 1 includes a stereo camera 100, an automatic driving ECU 200 (Electronic Control Unit), a millimeter wave radar 300, a LIDAR 400 (Light Detecting And Ranging), and the like.

ステレオカメラ100は、同一の対象物体を異なる複数の視点から撮像し、得られた画像における見え方のずれ(視差)から対象物体までの距離を算出する。ステレオカメラ100は、一例として、イーサネット(登録商標)に準拠したLAN(Local Area Network)ケーブルで自動運転ECU200に接続される。ここで、イーサネットは、後述するCAN(Controller Area Network)よりも転送速度が速いため、大容量のデータを送信することに適している。 The stereo camera 100 captures images of the same target object from a plurality of different viewpoints, and calculates the distance to the target object from the difference in appearance (parallax) in the obtained images. As an example, the stereo camera 100 is connected to the automatic driving ECU 200 via a LAN (Local Area Network) cable conforming to Ethernet (registered trademark). Here, since Ethernet has a higher transfer speed than CAN (Controller Area Network), which will be described later, it is suitable for transmitting a large amount of data.

自動運転ECU200は、ミリ波レーダ300、LIDAR400等のセンサによって検出される対象物体の距離、角度、相対速度等に基づいて、車両の自動運転を制御する。自動運転ECU200は、一例として、CANに準拠した2線式バスでミリ波レーダ300、LIDAR400等のセンサと接続される。 The automatic driving ECU 200 controls automatic driving of the vehicle based on the distance, angle, relative speed, etc. of the target object detected by sensors such as the millimeter wave radar 300 and the LIDAR 400 . As an example, the automatic driving ECU 200 is connected to sensors such as a millimeter wave radar 300 and a LIDAR 400 via a CAN-compliant two-wire bus.

ミリ波レーダ300は、ミリ波(電磁波)を用いて、対象物体の距離、角度、相対速度等を検出する。LIDAR400は、紫外線、可視光線、近赤外線等の光波(電磁波)を用いて、対象物体の距離、角度、相対速度等を検出する。 The millimeter wave radar 300 uses millimeter waves (electromagnetic waves) to detect the distance, angle, relative velocity, etc. of a target object. The LIDAR 400 uses light waves (electromagnetic waves) such as ultraviolet rays, visible rays, and near-infrared rays to detect the distance, angle, relative velocity, and the like of a target object.

次に、図2を用いて、ステレオカメラ100の構成を説明する。図2は、本発明の実施形態によるステレオカメラ100の構成図である。 Next, the configuration of stereo camera 100 will be described with reference to FIG. FIG. 2 is a configuration diagram of the stereo camera 100 according to the embodiment of the present invention.

ステレオカメラ100は、一例として、撮像部101、CPU102(Central Processing Unit)、メモリ103、画像処理部104、通信回路105から構成される。 The stereo camera 100 includes, for example, an imaging unit 101 , a CPU 102 (Central Processing Unit), a memory 103 , an image processing unit 104 and a communication circuit 105 .

撮像部101は、左撮像部101L、右撮像部101Rから構成され、画像を撮像する。詳細には、左撮像部101Lと右撮像部101Rはそれぞれ、レンズ等の光学素子とCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子から構成される。光学素子は、光を屈折させて、撮像素子上に像を結ぶ。撮像素子は、光学素子により屈折した光の像を受光し、その光の強さに応じた画像を生成する。 The imaging section 101 is composed of a left imaging section 101L and a right imaging section 101R, and captures images. Specifically, each of the left imaging unit 101L and the right imaging unit 101R includes an optical element such as a lens and an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The optical element refracts light to form an image on the imaging element. The imaging element receives an image of light refracted by the optical element and generates an image according to the intensity of the light.

CPU102は、所定のプログラムを実行することで、後述する種々の機能を実現する。本実施形態では、CPU102は、例えば、対象物体の種別(歩行者、車両等)に基づいて車両制御に関する指令を生成する。 The CPU 102 implements various functions, which will be described later, by executing a predetermined program. In this embodiment, the CPU 102 generates a vehicle control command based on, for example, the type of target object (pedestrian, vehicle, etc.).

メモリ103は、例えば、FLASH等の不揮発性メモリ、RAM(Random Access Memory)等の揮発性メモリから構成され、種々の情報を記憶する。 The memory 103 is composed of, for example, a non-volatile memory such as FLASH and a volatile memory such as RAM (Random Access Memory), and stores various information.

画像処理部104は、FPGA(Field-Programmable Gate Array)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)等の回路で構成される。画像処理部104は、例えば、画像の補正、視差の算出等を行う。画像処理部104の機能の詳細は、図3を用いて後述する。 The image processing unit 104 is configured by a circuit such as an FPGA (Field-Programmable Gate Array), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), or the like. The image processing unit 104 performs image correction, parallax calculation, and the like, for example. Details of the functions of the image processing unit 104 will be described later with reference to FIG.

通信回路105は、一例として、イーサネットに準拠したトランシーバ等から構成される。通信回路105は、種々のデータを送信又は受信する。 The communication circuit 105 is composed of, for example, a transceiver conforming to Ethernet. Communication circuit 105 transmits or receives various data.

次に、図3を用いて、ステレオカメラ100の機能を説明する。図3は、本発明の実施形態によるステレオカメラ100の機能を示すブロック図である。 Next, functions of the stereo camera 100 will be described with reference to FIG. FIG. 3 is a block diagram illustrating the functionality of stereo camera 100 according to an embodiment of the present invention.

左撮像部101Lは、対象物体の第1の画像を撮像する。右撮像部101Rは、対象物体の第2の画像を撮像する。撮像された第1の画像と第2の画像は、「生画像」(RAWデータ)として、例えば、メモリ103に一時的に記憶される。 The left imaging unit 101L captures a first image of the target object. The right imaging unit 101R captures a second image of the target object. The captured first image and second image are temporarily stored in, for example, the memory 103 as "raw images" (RAW data).

画像処理部104は、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045を備える。なお、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045は、それぞれ別体に構成されていてもよい。 The image processing unit 104 includes an image correction unit 1041 , a parallax calculation unit 1042 , a three-dimensional object extraction unit 1043 , a three-dimensional grouping unit 1044 and an object identification unit 1045 . Note that the image correction unit 1041, the parallax calculation unit 1042, the three-dimensional object extraction unit 1043, the three-dimensional grouping unit 1044, and the object identification unit 1045 may be configured separately.

画像補正部1041は、左撮像部101Lによって撮像された第1の画像と右撮像部101Rによって撮像された第2の画像を補正する。具体的には、画像補正部1041は、例えば、第1の画像と第2の画像の歪みや光軸ずれを補正する。補正された第1の画像と第2の画像は、「補正画像」として、例えば、メモリ103に一時的に記憶される。 The image correction unit 1041 corrects the first image captured by the left imaging unit 101L and the second image captured by the right imaging unit 101R. Specifically, the image correction unit 1041 corrects, for example, distortion and optical axis misalignment between the first image and the second image. The corrected first image and second image are temporarily stored, for example, in the memory 103 as "corrected images".

視差算出部1042は、ステレオマッチングを行うことで、画像補正部1041によって補正された第1の画像と第2の画像から視差を算出する。視差算出部1042は、三角測量により視差から対象物体までの距離を算出する。視差算出部1042は、画像上の位置と視差に対応する距離とを関連付けた視差画像を生成する。視差画像(第1データ)は、例えば、メモリ103に記憶される。 The parallax calculation unit 1042 performs stereo matching to calculate parallax from the first image and the second image corrected by the image correction unit 1041 . The parallax calculator 1042 calculates the distance from the parallax to the target object by triangulation. The parallax calculator 1042 generates a parallax image that associates the position on the image with the distance corresponding to the parallax. Parallax images (first data) are stored in the memory 103, for example.

立体物抽出部1043は、視差算出部1042によって生成された視差画像から、同等の距離に位置する物体を1つの立体物として抽出する。抽出された立体物のデータである立体物生情報(第2データ)は、例えば、メモリ103に記憶される。 The three-dimensional object extraction unit 1043 extracts objects positioned at the same distance from the parallax images generated by the parallax calculation unit 1042 as one three-dimensional object. Three-dimensional object life information (second data), which is data of the extracted three-dimensional object, is stored in the memory 103, for example.

立体グルーピング部1044は、立体物抽出部1043によって抽出された立体物を、輝度、エッジ等に基づいてグルーピングする。グルーピングされた立体物のデータである立体物グルーピング後情報(第3データ)は、例えば、メモリ103に記憶される。 The three-dimensional grouping unit 1044 groups the three-dimensional objects extracted by the three-dimensional object extraction unit 1043 based on brightness, edges, and the like. Post-grouping three-dimensional object information (third data), which is data of the grouped three-dimensional objects, is stored in the memory 103, for example.

物体識別部1045は、立体グルーピング部1044によってグルーピングされた立体物から対象物体が何(歩行者、車両等)であるかを識別する。 The object identification unit 1045 identifies what the target object (pedestrian, vehicle, etc.) is from the three-dimensional objects grouped by the three-dimensional grouping unit 1044 .

CPU102は、所定のプログラムを実行することで、車両制御部1021とデータ抽出部1022として機能する。車両制御部1021は、物体識別部1045によって識別された物体の種別に応じて車両を制御する指令を生成する。例えば、車両制御部1021は、歩行者が車両の進路上にいると判定した場合、車両を減速する指令を生成する。 CPU 102 functions as vehicle control unit 1021 and data extraction unit 1022 by executing a predetermined program. Vehicle control unit 1021 generates a command for controlling the vehicle according to the type of object identified by object identification unit 1045 . For example, the vehicle control unit 1021 generates a command to decelerate the vehicle when determining that a pedestrian is on the route of the vehicle.

データ抽出部1022は、後述する要求受付部1051によって受け付けられた自動運転ECU200からの要求に応じてメモリ103に記憶されたデータを抽出(選択)する。すなわち、データ抽出部1022は、複数種類のデータから所定のデータを抽出する。換言すれば、データ抽出部1022は、要求に応じてデータを抽出する。 The data extraction unit 1022 extracts (selects) data stored in the memory 103 in response to a request from the automatic driving ECU 200 accepted by the request acceptance unit 1051, which will be described later. That is, the data extraction unit 1022 extracts predetermined data from multiple types of data. In other words, the data extractor 1022 extracts data upon request.

通信回路105は、要求受付部1051とデータ出力部1052として機能する。要求受付部1051は、外部の自動運転ECU200から要求を受け付ける。データ出力部1052は、データ抽出部1022によって抽出されたデータを外部の自動運転ECU200へ出力する。換言すれば、データ出力部1052は、要求に応じてデータを出力する。 Communication circuit 105 functions as request reception unit 1051 and data output unit 1052 . The request receiving unit 1051 receives requests from the external automatic driving ECU 200 . Data output unit 1052 outputs the data extracted by data extraction unit 1022 to external automatic driving ECU 200 . In other words, the data output unit 1052 outputs data upon request.

なお、画像補正部1041、視差算出部1042、立体物抽出部1043、及び立体グルーピング部1044は、撮像部101によって撮像された画像から複数種類のデータを生成するデータ生成部104aを構成する。 The image correction unit 1041, the parallax calculation unit 1042, the three-dimensional object extraction unit 1043, and the three-dimensional grouping unit 1044 constitute a data generation unit 104a that generates multiple types of data from the image captured by the imaging unit 101.

次に、図4を用いて、通信回路105の通信インタフェースを説明する。図4は、通信インタフェースの例を示す図である。 Next, the communication interface of communication circuit 105 will be described with reference to FIG. FIG. 4 is a diagram showing an example of a communication interface.

図4の表の2行目は、自動運転ECU200から通信回路105へ入力される「要求」を示す。図4の表の3行目は、通信回路105から自動運転ECU200へ出力される「要求に応じたデータ」を示す。 The second row of the table in FIG. 4 shows the “request” input from the automatic driving ECU 200 to the communication circuit 105 . The third line of the table in FIG. 4 shows “data according to the request” output from the communication circuit 105 to the automatic driving ECU 200 .

自動運転ECU200からの要求は、注目領域を示す情報としての画像上の座標値(画像上の位置を示す情報)、出力内容(データの種類)を示す情報としての種別ID、出力解像度(解像度)を示す情報としての画像の間引き度合若しくはオブジェクトの出力個数、出力頻度を示す情報としての単位時間(秒)あたりの出力回数(回/s)を含む。 The request from the automatic driving ECU 200 includes the coordinate values on the image as information indicating the attention area (information indicating the position on the image), the type ID as information indicating the output content (data type), and the output resolution (resolution). and the number of times of output per unit time (second) (times/s) as information indicating the output frequency.

注目領域は、例えば、ミリ波レーダ300、LIDAR400等のセンサによって検出される対象物体の距離、角度、相対速度等に基づいて自動運転ECU200によって立体物があるだろうと推定された部位である。種別IDは、出力されるべきデータの種別を示す。データの種別として、例えば、撮像部101で撮像された生画像(RAWデータ)、視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)がある。 The region of interest is, for example, a region estimated by the automatic driving ECU 200 to include a three-dimensional object based on the distance, angle, relative speed, etc. of the target object detected by sensors such as the millimeter wave radar 300 and the LIDAR 400. The type ID indicates the type of data to be output. Data types include, for example, raw images captured by the imaging unit 101 (RAW data), parallax images (first data), three-dimensional object biological information (second data), and information after three-dimensional object grouping (third data). be.

次に、図5を用いて、ステレオカメラ100の動作を説明する。図5は、本発明の実施形態によるステレオカメラ100の動作を示すフローチャートである。 Next, the operation of stereo camera 100 will be described with reference to FIG. FIG. 5 is a flow chart showing the operation of stereo camera 100 according to an embodiment of the present invention.

ステレオカメラ100は、自動運転ECU200から図4に示した要求を受け付ける(S10)。ステレオカメラ100は、S10で受け付けた要求に応じてメモリ103に記憶されたデータを抽出(選択)する(S15)。 The stereo camera 100 receives the request shown in FIG. 4 from the automatic driving ECU 200 (S10). Stereo camera 100 extracts (selects) data stored in memory 103 in response to the request received in S10 (S15).

ステレオカメラ100は、S15で抽出したデータを出力する(S20)。例えば、図4に示した要求に対して、ステレオカメラ100は、「画像上の座標値」によって示される注目領域について、「種別ID」によって示される種類のデータを、メモリ103から読み出し、読み出したデータを「画像の間引き度合/出力個数」によって示される出力解像度かつ「回/s」で示される出力頻度で自動運転ECU200へ出力(送信)する。なお、ステレオカメラ100は、同期情報を出力してもよい。 Stereo camera 100 outputs the data extracted in S15 (S20). For example, in response to the request shown in FIG. 4, the stereo camera 100 reads the data of the type indicated by the "type ID" from the memory 103 for the attention area indicated by the "coordinate values on the image". The data is output (transmitted) to the automatic driving ECU 200 at the output resolution indicated by "the degree of image thinning/the number of outputs" and the output frequency indicated by "times/s". Note that the stereo camera 100 may output synchronization information.

ここで、データ抽出部1022は、要求に含まれる「画像上の座標値」(位置情報が示す画像上の位置)のデータを抽出する。これにより、自動運転ECU200は、注目領域のみのデータを取得することができる。 Here, the data extraction unit 1022 extracts the data of the “coordinate values on the image” (the position on the image indicated by the position information) included in the request. Thereby, the automatic driving ECU 200 can acquire data only for the region of interest.

データ抽出部1022は、要求に含まれる「種別ID」が示す種類のデータを抽出する。これにより、自動運転ECU200は、所望の種類のデータのみを取得することができる。 The data extraction unit 1022 extracts data of the type indicated by the "type ID" included in the request. Thereby, the automatic driving ECU 200 can acquire only desired types of data.

データ出力部1052は、データ抽出部1022によって抽出されたデータを、要求に含まれる「画像の間引き度合/出力個数」によって示される出力解像度(解像度)で外部の自動運転ECU200へ出力する。これにより、自動運転ECU200は、所望の出力解像度のデータを取得することができる。 The data output unit 1052 outputs the data extracted by the data extraction unit 1022 to the external automatic driving ECU 200 at the output resolution (resolution) indicated by the "image thinning degree/output number" included in the request. Thereby, the automatic driving ECU 200 can acquire data of a desired output resolution.

データ出力部1052は、データ抽出部1022によって抽出されたデータを、要求に含まれる「回/s」で示される出力頻度で外部へ出力する。これにより、自動運転ECU200は、所望の出力頻度でデータを取得することができる。 Data output unit 1052 outputs the data extracted by data extraction unit 1022 to the outside at the output frequency indicated by “times/s” included in the request. Thereby, the automatic driving ECU 200 can acquire data at a desired output frequency.

データ出力部1052は、データ抽出部1022によって抽出されたデータをイーサネットで外部の自動運転ECU200へ出力する。これにより、CAN等に比較して転送速度が向上する。 The data output unit 1052 outputs the data extracted by the data extraction unit 1022 to the external autonomous driving ECU 200 via Ethernet. As a result, the transfer speed is improved compared to CAN or the like.

データ生成部104aは、視差、又は視差に対応する距離を示す視差画像(第1データ)を生成し、視差画像(第1データ)から立体物のデータを立体物生情報(第2データ)として抽出し、立体物生情報(第2データ)からグルーピングされた立体物グルーピング後情報(第3データ)を生成する。 The data generation unit 104a generates a parallax image (first data) indicating a parallax or a distance corresponding to the parallax, and converts data of a three-dimensional object from the parallax image (first data) into three-dimensional object biological information (second data). After extraction, three-dimensional object grouping information (third data) is generated by grouping from three-dimensional object raw information (second data).

データ抽出部1022は、種別IDが示す種類のデータを、生画像(RAWデータ)、視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)から抽出(選択)する。 The data extraction unit 1022 extracts the data of the type indicated by the type ID into a raw image (RAW data), a parallax image (first data), three-dimensional object biological information (second data), three-dimensional object grouping information (third data). Extract (select) from

物体識別部1045は、撮像部101によって撮像された画像から物体を識別する。データ抽出部1022は、閾値以上の重要度が関連付けられた物体のデータを抽出する。 The object identification unit 1045 identifies objects from the image captured by the imaging unit 101 . The data extracting unit 1022 extracts data of objects associated with a degree of importance equal to or greater than a threshold.

システム1は、ステレオカメラ100(外界認識装置)と、電磁波を用いて物体の位置を検出するミリ波レーダ300、LIDAR400等のセンサと、自動運転ECU200(制御装置)と、を備える。 The system 1 includes a stereo camera 100 (external recognition device), sensors such as a millimeter wave radar 300 and LIDAR 400 that detect the position of an object using electromagnetic waves, and an automatic driving ECU 200 (control device).

自動運転ECU200(制御装置)は、センサによって検出された物体の位置を画像上の位置に変換し、その位置の位置情報を含む要求をステレオカメラ100(外界認識装置)へ送信し、データ抽出部1022によって抽出されたデータをステレオカメラ100(外界認識装置)から受信し、受信したデータに基づいて車両を制御する。 The automatic driving ECU 200 (control device) converts the position of the object detected by the sensor into a position on the image, transmits a request including the position information of the position to the stereo camera 100 (external world recognition device), and the data extraction unit The data extracted by 1022 is received from the stereo camera 100 (external recognition device), and the vehicle is controlled based on the received data.

このようにして、自動運転ECU200は、さまざまな階層(撮像部101、画像補正部1041から立体グルーピング部1044等)のデータを抽出することができる。 In this way, the automatic driving ECU 200 can extract data of various layers (from the imaging unit 101, the image correction unit 1041 to the stereoscopic grouping unit 1044, etc.).

以上説明したように、本実施形態によれば、画像のデータを外部に出力するときに転送遅延を抑制することができる。また、高画素化されたステレオカメラから出力されるデータの容量を小さくすることができる。 As described above, according to the present embodiment, transfer delay can be suppressed when image data is output to the outside. In addition, it is possible to reduce the volume of data output from a stereo camera with a high pixel count.

(変形例)
次に、図6及び図7を用いて、変形例を説明する。図6は、変形例のステレオカメラ100Aの機能を示すブロック図である。なお、本変形例のステレオカメラ100Aのハードウェア構成は、図2に示したステレオカメラ100と同じである。
(Modification)
Next, a modification will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a block diagram showing the functions of the stereo camera 100A of the modified example. Note that the hardware configuration of the stereo camera 100A of this modified example is the same as that of the stereo camera 100 shown in FIG.

図6に示す本変形例では、通信回路105に要求受付部1051がない。本変形例のデータ抽出部1022Aは、物体識別部1045によって識別され、閾値以上の重要度が関連付けられた物体の画像上の位置(座標値)のデータを抽出する。すなわち、データ抽出部1022Aは、重要度の高い物体(歩行者、危険な部位)のデータを抽出する。なお、重要度と物体の種別は、例えば、メモリ103に関連付けて記憶される。 In this modification shown in FIG. 6, the communication circuit 105 does not have the request reception unit 1051 . The data extracting unit 1022A of this modified example extracts the data of the position (coordinate values) on the image of the object identified by the object identifying unit 1045 and associated with the degree of importance equal to or greater than the threshold. That is, the data extraction unit 1022A extracts data of objects of high importance (pedestrians, dangerous parts). Note that the degree of importance and the type of object are stored in association with each other in the memory 103, for example.

図7は、変形例のステレオカメラ100Aの動作を示すフローチャートである。 FIG. 7 is a flow chart showing the operation of the stereo camera 100A of the modified example.

ステレオカメラ100Aは、物体を識別する(S13)。ステレオカメラ100Aは、S13で識別された物体のうち、重要度の高い物体(歩行者、危険な部位)のデータを抽出する(S18)。ステレオカメラ100Aは、S18で抽出したデータを出力する(S20)。 Stereo camera 100A identifies the object (S13). The stereo camera 100A extracts data of objects of high importance (pedestrians, dangerous parts) among the objects identified in S13 (S18). Stereo camera 100A outputs the data extracted in S18 (S20).

なお、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上述した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.

上記実施形態では、外界認識装置としてステレオカメラ100を採用したが、撮像素子の数は任意であり、単眼カメラであってもよい。 In the above embodiment, the stereo camera 100 is used as the external world recognition device, but the number of imaging elements is arbitrary, and a monocular camera may be used.

上記実施形態では、センサとしてミリ波レーダ、LIDARを例示したが、センサは、音波を用いて、対象物体の距離、角度、相対速度等を検出するソナーであってもよい。 In the above embodiments, millimeter wave radar and LIDAR are used as sensors, but the sensor may be a sonar that uses sound waves to detect the distance, angle, relative velocity, and the like of a target object.

上記実施形態では、理解を容易にするため、生画像(RAWデータ)、視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)等の画像に関するデータは、一例としてメモリ103に記憶されるものとしたが、画像処理部104の内蔵メモリに記憶されてもよい。 In the above embodiment, images such as raw images (RAW data), parallax images (first data), three-dimensional object biological information (second data), and information after three-dimensional object grouping (third data) are used for easy understanding. Data relating to are stored in the memory 103 as an example, but may be stored in the built-in memory of the image processing unit 104 .

上記実施形態では、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045は、一例として画像処理部104の機能として実現されるが、CPU102の機能として実現されてもよい。なお、画像補正部1041、視差算出部1042、立体物抽出部1043、立体グルーピング部1044、物体識別部1045のそれぞれが、ASIC等の回路として構成されていてもよい。 In the above-described embodiment, the image correction unit 1041, the parallax calculation unit 1042, the three-dimensional object extraction unit 1043, the three-dimensional grouping unit 1044, and the object identification unit 1045 are realized as functions of the image processing unit 104 as an example. may be implemented. Note that each of the image correction unit 1041, the parallax calculation unit 1042, the three-dimensional object extraction unit 1043, the three-dimensional grouping unit 1044, and the object identification unit 1045 may be configured as a circuit such as an ASIC.

上記実施形態では、ステレオカメラ100と自動運転ECU200の間の規格としてイーサネットを採用したが、イーサネットと同等以上の転送速度を実現可能であれば他の規格であってもよい。 In the above embodiment, Ethernet is used as the standard between the stereo camera 100 and the automatic driving ECU 200, but other standards may be used as long as a transfer rate equal to or higher than that of Ethernet can be realized.

上記実施形態では、自動運転ECU200からの「要求」に画像上の座標値が含まれるが、画像上の座標値に代えて世界座標系等の他の座標系の座標値を含めてもよい。ステレオカメラ100のCPU102は、世界座標系の座標値を画像上の座標値に変換する。また、画像上の座標値に代えて車速を含めてもよい。データ抽出部1022は、車速が閾値以上(高速)の場合、例えば、高解像度画像と視差画像を抽出(選択)し、低解像度画像と視差画像を抽出(選択)する。 In the above-described embodiment, the "request" from the automatic driving ECU 200 includes the coordinate values on the image, but may include the coordinate values of another coordinate system such as the world coordinate system instead of the coordinate values on the image. The CPU 102 of the stereo camera 100 transforms the coordinate values of the world coordinate system into coordinate values on the image. Also, the vehicle speed may be included instead of the coordinate values on the image. When the vehicle speed is equal to or higher than the threshold (high speed), the data extraction unit 1022 extracts (selects) the high-resolution image and the parallax image, and extracts (selects) the low-resolution image and the parallax image, for example.

自動運転ECU200からの要求に、左撮像部101Lによって撮像された第1の画像のデータ、又は右撮像部101Rによって撮像された第2の画像のデータのいずれか又は両方を指定する情報を含めてもよい。データ抽出部1022、1022Aは、指定された画像のデータを抽出(選択)する。なお、車速は車速センサによって検出される。 The request from the automatic driving ECU 200 includes information specifying either or both of data of the first image captured by the left imaging unit 101L and data of the second image captured by the right imaging unit 101R. good too. The data extraction units 1022 and 1022A extract (select) data of designated images. The vehicle speed is detected by a vehicle speed sensor.

自動運転ECU200は、ステレオカメラ100から受信した視差画像(第1データ)、立体物生情報(第2データ)、立体物グルーピング後情報(第3データ)等を参照して、検知物体候補がある場合、注目領域を示す情報としてその位置に対応する画像座標系または世界座標系の座標値を「要求」に含めて、再度、ステレオカメラ100に入力してもよい。 The autonomous driving ECU 200 refers to the parallax image (first data), the three-dimensional object biological information (second data), the three-dimensional object grouping information (third data), etc. In this case, the coordinate values of the image coordinate system or the world coordinate system corresponding to the position may be included in the "request" as information indicating the attention area, and the request may be input to the stereo camera 100 again.

また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサ(CPU)がそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, and the like may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, and the like may be realized by software by a processor (CPU) interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memory, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.

1…システム
100、100A…ステレオカメラ
101…撮像部
101L…左撮像部
101R…右撮像部
103…メモリ
104…画像処理部
104a…データ生成部
105…通信回路
300…ミリ波レーダ
400…LIDAR
1021…車両制御部
1022…データ抽出部
1022A…データ抽出部
1041…画像補正部
1042…視差算出部
1043…立体物抽出部
1044…立体グルーピング部
1045…物体識別部
1051…要求受付部
1052…データ出力部
DESCRIPTION OF SYMBOLS 1... System 100, 100A... Stereo camera 101... Imaging part 101L... Left imaging part 101R... Right imaging part 103... Memory 104... Image processing part 104a... Data generation part 105... Communication circuit 300... Millimeter wave radar 400... LIDAR
1021 Vehicle control unit 1022 Data extraction unit 1022A Data extraction unit 1041 Image correction unit 1042 Parallax calculation unit 1043 Three-dimensional object extraction unit 1044 Three-dimensional grouping unit 1045 Object identification unit 1051 Request reception unit 1052 Data output Department

Claims (9)

画像を撮像する撮像部と、前記撮像部によって撮像された前記画像から複数種類のデータを生成するデータ生成部と、前記複数種類のデータからデータを抽出するデータ抽出部と、前記データ抽出部によって抽出されたデータを外部へ出力するデータ出力部と、車両を制御する制御装置からの要求を受け付ける要求受付部と、備える外界認識装置であって、
前記要求は、電磁波又は音波を用いて物体の位置を検出するセンサによって検出された前記物体の位置に対応する画像上の位置を示す位置情報を含み、
前記データ抽出部は、前記位置情報が示す画像上の位置のデータを抽出し、
前記データ出力部は、前記データ抽出部によって抽出されたデータを前記制御装置へ出力する
ことを特徴とする外界認識装置。
an imaging unit that captures an image, a data generation unit that generates a plurality of types of data from the image captured by the imaging unit, a data extraction unit that extracts data from the plurality of types of data, and the data extraction unit An external world recognition device comprising: a data output unit that outputs extracted data to the outside; and a request reception unit that receives a request from a control device that controls a vehicle ,
The request includes position information indicating a position on the image corresponding to the position of the object detected by a sensor that detects the position of the object using electromagnetic waves or sound waves;
The data extraction unit extracts data of a position on the image indicated by the position information,
The data output unit outputs the data extracted by the data extraction unit to the control device.
An external world recognition device characterized by:
請求項1に記載の外界認識装置であって
前記データ出力部は、
前記要求に応じてデータを出力する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 1 ,
The data output unit
An external world recognition device that outputs data in response to the request.
請求項2に記載の外界認識装置であって、
前記データ抽出部は、
前記要求に応じてデータを抽出する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 2,
The data extractor is
An external world recognition device that extracts data according to the request.
請求項に記載の外界認識装置であって、
前記要求は、
データの種類を示す種別IDを含み、
前記データ抽出部は、
前記種別IDが示す種類のデータを抽出する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 1 ,
Said request is
including a type ID indicating the type of data,
The data extractor is
An external world recognition device, characterized by extracting data of a type indicated by the type ID.
請求項に記載の外界認識装置であって、
前記要求は、
解像度を含み、
前記データ出力部は、
前記データ抽出部によって抽出されたデータを前記解像度で外部へ出力する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 1 ,
Said request is
including resolution,
The data output unit
An external world recognition device, wherein the data extracted by the data extraction unit is output to the outside at the resolution.
請求項に記載の外界認識装置であって、
前記要求は、
出力頻度を含み、
前記データ出力部は、
前記データ抽出部によって抽出されたデータを前記出力頻度で外部へ出力する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 1 ,
Said request is
including output frequency,
The data output unit
An external world recognition device, wherein the data extracted by the data extraction unit is output to the outside at the output frequency.
請求項に記載の外界認識装置であって、
前記データ生成部は、
視差、又は視差に対応する距離を示す第1データを生成し、
前記第1データから立体物のデータを第2データとして抽出し、
前記第2データからグルーピングされた第3データを生成し、
前記データ抽出部は、
前記種別IDが示す種類のデータを、前記画像のRAWデータ、前記第1データ、前記第2データ、前記第3データから抽出する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 4 ,
The data generation unit
generating first data indicating a parallax or a distance corresponding to the parallax;
extracting data of a three-dimensional object from the first data as second data;
generating third data grouped from the second data;
The data extractor is
An external world recognition device, wherein the data of the type indicated by the type ID is extracted from the RAW data, the first data, the second data, and the third data of the image.
請求項1に記載の外界認識装置であって、
前記撮像部によって撮像された画像から物体を識別する物体識別部を備え、
前記データ抽出部は、
閾値以上の重要度が関連付けられた前記物体のデータを抽出する
ことを特徴とする外界認識装置。
The external world recognition device according to claim 1,
An object identification unit that identifies an object from the image captured by the imaging unit,
The data extractor is
An external world recognition device, characterized by extracting data of the object associated with a degree of importance equal to or greater than a threshold.
請求項に記載の外界認識装置を含むシステムであって、
電磁波又は音波を用いて物体の位置を検出するセンサと、
前記センサによって検出された前記物体の位置を画像上の位置に変換し、その位置の位置情報を含む前記要求を前記外界認識装置へ送信し、前記データ抽出部によって抽出されたデータを前記外界認識装置から受信し、受信したデータに基づいて車両を制御する制御装置と、を備える
ことを特徴とするシステム
A system including the external world recognition device according to claim 1 ,
a sensor that detects the position of an object using electromagnetic waves or sound waves;
converts the position of the object detected by the sensor into a position on the image, transmits the request including the position information of the position to the external world recognition device, and converts the data extracted by the data extraction unit to the external world recognition device. a controller that receives data from the device and controls the vehicle based on the received data .
JP2018079266A 2018-04-17 2018-04-17 External recognition device Active JP7106332B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018079266A JP7106332B2 (en) 2018-04-17 2018-04-17 External recognition device
CN201980025028.1A CN111937035A (en) 2018-04-17 2019-04-04 External recognition device
PCT/JP2019/014915 WO2019203000A1 (en) 2018-04-17 2019-04-04 External environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018079266A JP7106332B2 (en) 2018-04-17 2018-04-17 External recognition device

Publications (2)

Publication Number Publication Date
JP2019185666A JP2019185666A (en) 2019-10-24
JP7106332B2 true JP7106332B2 (en) 2022-07-26

Family

ID=68238894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018079266A Active JP7106332B2 (en) 2018-04-17 2018-04-17 External recognition device

Country Status (3)

Country Link
JP (1) JP7106332B2 (en)
CN (1) CN111937035A (en)
WO (1) WO2019203000A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073322A1 (en) 2012-11-08 2014-05-15 日立オートモティブシステムズ株式会社 Object detection device and object detection method
WO2017195650A1 (en) 2016-05-13 2017-11-16 ソニー株式会社 Generation device and generation method, and reproduction device and reproduction method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059260A (en) * 2006-08-31 2008-03-13 Fujitsu Ltd Movement detection image creating device
JP2014130429A (en) * 2012-12-28 2014-07-10 Ricoh Co Ltd Photographing device and three-dimensional object area detection program
JP6098318B2 (en) * 2013-04-15 2017-03-22 オムロン株式会社 Image processing apparatus, image processing method, image processing program, and recording medium
JP6313646B2 (en) * 2014-04-24 2018-04-18 日立オートモティブシステムズ株式会社 External recognition device
JP2016019009A (en) * 2014-07-04 2016-02-01 日立オートモティブシステムズ株式会社 Information processing apparatus
WO2017130639A1 (en) * 2016-01-28 2017-08-03 株式会社リコー Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014073322A1 (en) 2012-11-08 2014-05-15 日立オートモティブシステムズ株式会社 Object detection device and object detection method
WO2017195650A1 (en) 2016-05-13 2017-11-16 ソニー株式会社 Generation device and generation method, and reproduction device and reproduction method

Also Published As

Publication number Publication date
JP2019185666A (en) 2019-10-24
WO2019203000A1 (en) 2019-10-24
CN111937035A (en) 2020-11-13

Similar Documents

Publication Publication Date Title
US8224069B2 (en) Image processing apparatus, image matching method, and computer-readable recording medium
US10715716B2 (en) Electronic device for recording image as peer multiple frame rates using camera and method for operating same
EP3531418B1 (en) Electronic device displaying interface for editing video data and method for controlling same
US9420158B2 (en) System and method for effectively implementing a lens array in an electronic device
CN110335302B (en) Depth map generated from a single sensor
CN108683902B (en) Target image acquisition system and method
KR102472156B1 (en) Electronic Device and the Method for Generating Depth Information thereof
US20200322544A1 (en) Electronic device, method, and computer-readable medium for providing bokeh effect in video
JPWO2015045504A1 (en) Object detection device
JP7123163B2 (en) Depth processor and 3D image equipment
KR102552923B1 (en) Electronic device for acquiring depth information using at least one of cameras or depth sensor
TWI522968B (en) Hand-held electronic apparatus, image capturing apparatus and method for obtaining depth information
US11641524B2 (en) Electronic device and method for displaying image in electronic device
US20190014262A1 (en) Imaging processing apparatus, distance measuring apparatus and processing system
JPWO2016051981A1 (en) In-vehicle image recognition device
JP2017139631A (en) Imaging apparatus
CN106934828B (en) Depth image processing method and depth image processing system
KR20210080875A (en) Electronic device comprising image sensor and method of operation thereof
KR102507746B1 (en) Method for generating plural information using camera to sense plural wave bandwidth and apparatus thereof
US20200410705A1 (en) System and method for processing image related to depth
JP7106332B2 (en) External recognition device
JP2014026396A (en) Movable surface boundary line recognition device, movable body having movable surface boundary line recognition device, movable surface boundary line recognition method, and movable surface boundary line recognition program
JP2018146495A (en) Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system
US20170078644A1 (en) Controller applied to a three-dimensional (3d) capture device and 3d image capture device
JP2015143946A (en) Moving object detection and tracking apparatus, moving object detection and tracking system, moving object detection and tracking method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220713

R150 Certificate of patent or registration of utility model

Ref document number: 7106332

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150