JP2018125684A - On-vehicle camera - Google Patents

On-vehicle camera Download PDF

Info

Publication number
JP2018125684A
JP2018125684A JP2017016017A JP2017016017A JP2018125684A JP 2018125684 A JP2018125684 A JP 2018125684A JP 2017016017 A JP2017016017 A JP 2017016017A JP 2017016017 A JP2017016017 A JP 2017016017A JP 2018125684 A JP2018125684 A JP 2018125684A
Authority
JP
Japan
Prior art keywords
image
calibration
unit
camera
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017016017A
Other languages
Japanese (ja)
Other versions
JP6252881B1 (en
Inventor
輝男 坂本
Teruo Sakamoto
輝男 坂本
康紀 志賀
Yasunori Shiga
康紀 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017016017A priority Critical patent/JP6252881B1/en
Application granted granted Critical
Publication of JP6252881B1 publication Critical patent/JP6252881B1/en
Priority to PCT/JP2018/002395 priority patent/WO2018143064A1/en
Publication of JP2018125684A publication Critical patent/JP2018125684A/en
Priority to US16/519,047 priority patent/US20190347829A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an on-vehicle camera capable of reducing the cost.SOLUTION: An imaging unit 20 generates an outer image representing the vicinity of a vehicle 10. A detection part 26 detects objects existing in the vicinity of the vehicle. An output part 28 outputs a piece of image information including the outer image or a piece of detection information of the objects to a drive assist system 14. A calibration unit 30 executes a series of calibration processing of a camera 12. The detection part 26 detects a first image representing start of the calibration when the outer image includes the first image. The calibration unit 30 starts a series of calibration processing when the detection part 26 detects the first image.SELECTED DRAWING: Figure 2

Description

本発明は、車載カメラに関する。   The present invention relates to an in-vehicle camera.

駐車時の運転支援のために、車両の後方を撮像し、撮像画像を車内の表示装置に表示する車載カメラが知られている。このような車載カメラのキャリブレーション方法として、基準マーカーとなる指標を車載カメラで撮像し、撮像画像内の指標を用いて、車載カメラの設置誤差を吸収する方法が提案されている(例えば、特許文献1参照)。   An in-vehicle camera that captures an image of the rear of the vehicle and displays the captured image on a display device in the vehicle is known for driving assistance during parking. As a calibration method for such an in-vehicle camera, a method has been proposed in which an index serving as a reference marker is captured by the in-vehicle camera and an installation error of the in-vehicle camera is absorbed using the index in the captured image (for example, a patent) Reference 1).

特開2011−155687号公報JP 2011-155687 A

特許文献1における車載カメラを構成する校正装置は、接続された表示装置に対する利用者のタッチ操作を契機に、車載カメラのカメラ校正プログラムを起動させて車載カメラの校正を自動的に行う。校正装置は、車載カメラの校正完了後、表示装置に対する利用者のタッチ操作を契機に、カメラ校正プログラムを終了させて通常モードに戻るように構成される。特許文献1に記載の車載カメラは、表示装置からの指示を受けて校正処理を開始するため、車載カメラに、表示装置からの指示を受け付ける受付部を設ける必要があり、また、表示装置の仕様ごとに異なる受付部を設ける必要がある。このことは、車載カメラのコスト増加の要因になる。   The calibration device constituting the in-vehicle camera in Patent Document 1 automatically activates the in-vehicle camera by starting a camera calibration program for the in-vehicle camera in response to a user touch operation on the connected display device. The calibration device is configured to terminate the camera calibration program and return to the normal mode when the user touches the display device after calibration of the in-vehicle camera is completed. Since the in-vehicle camera described in Patent Document 1 starts calibration processing in response to an instruction from the display device, it is necessary to provide the in-vehicle camera with a reception unit that receives an instruction from the display device. It is necessary to provide a different reception unit for each. This causes an increase in the cost of the in-vehicle camera.

本発明はこうした状況に鑑みてなされたものであり、1つの目的は、車載カメラのコストを低減する技術を提供することにある。   The present invention has been made in view of such circumstances, and one object is to provide a technique for reducing the cost of an in-vehicle camera.

上記課題を解決するために、本発明のある態様の、車載カメラは、車両に設置される車載カメラであって、車両の周辺を示す外界画像を生成する撮像部と、車両の周辺に存在する物体を検出する検出部と、撮像部により生成された外界画像を含む画像情報、あるいは、検出部により検出された物体の検出情報を外部装置へ出力する出力部と、本車載カメラの校正処理を実行する校正部と、を備える。検出部は、撮像部により生成された外界画像の中に、校正開始を示す第1の画像が含まれる場合、そのことを検出し、校正部は、検出部が第1の画像を検出した場合、校正処理を開始する。   In order to solve the above-described problem, an in-vehicle camera according to an aspect of the present invention is an in-vehicle camera installed in a vehicle, and is present in the periphery of the vehicle, an imaging unit that generates an external image indicating the periphery of the vehicle A detection unit for detecting an object, image information including an external image generated by the imaging unit, or an output unit for outputting detection information of the object detected by the detection unit to an external device, and calibration processing of the in-vehicle camera A calibration unit to be executed. The detection unit detects when the first image indicating the start of calibration is included in the external image generated by the imaging unit, and the calibration unit detects the first image when the detection unit detects the first image. Start the calibration process.

なお、以上の構成要素の任意の組合せ、本発明の表現を、方法、コンピュータプログラム、コンピュータプログラムを記録した記録媒体、本装置を搭載した車両などの間で変換したものもまた、本発明の態様として有効である。   An arbitrary combination of the above components, the expression of the present invention converted between a method, a computer program, a recording medium storing the computer program, a vehicle equipped with the apparatus, and the like are also included in the aspects of the present invention. It is effective as

本発明によれば、車載カメラのコストを低減することができる。   According to the present invention, the cost of a vehicle-mounted camera can be reduced.

実施例に係る車両を模式的に示す図である。It is a figure which shows typically the vehicle which concerns on an Example. 図1のカメラの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the camera of FIG. 図1の運転支援装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the driving assistance device of FIG. 図1のカメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera of FIG.

図1は、実施例に係る車両10を模式的に示す図であり、車両10を上方から俯瞰した図である。車両10は、カメラ12、運転支援装置14、表示装置16を備える。これらの装置は、公知のアダプタ、および/または、車載ネットワークを介して接続されてもよい。   FIG. 1 is a diagram schematically illustrating a vehicle 10 according to the embodiment, and is a diagram of the vehicle 10 viewed from above. The vehicle 10 includes a camera 12, a driving support device 14, and a display device 16. These devices may be connected via a known adapter and / or an in-vehicle network.

カメラ12は、車両10に搭載され、車両10の周辺を繰り返し撮像する車載カメラである。実施例のカメラ12は、車両10後部のバックドア等に取り付けられ、車両10の後方空間の様子を示す外界画像を繰り返し生成する。カメラ12は、光軸が車両10の後方斜め下向きに伸びる姿勢で、リアガラスの上端近傍に設置されてもよい。後述するように、カメラ12は、カメラ12自身を自動的かつ自律的に校正する機能を備える。   The camera 12 is an in-vehicle camera that is mounted on the vehicle 10 and repeatedly captures the periphery of the vehicle 10. The camera 12 according to the embodiment is attached to a back door or the like at the rear of the vehicle 10, and repeatedly generates an external image indicating the state of the rear space of the vehicle 10. The camera 12 may be installed in the vicinity of the upper end of the rear glass with the optical axis extending obliquely downward rearward of the vehicle 10. As will be described later, the camera 12 has a function of automatically and autonomously calibrating the camera 12 itself.

運転支援装置14は、カメラ12から出力された画像情報に基づいて、車両10の運転を支援するための運転支援情報を生成し、実施例では、駐車支援情報を生成する。表示装置16は、運転者へ各種情報を提示するHMI(Human Machine Interface)装置である。表示装置16は、カーナビゲーション装置であってもよく、IVI(In-Vehicle Infotainment)装置であってもよい。実施例の表示装置16は、運転支援装置14より生成された運転支援情報である駐車支援情報をモニタに表示する。なお、表示装置16は、車両10外部の表示装置であってもよく、例えば、OBD(On Board Diagnostics)アダプタを介して車両10と接続されてもよい。   The driving support device 14 generates driving support information for supporting driving of the vehicle 10 based on the image information output from the camera 12, and generates parking support information in the embodiment. The display device 16 is an HMI (Human Machine Interface) device that presents various information to the driver. The display device 16 may be a car navigation device or an IVI (In-Vehicle Infotainment) device. The display device 16 according to the embodiment displays parking support information that is driving support information generated by the driving support device 14 on a monitor. The display device 16 may be a display device outside the vehicle 10, and may be connected to the vehicle 10 via an OBD (On Board Diagnostics) adapter, for example.

図2は、図1のカメラ12の機能構成を示すブロック図である。カメラ12は、撮像部20、制御部22、出力部28、校正部30を備える。制御部22は、画像処理部24と検出部26を含む。なお、カメラ12は、動作状態として、外界画像に基づく画像情報を出力する通常モードと、自装置の自動校正処理を実行する校正モードとを備える。   FIG. 2 is a block diagram showing a functional configuration of the camera 12 of FIG. The camera 12 includes an imaging unit 20, a control unit 22, an output unit 28, and a calibration unit 30. The control unit 22 includes an image processing unit 24 and a detection unit 26. In addition, the camera 12 is provided with a normal mode for outputting image information based on an external image and a calibration mode for executing an automatic calibration process of the own device as operation states.

本明細書のブロック図において示される各ブロックは、ハードウェア的には、コンピュータのCPU・メモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。例えば、図2の各ブロックに対応するモジュールを含むコンピュータプログラムがカメラ12のメモリに格納されてもよい。カメラ12のCPUは、そのコンピュータプログラムを適宜読み出して実行することにより、各ブロックの機能を発揮してもよい。また、カメラ12は、自動校正処理を実行する校正ECU(Electronic Control Unit)を備えてもよい。   Each block shown in the block diagram of the present specification can be realized in terms of hardware by an element such as a CPU / memory of a computer or a mechanical device, and in terms of software, it can be realized by a computer program or the like. Then, the functional block realized by those cooperation is drawn. Those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software. For example, a computer program including a module corresponding to each block in FIG. 2 may be stored in the memory of the camera 12. The CPU of the camera 12 may exhibit the function of each block by appropriately reading and executing the computer program. Further, the camera 12 may include a calibration ECU (Electronic Control Unit) that executes an automatic calibration process.

撮像部20は、車両の周辺を示す外界画像を生成する。実施例の撮像部20は、車両10の後方空間を撮像し、後方空間の様子を示す外界画像を生成する。制御部22は、撮像部20により生成された外界画像に基づいて各種データ処理を実行する。   The imaging unit 20 generates an external image indicating the periphery of the vehicle. The imaging unit 20 according to the embodiment images the rear space of the vehicle 10 and generates an external image indicating the state of the rear space. The control unit 22 executes various data processing based on the external image generated by the imaging unit 20.

画像処理部24は、外界画像に基づく画像情報を生成する。実施例では、画像処理部24は、外界画像に対して歪み補正を行った補正画像を含む画像情報を生成する。画像処理部24は、生成した画像情報を出力部28へ出力する。変形例として、画像処理部24は、撮像部20から出力された外界画像を加工せずに、そのまま画像情報として出力部28へ出力してもよい。   The image processing unit 24 generates image information based on the external image. In the embodiment, the image processing unit 24 generates image information including a corrected image obtained by performing distortion correction on an external image. The image processing unit 24 outputs the generated image information to the output unit 28. As a modification, the image processing unit 24 may output the external image output from the imaging unit 20 as it is to the output unit 28 without processing it.

検出部26は、パターンマッチング(言い換えればテンプレートマッチング)、オプティカルフロー等の公知の手法により、外界画像内に含まれる種々の物体を検出し、言い換えれば、撮像対象空間内に存在する物体を検出する。検知対象の物体は、歩行者、障害物、車止め、標識等を含んでもよい。検出部26は、検出した物体を示す検出情報であり、例えば、パターンマッチングにより特定した物体の名称を示す検出情報を出力部28および校正部30へ出力する。   The detection unit 26 detects various objects included in the external image by a known method such as pattern matching (in other words, template matching), optical flow, or the like, in other words, detects an object existing in the imaging target space. . The object to be detected may include a pedestrian, an obstacle, a car stop, a sign, and the like. The detection unit 26 is detection information indicating the detected object. For example, the detection unit 26 outputs detection information indicating the name of the object specified by pattern matching to the output unit 28 and the calibration unit 30.

検出部26は、パターンマッチング用のパターンとして、第1指示画像のパターンと第2指示画像のパターンとを記憶する。第1指示画像は、校正開始の指示を示すものとして予め定められた態様の画像である。第2指示画像は、第1指示画像とは異なる画像であり、校正終了の指示を示すものとして予め定められた態様の画像である。第1指示画像および第2指示画像は、予め定められた形状・模様・色彩の組み合わせであってもよい。また、第1指示画像および第2指示画像は、一次元バーコードまたは二次元バーコードであってもよい。検出部26は、外界画像の中に第1指示画像が含まれる場合、そのことをパターンマッチングにより検出する。また、検出部26は、外界画像の中に第2指示画像が含まれる場合、そのことをパターンマッチングにより検出する。   The detection unit 26 stores the pattern of the first instruction image and the pattern of the second instruction image as patterns for pattern matching. The first instruction image is an image in a mode predetermined as indicating a calibration start instruction. The second instruction image is an image different from the first instruction image, and is an image in a predetermined mode as an instruction to end calibration. The first instruction image and the second instruction image may be a combination of a predetermined shape, pattern, and color. The first instruction image and the second instruction image may be a one-dimensional barcode or a two-dimensional barcode. When the first instruction image is included in the external image, the detection unit 26 detects this by pattern matching. In addition, when the second instruction image is included in the external image, the detection unit 26 detects this by pattern matching.

出力部28は、画像処理部24から受け付けた画像情報と、検出部26から受け付けた検出情報を運転支援装置14へ出力する。さらに、出力部28は、カメラ12の動作状態を示す情報であり、例えば、校正状況を示す情報を運転支援装置14へ出力する。   The output unit 28 outputs the image information received from the image processing unit 24 and the detection information received from the detection unit 26 to the driving support device 14. Furthermore, the output unit 28 is information indicating the operating state of the camera 12, and outputs information indicating the calibration status to the driving support device 14, for example.

校正部30は、検出部26により第1指示画像が検出された場合、言い換えれば、検出部26から出力された検出情報が第1指示画像の検出事実を示す場合、カメラ12をメンテナンスモードに移行させる。メンテナンスモードへの移行に伴い、校正部30は、予め記憶されたカメラ校正プログラムを起動することにより、カメラ12(例えば撮像部20)の自動校正処理を実行させる。カメラ12の自動校正処理には、公知の技術を採用してよく、例えば、上記特許文献1に記載の技術を適用してもよい。   The calibration unit 30 shifts the camera 12 to the maintenance mode when the first instruction image is detected by the detection unit 26, in other words, when the detection information output from the detection unit 26 indicates the detection fact of the first instruction image. Let Along with the shift to the maintenance mode, the calibration unit 30 activates a camera calibration program stored in advance, thereby causing the camera 12 (for example, the imaging unit 20) to execute an automatic calibration process. For the automatic calibration processing of the camera 12, a known technique may be employed, for example, the technique described in Patent Document 1 may be applied.

校正部30は、カメラ12の校正処理中に、校正状況を示す情報を定期的に出力部28に出力し、そして出力部28から運転支援装置14へ出力させる。校正状況を示す情報は、校正処理の進行状況を含んでもよい。また、校正状況を示す情報は、校正処理全体の作業項目数に対する完了した作業項目数の割合を含んでもよく、校正処理が終了するまでの予想時間を含んでもよい。   The calibration unit 30 periodically outputs information indicating the calibration status to the output unit 28 during the calibration process of the camera 12 and causes the output unit 28 to output the information to the driving support device 14. The information indicating the calibration status may include the progress status of the calibration process. Further, the information indicating the calibration status may include a ratio of the number of completed work items to the number of work items in the entire calibration process, or may include an expected time until the calibration process is completed.

校正部30は、検出部26により第2指示画像が検出された場合、言い換えれば、検出部26から出力された検出情報が第2指示画像の検出事実を示す場合、カメラ12を通常モードに移行させる。実施例の校正部30は、カメラ12の校正処理が終了している状態において、検出部26により第2指示画像が検出された場合、通常モードに移行させる。通常モードへの移行に伴い、校正部30は、カメラ校正プログラムを終了させる。それとともに、校正部30は、通常モードであることを示す情報(またはカメラの校正が終了した旨の情報)を出力部28に出力し、そして出力部28から運転支援装置14へ送信させる。   When the detection unit 26 detects the second instruction image, in other words, when the detection information output from the detection unit 26 indicates the detection fact of the second instruction image, the calibration unit 30 shifts the camera 12 to the normal mode. Let The calibration unit 30 of the embodiment shifts to the normal mode when the second instruction image is detected by the detection unit 26 in a state where the calibration process of the camera 12 has been completed. With the shift to the normal mode, the calibration unit 30 ends the camera calibration program. At the same time, the calibration unit 30 outputs information indicating the normal mode (or information indicating that the camera calibration is completed) to the output unit 28 and causes the output unit 28 to transmit the information to the driving support device 14.

図3は、図1の運転支援装置14の機能構成を示すブロック図である。運転支援装置14は、画像取得部40、ガイド線生成部42、画像処理部44、動作状況取得部46、出力部48を備える。画像取得部40は、カメラ12から出力された画像情報および検出情報を取得する。   FIG. 3 is a block diagram showing a functional configuration of the driving support device 14 of FIG. The driving support device 14 includes an image acquisition unit 40, a guide line generation unit 42, an image processing unit 44, an operation status acquisition unit 46, and an output unit 48. The image acquisition unit 40 acquires image information and detection information output from the camera 12.

ガイド線生成部42は、記憶部(不図示)に記憶されたガイド生成基準に基づいて、車幅ガイド線のデータを生成する。例えば、ガイド線生成部42は、ガイド生成基準が定める範囲・サイズ・形状・色彩を備える車幅ガイド線のデータを生成する。車幅ガイド線は、車両10の車幅を示す車幅線、および/または、車両10の走行予定軌跡線を含む。   The guide line generator 42 generates vehicle width guide line data based on a guide generation criterion stored in a storage unit (not shown). For example, the guide line generation unit 42 generates vehicle width guide line data having a range, size, shape, and color determined by the guide generation reference. The vehicle width guide line includes a vehicle width line indicating the vehicle width of the vehicle 10 and / or a planned travel path line of the vehicle 10.

画像処理部44は、画像取得部40により取得された画像情報が示す補正画像と、画像取得部40により取得された検出情報が示す障害物等の情報と、ガイド線生成部42により生成された車幅ガイド線とに基づいて、駐車支援情報を生成する。例えば、画像処理部44は、補正画像と、障害物等を示す画像と、車幅ガイド線とを合成した合成画像であるリアビュー画像もしくはトップビュー画像を駐車支援情報として生成してもよい。画像処理部44は、生成した駐車支援情報を出力部48へ出力する。   The image processing unit 44 generates the corrected image indicated by the image information acquired by the image acquisition unit 40, the information such as the obstacle indicated by the detection information acquired by the image acquisition unit 40, and the guide line generation unit 42. Parking assistance information is generated based on the vehicle width guide line. For example, the image processing unit 44 may generate a rear view image or a top view image, which is a composite image obtained by combining a correction image, an image showing an obstacle, and the like, and a vehicle width guide line as parking assistance information. The image processing unit 44 outputs the generated parking support information to the output unit 48.

動作状況取得部46は、カメラ12から出力されたカメラ12の動作状態を示す情報を取得し、出力部48へ出力する。出力部48は、画像処理部44から出力された駐車支援情報と、動作状況取得部46から出力されたカメラ12の動作状態を示す情報を表示装置16へ出力する。表示装置16は、運転支援装置14から取得した駐車支援情報(例えばリアビュー画像)と、カメラ12の動作状態を示す情報とを画面に表示させる。   The operation status acquisition unit 46 acquires information indicating the operation state of the camera 12 output from the camera 12 and outputs the information to the output unit 48. The output unit 48 outputs the parking support information output from the image processing unit 44 and the information indicating the operation state of the camera 12 output from the operation state acquisition unit 46 to the display device 16. The display device 16 displays parking support information (for example, a rear view image) acquired from the driving support device 14 and information indicating the operation state of the camera 12 on the screen.

以上の構成によるカメラ12の動作を説明する。図4は、カメラ12の動作を示すフローチャートである。車両10のギアがリバースに設定されると、カメラ12は、図4の処理を開始する。撮像部20は、車両10の後方空間の様子を示す外界画像を繰り返し生成する(S10)。検出部26は、外界画像に基づいて撮像対象空間内に存在する物体を検出する(S12)。   The operation of the camera 12 having the above configuration will be described. FIG. 4 is a flowchart showing the operation of the camera 12. When the gear of the vehicle 10 is set to reverse, the camera 12 starts the process of FIG. The imaging unit 20 repeatedly generates an external image indicating the state of the rear space of the vehicle 10 (S10). The detection unit 26 detects an object present in the imaging target space based on the external image (S12).

検出された物体の中に、第1指示画像が存在せず(S14のN)、第2指示画像も存在せず(S16のN)、カメラ12が通常モードであれば(S18のY)、画像処理部24は、外界画像に基づいて画像情報を生成する(S20)。出力部28は、画像処理部24により生成された画像情報と、検出部26により生成された物体検出情報を運転支援装置14へ出力する(S22)。運転支援装置14は、これらの情報に基づいて駐車支援情報を生成し、駐車支援情報を表示装置16に表示させる。カメラ12が通常モードでなければ(カメラ12がメンテナンスモードであれば)(S18のN)、S20とS22の処理をスキップする。所定の終了条件が満たされた場合、例えば、車両10のギアがリバース以外に変更された場合、または、車両10の電源がオフになった場合(S24のY)、カメラ12は本図に示す処理を終了する。所定の終了条件が満たされなければ(S24のN)、S10に戻る。   Among the detected objects, the first instruction image does not exist (N in S14), the second instruction image does not exist (N in S16), and the camera 12 is in the normal mode (Y in S18). The image processing unit 24 generates image information based on the external image (S20). The output unit 28 outputs the image information generated by the image processing unit 24 and the object detection information generated by the detection unit 26 to the driving support device 14 (S22). The driving support device 14 generates parking support information based on these pieces of information, and causes the display device 16 to display the parking support information. If the camera 12 is not in the normal mode (if the camera 12 is in the maintenance mode) (N in S18), the processes in S20 and S22 are skipped. When a predetermined end condition is satisfied, for example, when the gear of the vehicle 10 is changed to something other than reverse, or when the power of the vehicle 10 is turned off (Y in S24), the camera 12 is shown in this figure. The process ends. If the predetermined termination condition is not satisfied (N in S24), the process returns to S10.

図3には不図示だが、例えば、カーディーラー等におけるカメラ12のメンテナンス時に、メンテナンス作業者は、カメラ12の校正処理を開始させるために、第1指示画像を示すカード等をカメラ12の前にかざす。また、メンテナンス作業者は、カメラ12の校正処理を終了させる場合、第2指示画像を示すカード等をカメラ12の前にかざす。   Although not shown in FIG. 3, for example, during maintenance of the camera 12 at a car dealer or the like, the maintenance worker puts a card or the like indicating the first instruction image in front of the camera 12 in order to start calibration processing of the camera 12. Hold it over. Further, when the calibration process of the camera 12 is ended, the maintenance worker holds the card indicating the second instruction image in front of the camera 12.

検出部26により第1指示画像が検出された場合(S14のY)、校正部30は、カメラ12をメンテナンスモードへ移行させ(S26)、予め定められたカメラ校正プログラムを起動して、自動校正処理を開始する(S28)。校正部30は、校正処理の進行状況を、出力部28を介して運転支援装置14へ出力する(S30)。運転支援装置14は、カメラ12における校正処理の進行状況を表示装置16へ出力し、表示装置16の画面に表示させる。メンテナンス作業者は、表示装置16を見て校正処理の進行状況を確認できる。校正処理が実行中であれば(S32のN)、S30に戻り、校正処理が終了すると(S32のY)、S10に戻る。   When the first instruction image is detected by the detection unit 26 (Y in S14), the calibration unit 30 shifts the camera 12 to the maintenance mode (S26), starts a predetermined camera calibration program, and performs automatic calibration. The process is started (S28). The calibration unit 30 outputs the progress of the calibration process to the driving support device 14 via the output unit 28 (S30). The driving support device 14 outputs the progress of the calibration process in the camera 12 to the display device 16 and displays it on the screen of the display device 16. The maintenance worker can check the progress of the calibration process by looking at the display device 16. If the calibration process is being executed (N in S32), the process returns to S30. When the calibration process is completed (Y in S32), the process returns to S10.

検出部26により第2指示画像が検出された場合(S16のY)、校正部30は、S28で起動したカメラ校正プログラムを終了させ(S34)、通常モードへ移行させる(S36)。校正部30は、通常モードであることを示す情報、または、カメラ校正処理が終了したことを示す情報を、出力部28を介して運転支援装置14へ出力し(S38)、S10に戻る。運転支援装置14は、これらの情報を表示装置16へ出力し、表示装置16の画面に表示させる。メンテナンス作業者は、表示装置16を見て校正処理の終了を確認できる。   When the second instruction image is detected by the detection unit 26 (Y in S16), the calibration unit 30 ends the camera calibration program started in S28 (S34) and shifts to the normal mode (S36). The calibration unit 30 outputs information indicating the normal mode or information indicating that the camera calibration process is completed to the driving support device 14 via the output unit 28 (S38), and returns to S10. The driving support device 14 outputs the information to the display device 16 and displays the information on the screen of the display device 16. The maintenance worker can confirm the end of the calibration process by looking at the display device 16.

実施例のカメラ12によると、校正処理を開始させ、または校正処理を終了させる指示を外部装置から受け付けるための受付部(受付機能)を備える必要がなく、また、外部装置(運転支援装置14または表示装置16)の仕様ごとに異なる受付部(受付機能)を備える必要がない。これにより、カメラ12の開発コストおよび製造コストを低減することができる。また、カメラ12の製造の汎用性を高めることができる。   According to the camera 12 of the embodiment, it is not necessary to include a reception unit (reception function) for receiving an instruction to start the calibration process or end the calibration process from the external apparatus. It is not necessary to provide a different reception unit (reception function) for each specification of the display device 16). Thereby, the development cost and manufacturing cost of the camera 12 can be reduced. Moreover, the versatility of manufacture of the camera 12 can be improved.

また、所定の空間の外界画像を生成する撮像部と、撮像対象空間内に存在する物体を検出する検出部とを備えるカメラであれば、カメラに内蔵される制御ユニットに対してアプリケーションプログラム(制御プログラム)の追加等の対応で本実施例のような自動校正処理を行わせることが可能である。このため、カメラ12の製造の汎用性を高めることができる。   In addition, if the camera includes an imaging unit that generates an external image of a predetermined space and a detection unit that detects an object present in the imaging target space, an application program (control) is provided for a control unit built in the camera. It is possible to cause the automatic calibration processing as in this embodiment to be performed by adding a program). For this reason, the versatility of manufacture of the camera 12 can be improved.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素あるいは各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to each of those constituent elements or combinations of processing processes, and such modifications are also within the scope of the present invention. .

変形例として、検出部26は、オプティカルフローにより、複数枚の外界画像に亘って予め定められた第1の動作を行う物体を検出した場合に、その物体の画像を第1指示画像として検出してもよい。また、検出部26は、複数枚の外界画像に亘って予め定められた第2の動作を行う物体を検出した場合に、その物体の画像を第2指示画像として検出してもよい。この変形例によると、利用者は、所定のジェスチャー、身振り、手振りにより、カメラ12の校正処理の開始、終了を指示することができる。   As a modification, when the detection unit 26 detects an object performing a predetermined first operation over a plurality of external images by optical flow, the detection unit 26 detects the image of the object as a first instruction image. May be. Further, when the detection unit 26 detects an object performing a predetermined second operation over a plurality of external images, the detection unit 26 may detect the image of the object as the second instruction image. According to this modification, the user can instruct the start and end of the calibration process of the camera 12 by a predetermined gesture, gesture, and hand gesture.

実施例では、校正開始の指示を示す第1指示画像と、校正終了の指示を示す第2指示画像とを検出する構成としたが、これに限られない。例えば、第3指示画像として、カメラ12の校正処理中に校正処理を中断させる校正中止の指示など別処理の指示画像を設定し、検出するように構成してもよい。これにより、メンテナンス作業者によるメンテナンス性(操作性)が向上する。   In the embodiment, the first instruction image indicating the calibration start instruction and the second instruction image indicating the calibration end instruction are detected. However, the present invention is not limited to this. For example, an instruction image for another process such as a calibration stop instruction for interrupting the calibration process during the calibration process of the camera 12 may be set and detected as the third instruction image. Thereby, the maintainability (operability) by the maintenance worker is improved.

実施例では、カメラ12と運転支援装置14とを別々の構成としたが、カメラ12に運転支援装置14を内蔵させる構成としてもよい。この場合にも同様の効果を享受することができる。   In the embodiment, the camera 12 and the driving support device 14 are configured separately, but the driving support device 14 may be built in the camera 12. In this case, the same effect can be enjoyed.

なお、実施例および変形例に記載の技術は、以下の項目によって特定されてもよい。
[項目1]
車両に設置される車載カメラであって、車両の周辺を示す外界画像を生成する撮像部と、車両の周辺に存在する物体を検出する検出部と、撮像部により生成された外界画像を含む画像情報、あるいは、検出部により検出された物体の検出情報を外部装置へ出力する出力部と、本車載カメラの校正処理を実行する校正部と、を備える車載カメラ。検出部は、撮像部により生成された外界画像の中に、校正開始を示す第1の画像が含まれる場合、そのことを検出し、校正部は、検出部が第1の画像を検出した場合、校正処理を開始する。
この車載カメラの構成によると、撮像部による撮像対象の空間内に存在する校正開始の指示を示す情報(物体等)に応じて校正処理を自動的に実行する。これにより、外部機器(HMI装置等)から校正開始の指示を受け付ける受付部を車載カメラに設ける必要がなくなり、車載カメラのコストを低減することができる。
[項目2]
検出部は、撮像部により生成された外界画像の中に、校正終了の指示を示す第2の画像が含まれる場合、そのことを検出し、校正部は、検出部により第2の画像が検出された場合、校正処理を終了させてもよい。
この態様によると、上記受付部を設けることなく、校正プログラムを終了させることができる。
Note that the techniques described in the examples and the modifications may be specified by the following items.
[Item 1]
An on-vehicle camera installed in a vehicle, an image including an imaging unit that generates an external image indicating the periphery of the vehicle, a detection unit that detects an object existing around the vehicle, and an image including the external image generated by the imaging unit An in-vehicle camera comprising: an output unit that outputs information or detection information of an object detected by the detection unit to an external device; and a calibration unit that executes a calibration process of the in-vehicle camera. The detection unit detects when the first image indicating the start of calibration is included in the external image generated by the imaging unit, and the calibration unit detects the first image when the detection unit detects the first image. Start the calibration process.
According to this configuration of the in-vehicle camera, the calibration process is automatically executed in accordance with information (such as an object) indicating a calibration start instruction existing in the imaging target space by the imaging unit. This eliminates the need to provide the in-vehicle camera with a reception unit that receives an instruction to start calibration from an external device (such as an HMI device), thereby reducing the cost of the in-vehicle camera.
[Item 2]
The detection unit detects that a second image indicating an instruction to end calibration is included in the external image generated by the imaging unit, and the calibration unit detects the second image by the detection unit. If so, the calibration process may be terminated.
According to this aspect, the calibration program can be terminated without providing the reception unit.

上述した実施例および変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施例および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施例および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。   Any combination of the above-described embodiments and modifications is also useful as an embodiment of the present invention. The new embodiment resulting from the combination has the effects of the combined example and modification. Further, it should be understood by those skilled in the art that the functions to be fulfilled by the constituent elements described in the claims are realized by the individual constituent elements shown in the embodiments and the modified examples or by their cooperation.

10 車両、 12 カメラ、 14 運転支援装置、 16 表示装置、 20 撮像部、 24 画像処理部、 26 検出部、 28 出力部、 30 校正部。   DESCRIPTION OF SYMBOLS 10 Vehicle, 12 Cameras, 14 Driving support apparatus, 16 Display apparatus, 20 Imaging part, 24 Image processing part, 26 Detection part, 28 Output part, 30 Calibration part

Claims (2)

車両に設置される車載カメラであって、
車両の周辺を示す外界画像を生成する撮像部と、
車両の周辺に存在する物体を検出する検出部と、
前記撮像部により生成された外界画像を含む画像情報、あるいは、前記検出部により検出された物体の検出情報を外部装置へ出力する出力部と、
本車載カメラの校正処理を実行する校正部と、
を備え、
前記検出部は、前記撮像部により生成された外界画像の中に、校正開始を示す第1の画像が含まれる場合、そのことを検出し、
前記校正部は、前記検出部が前記第1の画像を検出した場合、校正処理を開始する、車載カメラ。
An in-vehicle camera installed in a vehicle,
An imaging unit that generates an external image showing the periphery of the vehicle;
A detection unit for detecting an object existing around the vehicle;
Image information including an external image generated by the imaging unit, or an output unit that outputs detection information of an object detected by the detection unit to an external device;
A calibration unit that executes calibration processing of the in-vehicle camera;
With
When the first image indicating the start of calibration is included in the external image generated by the imaging unit, the detection unit detects that,
The calibration unit is a vehicle-mounted camera that starts a calibration process when the detection unit detects the first image.
前記検出部は、前記撮像部により生成された外界画像の中に、校正終了の指示を示す第2の画像が含まれる場合、そのことを検出し、
前記校正部は、前記検出部により前記第2の画像が検出された場合、校正処理を終了させる請求項1に記載の車載カメラ。
When the second image indicating an instruction to end calibration is included in the external image generated by the imaging unit, the detection unit detects that,
The in-vehicle camera according to claim 1, wherein the calibration unit ends the calibration process when the second image is detected by the detection unit.
JP2017016017A 2017-01-31 2017-01-31 Car camera Active JP6252881B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017016017A JP6252881B1 (en) 2017-01-31 2017-01-31 Car camera
PCT/JP2018/002395 WO2018143064A1 (en) 2017-01-31 2018-01-26 In-vehicle camera
US16/519,047 US20190347829A1 (en) 2017-01-31 2019-07-23 In-vehicle camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017016017A JP6252881B1 (en) 2017-01-31 2017-01-31 Car camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017219833A Division JP6765065B2 (en) 2017-11-15 2017-11-15 In-vehicle camera device

Publications (2)

Publication Number Publication Date
JP6252881B1 JP6252881B1 (en) 2017-12-27
JP2018125684A true JP2018125684A (en) 2018-08-09

Family

ID=60860073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016017A Active JP6252881B1 (en) 2017-01-31 2017-01-31 Car camera

Country Status (1)

Country Link
JP (1) JP6252881B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6745465B1 (en) 2019-03-06 2020-08-26 パナソニックIpマネジメント株式会社 Vehicle and camera module

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011155687A (en) * 2011-04-06 2011-08-11 Aisin Seiki Co Ltd Device for calibration of onboard camera
JP2012504889A (en) * 2008-10-01 2012-02-23 ハイ キー リミテッド Image capturing apparatus calibration method and calibration system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012504889A (en) * 2008-10-01 2012-02-23 ハイ キー リミテッド Image capturing apparatus calibration method and calibration system
JP2011155687A (en) * 2011-04-06 2011-08-11 Aisin Seiki Co Ltd Device for calibration of onboard camera

Also Published As

Publication number Publication date
JP6252881B1 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
US10308283B2 (en) Parking assist apparatus
JP2009284023A (en) Display device for vehicle
CN104584541A (en) Image generating apparatus, image displaying system, parameter acquiring apparatus, image generating method, and parameter acquiring method
US20170015198A1 (en) Information display system
CN113655788B (en) Vehicle remote control parking method, system, terminal equipment and readable storage medium
WO2018143064A1 (en) In-vehicle camera
JP5273819B2 (en) Display device for vehicle and display method for vehicle
EP3939835B1 (en) On-vehicle information display device
JP2017058600A (en) Display control device, image display system, and display control method
JP2018142884A (en) Bird's eye video creation device, bird's eye video creation system, bird's eye video creation method, and program
JP6252881B1 (en) Car camera
WO2018042976A1 (en) Image generation device, image generation method, recording medium, and image display system
JP2015171106A (en) Vehicle peripheral image display device and vehicle peripheral image display method
JP7075273B2 (en) Parking support device
KR102276863B1 (en) Image processing apparatus and image processing method
JP2018125844A (en) On-vehicle camera
JP4679816B2 (en) Vehicle periphery display control device
JP4782724B2 (en) Apparatus and method for task execution
JP2007088577A (en) Vehicle surrounding image processing system
JP6643685B2 (en) In-vehicle camera
CN115593363A (en) Car washing device, car washing method, storage medium storing car washing program, and car washing system
JP6488628B2 (en) Video processing apparatus and in-vehicle video processing system
JP4982255B2 (en) In-vehicle display device
JP2016211998A (en) Vehicle regulatory speed display device
JP2019087100A (en) Display control system for vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170710

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171115

R151 Written notification of patent or utility model registration

Ref document number: 6252881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03