JP2024065631A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2024065631A
JP2024065631A JP2022174599A JP2022174599A JP2024065631A JP 2024065631 A JP2024065631 A JP 2024065631A JP 2022174599 A JP2022174599 A JP 2022174599A JP 2022174599 A JP2022174599 A JP 2022174599A JP 2024065631 A JP2024065631 A JP 2024065631A
Authority
JP
Japan
Prior art keywords
image
controller
input
camera
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022174599A
Other languages
Japanese (ja)
Inventor
晋明 鍜治本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2022174599A priority Critical patent/JP2024065631A/en
Publication of JP2024065631A publication Critical patent/JP2024065631A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

【課題】画像の固着を効率良く検知すること。【解決手段】実施形態の画像処理装置は、画像を生成する第1のコントローラと、第1のコントローラ又は第1のコントローラ以外の装置から入力された画像を出力する第2のコントローラと、を備える。第2のコントローラは、第1のコントローラからの画像入力が開始されたか否かに応じて、入力される画像の固着を検知する処理を行うか否かを決定する。【選択図】図1[Problem] To efficiently detect image sticking. [Solution] An image processing device according to an embodiment includes a first controller that generates an image, and a second controller that outputs an image input from the first controller or a device other than the first controller. The second controller determines whether or not to perform processing to detect sticking of the input image, depending on whether image input from the first controller has started. [Selected Figure] Figure 1

Description

本発明は、画像処理を行う技術に関する。 The present invention relates to a technology for performing image processing.

従来、画像の出力に関する処理を行う装置に備えられた2つのプロセッサ(例えば、マイコン又はCPU(Central Processing Unit))のうち、一方のプロセッサが、他方のプロセッサの異常に対応する技術が知られている。 Conventionally, a technology is known in which one of two processors (e.g., a microcomputer or a central processing unit (CPU)) provided in a device that processes image output responds to an abnormality in the other processor.

例えば、特許文献1には、第1のCPUと第2のCPUを備えた車両用データ処理装置が記載されている。第1のCPUは、カメラによって撮影された画像にガイド線及びHMI(Human Machine Interface)表示を付加した画像を出力する。第2のCPUは、第1のCPUの起動が完了していない場合、又は第1のCPUを含む基板の動作に異常が発生した場合に、第1のCPUに代わって、カメラによって撮影された画像をそのまま出力する。 For example, Patent Document 1 describes a vehicle data processing device that includes a first CPU and a second CPU. The first CPU outputs an image captured by a camera with guide lines and HMI (Human Machine Interface) display added. If the first CPU has not completed booting or if an abnormality occurs in the operation of the board including the first CPU, the second CPU outputs the image captured by the camera as is, instead of the first CPU.

また、例えば、特許文献2には、メインマイコンと追加マイコンが備えられた車両用表示システムが記載されている。メインマイコンは、車外の映像に基づく複数フレームの表示画像を順番に出力する。追加マイコンは、メインマイコンから出力される複数のフレームの変化を基に、表示画像のフリーズ(固着)を検出する。 For example, Patent Document 2 describes a vehicle display system equipped with a main microcomputer and an additional microcomputer. The main microcomputer sequentially outputs multiple frames of a display image based on an image outside the vehicle. The additional microcomputer detects freezing of the display image based on changes in the multiple frames output from the main microcomputer.

特開2014-197370号公報JP 2014-197370 A 特開2018-79839号公報JP 2018-79839 A

しかしながら、従来の技術には、出力される画像の固着を効率良く検知できない場合があるという問題がある。 However, conventional technology has the problem that it may not be possible to efficiently detect stuck images when they are output.

例えば、特許文献1には、第1のCPUを含む基板の異常検知を、どのような期間に行うかが記載されていない。特許文献1に記載の技術においては、第1のCPUが画像を出力していない間は、第2のCPUが画像を出力する。また、第2のCPUは、カメラによって撮影された画像をそのまま出力するため、固着のような異常が発生しづらいことが考えられる。そのため、特に第1のCPUが画像を出力していない期間に固着検知を含む異常検知を行うことは、特に画像の異常を検知するという目的においては無駄な場合がある。 For example, Patent Document 1 does not describe the period during which abnormality detection of the board including the first CPU is performed. In the technology described in Patent Document 1, the second CPU outputs images while the first CPU is not outputting images. Also, since the second CPU outputs the image captured by the camera as is, it is considered that abnormalities such as sticking are less likely to occur. Therefore, performing abnormality detection including sticking detection during a period when the first CPU is not outputting images may be wasteful, especially in terms of the purpose of detecting image abnormalities.

また、例えば、特許文献2には、メインマイコンの動作状況、特にメインマイコンが特にどのような画像を出力しているかに応じて、追加マイコンが固着の検出を行うことが記載されていない。メインマイコンが出力する画像によっては、固着が発生する可能性が非常に低いこともあるため、メインマイコンの動作状況を考慮せずに固着の検出を行う場合、無駄が発生することが考えられる。 Furthermore, for example, Patent Document 2 does not state that the additional microcontroller detects sticking depending on the operating status of the main microcontroller, in particular the type of image that the main microcontroller is outputting. Depending on the image that the main microcontroller outputs, the possibility of sticking occurring may be extremely low, so if sticking detection is performed without considering the operating status of the main microcontroller, it is conceivable that waste will occur.

このように、従来の技術では、無駄な処理、及び検知漏れが発生することから、画像の固着検知を効率良く行うことができない場合がある。 As such, conventional technology can result in unnecessary processing and missed detections, making it difficult to efficiently detect image sticking.

上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、画像を生成する第1のコントローラと、第1のコントローラ又は第1のコントローラ以外の装置から入力された画像を出力する第2のコントローラと、を備える。第2のコントローラは、第1のコントローラからの画像入力が開始されたか否かに応じて、入力される画像の固着を検知する処理を行うか否かを決定する。 In order to solve the above-mentioned problems and achieve the object, the image processing device according to the present invention includes a first controller that generates an image, and a second controller that outputs an image input from the first controller or a device other than the first controller. The second controller determines whether or not to perform processing to detect adhesion of the input image depending on whether or not image input from the first controller has started.

本発明によれば、画像の固着を効率良く検知することができる。 According to the present invention, image sticking can be detected efficiently.

図1は、画像処理装置の構成例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of an image processing apparatus. 図2は、画像処理装置によって実行される処理のタイムチャートである。FIG. 2 is a time chart of the processing executed by the image processing device. 図3は、電源MCUの処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing the flow of processing by the power supply MCU. 図4は、SoCの処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the flow of processing of the SoC. 図5は、映像ICの処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of processing in the video IC.

以下、添付図面を参照して、本願の開示する画像処理装置及び画像処理方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Below, embodiments of the image processing device and image processing method disclosed in the present application will be described in detail with reference to the attached drawings. Note that the present invention is not limited to the embodiments described below.

図1を用いて、画像処理装置の構成を説明する。図1は、画像処理装置の構成例を示す図である。 The configuration of the image processing device will be described using Figure 1. Figure 1 is a diagram showing an example of the configuration of an image processing device.

図1に示す画像処理装置10は、車両に搭載される。画像処理装置10は、カメラ20及び車両制御装置30と接続される。画像処理装置10は、例えばCAN(Controller Area Network)通信により、カメラ20及び車両制御装置30との間でデータの送受信を行う。 The image processing device 10 shown in FIG. 1 is mounted on a vehicle. The image processing device 10 is connected to a camera 20 and a vehicle control device 30. The image processing device 10 transmits and receives data between the camera 20 and the vehicle control device 30, for example, by CAN (Controller Area Network) communication.

カメラ20は、車両に備えられる。本実施形態では、カメラ20は車両の後部に備えられる。例えば、カメラ20は、車両が後方に進行する際に車両の後方を撮影する。 The camera 20 is provided in the vehicle. In this embodiment, the camera 20 is provided in the rear of the vehicle. For example, the camera 20 captures an image of the rear of the vehicle as the vehicle moves backward.

なお、カメラ20は、車両の前方及び車両の内部を撮影するものであってもよい。また、カメラ20は、車両の周囲を撮影するいわゆる全周囲カメラであってもよい。 The camera 20 may capture images of the front of the vehicle and the interior of the vehicle. The camera 20 may also be a so-called all-around camera that captures images of the surroundings of the vehicle.

車両制御装置30は、車両を制御する。車両制御装置30は、例えばECU(Electronic Control Unit)である。車両制御装置30は、車両の動作に応じた信号を他の装置に送信する。例えば、車両制御装置30は、車両のギアがリバースに変更されたことを示すREV信号を送信する。 The vehicle control device 30 controls the vehicle. The vehicle control device 30 is, for example, an ECU (Electronic Control Unit). The vehicle control device 30 transmits signals to other devices according to the operation of the vehicle. For example, the vehicle control device 30 transmits a REV signal indicating that the gear of the vehicle has been shifted to reverse.

画像処理装置10は、ディスプレイに画像を表示する。画像処理装置10は、入力された画像を加工することなくそのまま表示することができる。また、画像処理装置10は、入力された画像を加工することができる。また、画像処理装置10は、加工した画像を表示することができる。なお、ここでいう画像には、静止画像及び動画像の両方が含まれる。以降の説明では、動画像を映像と呼ぶ場合がある。 The image processing device 10 displays an image on a display. The image processing device 10 can display an input image as is without processing it. The image processing device 10 can also process an input image. The image processing device 10 can also display a processed image. Note that the image referred to here includes both still images and moving images. In the following description, moving images may be referred to as video.

なお、画像処理装置10には、撮影された車両の外部又は内部の画像、カーナビゲーションシステムの画面、車両に関する情報をドライバに提示するための画面、娯楽用の映像コンテンツ等が入力される。画像処理装置10は、画像だけでなく音声を出力することができる。画像処理装置10は、ディスプレイオーディオと呼ばれる場合がある。 The image processing device 10 receives input of captured images of the exterior or interior of the vehicle, a car navigation system screen, a screen for presenting information about the vehicle to the driver, video content for entertainment, etc. The image processing device 10 can output not only images but also audio. The image processing device 10 is sometimes called a display audio.

次に、画像処理装置10の構成及び動作について説明する。以下では、まず、画像処理装置10の構成について説明した後に、画像処理装置10の各構成における動作について説明することとする。 Next, the configuration and operation of the image processing device 10 will be described. In the following, we will first explain the configuration of the image processing device 10, and then explain the operation of each component of the image processing device 10.

[画像処理装置の構成]
図1に示すように、画像処理装置10は、表示部11、映像IC(Integrated Circuit)12、SoC(System on a Chip)13、記憶部14、電源MCU(Micro Controller Unit)15、及び信号検知回路16を備える。
[Configuration of the image processing device]
As shown in FIG. 1, the image processing device 10 includes a display unit 11, a video IC (Integrated Circuit) 12, a SoC (System on a Chip) 13, a memory unit 14, a power supply MCU (Micro Controller Unit) 15, and a signal detection circuit 16.

表示部11は、入力された信号を基に画像を表示する。表示部11は、例えば液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイである。 The display unit 11 displays an image based on the input signal. The display unit 11 is, for example, a liquid crystal display or an organic EL (Electro Luminescence) display.

映像IC12は、画像に関する処理を行うICである。映像IC12は、A/D変換回路121、映像MCU122、MUX(multiplexer)123及びレジスタ124を備える。 The video IC 12 is an IC that performs image processing. The video IC 12 includes an A/D conversion circuit 121, a video MCU 122, a MUX (multiplexer) 123, and a register 124.

A/D変換回路121は、入力されたアナログ信号をデジタル信号に変換する。A/D変換回路121は、変換によって得られたデジタル信号を出力する。 The A/D conversion circuit 121 converts the input analog signal into a digital signal. The A/D conversion circuit 121 outputs the digital signal obtained by the conversion.

映像MCU122は、送受信される信号、及び記憶装置に記憶されたデータを監視する。また、映像MCU122は、映像の固着を検知する処理を行う。 The video MCU 122 monitors the signals being sent and received, and the data stored in the storage device. The video MCU 122 also performs processing to detect image freeze.

例えば、映像MCU122は、映像におけるビューポイントと呼ばれる1つ以上の特定の画素(又は領域)が、一定時間変化しなかった場合に当該映像が固着していることを検知する。また、例えば、映像MCU122は、SoC13から出力された映像に対して固着検知を行う。なお、映像MCU122による固着検知の方法、及び固着検知の対象の映像はここで説明したものに限られない。 For example, the video MCU 122 detects that the video is stuck when one or more specific pixels (or areas) in the video, called viewpoints, do not change for a certain period of time. Also, for example, the video MCU 122 performs sticking detection on the video output from the SoC 13. Note that the method of sticking detection by the video MCU 122 and the video that is the subject of sticking detection are not limited to those described here.

MUX(multiplexer)123は、複数の信号を統合する。また、MUX123は、統合した信号を出力する。 The MUX (multiplexer) 123 combines multiple signals. The MUX 123 also outputs the combined signal.

レジスタ124は、MCUの状態に関する情報を記憶する。 Register 124 stores information about the state of the MCU.

SoC13は、入力された画像を加工する。SoC13は、加工した画像を出力する。SoC13が加工した画像を出力する処理を生成と呼ぶ。すなわち、SoC13は画像を生成する。 SoC13 processes the input image. SoC13 outputs the processed image. The process by which SoC13 outputs the processed image is called generation. In other words, SoC13 generates an image.

SoC13は、HMIの追加、カメラ画像へのオブジェクト(ガイド線、コーションメッセージ等)の描画、I(Interlace)/P(Progressive)変換等を行う。 SoC13 adds HMI, draws objects (guide lines, caution messages, etc.) on the camera image, performs I (Interlace)/P (Progressive) conversion, etc.

例えば、SoC13は、カメラ20が車両の後方を撮影する場合、撮影された画像に車両の進路を予測するガイド線を重畳表示させる。 For example, when the camera 20 captures an image of the rear of the vehicle, the SoC 13 superimposes guide lines that predict the vehicle's course on the captured image.

例えば、SoC13は、カメラ20が車両の周囲を撮影する場合、撮影された画像をつなぎ合わせ、車両を上空から見下ろした鳥瞰視点の画像を生成する。 For example, when the camera 20 captures images of the vehicle's surroundings, the SoC 13 stitches together the captured images to generate a bird's-eye view image of the vehicle as seen from above.

記憶部14は、映像のデータを記憶する。記憶部14は、例えばフラッシュメモリである。 The storage unit 14 stores the video data. The storage unit 14 is, for example, a flash memory.

電源MCU15は、入力された信号に応じて複数の装置に対して信号を出力する。 The power supply MCU 15 outputs signals to multiple devices according to the input signals.

信号検知回路16は、入力された信号の電圧の変化に応じた信号を出力する。例えば、信号検知回路16は、入力された信号の電圧が閾値を超えたか否かを二値の信号として出力する。 The signal detection circuit 16 outputs a signal corresponding to a change in the voltage of the input signal. For example, the signal detection circuit 16 outputs a binary signal indicating whether or not the voltage of the input signal exceeds a threshold value.

ここで、第1のコントローラ及び第2のコントローラ(以降、区別せずにコントローラと呼ぶ)は、コンピュータのCPUがコントローラとして機能し、ROM(Read Only Memory)に記憶されたプログラムを読み出して実行することによって実現される。 Here, the first controller and the second controller (hereafter referred to as controllers without distinction) are realized by the computer's CPU functioning as a controller and reading and executing a program stored in a ROM (Read Only Memory).

SoC13は、第1のコントローラの一例である。映像MCU122は、第2のコントローラの一例である。 SoC13 is an example of a first controller. Video MCU122 is an example of a second controller.

また、コントローラは、CPU、DSP(Digital Signal Processor)、ECU、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等によって実現されてもよい。 The controller may also be realized by a CPU, a DSP (Digital Signal Processor), an ECU, an FPGA (Field Programmable Gate Array), a GPU (Graphics Processing Unit), etc.

また、コントローラは、単一のプロセッサであってもよいし、マルチプロセッサ構成であってもよい。また、コントローラは、単一のソケットで接続される単一のチップ内に複数のコアを有するマルチコア構成であってもよい。 The controller may be a single processor or a multi-processor configuration. The controller may also be a multi-core configuration with multiple cores in a single chip connected to a single socket.

[画像処理装置の動作]
図2を用いて、画像処理装置10の動作を説明する。図2は、画像処理装置によって実行される処理のタイムチャートである。なお、以降の説明において、時刻taから時刻t(ただしt≧t)までの時間をt-tのように表記する。
[Operation of the image processing device]
The operation of the image processing device 10 will be described with reference to Fig. 2. Fig. 2 is a time chart of the processing executed by the image processing device. In the following description, the time from time ta to time tb (where tbta ) will be expressed as tb - ta .

また、初期状態では、映像MCU122は映像の固着検知を行わないものとする。 In addition, in the initial state, the video MCU 122 does not perform video fixation detection.

カメラ20は、撮影した画像を画像処理装置10に入力する。カメラ20は、撮影を行っていない間は画像処理装置10に画像を入力しない。 The camera 20 inputs the captured images to the image processing device 10. The camera 20 does not input images to the image processing device 10 while not capturing images.

カメラ20は、特定の条件が満たされている場合に撮影を行う。カメラ20は、車両のギアがリバースである場合に撮影を行うものとする。カメラ20は、車両のギアの情報を車両制御装置30から取得する。 The camera 20 takes pictures when certain conditions are met. The camera 20 takes pictures when the vehicle's gear is in reverse. The camera 20 obtains information about the vehicle's gear from the vehicle control device 30.

車両制御装置30は、車両のギアがリバースに変更された場合、画像処理装置10にREV信号を送信する。 When the vehicle gear is shifted to reverse, the vehicle control device 30 sends a REV signal to the image processing device 10.

信号検知回路16は、REV信号の電圧が閾値を超えた場合(時刻t)、REV-DET信号を電源MCU15に送信する(時刻t)。 When the voltage of the REV signal exceeds a threshold value (time t 1 ), the signal detection circuit 16 transmits a REV-DET signal to the power supply MCU 15 (time t 2 ).

電源MCU15は、REV-DET信号を受信すると、映像IC12及びSoC13に対してREV-OUT信号を送信する(時刻t)。 Upon receiving the REV-DET signal, the power supply MCU 15 transmits a REV-OUT signal to the video IC 12 and the SoC 13 (time t 3 ).

SoC13は、REV-OUT信号を受信すると、カメラ20から入力された画像を加工する処理を開始する(時刻t)。 Upon receiving the REV-OUT signal, SoC 13 starts processing the image input from camera 20 (time t 3 ).

このとき、A/D変換回路121は、カメラ20から出力された画像をSoC13に出力しているものとする。A/D変換回路121は、映像MCU122を介して画像をSoC13に出力してもよいし、画像を直接SoC13に出力してもよい。 At this time, the A/D conversion circuit 121 is assumed to be outputting the image output from the camera 20 to the SoC 13. The A/D conversion circuit 121 may output the image to the SoC 13 via the video MCU 122, or may output the image directly to the SoC 13.

SoC13は、時刻tに、映像IC12との間でI2C(Inter-Integrated Circuit)通信を確立する処理を開始する(UBOOT1)。そして、SoC13は、時刻tに、画像処理を行うためにプログラム及びデータをメインメモリへ展開する処理(UBOOT2)を開始する。さらに、SoC13は、時刻tに、実際に画像を加工する処理(Kernel)を開始する。その後、SoC13は、時刻tに、加工済みの画像(SoCカメラ画像)の出力を開始する。 At time t3 , SoC 13 starts a process to establish I2C (Inter-Integrated Circuit) communication with video IC 12 (UBOOT1). Then, at time t4 , SoC 13 starts a process to load programs and data to main memory for image processing (UBOOT2). Furthermore, at time t6 , SoC 13 starts a process to actually process the image (Kernel). After that, at time t8 , SoC 13 starts outputting the processed image (SoC camera image).

映像IC12は、I2C通信が確立すると(時刻t)、表示部11が出力する映像をバイパスカメラ画像に切り替える処理を開始する。なお、ここで説明する映像IC12の処理は、実際には映像MCU122によって行われてもよい。 When the I2C communication is established (time t 4 ), the video IC 12 starts a process of switching the video output by the display unit 11 to the bypass camera image. Note that the process of the video IC 12 described here may actually be performed by the video MCU 122.

この時点では、表示部11は、映像として黒画像を出力しているものとする。また、映像IC12は、バイパスカメラ画像への切り替えが行われるまでは、記憶部14から取得したデータに基づく映像を表示部11に出力させてもよい。 At this point, the display unit 11 is assumed to be outputting a black image as the video. In addition, the video IC 12 may cause the display unit 11 to output a video based on data acquired from the memory unit 14 until switching to the bypass camera image is performed.

映像IC12は、映像を切り替える処理が終了すると(時刻t)、バイパスカメラ画像を表示部11に出力する。バイパスカメラ画像は、カメラ20から入力された画像であって、SoC13による加工が行われていない画像である。 When the image switching process is completed (time t5 ), the image IC 12 outputs the bypass camera image to the display unit 11. The bypass camera image is an image input from the camera 20, and is an image that has not been processed by the SoC 13.

時刻tに、SoC13によるSoCカメラ画像の出力が開始される。また、時刻tに、映像IC12及び表示部11によるSoCカメラ画像の出力が開始される。 At time t8 , the SoC 13 starts outputting the SoC camera image. Also at time t8 , the video IC 12 and the display unit 11 start outputting the SoC camera image.

さらに、時刻t、又は時刻tとほぼ同時に映像MCU122による固着検知が有効になる。なお、時刻tとほぼ同時とは、時刻tから後に説明する監視周期だけ時間が経過するまでの間である。 Furthermore, at time t8 or substantially simultaneously with time t8 , the video MCU 122 enables sticking detection. Note that substantially simultaneously with time t8 refers to the period from time t8 until a monitoring period, which will be described later, has elapsed.

このように、映像MCU122は、バイパスカメラ画像が出力されている間は固着検知を無効化しておき、バイパスカメラ画像と比べて固着する可能性が高いSoCカメラ画像が出力されている間は固着検知を有効化する。これにより、SoCカメラ画像の固着検知を無駄なく行うことが可能になる。 In this way, the video MCU 122 disables sticking detection while the bypass camera image is being output, and enables sticking detection while the SoC camera image, which is more likely to stick than the bypass camera image, is being output. This makes it possible to efficiently detect sticking of the SoC camera image.

[固着検知の有効化手順]
映像IC12には、SoC13又はSoC13以外の装置(例えばカメラ20)から画像が入力される。そして、映像IC12は、SoC13又はSoC13以外の装置から入力された画像を出力する。
[Procedure for enabling sticking detection]
An image is input to the video IC 12 from the SoC 13 or a device other than the SoC 13 (for example, the camera 20). Then, the video IC 12 outputs the image input from the SoC 13 or the device other than the SoC 13.

ここで、レジスタ124の特定のアドレスには、画像の入力元に応じて変化する値が格納されている。この値は、SoC13からSoCカメラ画像の入力が開始された際に変化する。当該アドレスの値は、例えばSoCカメラ画像が入力中であることを示す値と、カメラ20からの画像が入力中であることを示す値との2種類の値を持つ二値であってもよい。 Here, a value that changes depending on the image input source is stored at a specific address in register 124. This value changes when input of a SoC camera image starts from SoC 13. The value of the address may be a binary value having two types of values, for example, a value indicating that a SoC camera image is being input and a value indicating that an image from camera 20 is being input.

映像MCU122は、画像の入力元に応じて変化するレジスタ124の値を参照し、当該値がSoC13から画像が入力されていることを示している場合に、固着検知を有効化する。固着検知を有効化することは、入力される画像の固着を検知する処理を行うことを決定すること、及び実際に固着検知を開始することを含む。 The video MCU 122 references the value of register 124, which changes depending on the image input source, and enables sticking detection when the value indicates that an image is being input from SoC 13. Enabling sticking detection includes deciding to perform processing to detect sticking of the input image, and actually starting sticking detection.

このように、映像MCU122は、レジスタ124の特定の値を参照するだけで、容易に固着検知を有効化するタイミングを判断できる。 In this way, the video MCU 122 can easily determine the timing to enable sticking detection by simply referencing a specific value in the register 124.

このように、映像MCU122は、SoC13からの画像入力が開始されたか否かに応じて、入力される画像の固着を検知する処理を行うか否かを決定する。 In this way, the video MCU 122 determines whether or not to perform processing to detect freezing of the input image depending on whether image input from SoC 13 has started.

例えば、映像MCU122は、特定の監視周期(例えば1ms~5ms程度)でレジスタ124を監視することで、タイムラグを発生させることなく固着検知を有効化できる。その結果、画像処理装置10は、出力される画像の固着を効率良く検知できる。 For example, the video MCU 122 can enable sticking detection without causing a time lag by monitoring the register 124 at a specific monitoring cycle (e.g., about 1 ms to 5 ms). As a result, the image processing device 10 can efficiently detect sticking of the output image.

また、映像MCU122は、レジスタ124の値がカメラ20から画像が入力されていることを示している場合、固着検知を無効化する。すなわち、映像MCU122は、SoC13からの画像入力が開始されていない場合であって、カメラ20からの画像入力が開始された場合に、入力される画像の固着を検知する処理を行わないことを決定する。 In addition, the video MCU 122 disables the sticking detection when the value of the register 124 indicates that an image is being input from the camera 20. In other words, when image input from the SoC 13 has not started and image input from the camera 20 has started, the video MCU 122 decides not to perform processing to detect sticking of the input image.

これにより、映像MCU122は、固着検知の有効化だけでなく、固着検知の無効化を、タイムラグを発生することなく行うことができる。その結果、画像処理装置10は、出力される画像の固着をさらに効率良く検知できる。 This allows the video MCU 122 to not only enable sticking detection, but also disable sticking detection without any time lag. As a result, the image processing device 10 can more efficiently detect sticking of the output image.

なお、レジスタ124の値は、SoCカメラ画像が入力中であるか否かを優先的に示すものであってもよい。その場合、SoC13とカメラ20の両方から映像IC12に画像が入力されている場合、レジスタ124の値は、SoCカメラ画像が入力中であることを示す値となる。SoC13から映像IC12に画像が入力されていない場合、レジスタ124の値は、カメラ20からの画像が入力中であることを示す値となる。 The value of register 124 may preferentially indicate whether or not a SoC camera image is being input. In that case, when images are being input to video IC 12 from both SoC 13 and camera 20, the value of register 124 indicates that a SoC camera image is being input. When no image is being input from SoC 13 to video IC 12, the value of register 124 indicates that an image from camera 20 is being input.

前述の特許文献1又は特許文献2に記載の技術において発生する無駄をなくすため、例えばREV信号の発生時点(時刻t)から一定時間が経過した後に画像の固着検知を開始することが考えられる。この場合、実際に画像の出力が開始されるタイミングと、固着検知が開始されるタイミングとの間にタイムラグが生じ、検知漏れが発生することがあり得る。 In order to eliminate the waste that occurs in the techniques described in the above-mentioned Patent Document 1 or Patent Document 2, it is conceivable to start image sticking detection after a certain time has elapsed from the point in time when the REV signal is generated (time t1 ). In this case, a time lag occurs between the timing when the image output actually starts and the timing when sticking detection starts, which may result in missed detection.

例えば、REV信号の発生時点から2.5秒が経過したタイミングで固着検知を有効化する場合を考える。時刻tからSoC13がKernelを実行中のある時点(時刻t)までの時間t-tが2秒程度である。そして、tから2.5秒が経過した時刻tは、tより後である。 For example, consider a case where the stuck detection is enabled 2.5 seconds after the REV signal is generated. The time t - t from time t to a point (time t ) when the SoC 13 is executing the kernel is about 2 seconds. The time t after t is 2.5 seconds.

このため、時間t-tだけタイムラグが発生する。また、タイムラグの間に検知漏れが発生する可能性がある。なお、SoCカメラ画像の出力が開始される前に、時刻tから2.5秒が経過した場合は、固着検知が無駄に有効化される期間が発生する。 Therefore, a time lag of t9 - t8 occurs. Also, there is a possibility that a detection miss occurs during the time lag. Note that if 2.5 seconds have passed since time t1 before the output of the SoC camera image starts, a period will occur during which the sticking detection is needlessly enabled.

本実施形態によれば、固着検知が無駄に有効化される期間が削減されるだけでなく、タイムラグによる検知漏れが生じることが防止される。 This embodiment not only reduces the period during which the sticking detection is unnecessarily enabled, but also prevents missed detections due to time lags.

図2の例では、SoC13は、車両のギアがリバースに変更されたことを示す信号(REV-OUT信号)を受信した場合に、車両に備えられたカメラ20から入力された画像を加工して映像MCU122に出力する処理を開始する。また、映像MCU122は、REV-OUT信号を受信した場合、カメラ20から入力された画像を出力するとともに、SoC13からの画像入力が開始されたか否かを確認する。そして、映像MCU122は、SoC13からの画像入力が開始されたことを確認した場合に、入力される画像の固着を検知することを決定する。 In the example of FIG. 2, when SoC13 receives a signal (REV-OUT signal) indicating that the vehicle gear has been changed into reverse, it starts a process of processing the image input from the camera 20 mounted on the vehicle and outputting it to the video MCU 122. Also, when the video MCU 122 receives the REV-OUT signal, it outputs the image input from the camera 20 and checks whether image input from SoC13 has started. Then, when the video MCU 122 checks that image input from SoC13 has started, it decides to detect the fixation of the input image.

なお、SoC13及び映像MCU122が処理を開始するトリガは、上記のREV-OUT信号に限られず、車両のギアの変更を示す任意の信号であってよい。 Note that the trigger for SoC13 and video MCU122 to start processing is not limited to the REV-OUT signal described above, but may be any signal that indicates a change in vehicle gear.

これにより、映像MCU122は、車両の動作に追従して固着検知を有効化することができる。その結果、画像処理装置10は、車両の動作に合わせて、出力される画像の固着をさらに効率良く検知できる。 This allows the video MCU 122 to enable sticking detection in response to the vehicle's movements. As a result, the image processing device 10 can more efficiently detect sticking of the output image in accordance with the vehicle's movements.

[画像処理装置の処理の流れ]
フローチャートを用いて、電源MCU15、映像IC12、SoC13の処理の流れを説明する。
[Processing flow of image processing device]
The process flow of the power supply MCU 15, the video IC 12, and the SoC 13 will be described using a flowchart.

図3は、電源MCUの処理の流れを示すフローチャートである。図3に示すように、電源MCU15は、特定の信号が発生するまで待機する(ステップS101、No)。すなわち、電源MCU15は、車両制御装置30から信号検知回路16を介して特定の信号(例えばREV-DET信号)を受信するまで待機する。 Figure 3 is a flowchart showing the processing flow of the power supply MCU. As shown in Figure 3, the power supply MCU 15 waits until a specific signal is generated (step S101, No). In other words, the power supply MCU 15 waits until it receives a specific signal (e.g., a REV-DET signal) from the vehicle control device 30 via the signal detection circuit 16.

特定の信号が発生すると(ステップS101、Yes)、電源MCU15は、映像IC12とSoC13に信号が発生したことを通知する(ステップS102)。すなわち、電源MCU15は、特定の信号(例えばREV-DET)を受信すると、当該信号の発生を映像IC12とSoC13で解釈可能な形式(例えばREV-OUT信号)で通知する。 When a specific signal occurs (step S101, Yes), the power supply MCU 15 notifies the video IC 12 and SoC 13 that a signal has occurred (step S102). That is, when the power supply MCU 15 receives a specific signal (e.g., REV-DET), it notifies the video IC 12 and SoC 13 of the occurrence of the signal in a format that can be interpreted by the video IC 12 and SoC 13 (e.g., a REV-OUT signal).

図4は、SoCの処理の流れを示すフローチャートである。図4に示すように、SoC13は、特定の信号が発生したことが通知されるまで待機する(ステップS201、No)。すなわち、SoC13は、電源MCU15から通知に相当する信号(例えばREV-OUT信号)を受信するまで待機する。 Figure 4 is a flowchart showing the flow of SoC processing. As shown in Figure 4, SoC13 waits until it is notified that a specific signal has occurred (step S201, No). In other words, SoC13 waits until it receives a signal equivalent to the notification (e.g., a REV-OUT signal) from power supply MCU15.

特定の信号が発生したことが通知されると(ステップS201、Yes)、SoC13は、映像IC12から取得したカメラ画像(カメラ20によって撮影された画像)を基にSoCカメラ画像を生成する(ステップS202)。そして、SoC13は、生成した画像を映像IC12に出力する(ステップS203)。 When notified that a specific signal has been generated (step S201, Yes), SoC13 generates a SoC camera image based on the camera image (image captured by camera 20) acquired from video IC12 (step S202). Then, SoC13 outputs the generated image to video IC12 (step S203).

すなわち、ステップS203以降は、映像IC12にSoC13によって加工されたカメラ画像が入力される。 In other words, from step S203 onwards, the camera image processed by the SoC13 is input to the video IC12.

図5は、映像ICの処理の流れを示すフローチャートである。図5に示す各処理は、映像MCU122によって実行される。図5に示すように、映像MCU122は、特定の信号が発生したことが通知されるまで待機する(ステップS301、No)。すなわち、映像MCU122は、電源MCU15から通知に相当する信号(例えばREV-OUT信号)を受信するまで待機する。 Figure 5 is a flowchart showing the flow of processing in the video IC. Each process shown in Figure 5 is executed by the video MCU 122. As shown in Figure 5, the video MCU 122 waits until it is notified that a specific signal has occurred (step S301, No). In other words, the video MCU 122 waits until it receives a signal equivalent to the notification (e.g., a REV-OUT signal) from the power supply MCU 15.

特定の信号が発生したことが通知されると(ステップS301、Yes)、映像MCU122は、SoC13からSoC画像(SoCから入力される画像)が取得可能であるか否かを確認する(ステップS302)。 When notified that a specific signal has occurred (step S301, Yes), the video MCU 122 checks whether a SoC image (an image input from the SoC) can be acquired from the SoC 13 (step S302).

映像MCU122は、SoC13からSoC画像を取得可能であれば(ステップS302、Yes)、表示部11にSoC画像を出力する(ステップS303)。 If the video MCU 122 is able to acquire a SoC image from the SoC 13 (step S302, Yes), it outputs the SoC image to the display unit 11 (step S303).

一方、映像MCU122は、SoC13からSoC画像を取得可能でなければ(ステップS302、No)、表示部11にバイパスカメラ画像(カメラ画像そのもの)を出力する(ステップS304)。 On the other hand, if the video MCU 122 is unable to acquire the SoC image from the SoC 13 (step S302, No), it outputs the bypass camera image (the camera image itself) to the display unit 11 (step S304).

すなわち、映像MCU122は、SoC13による画像の出力が開始された後は、SoC画像を出力する。 In other words, after the output of an image by the SoC 13 begins, the video MCU 122 outputs the SoC image.

なお、映像IC12は、映像MCU122を介さずにA/D変換回路121及びMUX123を介して表示部11に直接バイパスカメラ画像を出力してもよい。 The video IC 12 may output the bypass camera image directly to the display unit 11 via the A/D conversion circuit 121 and MUX 123 without going through the video MCU 122.

ここで、映像MCU122は、レジスタ124の値を確認する(ステップS305)。当該レジスタ124の値には、映像IC12にSoC13から画像が入力されているか否かが示されている。 Here, the video MCU 122 checks the value of the register 124 (step S305). The value of the register 124 indicates whether or not an image is being input from the SoC 13 to the video IC 12.

レジスタ124の値が映像IC12にSoC13から画像が入力されていないことを示す値である場合(ステップS305、バイパスカメラ側)、映像MCU122は、固着検知を無効化する(ステップS306)。すなわち、映像MCU122は、バイパスカメラ画像については固着検知を行わない。 If the value of register 124 indicates that no image is being input from SoC 13 to video IC 12 (step S305, bypass camera side), video MCU 122 disables sticking detection (step S306). In other words, video MCU 122 does not perform sticking detection on bypass camera images.

なお、SoC13から映像IC12へ画像が入力されていない場合の画像の入力元は、バイパスカメラに限られず、例えば記憶部14等にあらかじめ保存された画像であってもよい。 When no image is input from SoC 13 to video IC 12, the source of the image input is not limited to the bypass camera, but may be, for example, an image stored in advance in memory unit 14, etc.

一方、レジスタ124の値が映像IC12にSoC13から画像が入力されていることを示す値である場合(ステップS305、SoC側)、映像MCU122は、固着検知を有効化する(ステップS307)。すなわち、映像MCU122は、SoC画像については固着検知を行う。 On the other hand, if the value of register 124 indicates that an image is being input from SoC 13 to video IC 12 (step S305, SoC side), video MCU 122 enables sticking detection (step S307). That is, video MCU 122 performs sticking detection for the SoC image.

ステップS306又はステップS307の後、映像MCU122はステップS302に戻る。 After step S306 or step S307, the video MCU 122 returns to step S302.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細及び代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲及びその均等物によって定義される総括的な発明の概念の精神又は範囲から逸脱することなく、様々な変更が可能である。 Further advantages and modifications may readily occur to those skilled in the art. Therefore, the invention in its broader aspects is not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and equivalents thereof.

10 画像処理装置
11 表示部
12 映像IC
13 SoC
14 記憶部
15 電源MCU
16 信号検知回路
20 カメラ
30 車両制御装置
121 A/D変換回路
122 映像MCU
123 MUX
124 レジスタ
10 Image processing device 11 Display unit 12 Image IC
13 SoC
14 Memory unit 15 Power supply MCU
16 Signal detection circuit 20 Camera 30 Vehicle control device 121 A/D conversion circuit 122 Video MCU
123 MUX
124 Register

Claims (6)

画像を生成する第1のコントローラと、前記第1のコントローラ又は前記第1のコントローラ以外の装置から入力された画像を出力する第2のコントローラと、を備え、
前記第2のコントローラは、
前記第1のコントローラからの画像入力が開始されたか否かに応じて、入力される画像の固着を検知する処理を行うか否かを決定する
画像処理装置。
A first controller that generates an image, and a second controller that outputs an image input from the first controller or a device other than the first controller,
The second controller includes:
an image processing apparatus that determines whether or not to perform a process for detecting sticking of an input image depending on whether or not image input from the first controller has started.
前記第2のコントローラは、
画像の入力元に応じて変化するレジスタの値を参照し、
前記値が前記第1のコントローラから画像が入力されていることを示している場合に、入力される画像の固着を検知する処理を行うことを決定する
請求項1に記載の画像処理装置。
The second controller includes:
Refer to the register value, which changes depending on the image input source.
The image processing apparatus according to claim 1 , further comprising: a step of: determining, when the value indicates that an image is being input from the first controller, to perform a process for detecting sticking of the input image.
前記第1のコントローラは、
カメラから入力された画像を加工して前記第2のコントローラに出力し、
前記第2のコントローラは、
前記第1のコントローラ又は前記カメラから入力された画像を出力し、
前記第1のコントローラからの画像入力が開始された場合に、入力される画像の固着を検知する処理を行うことを決定し、
前記第1のコントローラからの画像入力が開始されていない場合であって、前記カメラからの画像入力が開始された場合に、入力される画像の固着を検知する処理を行わないことを決定する
請求項1に記載の画像処理装置。
The first controller includes:
Processing an image input from a camera and outputting the processed image to the second controller;
The second controller includes:
Outputting an image input from the first controller or the camera;
determining, when image input from the first controller is started, to perform a process for detecting sticking of the input image;
The image processing device according to claim 1 , wherein when image input from the first controller has not started and image input from the camera has started, it is determined not to perform processing for detecting sticking of the input image.
前記第1のコントローラは、
車両のギアの変更を示す信号を受信した場合に、前記車両に備えられたカメラから入力された画像を加工して前記第2のコントローラに出力し、
前記第2のコントローラは、
前記信号を受信した場合に、前記カメラから入力された画像を出力するとともに、前記第1のコントローラからの画像入力が開始されたか否かを確認し、
前記第1のコントローラからの画像入力が開始されたことを確認した場合に、入力される画像の固着を検知する処理を行うことを決定する
請求項1に記載の画像処理装置。
The first controller includes:
when a signal indicating a gear change of the vehicle is received, an image input from a camera provided in the vehicle is processed and output to the second controller;
The second controller includes:
When the signal is received, outputting the image input from the camera and checking whether image input from the first controller has started;
The image processing apparatus according to claim 1 , further comprising: a determining unit configured to determine whether or not a part of the image being inputted is stuck when the start of image input from the first controller is confirmed.
前記第1のコントローラは、
車両のギアがリバースに変更されたことを示す信号を受信した場合に、前記車両に備えられたカメラから入力された画像を加工して前記第2のコントローラに出力する処理を開始し、
前記第2のコントローラは、
前記信号を受信した場合に、前記カメラから入力された画像を出力するとともに、前記第1のコントローラからの画像入力が開始されたか否かを確認し、
前記第1のコントローラからの画像入力が開始されたことを確認した場合に、入力される画像の固着を検知することを決定する
請求項1に記載の画像処理装置。
The first controller includes:
when receiving a signal indicating that the gear of the vehicle has been changed to reverse, starting a process of processing an image input from a camera provided in the vehicle and outputting the processed image to the second controller;
The second controller includes:
When the signal is received, outputting the image input from the camera and checking whether image input from the first controller has started;
The image processing apparatus according to claim 1 , further comprising: a step of determining whether or not the input image is stuck when it is determined that the image input from the first controller has started.
画像を生成する第1のコントローラと、前記第1のコントローラ又は前記第1のコントローラ以外の装置から入力された画像を出力する第2のコントローラと、を備えたコンピュータが実行する画像処理方法であって、
前記第2のコントローラは、
前記第1のコントローラからの画像入力が開始されたか否かに応じて、入力される画像の固着を検知する処理を行うか否かを決定する
画像処理方法。
1. An image processing method executed by a computer including a first controller that generates an image, and a second controller that outputs an image input from the first controller or a device other than the first controller, comprising:
The second controller includes:
an image processing method comprising: determining whether or not to perform processing for detecting sticking of an input image depending on whether or not image input from the first controller has started;
JP2022174599A 2022-10-31 2022-10-31 Image processing device and image processing method Pending JP2024065631A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022174599A JP2024065631A (en) 2022-10-31 2022-10-31 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022174599A JP2024065631A (en) 2022-10-31 2022-10-31 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2024065631A true JP2024065631A (en) 2024-05-15

Family

ID=91064297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022174599A Pending JP2024065631A (en) 2022-10-31 2022-10-31 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2024065631A (en)

Similar Documents

Publication Publication Date Title
CN107920204B (en) Device and method for rapidly displaying reversing video in cold start
US10395541B2 (en) Integrated fault-tolerant augmented area viewing system
US11086635B2 (en) Electronic device, method for controlling electronic device, and program
US10911746B2 (en) Image processing apparatus and failure diagnosis control method
JP5273819B2 (en) Display device for vehicle and display method for vehicle
CN108351775B (en) Method and system for optimizing starting time of embedded multiprocessor system
JP6459283B2 (en) Video signal processing apparatus and video signal processing program
CN102756700A (en) Method for accelerating reversing video display time by using vehicle-mounted Android platform
JP6272579B2 (en) Application execution apparatus and application execution method
JP2024065631A (en) Image processing device and image processing method
JP6341060B2 (en) Vehicle image processing device
JP7350655B2 (en) Surround view and method with seamless transition to 3D viewing system
JP6458393B2 (en) Video signal processing apparatus and video signal processing program
JP2016039387A (en) Video signal processing device and video signal processing program
JP2018121238A (en) Display control device of display and display video freeze notification method
JP6272580B2 (en) Application execution apparatus and application execution method
JP6272578B2 (en) Application execution apparatus and application execution method
US8436915B2 (en) Image processing apparatus
JP2016111549A (en) Video signal processor and video signal processing program
CN110008071B (en) Remote debugging device and method
JP2022123552A (en) Data processing system, method
JP2011090597A (en) Image display apparatus and method for controlling the same
US10037169B2 (en) Image processing semiconductor device and image processing device
EP4198872A2 (en) Fail safe surround view
CN110622209B (en) System and method for seamless transition of a surround view to a 3D view