JP2018045560A - 半導体装置 - Google Patents

半導体装置 Download PDF

Info

Publication number
JP2018045560A
JP2018045560A JP2016181441A JP2016181441A JP2018045560A JP 2018045560 A JP2018045560 A JP 2018045560A JP 2016181441 A JP2016181441 A JP 2016181441A JP 2016181441 A JP2016181441 A JP 2016181441A JP 2018045560 A JP2018045560 A JP 2018045560A
Authority
JP
Japan
Prior art keywords
image processing
processing circuit
data
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016181441A
Other languages
English (en)
Other versions
JP2018045560A5 (ja
Inventor
佑一 伊藤
Yuichi Ito
佑一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Original Assignee
Toshiba Corp
Toshiba Electronic Devices and Storage Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Electronic Devices and Storage Corp filed Critical Toshiba Corp
Priority to JP2016181441A priority Critical patent/JP2018045560A/ja
Priority to US15/447,120 priority patent/US20180082138A1/en
Publication of JP2018045560A publication Critical patent/JP2018045560A/ja
Publication of JP2018045560A5 publication Critical patent/JP2018045560A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/955Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像データを処理する画像処理回路の故障を検出でき、回路規模、消費電力及び故障率を低減することができる半導体装置を提供する。【解決手段】実施形態の半導体装置は、画像処理回路111、ソフトウェア画像処理部112、及び比較部113を備える。画像処理回路111は、回路素子によって実現された画像処理の機能を有し、画像データに対して画像処理を実行して第1画像データを出力する。ソフトウェア画像処理部112は、プログラムに従った演算処理によって前記画像処理を実現し、画像データに対して前記画像処理を実行して第2画像データを出力する。比較部113は、第1画像データと第2画像データとを比較し、第1画像データと第2画像データとが一致するか否かを示す検出信号を出力する。【選択図】図1

Description

実施形態は、画像データを画像処理する回路を含む画像処理装置を備えた半導体装置に関するものである。
半導体装置として、カメラから供給された画像データに対して画像処理を行う画像処理回路を有する画像処理装置が知られている。画像処理装置には、画像処理回路に発生する故障を検出するための機構が備えられている。
特許第4539427号公報
画像データを処理する画像処理回路の故障を検出でき、回路規模、消費電力及び故障率を低減することができる半導体装置を提供する。
実施形態の半導体装置は、回路素子によって実現された画像処理の機能を有し、画像データに対して前記画像処理を実行して第1画像データを出力する画像処理回路と、プログラムに従った演算処理によって前記画像処理を実現し、前記画像データに対して前記画像処理を実行して第2画像データを出力するプロセッサと、前記第1画像データと前記第2画像データとを比較し、前記第1画像データと前記第2画像データとが一致するか否かを示す検出信号を出力する比較部とを具備する。
図1は、第1実施形態の画像処理装置を含む半導体装置の構成を示すブロック図である。 図2は、第1実施形態における画像処理回路の構成例を示すブロック図である。 図3は、第1実施形態におけるソフトウェア画像処理部の構成を示すブロック図である。 図4は、第1実施形態におけるソフトウェア画像処理部の処理例を示すフローチャートである。 図5は、第1実施形態における画像処理の一例としての色空間変換を行うためのマトリックス変換処理を示す図である。 図6は、カメラから出力される画像データの一例を示す図である。 図7は、第1実施形態の半導体装置の動作を示すタイミングチャートである。 図8は、第2実施形態の画像処理装置の動作を示すタイミングチャートである。 図9は、第3実施形態の画像処理装置を含む半導体装置の構成を示すブロック図である。 図10は、第3実施形態における画像処理回路の構成例を示すブロック図である。 図11は、第3実施形態におけるソフトウェア画像処理部の処理例を示すフローチャートである。 図12は、第3実施形態の半導体装置の動作を示すタイミングチャートである。 図13は、第4実施形態の画像処理装置の動作を示すタイミングチャートである。
以下、図面を参照して実施形態について説明する。なお、以下の説明において、同一の機能及び構成を有する構成要素については、共通する参照符号を付す。
[1]第1実施形態
第1実施形態の画像処理装置を含む半導体装置について説明する。
[1−1]半導体装置の構成
図1は、第1実施形態の画像処理装置を含む半導体装置の構成を示すブロック図である。図示するように、半導体装置10は、画像処理装置11、メモリ12、及びCPU(central processing unit)(または、制御回路)13を備えている。また、半導体装置10の外部に、画像処理装置11に画像データを供給する撮像装置、例えばカメラ14が配置されている。
カメラ14は、画像から画像データを生成し、画像処理装置11に画像データを供給する。画像処理装置11は、カメラ14から画像データを受け取り、画像データに各種の画像処理を行い、画像処理後の画像データを出力する。画像処理装置11の詳細については後述する。
メモリ12は、画像処理装置11から出力された画像処理後の画像データを記憶する。メモリ12に記憶された画像データは、必要に応じてメモリ12の後段に設けられた回路に読み出され、使用される。CPU13は、カメラ14及び画像処理装置11を制御する。
画像処理装置11は、画像処理回路111、ソフトウェア画像処理部112、比較部113、メモリ114、及びメモリ115を備える。
画像処理回路111は、カメラ14から受け取った画像データに対してハードウェアによる画像処理を行い、画像処理後の画像データ(以下、第1処理データ)をメモリ12及び比較部113に出力する。画像処理回路111は、画像処理の機能が回路素子等のハードウェアによって実現されている。以降、画像処理回路111によって実行される画像処理を、ハードウェア処理または回路処理と記す。
メモリ114は、カメラ14から供給された画像データを格納する。ソフトウェア画像処理部112は、メモリ114から読み出した画像データに対して、プロセッサ(例えば、専用CPUまたはCPU13、演算回路)により画像処理回路111と同等の画像処理を行い、画像処理後の画像データ(以下、第2処理データ)をメモリ115に出力する。ソフトウェア画像処理部112は、プログラムに基づいてプロセッサが行う演算により画像処理を実行する。以降、ソフトウェア画像処理部112によって実行される画像処理を、ソフトウェア処理と記す。画像処理回路111及びソフトウェア画像処理部112の詳細については後述する。
比較部113は、画像処理回路111から受け取った第1処理データと、メモリ115から読み出した第2処理データとを比較し、第1処理データと第2処理データとが一致するか、あるいは不一致かを示す検出信号DSを出力する。CPU13は、比較部113から一致を示す検出信号DSが出力されたとき、画像処理回路111が故障しておらず、正常であると判定する。一方、不一致を示す検出信号DSが出力されたとき、画像処理回路111が故障であると判定する。
比較部113は回路素子等のハードウェアから構成され、ハードウェアにより第1処理データと第2処理データとの比較を実行する。または、比較部113はCPU等のプロセッサを有し、プログラムに基づいてプロセッサにより第1処理データと第2処理データとの比較を実行してもよい。比較部113が用いるプロセッサには、専用のプロセッサを用意してもよいし、CPU13あるいはその他のCPUを用いてもよい。さらに、比較部113が用いるプログラムはメモリに記憶しておき、比較を実行する前に読み出して使用することができる。比較部113により用いられるプログラムが記憶されるメモリには、例えば専用のメモリを用意してもよいし、後述するROM302を用いてもよい。
また、画像処理回路111が出力する画像データと、ソフトウェア画像処理部112が出力する画像データとの精度が異なる等の理由により、画像処理回路111に故障が発生していないときでも、比較部113が不一致を示す検出信号DSを出力する場合がある。これを防ぐため、比較部113による比較結果に許容誤差を設定し、許容誤差範囲内は一致とみなす構成を設ける。また、CPU13自体が故障する場合も考えられる。このため、CPU13の故障検出は、例えばデュアルロックステップなどの機構を用いて予め担保しておく。デュアルロックステップとは、CPUなどのプロセッサの動作を監視する安全機構の1つである。デュアルロックステップでは、複数のプロセッサのクロックを同期させながら、それぞれのプロセッサで同じ処理を行う。そして、それぞれのプロセッサの処理結果が同じであることを確認して処理を実行する。
[1−1−1]画像処理回路111
前述したように、画像処理回路111は、画像処理の機能が回路素子等のハードウェアによって実現されている。画像処理回路111は、カメラ14から受け取った画像データに対してハードウェア処理を行い、ハードウェア処理後の画像データ(第1処理データ)をメモリ12及び比較部113に出力する。画像処理としては、例えば以下のような処理がある。デモザイク、ガンマ補正、色空間変換、スケーリング、ホワイトバランス調整、HDR(High Dynamic Range)圧縮・伸長、ブライトネス・コントラスト調整、及びエッジ強調などである。
・デモザイク:カメラから入力されたRAWフォーマットのデータをRGBへ変換する。RAWフォーマットのデータは、カメラ等で撮影された未加工の画像データである。また、画像データは、複数の画素(ピクセル)データから構成されている。さらに、画素データは、3色の値、すなわち赤、緑、青の値からなる。この赤、緑、青の値をRGBという。
・ガンマ補正:画像の諧調を調整する。
・色空間変換:画像の色空間を変換する。例えばRGB⇒YUVや、YUV⇒RGBなどの変換を行う。YUVは色空間を示し、Yは輝度信号、Uは色差信号(Cb)、Vは色差信号(Cr)を表す。
・スケーリング:画像を拡大・縮小する。
・ホワイトバランス調整:画像のホワイトバランスを調整する。
・HDR圧縮・伸長:画像データをHDR圧縮やHDR伸長する。
・ブライトネス・コントラスト調整:画像の輝度とコントラストを調整する。
・エッジ強調:画像のエッジを強調する。
画像処理回路111は、上に列記した画像処理を実行する回路を有する。ここでは、個々の画像処理を実行する回路を3つ示し、画像処理回路(A)、(B)、(C)とする。画像処理回路(A)、(B)、(C)は画像データに対してハードウェア処理を行う。
図2は、第1実施形態における画像処理回路111の構成例を示すブロック図である。画像処理回路111は、画像処理回路(A)201、画像処理回路(B)202、及び画像処理回路(C)203が順次接続された構成を有する。
例えば、画像処理回路(A)でデモザイクの処理を行う。次に、画像処理回路(B)でガンマ補正の処理を行う。さらに、画像処理回路(C)で色空間変換の処理を行う。このように、画像処理回路(A)、(B)、(C)にて個々の画像処理を実行する。
画像処理回路(A)は、デモザイクの処理機能が回路素子等のハードウェアによって実現されている。画像処理回路(B)は、ガンマ補正の処理機能が回路素子等のハードウェアによって実現されている。画像処理回路(C)は、色空間変換の処理機能が回路素子等のハードウェアによって実現されている。
[1−1−2]ソフトウェア画像処理部112
図3は、第1実施形態におけるソフトウェア画像処理部112の構成を示すブロック図である。ソフトウェア画像処理部112は、CPU301、ROM302、RAM303、及びRAM304、及びこれらを接続するバス305を有する。
ROM302は、ブートプログラム(または制御プログラム)及び画像処理プログラムなどを保持する。CPU301は、画像処理プログラムに基づいて画像データに対して画像処理、すなわち演算処理を実行する。RAM303及びRAM304は、CPU301の作業領域として使用される。RAM303は、例えば高速アクセスのためのSRAM等を含む。RAM304は、例えば大容量データを扱うためのDRAM等を含む。なお、RAM303及びRAM304には、使用環境に合わせて他の種類のRAMを使用可能である。
CPU301の起動時にROM302上に記憶されたブートプログラムにより、CPU301は必要なハードウェア、すなわちRAM303、及びRAM304の初期化を行う。さらに、CPU301は、ブートプログラムにより、ROM302上の画像処理プログラムをRAM303へ展開する。そして、CPU301は、RAM303上の画像処理プログラムに基づいて、メモリ114から画像データを読み出し、読み出した画像データに対して画像処理を実行する。すなわち、CPU301は、画像処理プログラムに従って動作し、画像データに対して画像処理としての演算を行う。画像処理プログラムには、各種の画像処理の手順が記述されている。CPU301が画像処理の過程で生成した中間データはRAM303あるいはRAM304へ一旦書き込まれ、再度CPU301により読み込まれる。
なお、CPU301は、ソフトウェア画像処理部112内で使用される専用のものでもよいし、CPU13あるいは別の回路領域に配置されたものでもよい。言い換えると、CPU301は図1に示したCPU13が兼ねてもよいし、CPU13とは別に配置してもよい。CPU13とCPU301を分ける場合、画像データの受け渡しのタイミングなどを制御するために、CPU13とCPU301間の通信が必要となる場合がある。
また、CPU301の代わりにDSP(digital signal processor)などのデジタル信号処理に特化したプロセッサを使用することが可能である。一般的に、CPUを用いるよりもデジタル信号処理に特化したDSPを用いた方が画像処理を高速に行うことができる。また、図1に示したメモリ114やメモリ115は、RAM303、あるいはRAM304に含まれていてもよい。
図4は、第1実施形態におけるソフトウェア画像処理部112の処理例を示すフローチャートである。ソフトウェア画像処理部112は、画像処理回路111と同様に、例えばデモザイク、ガンマ補正、色空間変換、スケーリング、ホワイトバランス調整、HDR圧縮・伸長、ブライトネス・コントラスト調整、及びエッジ強調などの画像処理を実行できる。ここでは、個々の画像処理を実行する処理部を3つ示し、画像処理(A)、(B)、(C)とする。画像処理(A)、(B)、(C)は画像データに対してソフトウェア処理を行う。画像処理(A)、(B)、(C)は、画像処理回路111内の画像処理回路(A)、(B)、(C)にそれぞれ対応する。すなわち、画像処理(A)は画像処理回路(A)と同じ機能を有し、画像処理(B)は画像処理回路(B)と同じ機能を有し、画像処理(C)は画像処理回路(C)と同じ機能を有する。
図4に示すように、ソフトウェア画像処理部112における画像処理がスタートすると、CPU301は、画像処理(A)を実行し(ステップS1)、次に画像処理(B)を実行し(ステップS2)、次に画像処理(C)を実行する(ステップS3)というように、画像データに対して画像処理を順次実行していく。その後、ソフトウェア画像処理部112における画像処理を終了する。
次に、画像処理回路111内の画像処理回路(A)、(B)、(C)の各々、及びソフトウェア画像処理部112の画像処理(A)、(B)、(C)の各々で実行される画像処理の一例として、色空間変換について説明する。図5に、画像処理の一例として、色空間変換を行うためのマトリックス変換処理を示す。
変換前の色空間と変換後の色空間の組み合わせにより変換式が与えられ、この変換式に基づきマトリックス変換処理の各パラメータが与えられる。
例えば、8bitフルスケールRGBからITU−R BT.601規定のYCbCrへの変換式は以下のようになる。
Y=0.257R+0.504G+0.098B+16
Cb=−0.148R−0.291G+0.439B+128
Cr=0.439R−0.368G−0.071B+128
この時、マトリックス変換処理の各パラメータは以下のようになる。
I_FFSET0=0,I_OFFSET1=0,I_OFFSET2=0
K00=0.257,K01=0.504,K02=0.098,
K10=−0.148,K11=−0.291,K12=0.439,K20=0.439,K21=−0.368,K22=−0.071
O_OFFSET0=16,O_OFFSET1=128,O_OFFSET2=128
各出力OUT0、OUT1、OUT2は以下の式で表せる。
OUT0=K00×(IN0+I_OFFSET0)+K01*(IN1+I_OFFSET1)+K02*(IN2+I_OFFSET2)+O_OFFSET0
OUT1=K10×(IN0+I_OFFSET0)+K11*(IN1+I_OFFSET1)+K12*(IN2+I_OFFSET2)+O_OFFSET1
OUT2=K20×(IN0+I_OFFSET0)+K21*(IN1+I_OFFSET1)+K22*(IN2+I_OFFSET2)+O_OFFSET2
画像処理回路111では、図5に示すマトリックス変換処理が回路素子にて構成された、例えば画像処理回路(C)にて実行される。一方、ソフトウェア画像処理部112では、図5に示すマトリックス変換処理がCPU301により演算にて実行される。
[1−2]半導体装置の動作
第1実施形態の画像処理装置11を含む半導体装置10の動作について説明する。
図6はカメラ14から出力される画像データの一例を示す。図7は第1実施形態の半導体装置の動作を示すタイミングチャートである。
まず、図6を用いて、カメラ14から供給される画像データについて、ここでは、パラレルインタフェースで画像データが供給される場合を説明する。
画像データとしての信号Vsync、信号Hsync、及び入力データは、複数の入力ラインから取り込まれる。例えば、入力ラインは16ラインあるいは24ライン(入力ビット数は16ビットあるいは24ビット)である。信号Vsyncは、画像の垂直方向の同期信号を示す。信号Hsyncは、画像の水平方向の同期信号を示す。フレームNは、ライン0、ライン1、ライン2、…、ラインMの信号を含む。N、Mは0以上の自然数である。
以下に図7を用いて、第1実施形態の画像処理装置11の動作について説明する。ここでは、フレーム毎に、画像処理回路111の出力とソフトウェア画像処理部112の出力とを比較する例を示す。
まず、フレームNの画像処理について述べる。カメラ14からフレームNが画像処理回路111及びメモリ114に供給される。画像処理回路111は、フレームNを受け取り、フレームNをハードウェア処理し、ハードウェア処理後のフレームN(a)を出力する。フレームN(a)が第1処理データに相当する。
ソフトウェア画像処理部112は、メモリ114から読み出したフレームNをソフトウェア処理し、ソフトウェア処理後のフレームN(b)をメモリ115に出力する。フレームN(b)が第2処理データに相当する。
比較部113は、フレームN(a)と、メモリ115から読み出したにフレームN(b)とを比較してこれらが一致したかあるいは不一致かを示す検出信号DSを出力する。CPU13は、比較部113から出力された検出信号DSが一致を示すとき、画像処理回路111が故障していない、すなわち正常であると判定する。一方、比較部113から出力された検出信号DSが不一致を示すとき、画像処理回路111が故障であると判定する。
次に、カメラ14から供給されるフレームN+1の画像処理について述べる。フレームN+1の画像処理もフレームNと同様である。カメラ14からフレームN+1が画像処理回路111及びメモリ114に供給される。画像処理回路111は、フレームN+1をハードウェア処理し、ハードウェア処理後のフレームN+1(a)を出力する。
ソフトウェア画像処理部112は、フレームN+1をソフトウェア処理し、ソフトウェア処理後のフレームN+1(b)を出力する。
比較部113は、フレームN+1(a)とフレームN+1(b)とを比較してこれらが一致したかあるいは不一致かを示す検出信号DSを出力する。CPU13は、比較部113から出力された検出信号DSが一致を示すとき、画像処理回路111が正常であると判定する。一方、比較部113から出力された検出信号DSが不一致を示すとき、画像処理回路111が故障であると判定する。
次に、カメラ14から供給されるフレームN+2の画像処理について述べる。フレームN+2の画像処理もフレームN及びフレームN+1と同様であるため、記載を省略する。
図7には、フレームNの画像処理において、フレームN(a)とフレームN(b)との比較結果が一致となり、故障が発生していない場合を示した。フレームN+1の画像処理においては、フレームN+1(a)とフレームN+1(b)との比較結果が一致となり、故障が発生していない場合を示した。フレームN+2の画像処理においては、フレームN+2(a)とフレームN+2(b)との比較結果が不一致となり、故障が発生した場合を示した。
[1−3]第1実施形態の効果
第1実施形態の画像処理装置を含む半導体装置によれば、画像データを処理する画像処理回路の故障を検出でき、回路規模、消費電力及び故障率を低減することができる。
以下に、実施形態の効果について詳述する。
本実施形態は、画像データに対して画像処理を行う画像処理回路111を有する画像処理装置において、画像処理回路111と同等の画像処理機能を有するソフトウェア画像処理部112を設ける。そして、画像処理回路111により処理された画像データ(第1処理データ)と、ソフトウェア画像処理部112により処理された画像データ(第2処理データ)とを比較し、第1処理データと第2処理データとが一致するか不一致かにより、画像処理回路111が故障しているか否かを判定する。画像処理回路111は回路素子等のハードウェアから構成されており、ソフトウェア画像処理部112は画像処理プログラムに基づいてプロセッサにより画像処理を行う。
これにより、画像処理回路111から出力された第1処理データと比較される第2処理データをソフトウェア画像処理部112により生成できるため、画像処理回路111と同様な画像処理回路を設ける場合と比べて、回路規模、消費電力及び故障率を低減することができる。
以上述べたように、本実施形態によれば、画像データを処理する画像処理回路の故障を検出でき、回路規模、消費電力及び故障率を低減することができる画像処理装置を含む半導体装置を提供できる。
[2]第2実施形態
第2実施形態の画像処理装置を含む半導体装置について説明する。第2実施形態では、1フレーム(画像データ)のうちの一部のデータを比較し、画像処理回路111が故障しているか否かを判定する。画像処理装置11の構成は第1実施形態と同様である。以下、第2実施形態では第1実施形態と異なる点について主に説明する。
[2−1]画像処理装置の動作
図8は、第2実施形態の画像処理装置の動作を示すタイミングチャートである。
まず、フレームNの画像処理について述べる。カメラ14からフレームNが画像処理回路111及びメモリ114に供給される。画像処理回路111は、フレームNを受け取り、フレームNをハードウェア処理し、ハードウェア処理後のフレームN(a)を出力する。
ソフトウェア画像処理部112は、メモリ114から読み出したフレームNのうち一部のデータを受け取る。ソフトウェア画像処理部112は、受け取った一部のデータをソフトウェア処理し、ソフトウェア処理後の一部のデータをメモリ115に出力する。前記一部のデータは、例えばフレームNのうちの1ライン、複数ライン、あるいは1ライン内の特定部分のデータである。
比較部113は、画像処理回路111から出力されたフレームN(a)の一部のデータと、メモリ115から読み出したソフトウェア処理後の一部のデータとを比較する。比較部113は、フレームN(a)の一部のデータと、ソフトウェア処理後の一部のデータとが一致したかあるいは不一致かを示す検出信号DSを出力する。なお、比較部113において比較される画像処理回路111からの一部のデータと、ソフトウェア画像処理部112からの一部のデータとは対応するデータ、例えばフレームNの同一ラインのデータあるいは同一ラインの同一部分のデータである。
CPU13は、比較部113から出力された検出信号DSが一致を示すとき、画像処理回路111が故障していない、すなわち正常であると判定する。一方、比較部113から出力された検出信号DSが不一致を示すとき、画像処理回路111が故障であると判定する。
フレームN+1とフレームN+2の画像処理もフレームNと同様であるため、記載を省略する。
図8には、フレームNの画像処理において、フレームN(a)の一部のデータと、ソフトウェア画像処理部112からの一部のデータとの比較結果が一致となり、故障が発生していない場合を示した。フレームN+1の画像処理においては、フレームN+1(a)の一部のデータと、ソフトウェア画像処理部112からの一部のデータとの比較結果が一致となり、故障が発生していない場合を示した。フレームN+2の画像処理においては、フレームN+2(a)の一部のデータと、ソフトウェア画像処理部112からの一部のデータとの比較結果が不一致となり、故障が発生した場合を示した。
[2−2]第2実施形態の効果
第2実施形態では、カメラ14から出力され、メモリ114に保持されたフレームN(画像データ)のうちの一部のデータをソフトウェア画像処理部112により画像処理する。比較部113は、ソフトウェア画像処理部112により画像処理した前記一部のデータと、画像処理回路111にて画像処理したフレームNの一部のデータとを比較する。比較部113で比較される2つの一部のデータは、フレームNのうちの互いに対応する部分のデータである。CPU13は、比較部113による比較結果に応じて画像処理回路111が故障しているか否かを判定する。
このように、フレームNのうちの一部のデータを比較対象とすることにより、ソフトウェア画像処理部112にて画像処理に要する時間と、比較部113にて比較に要する時間を短縮することができる。さらに、ソフトウェア画像処理部112で行う画像処理時間を短くできるため、CPU13における動作の空き時間を利用して、CPU13によりソフトウェア画像処理部112の画像処理を行うことも可能となる。
以上述べたように、第2実施形態によれば、画像データのフレームのうちの一部のデータのみを比較対象とすることにより、ソフトウェア画像処理部112における画像処理時間を短縮することができる。さらに、ソフトウェア画像処理部112でソフトウェア処理に用いるCPU301(プロセッサ)の負荷を軽減することができる。その他の構成及び効果は前記第1実施形態と同様である。
[3]第3実施形態
第3実施形態の画像処理装置を含む半導体装置について説明する。第3実施形態では、画像処理回路が備える画像処理を行う複数の回路からいくつかの回路を選択し、選択した回路が故障しているか否かを判定する。以下、第3実施形態では第1実施形態と異なる点について主に説明する。
[3−1]半導体装置の構成
図9は、第3実施形態の画像処理装置を含む半導体装置の構成を示すブロック図である。図示するように、半導体装置20は、画像処理装置21、メモリ12、及びCPU13を備えている。また、半導体装置20の外部に、画像処理装置21に画像データを供給するカメラ14が配置されている。
カメラ14は、画像から画像データを生成し、画像処理装置21に画像データを供給する。画像処理装置21は、カメラ14から画像データを受け取り、画像データに各種の画像処理を行い、画像処理後の画像データを出力する。画像処理装置21の詳細については後述する。
メモリ12は、画像処理装置21から出力された画像処理後の画像データを記憶する。メモリ12に記憶された画像データは、必要に応じてメモリ12の後段に設けられた回路に読み出され、使用される。CPU13は、カメラ14及び画像処理装置21を制御する。
画像処理装置21は、画像処理回路211、ソフトウェア画像処理部212、比較部213、メモリ214、及びメモリ215を備える。
画像処理回路211は、カメラ14から受け取った画像データに対してハードウェアによる画像処理(以下、ハードウェア処理または回路処理)を行い、ハードウェア処理後の画像データ(以下、第3処理データ)をメモリ214、メモリ12、及び比較部213に出力する。なお、場合によっては、画像処理前の画像データをメモリ214に出力する場合もある。画像処理回路211は、画像処理の機能が回路素子等のハードウェアによって実現されている。
メモリ214は、画像処理回路211から出力された画像データを格納する。ソフトウェア画像処理部212の構成は、図3に示した構成と同様である。ソフトウェア画像処理部212は、メモリ214から読み出した画像データに対して、プロセッサ(例えば、CPU301または演算回路)により画像処理回路211と同等の画像処理(以下、ソフトウェア処理)を行い、ソフトウェア処理後の画像データ(以下、第4処理データ)をメモリ215に出力する。ソフトウェア画像処理部212は、プログラムに基づいてプロセッサが行う演算により画像処理を実行する。画像処理回路211の詳細については後述する。ソフトウェア画像処理部212はソフトウェア画像処理部112と同様の構成を有する。
比較部213は、画像処理回路211から受け取った第3処理データと、メモリ215から読み出した第4処理データとを比較し、第3処理データと第4処理データとが一致したか、あるいは不一致かを示す検出信号DSを出力する。CPU13は、比較部113から一致を示す検出信号DSが出力されたとき、画像処理回路211が故障しておらず、正常であると判定する。一方、不一致を示す検出信号DSが出力されたとき、画像処理回路211が故障であると判定する。
比較部213は、比較部113と同様に、回路素子等のハードウェアから構成され、ハードウェアにより第3処理データと第4処理データとの比較を実行する。または、比較部213はCPU等のプロセッサを有し、プログラムに基づいてプロセッサにより第3処理データと第4処理データとの比較を実行してもよい。
[3−1−1]画像処理回路211
前述したように、画像処理回路211は、カメラ14から受け取った画像データに対してハードウェア処理を行い、ハードウェア処理後の画像データのうちセレクタにより選択した画像データをメモリ214及び比較部213に出力する。なお、セレクタの選択によっては、画像処理前の画像データがメモリ214に出力される場合もある。画像処理としては、前述したように、例えば、デモザイク、ガンマ補正、色空間変換、スケーリング、ホワイトバランス調整、HDR圧縮・伸長、ブライトネス・コントラスト調整、及びエッジ強調などの処理がある。
第1実施形態と同様に、画像処理回路211は、上に列記した画像処理を実行する回路を有する。ここでも、個々の画像処理を実行する回路を3つ示し、画像処理回路(A)、(B)、(C)とする。
図10は、第3実施形態における画像処理回路211の構成例を示すブロック図である。画像処理回路211は、画像処理回路(A)201、画像処理回路(B)202、及び画像処理回路(C)203が順次接続された構成を有する。画像処理回路211は、さらにセレクタ204,205を有する。
セレクタ204は、カメラ14と画像処理回路(A)201間のノードa、画像処理回路(A)201と画像処理回路(B)202間のノードb、及び画像処理回路(B)202と画像処理回路(C)203間のノードcに接続されている。セレクタ205は、画像処理回路(A)201と画像処理回路(B)202間のノードb、及び画像処理回路(B)202と画像処理回路(C)203間のノードc、及び画像処理回路(C)203とメモリ12間のノードdに接続されている。
セレクタ204は、CPU13の制御により、ノードa,b,cのうちいずれかのノードを選択し、選択したノードの画像データをメモリ214に出力する。セレクタ205は、CPU13の制御により、ノードb,c,dのうちいずれかのノードを選択し、選択したノードの画像データを比較部213に出力する。
[3−1−2]ソフトウェア画像処理部212
第3実施形態におけるソフトウェア画像処理部212の構成は、図3に示した構成と同様である。
図11は、第3実施形態におけるソフトウェア画像処理部212の処理例を示すフローチャートである。ソフトウェア画像処理部212は、画像処理回路211と同様に、例えばデモザイク、ガンマ補正、色空間変換、スケーリング、ホワイトバランス調整、HDR圧縮・伸長、ブライトネス・コントラスト調整、及びエッジ強調などの画像処理を実行できる。ここでも、同様に、個々の画像処理を実行する処理部を3つ示し、画像処理(A)、(B)、(C)とする。
図11に示すように、ソフトウェア画像処理部212における画像処理がスタートすると、CPU13の制御により、CPU301はセレクタ204,205における選択条件に応じて(ステップS11)、画像処理(A)、(B)、(C)のうちのいずれか1つあるいは複数の処理を実行する。
例えば、セレクタ204においてノードaが選択され、セレクタ205においてノードdが選択された場合は、ソフトウェア画像処理部212は画像処理(A)、(B)、(C)を実行する(ステップS21)。セレクタ204,205においてノードa,cがそれぞれ選択された場合は、ソフトウェア画像処理部212は画像処理(A)、(B)を実行する(ステップS22)。同様に、セレクタ204,205においてノードb,dがそれぞれ選択された場合は、ソフトウェア画像処理部212は画像処理(B)、(C)を実行する(ステップS23)。セレクタ204,205においてノードa,bがそれぞれ選択された場合は、ソフトウェア画像処理部212は画像処理(A)を実行する(ステップS24)。セレクタ204,205においてノードb,cがそれぞれ選択された場合は、ソフトウェア画像処理部212は画像処理(B)を実行する(ステップS25)。セレクタ204,205においてノードc,dがそれぞれ選択された場合は、ソフトウェア画像処理部212は画像処理(C)を実行する(ステップS26)。その後、ソフトウェア画像処理部212における画像処理を終了する。
なおここでは、CPU301が画像処理(A)、(B)、(C)を実行するとして説明したが、もちろんCPU13がこれらを実行してもよい。
以下に、画像処理回路211が備える画像処理回路(A)、(B)、(C)から故障検出を行う回路をセレクタ204,205により選択し、選択した回路の故障検出を行う場合の例を説明する。
例えば、画像処理回路211内の画像処理回路(A)201の故障を検出する場合の画像処理回路211及びソフトウェア画像処理部212の動作は以下のようになる。
画像処理回路(A)201が故障しているか否かを検出する場合、セレクタ204はノードaを選択する。これにより、セレクタ204は、カメラ14から出力され、画像処理回路(A)201により画像処理される前の画像データをメモリ214に出力する。セレクタ205はノードbを選択する。これにより、セレクタ205は、画像処理回路(A)201により画像処理され、画像処理回路(B)202により画像処理される前の画像データ(第3処理データ)を比較部213に出力する。
ソフトウェア画像処理部212は、メモリ214に保持された画像データを読み出す。ソフトウェア画像処理部212は、メモリ214から読み出した、画像処理回路(A)201により画像処理される前の画像データに対して画像処理(A)を実行し、ソフトウェア処理後の画像データ(第4処理データ)をメモリ215に出力する。
比較部213は、画像処理回路211のセレクタ205から出力された第3処理データと、ソフトウェア画像処理部212によりソフトウェア処理され、メモリ215に保持された第4処理データとを比較する。比較部213は、第3処理データと第4処理データとが一致したかあるいは不一致かを示す検出信号DSを出力する。
次に、画像処理回路211内の画像処理回路(B)202及び画像処理回路(C)203の故障を検出する場合の画像処理回路211及びソフトウェア画像処理部212の動作は以下のようになる。
画像処理回路(B)202及び画像処理回路(C)203が故障しているか否かを検出する場合、セレクタ204はノードbを選択する。これにより、セレクタ204は、画像処理回路(A)201により画像処理され、画像処理回路(B)202により画像処理される前の画像データをメモリ214に出力する。セレクタ205はノードdを選択する。これにより、セレクタ205は、画像処理回路(C)203により画像処理された画像データ(第3処理データ)を比較部213に出力する。
ソフトウェア画像処理部212は、メモリ214に保持された画像データを読み出す。ソフトウェア画像処理部212は、メモリ214から読み出した、画像処理回路(A)201により画像処理された画像データに対して画像処理(B)と画像処理(C)を実行し、ソフトウェア処理後の画像データ(第4処理データ)をメモリ215に出力する。
比較部213は、画像処理回路211のセレクタ205から出力された第3処理データと、ソフトウェア画像処理部212によりソフトウェア処理され、メモリ215に保持された第4処理データとを比較する。比較部213は、第3処理データと第4処理データとが一致したかあるいは不一致かを示す検出信号DSを出力する。
次に、画像処理回路211内の画像処理回路(A)201、画像処理回路(B)202及び画像処理回路(C)203の故障を検出する場合の画像処理回路211及びソフトウェア画像処理部212の動作は以下のようになる。
画像処理回路(A)201、画像処理回路(B)202、及び画像処理回路(C)203が故障しているか否かを検出する場合、セレクタ204はノードaを選択する。これにより、セレクタ204は、カメラ14から出力され、画像処理回路(A)201により画像処理される前の画像データをメモリ214に出力する。セレクタ205はノードdを選択する。これにより、セレクタ205は、画像処理回路(A)201、画像処理回路(B)202及び画像処理回路(C)203により画像処理された画像データ(第3処理データ)を比較部213に出力する。
ソフトウェア画像処理部212は、メモリ214に保持された画像データを読み出す。ソフトウェア画像処理部212は、メモリ214から読み出した、画像処理回路(A)201により画像処理される前の画像データに対して画像処理(A)、画像処理(B)及び画像処理(C)を実行し、ソフトウェア処理後の画像データ(第4処理データ)をメモリ215に出力する。
比較部213は、画像処理回路211のセレクタ205から出力された第3処理データと、ソフトウェア画像処理部212によりソフトウェア処理され、メモリ215に保持された第4処理データとを比較する。比較部213は、第3処理データと第4処理データとが一致したかあるいは不一致かを示す検出信号DSを出力する。
なお、ここで行われる画像処理(A)、画像処理(B)及び画像処理(C)は、画像処理回路(A)201、画像処理回路(B)202及び画像処理回路(C)203にそれぞれ対応する同等の処理である。さらに、画像処理(A)、画像処理(B)及び画像処理(C)は、CPU301が行うソフトウェア処理である。
[3−2]半導体装置の動作
第3実施形態の画像処理装置21を含む半導体装置20の動作を説明する。図12は第3実施形態の半導体装置の動作を示すタイミングチャートである。画像処理回路211内の画像処理回路(A)201の故障を検出する場合を例として述べる。
まず、カメラ14からフレームNが画像処理回路211に供給される。画像処理回路211は、フレームNを受け取り、フレームNに対して画像処理回路(A)201、(B)202、(C)203によりハードウェア処理を実行し、ハードウェア処理後のフレームN(a)をメモリ12に出力する。
画像処理回路(A)201が故障しているか否かを検出する場合、セレクタ204はノードaを選択する。これにより、セレクタ204は、カメラ14から出力され、画像処理回路(A)201により画像処理される前のフレームNをメモリ214に出力する。セレクタ205はノードbを選択する。これにより、セレクタ205は、画像処理回路(A)201により画像処理され、画像処理回路(B)202により画像処理される前のフレームn(a)を比較部213に出力する。フレームn(a)が第3処理データに相当する。
ソフトウェア画像処理部212は、メモリ214からフレームNを読み出し、フレームNに対して画像処理(A)を実行し(ステップS24)、ソフトウェア処理後のフレームn(b)をメモリ215に出力する。ここで行われる画像処理(A)は、CPU301が行うソフトウェア処理である。フレームn(b)が第4処理データに相当する。
比較部213は、フレームn(a)とフレームn(b)を受け取り、フレームn(a)とフレームn(b)とを比較してこれらが一致したかあるいは不一致かを示す検出信号DSを出力する。CPU13は、比較部213から出力された検出信号DSが一致を示すとき、画像処理回路(A)201が故障していない、すなわち正常であると判定する。一方、比較部213から出力された検出信号DSが不一致を示すとき、画像処理回路(A)201が故障であると判定する。
次に、カメラ14から供給されるフレームN+1の画像処理について述べる。フレームN+1の画像処理もフレームNと同様である。カメラ14からフレームN+1が画像処理回路211に供給される。画像処理回路211は、フレームN+1に対して画像処理回路(A)201、(B)202、(C)203によりハードウェア処理を実行し、ハードウェア処理後のフレームN+1(a)をメモリ12に出力する。
画像処理回路(A)201が故障しているか否かを検出する場合、セレクタ204はノードaを選択し、セレクタ205はノードbを選択する。これにより、セレクタ204は、カメラ14から供給されたフレームN+1をメモリ214に出力する。セレクタ205は、画像処理回路(A)201によりハードウェア処理されたフレームn+1(a)を比較部213に出力する。
ソフトウェア画像処理部212は、フレームN+1に対して画像処理(A)を実行し(ステップS24)、ソフトウェア処理後のフレームn+1(b)をメモリ215に出力する。
比較部213は、フレームn+1(a)とフレームn+1(b)とを比較してこれらが一致したかあるいは不一致かを示す検出信号DSを出力する。CPU13は、比較部213から出力された検出信号DSが一致を示すとき、画像処理回路(A)201が故障していない、すなわち正常であると判定する。一方、比較部213から出力された検出信号DSが不一致を示すとき、画像処理回路(A)201が故障であると判定する。
次に、カメラ14から供給されるフレームN+2の画像処理について述べる。フレームN+2の画像処理もフレームN、N+1と同様である。ここでは、フレームN+2の画像処理にて、画像処理回路(A)201の故障が検出される場合を示す。
カメラ14からフレームN+2が画像処理回路211に供給される。画像処理回路211は、フレームN+2に対して画像処理回路(A)201、(B)202、(C)203によりハードウェア処理を実行し、ハードウェア処理後のフレームN+2(a)をメモリ12に出力する。
画像処理回路(A)201が故障しているか否かを検出する場合、セレクタ204はノードaを選択し、セレクタ205はノードbを選択する。これにより、セレクタ204は、カメラ14から供給されたフレームN+2をメモリ214に出力する。セレクタ205は、画像処理回路(A)201によりハードウェア処理されたフレームn+2(a)を比較部213に出力する。
ソフトウェア画像処理部212は、フレームN+2に対して画像処理(A)を実行し(ステップS24)、ソフトウェア処理後のフレームn+2(b)をメモリ215に出力する。
比較部213は、フレームn+2(a)とフレームn+2(b)とを比較してこれらが一致したかあるいは不一致かを示す検出信号DSを出力する。ここでは、比較部213から出力された検出信号DSが不一致を示すため、CPU13は画像処理回路(A)201が故障であると判定する。
前述した例では、画像処理回路211内の画像処理回路(A)201の故障を検出する場合を述べたが、画像処理回路(A)201、(B)202、(C)203のうちのいずれか1つあるいは複数の故障を検出する場合も同様である。
[3−3]第3実施形態の効果
第3実施形態では、画像処理回路211の全体に故障があるか否かではなく、画像処理回路211内の個々の画像処理回路(A)、(B)、(C)から故障検出対象の回路を選択して、故障の検出を行うことができる。画像処理回路211内で、故障検出対象の画像処理回路を選択することができるため、故障検出対象の画像処理回路だけを効率良く検査することができる。これにより、故障検出に要する時間を低減することができる。
さらに、前述した第1実施形態と同様に、画像処理回路211から出力された第3処理データと比較される第4処理データをソフトウェア画像処理部212により生成できるため、画像処理回路211と同様な画像処理回路を設ける場合と比べて、回路規模、消費電力及び故障率を低減することができる。その他の構成及び効果は前記第1実施形態と同様である。
[4]第4実施形態
第4実施形態の画像処理装置を含む半導体装置について説明する。第4実施形態では、1フレーム(画像データ)のうちの一部のデータを比較し、画像処理回路211が故障しているか否かを判定する。画像処理装置21の構成は第3実施形態と同様である。以下、第4実施形態では第3実施形態と異なる点について主に説明する。
[4−1]画像処理装置の動作
図13は、第4実施形態の画像処理装置の動作を示すタイミングチャートである。画像処理回路211内の画像処理回路(A)201の故障を検出する場合を例として述べる。
まず、フレームNの画像処理について述べる。カメラ14からフレームNが画像処理回路211に供給される。画像処理回路211は、フレームNを受け取り、フレームNに対して画像処理回路(A)201、(B)202、(C)203によりハードウェア処理を実行し、ハードウェア処理後のフレームN(a)をメモリ12に出力する。
画像処理回路(A)201が故障しているか否かを検出する場合、セレクタ204はノードaを選択する。これにより、セレクタ204は、カメラ14から出力され、画像処理回路(A)201によりハードウェア処理される前のフレームNをメモリ214に出力する。セレクタ205はノードbを選択する。これにより、セレクタ205は、画像処理回路(A)201によりハードウェア処理され、画像処理回路(B)202によりハードウェア処理される前のフレームn(a)を比較部213に出力する。
ソフトウェア画像処理部212は、メモリ214から読み出したフレームNのうち一部のデータを受け取る。ソフトウェア画像処理部212は、受け取った一部のデータに対して画像処理(A)を実行し、ソフトウェア処理後の一部のデータをメモリ215に出力する。前記一部のデータは、例えばフレームNのうちの1ライン、複数ライン、あるいは1ライン内の特定部分のデータである。
比較部213は、画像処理回路211から出力されたフレームN(a)の一部のデータと、メモリ215から読み出したソフトウェア処理後の一部のデータとを比較する。比較部213は、フレームN(a)の一部のデータと、ソフトウェア処理後の一部のデータとが一致したかあるいは不一致かを示す検出信号DSを出力する。なお、比較部213において比較される画像処理回路211からの一部のデータと、ソフトウェア画像処理部212からの一部のデータとは対応するデータ、例えばフレームNの同一ラインのデータあるいは同一ラインの同一部分のデータである。
CPU13は、比較部213から出力された検出信号DSが一致を示すとき、画像処理回路211が故障していない、すなわち正常であると判定する。一方、比較部213から出力された検出信号DSが不一致を示すとき、画像処理回路211が故障であると判定する。
フレームN+1とフレームN+2の画像処理もフレームNと同様であるため、記載を省略する。
図13には、フレームNの画像処理において、フレームn(a)の一部のデータと、ソフトウェア画像処理部212からの一部のデータとの比較結果が一致となり、故障が発生していない場合を示した。フレームN+1の画像処理においては、フレームn+1(a)の一部のデータと、ソフトウェア画像処理部212からの一部のデータとの比較結果が一致となり、故障が発生していない場合を示した。フレームN+2の画像処理においては、フレームn+2(a)の一部のデータと、ソフトウェア画像処理部212からの一部のデータとの比較結果が不一致となり、故障が発生した場合を示した。
[4−2]第4実施形態の効果
第4実施形態では、メモリ214に保持されたフレームN(画像データ)のうちの一部のデータをソフトウェア画像処理部212により画像処理する。比較部213は、ソフトウェア画像処理部212により画像処理した前記一部のデータと、画像処理回路211にて画像処理したフレームNの一部のデータとを比較する。比較部213で比較される2つの一部のデータは、フレームNのうちの互いに対応する部分のデータである。CPU13は、比較部213による比較結果に応じて画像処理回路211が故障しているか否かを判定する。
このように、フレームNのうちの一部のデータを比較対象とすることにより、ソフトウェア画像処理部212にて画像処理に要する時間と、比較部213にて比較に要する時間を短縮することができる。さらに、ソフトウェア画像処理部212で行う画像処理時間を短くできるため、CPU13における動作の空き時間を利用して、CPU13によりソフトウェア画像処理部212の画像処理を行うことも可能となる。
以上述べたように、第4実施形態によれば、画像データのフレームのうちの一部のデータのみを比較対象とすることにより、ソフトウェア画像処理部212における画像処理時間を短縮することができる。さらに、ソフトウェア画像処理部212でソフトウェア処理に用いるCPU301(プロセッサ)の負荷を軽減することができる。その他の構成及び効果は前記第3実施形態と同様である。
[5]その他
前述した実施形態の半導体装置は、画像データを処理する画像処理装置を備えた様々な種類のカメラ搭載製品に搭載可能である。例えば、デジタルカメラ、デジタルビデオカメラ、スマートフォン用カメラ、車載カメラ、及び監視カメラなどに搭載される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10…半導体装置、11…画像処理装置、12…メモリ、13…CPU、14…カメラ、20…半導体装置、21…画像処理装置、111…画像処理回路、112…ソフトウェア画像処理部、113…比較部、114…メモリ、115…メモリ、201…画像処理回路(A)、202…画像処理回路(B)、203…画像処理回路(C)、211…画像処理回路、212…ソフトウェア画像処理部、213…比較部、214…メモリ、204,205…セレクタ、215…メモリ、301…CPU、302…ROM、303…RAM、304…RAM、305…バス。

Claims (11)

  1. 回路素子によって実現された画像処理の機能を有し、画像データに対して前記画像処理を実行して第1画像データを出力する画像処理回路と、
    プログラムに従った演算処理によって前記画像処理を実現し、前記画像データに対して前記画像処理を実行して第2画像データを出力するプロセッサと、
    前記第1画像データと前記第2画像データとを比較し、前記第1画像データと前記第2画像データとが一致するか否かを示す検出信号を出力する比較部と、
    を具備する半導体装置。
  2. 前記画像処理回路及び前記比較部を制御する制御回路をさらに具備し、
    前記制御回路は、前記プロセッサが行う前記画像処理を実行する請求項1に記載の半導体装置。
  3. 前記制御回路は、前記比較部における前記第1画像データと前記第2画像データとの比較をプログラムに従って実行する請求項2に記載の半導体装置。
  4. 前記プログラムを保持した第1メモリと、
    前記プログラムに従って演算処理された前記第2画像データを記憶する第2メモリと、
    をさらに具備する請求項1乃至3のいずれかに記載の半導体装置。
  5. 前記画像処理回路は、画像処理の機能を持つ第1処理回路及び第2処理回路を有し、前記第1処理回路の出力は前記第2処理回路に供給され、
    前記第1処理回路の入力部の第1ノードと、及び前記第1処理回路と前記第2処理回路間の第2ノードのいずれかのノードを選択し、選択したノードを前記プロセッサに接続する第1セレクタと、
    前記第2ノードと、前記第2処理回路の出力部の第3ノードのいずれかのノードを選択し、選択したノードを前記比較部に接続する第2セレクタと、
    をさらに具備する請求項1乃至4のいずれかに記載の半導体装置。
  6. 前記画像処理回路は、画像処理の機能を持つ第1処理回路及び第2処理回路を有し、前記第1処理回路から出力されたデータは前記第2処理回路に供給され、
    前記第1処理回路に供給されるデータと、前記第1処理回路から出力されたデータのいずれかを選択し、選択したデータを前記プロセッサに供給する第1セレクタと、
    前記第1処理回路から出力されたデータと、前記第2処理回路から出力されたデータのいずれかを選択し、選択したデータを前記比較部に供給する第2セレクタと、
    をさらに具備し、
    前記第1セレクタが前記第1処理回路に供給されるデータを前記プロセッサに供給したとき、前記第2セレクタは前記第1処理回路から出力されたデータまたは前記第2処理回路から出力されたデータのいずれかを前記比較部に供給し、
    前記第1セレクタが前記第1処理回路から出力されたデータを前記プロセッサに供給したとき、前記第2セレクタは前記第2処理回路から出力されたデータを前記比較部に供給する請求項1乃至4のいずれかに記載の半導体装置。
  7. 前記プロセッサは、前記画像データの一部分に対して前記画像処理を実行して前記第2画像データの第1部分を出力し、
    前記比較部は、前記プロセッサから出力された前記第2画像データの前記第1部分と、前記画像処理回路から出力された前記第1画像データの、前記第1部分に対応する第2部分とを比較する請求項1乃至6のいずれかに記載の半導体装置。
  8. 前記プロセッサは、前記前記第1処理回路に供給されるデータ、前記第1処理回路から出力されたデータのいずれかのデータの一部分に対して前記画像処理を実行して前記第2画像データの第1部分を出力し、
    前記比較部は、前記プロセッサから出力された前記第2画像データの前記第1部分と、前記第1処理回路から出力されたデータまたは前記第2処理回路から出力されたデータのいずれかのデータの、前記第1部分に対応する第2部分とを比較する請求項6に記載の半導体装置。
  9. 前記第1画像データ及び前記第2画像データはフレームまたはフレーム内のラインのいずれかである請求項1乃至8のいずれかに記載の半導体装置。
  10. 前記第1部分及び前記第2部分はフレーム内のラインである請求項7または8に記載の半導体装置。
  11. 前記比較部は、前記第1画像データと前記第2画像データとを比較する機能を回路素子により実現する請求項1乃至10のいずれかに記載の半導体装置。
JP2016181441A 2016-09-16 2016-09-16 半導体装置 Pending JP2018045560A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016181441A JP2018045560A (ja) 2016-09-16 2016-09-16 半導体装置
US15/447,120 US20180082138A1 (en) 2016-09-16 2017-03-02 Semiconductor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016181441A JP2018045560A (ja) 2016-09-16 2016-09-16 半導体装置

Publications (2)

Publication Number Publication Date
JP2018045560A true JP2018045560A (ja) 2018-03-22
JP2018045560A5 JP2018045560A5 (ja) 2018-11-01

Family

ID=61617990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181441A Pending JP2018045560A (ja) 2016-09-16 2016-09-16 半導体装置

Country Status (2)

Country Link
US (1) US20180082138A1 (ja)
JP (1) JP2018045560A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848754B2 (en) 2018-02-16 2020-11-24 Kabushiki Kaisha Toshiba Camera input interface and semiconductor device
WO2020250702A1 (ja) * 2019-06-13 2020-12-17 株式会社デンソー 画像処理装置
JP7488085B2 (ja) 2020-03-31 2024-05-21 ラピスセミコンダクタ株式会社 画像歪補正回路及び表示装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157477A (ja) * 2007-12-25 2009-07-16 Fuji Xerox Co Ltd 不具合検出装置および画像形成装置
JP2011254381A (ja) * 2010-06-03 2011-12-15 Olympus Corp 画像処理装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6219467B1 (en) * 1997-07-15 2001-04-17 Fuji Photo Film Co. Ltd. Image processing device
US20060171593A1 (en) * 2005-02-01 2006-08-03 Hitachi High-Technologies Corporation Inspection apparatus for inspecting patterns of a substrate
JP4218723B2 (ja) * 2006-10-19 2009-02-04 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP4534172B2 (ja) * 2008-04-03 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157477A (ja) * 2007-12-25 2009-07-16 Fuji Xerox Co Ltd 不具合検出装置および画像形成装置
JP2011254381A (ja) * 2010-06-03 2011-12-15 Olympus Corp 画像処理装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848754B2 (en) 2018-02-16 2020-11-24 Kabushiki Kaisha Toshiba Camera input interface and semiconductor device
WO2020250702A1 (ja) * 2019-06-13 2020-12-17 株式会社デンソー 画像処理装置
JP2020201875A (ja) * 2019-06-13 2020-12-17 株式会社デンソー 画像処理装置
JP7392297B2 (ja) 2019-06-13 2023-12-06 株式会社デンソー 画像処理装置
JP7488085B2 (ja) 2020-03-31 2024-05-21 ラピスセミコンダクタ株式会社 画像歪補正回路及び表示装置

Also Published As

Publication number Publication date
US20180082138A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP2018045560A (ja) 半導体装置
US20080111896A1 (en) Automatic white balance system and automatic white balance control method
JP6156686B2 (ja) 画像処理装置
RU2012153223A (ru) Устройство обработки изображения и способ управления для устройства обработки изображения
JP2019049884A (ja) 画像処理装置、および故障診断制御方法
US10848754B2 (en) Camera input interface and semiconductor device
JP5147219B2 (ja) 映像自動調整システム
US8553974B2 (en) Method and circuit for correcting signals and image correcting method and circuit using the same
US20160093066A1 (en) Saturation compensation method
JP6060663B2 (ja) 画像信号符号化装置及び方法、並びに、画像信号復号装置及び方法
JP6063728B2 (ja) 欠陥画素検出装置、欠陥画素検出方法及びプログラム
US20230266811A1 (en) Information processing apparatus and information processing method
US20170078600A1 (en) Image capturing apparatus and control method for the same
KR20110017274A (ko) 이미지 보정 방법
US10701328B2 (en) Image processing device, image processing method, and image processing program
JP2010015438A (ja) メモリコントローラ
TWI528818B (zh) 圖像處理裝置以及缺陷像素之校正方法
JP2005341020A (ja) 画素欠陥検出装置および画素欠陥補正装置
JP2019186818A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5468668B2 (ja) メモリコントローラ
JP2009017301A (ja) 信号処理装置
JP2014099780A (ja) 画像信号符号化装置及び方法、並びに、画像信号復号装置及び方法
US10922781B1 (en) System for processing images from multiple image sensors
JP2020156016A (ja) 画像処理装置、画像処理方法、及びプログラム
US20230393897A1 (en) Signal processing device, signal processing method, and imaging apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191126