JP2018098524A - 撮像素子、撮像システムおよび撮像素子の制御方法 - Google Patents

撮像素子、撮像システムおよび撮像素子の制御方法 Download PDF

Info

Publication number
JP2018098524A
JP2018098524A JP2016238086A JP2016238086A JP2018098524A JP 2018098524 A JP2018098524 A JP 2018098524A JP 2016238086 A JP2016238086 A JP 2016238086A JP 2016238086 A JP2016238086 A JP 2016238086A JP 2018098524 A JP2018098524 A JP 2018098524A
Authority
JP
Japan
Prior art keywords
pixel data
areas
pixel
unit
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016238086A
Other languages
English (en)
Inventor
幸直 見城
Yukinao Kenjo
幸直 見城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2016238086A priority Critical patent/JP2018098524A/ja
Priority to PCT/JP2017/032487 priority patent/WO2018105187A1/ja
Priority to US16/340,963 priority patent/US10834294B2/en
Publication of JP2018098524A publication Critical patent/JP2018098524A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N3/00Scanning details of television systems; Combination thereof with generation of supply voltages
    • H04N3/10Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical
    • H04N3/14Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices
    • H04N3/15Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices for picture signal generation
    • H04N3/155Control of the image-sensor operation, e.g. image processing within the image-sensor
    • H04N3/1562Control of the image-sensor operation, e.g. image processing within the image-sensor for selective scanning, e.g. windowing, zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6842Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by controlling the scanning position, e.g. windowing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Abstract

【課題】動画データを撮像する撮像素子において、動画データのフレームレートの変換を容易にする。
【解決手段】画素アレイ部は、それぞれが複数の部分領域からなる複数の分割領域に分割される。走査回路は、複数の分割領域のそれぞれにおいて複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、複数の分割領域のそれぞれにおいて複数の部分領域のうち第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う。画像処理部は、第1の画素データを配列して第1のフレームを生成する処理と、第2の画素データを配列して第2のフレームを生成する処理とを順に行う。
【選択図】図2

Description

本技術は、撮像素子、撮像システムおよび撮像素子の制御方法に関する。詳しくは、動画データを撮像する撮像素子、撮像システムおよび撮像素子の制御方法に関する。
従来より、デジタルビデオカメラなどの撮像装置においては、画像データを撮像するために固体撮像素子が用いられている。例えば、画素アレイを複数の矩形のエリアに分割し、エリアごとにADC(Analog to Digital Converter)を配置した固体撮像素子が提案されている(例えば、特許文献1参照。)。
特開2016−19076号公報
上述の従来技術において、複数の画像データからなる動画データを撮像し、撮像後に、その動画データのフレームレートを高くするには、連続する2フレーム間に新たなフレームを補間する必要がある。しかしながら、フレームを補間する方法では、動画データのデータ量が大きいほど補間に要する処理量が大きくなり、また、動きの激しい被写体ほど補間が不正確となる。このように、上述の固体撮像素子では、データ量が多い動画データや動きの激しい被写体を撮像した動画データにおいてフレームレートの変換が困難になるという問題がある。
本技術はこのような状況に鑑みて生み出されたものであり、動画データを撮像する撮像素子において、動画データのフレームレートの変換を容易にすることを目的とする。
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査回路と、前記第1の画素データから第1のフレームを生成する処理と、前記第2の画素データから第2のフレームを生成する処理とを順に行う画像処理部とを具備する撮像装置、および、その制御方法である。これにより、第1の部分領域の露光により画素データから第1のフレームが生成され、第2の部分領域の露光により第2のフレームが生成されるという作用をもたらす。
また、この第1の側面において、前記複数の分割領域は、前記画素アレイ部を四分木分割により分割した領域であり、前記複数の部分領域は、前記複数の分割領域のそれぞれを四分木分割により分割した領域であり、前記走査回路は、前記第1および第2の部分領域のそれぞれを四分木探索により求めて露光してもよい。これにより、第1および第2の部分領域のそれぞれが四分木探索により取得されるという作用をもたらす。
また、この第1の側面において、互いに異なる区分領域に接続された複数のアナログデジタル変換器をさらに具備し、前記区分領域のそれぞれは、所定数の前記分割領域からなり、前記複数のアナログデジタル変換器のそれぞれは、前記接続された区分領域からの画素データに対してアナログデジタル変換を行って前記画像処理部に供給してもよい。これにより、区分領域ごとにアナログデジタル変換が行われるという作用をもたらす。
また、この第1の側面において、前記画素アレイ部において所定方向に配線された信号線をさらに具備し、前記画素データは、前記信号線を介して伝送され、前記走査回路は、所定方向に沿って配列された前記区分領域のそれぞれにおいて互いに異なる前記部分領域を前記第1の部分領域として露光させてもよい。これにより、所定方向に沿って配列された区分領域のそれぞれにおいて互いに異なる部分領域が露光されるという作用をもたらす。
また、この第1の側面において、前記走査回路は、所定の同期信号に同期して前記制御を行い、前記区分領域内の最後の画素データが出力されたタイミングから前記所定の同期信号の立上りのタイミングまでのブランク区間は略零であってもよい。これにより、露光タイミングの時間的、空間的な一様性を確保することができるという作用をもたらす。
また、この第1の側面において、前記撮像装置の動きを検出する動きセンサをさらに具備し、前記画像処理部は、前記第1のフレームの露光中心時刻と前記第1の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第1の画素データをマッピングして前記第1のフレームを生成し、前記第2のフレームの露光中心時刻と前記第2の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第2の画素データをマッピングして前記第2のフレームを生成してもよい。これにより、動きセンサからの動きに基づいたマッピングによりフレームが生成されるという作用をもたらす。
また、この第1の側面において、前記画像処理部は、前記生成した第1および第2のフレームのそれぞれにおいて欠陥画素を補間してもよい。これにより、欠陥画素が補間されたフレームが生成されるという作用をもたらす。
また、この第1の側面において、前記画像処理部は、前記第1および第2のフレームを含む動画データを生成する前段処理部と、前記動画データから前記撮像装置の動きを推定する動き推定部と、前記第1のフレームの露光中心時刻と前記第1の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第1の画素データをマッピングして前記第1のフレームを生成し、前記第2のフレームの露光中心時刻と前記第2の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第2の画素データをマッピングして前記第2のフレームを生成する後段処理部とを備えてもよい。これにより、動画データから推定された動きに基づいたマッピングによりフレームが生成されるという作用をもたらす。
また、この第1の側面において、前記画像処理部は、前記第1および第2のフレームのダイナミックレンジを拡大してもよい。これにより、ダイナミックレンジの広いフレームが生成されるという作用をもたらす。
また、この第1の側面において、前記画像処理部は、互いに一部が重複する前記第1および第2のフレームを生成してもよい。これにより、フレームの解像度やフレームレートが向上するという作用をもたらす。
また、本技術の第2の側面は、それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査回路とを具備する撮像素子である。これにより、互いに異なるフレームに対応する部分領域のそれぞれが露光されるという作用をもたらす。
本技術によれば、動画データを撮像する撮像素子において、動画データのフレームレートの変換を容易にすることができるという優れた効果を奏し得る。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第1の実施の形態における撮像素子の一構成例を示すブロック図である。 本技術の第1の実施の形態における画素アレイ部とAD変換部との間の配線の一例を示す斜視図である。 本技術の第1の実施の形態における画素アレイ部の一構成例を示す平面図である。 本技術の第1の実施の形態における空間分割方法を説明するための図である。 本技術の第1の実施の形態におけるエリア内の画素の露光順の一例を示す図である。 本技術の第1の実施の形態における第1サブフレームに対応する領域を示す図である。 本技術の第1の実施の形態における第2サブフレームに対応する領域を示す図である。 本技術の第1の実施の形態における第3サブフレームに対応する領域を示す図である。 本技術の第1の実施の形態における第4サブフレームに対応する領域を示す図である。 本技術の第1の実施の形態における露光タイミングを示すタイミングチャートの一例である。 本技術の第1の実施の形態における画像処理部の一構成例を示すブロック図である。 本技術の第1の実施の形態における圧縮部の一構成例を示すブロック図である。 本技術の第1の実施の形態における伸長部の一構成例を示すブロック図である。 本技術の第1の実施の形態におけるフレームレート変換部の一構成例を示すブロック図である。 本技術の第1の実施の形態におけるマッピング処理部の一構成例を示すブロック図である。 本技術の第1の実施の形態における露光中心と動きベクトルとの関係を示す図である。 本技術の第1の実施の形態における動きベクトルの一例を示す図である。 本技術の第1の実施の形態における正規化部の一構成例を示すブロック図である。 本技術の第1の実施の形態におけるガウシアンフィルタにおける係数の一構成例を示す図である。 本技術の第1の実施の形態におけるフレームレート変換前後の動画データの一例を示す図である。 本技術の第1の実施の形態における撮像装置の動作の一例を示すフローチャートである。 本技術の第1の実施の形態における撮像処理の一例を示すフローチャートである。 本技術の第1の実施の形態におけるレイヤL2アドレス取得処理の一例を示すフローチャートである。 本技術の第1の実施の形態におけるレイヤL1アドレス取得処理の一例を示すフローチャートである。 本技術の第1の実施の形態におけるレイヤL4露光処理の一例を示すフローチャートである。 本技術の第1の実施の形態におけるフレームレート変換処理の一例を示すフローチャートである。 本技術の第1の実施の形態におけるスキャン方式ごとの欠陥画素率の一例を示す図である。 本技術の第1の実施の形態におけるカラムADCの場合の画素アレイ部の一構成例を示す平面図である。 本技術の第1の実施の形態におけるアドレスのシフト方法について説明するための図である。 本技術の第1の実施の形態の第1の変形例における空間分割方法の一例を示す図である。 本技術の第1の実施の形態の第2の変形例における正規化部の一構成例を示すブロック図である。 本技術の第1の実施の形態の第3の変形例におけるフレームの分割方法の一例を示す図である。 本技術の第2の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第2の実施の形態におけるフレームレート変換部の一構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(サブフレームごとにレイヤ内の異なる部分を露光する例)
2.第2の実施の形態(動きを推定し、サブフレームごとにレイヤ内の異なる部分を露光する例)
<1.第1の実施の形態>
[撮像装置の構成例]
図1は、本技術の第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、時系列順に複数の画像データを含む動画データを撮像するものであり、撮像レンズ110、撮像素子200、撮像制御部120、画像処理部130、動きセンサ140、データストレージ150および表示部160を備える。撮像装置100としては、例えば、スマートフォンやパーソナルコンピュータなどの撮像機能を持つ情報処理装置や、デジタルカメラが挙げられる。
撮像レンズ110は、被写体からの光を集光して撮像素子200に導くものである。
撮像制御部120は、撮像素子200を制御して画像データを撮像させるものである。この撮像制御部120は、例えば、ユーザの所定の操作(シャッターボタンの押下など)に応じて、撮像制御部120は、撮像素子200への垂直同期信号VSYNCの供給を開始する。この垂直同期信号VSYNCは、撮像のタイミングを示す所定周波数(例えば、30ヘルツ)の同期信号であり、信号線129を介して供給される。そして、撮像制御部120は、ユーザの所定の操作(停止ボタンの押下など)に応じて垂直同期信号VSYNCの供給を停止する。
撮像素子200は、垂直同期信号VSYNCに同期して、画像データを撮像するものである。例えば、CMOS(Complementary MOS)センサが撮像素子200として用いられる。そして、撮像素子200は、撮像した画像データを信号線209を介して画像処理部130に供給する。
動きセンサ140は、撮像装置100の動きを検出するものである。例えば、加速度センサやジャイロセンサが動きセンサ140として用いられる。この動きセンサ140には、測定タイミングを示す所定の周波数のタイミング信号が入力される。動きセンサ140は、そのタイミング信号の周期が経過するたびに、動きを測定して、その測定値を示す動きデータを画像処理部130に信号線149を介して供給する。
画像処理部130は、画像データからなる動画データに対して所定の画像処理を実行するものである。この画像処理部130は、動画データを圧縮し、動きセンサ140からの動きデータとともにデータストレージ150に信号線139を介して供給する。
また、画像処理部130は、動画データの再生や編集がユーザにより指示されると、信号線139を介してデータストレージ150から動画データを読み出して伸長する。伸長の際に、画像処理部130は、動きデータを用いて動画データのフレームレートの変換を行う。そして、画像処理部130は、伸長した動画データを信号線138を介して表示部160に供給する。
データストレージ150は、動画データや動きデータなどの様々なデータを記録するものである。表示部160は、動画データを表示するものである。
なお、撮像レンズ110、撮像素子200、撮像制御部120、画像処理部130、動きセンサ140、データストレージ150および表示部160を1つの装置内に配置しているが、これらを複数の装置に分散して配置してもよい。例えば、撮像レンズ110、撮像素子200および撮像制御部120をカメラモジュールに配置し、画像処理部130、動きセンサ140、データストレージ150および表示部160を情報処理装置に配置してもよい。
[撮像素子の構成例]
図2は、本技術の第1の実施の形態における撮像素子200の一構成例を示すブロック図である。この撮像素子200は、積層された上側基板201および下側基板202を備える。上側基板201には、走査回路210および画素アレイ部220が配置され、下側基板202にはAD変換部260が配置される。
画素アレイ部220は、正方形の複数のエリア221に区分される。これらのエリア221は、二次元格子状に配列される。そして、それぞれのエリア221には、複数の画素が配列される。なお、エリア221は、特許請求の範囲に記載の区分領域の一例である。
ここで、所定方向(水平方向など)に沿って配列されるエリア221の個数をP(Pは整数)個とし、その所定方向に垂直な方向に沿って配列されるエリア221の個数をQ(Qは整数)個とする。水平方向においてp個(pは0乃至P−1の整数)目で、垂直方向においてq(qは0乃至Q−1の整数)個目のエリア221を以下、「エリアA[q][p]」と称する。
AD変換部260には、エリア221と同じ個数のADC261が設けられる。ADC261のそれぞれは、互いに異なるエリア221と1対1で接続されている。エリア221がP×Q個であるため、ADC261もP×Q個、配置される。エリア221内の画素は、アナログの画素データを生成し、対応するADC261に供給する。ADC261は、そのアナログの画素データをAD変換してデジタルの画素データを生成する。これらのデジタルの画素データを配列したフレームが原フレームとして画像処理部130へ出力される。なお、ADC261は、特許請求の範囲に記載のアナログデジタル変換器の一例である。
なお、撮像素子200において、エリア221ごとに、ADC261を配置しているが、画素のカラムごとにADC261を配置してもよい。
図3は、本技術の第1の実施の形態における画素アレイ部220とAD変換部260との間の配線の一例を示す斜視図である。エリア221のそれぞれは、その直下のADC261と1対1でCu−Cu接続などにより接続される。エリアADCがP×Q個である場合、P×Q本の配線により、画素アレイ部220とAD変換部260とが接続される。
[画素アレイ部の構成例]
図4は、本技術の第1の実施の形態における画素アレイ部220の一構成例を示す平面図である。エリアA[0][0]には、例えば、16行×16列の256個の画素223が二次元格子状に配列される。
エリアA[0][0]以外のエリア221の構成は、エリアA[0][0]と同様である。
図5は、本技術の第1の実施の形態における空間分割方法を説明するための図である。エリア221のそれぞれは、四分木分割により分割される。ここで、四分木分割とは、2次元空間を再帰的に4つの領域に分割する方式を意味する。四分木分割により分割された領域のそれぞれを以下、「レイヤ」と称する。
例えば、エリア221には、16行×16列の画素223が配列され、このエリア221は、レイヤL1[0][0]、レイヤL1[0][1]、レイヤL1[1][0]およびレイヤL1[1][1]の4つに分割される。レイヤL1[y][x]のxは、エリア221内のレイヤの相対Xアドレスを示し、yは、相対Yアドレスを示す。
そして、レイヤL1[y][x]のそれぞれは、レイヤL2[0][0]、レイヤL2[0][1]、レイヤL2[1][0]およびレイヤL2[1][1]の4つに分割される。レイヤL2[y][x]のxは、レイヤL1内のレイヤの相対Xアドレスを示し、yは、相対Yアドレスを示す。
以下、同様に、レイヤL2のそれぞれは、4つのレイヤL3に分割され、レイヤL3のそれぞれは4つのレイヤL4(すなわち、画素223)に分割される。これらの画素223は、例えば、ベイヤ配列により配列される。レイヤL1、L2、L3およびL4の上下関係は、レイヤL1が最も上位であり、レイヤL2、L3、L4の順で下位である。
また、エリア221内の画素223の相対Xアドレスは、例えば、「bx1x2x3x4」により表される。bx1は、レイヤL1の相対Xアドレスを示すビットである。bx2、bx3、および、bx4は、レイヤL2、L3およびL4の相対Xアドレスを示すビットである。エリア221内の画素223の相対Yアドレスは、例えば、「by1y2y3y4」により表される。by1、by2、by3、および、by4は、レイヤL1、L2、L3およびL4の相対Yアドレスを示すビットである。
なお、エリア221をレイヤL1乃至L4の4階層に分割しているが、階層数は4つに限定されない。
このように、四分木分割により空間分割することにより、走査回路210は、画素223のアドレスを四分木探索により取得することができる。ここで、四分木探索は、四分木分割により分割された領域を再帰的な処理により探索する方式である。
図6は、本技術の第1の実施の形態におけるエリア221内の画素の露光順の一例を示す図である。同図における数値は、画素ごとの露光の順番を示す。例えば、16行×16列の256画素のそれぞれに「0」乃至「255」の露光順が割り当てられる。なお、エリア221内の画素数は、256個に限定されない。
走査回路210は、四分木探索により露光対象のレイヤのアドレスを取得する。例えば、走査回路210は、L3の相対アドレス(by3、bx3)として(0、0)を取得して、レイヤL2の相対アドレスを取得するサブルーチンを呼び出す。次いで、走査回路210は、L3の相対アドレス(by3、bx3)として(1、1)を取得して、レイヤL2の相対アドレスを取得するサブルーチンを呼び出す。そして、走査回路210は、L3の相対アドレス(by3、bx3)として(0、1)を取得して同様のサブルーチンを呼び出し、L3の相対アドレス(by3、bx3)として(1、0)を取得して同様のサブルーチンを呼び出す。
レイヤL2の相対アドレスを取得するサブルーチンにおいて、走査回路210は、L2の相対アドレス(by2、bx2)として(0、0)を取得して、レイヤL1の相対アドレスを取得するサブルーチンを呼び出す。次いで、走査回路210は、L2の相対アドレス(by2、bx2)として(1、1)を取得して、レイヤL1の相対アドレスを取得するサブルーチンを呼び出す。そして、走査回路210は、L2の相対アドレス(by2、bx2)として(0、1)を取得して同様のサブルーチンを呼び出し、L2の相対アドレス(by2、bx2)として(1、0)を取得して同様のサブルーチンを呼び出す。
レイヤL1の相対アドレスを取得するサブルーチンにおいて、走査回路210は、L1の相対アドレス(by1、bx1)として(0、0)を取得して、レイヤL4の相対アドレスを取得するサブルーチンを呼び出す。次いで、走査回路210は、L1の相対アドレス(by1、bx1)として(1、1)を取得して、レイヤL4の相対アドレスを取得するサブルーチンを呼び出す。そして、走査回路210は、L1の相対アドレス(by1、bx1)として(0、1)を取得して同様のサブルーチンを呼び出し、L1の相対アドレス(by1、bx1)として(1、0)を取得して同様のサブルーチンを呼び出す。
レイヤL4の相対アドレスを取得するサブルーチンにおいて、走査回路210は、レイヤL4の相対アドレス(by4、bx4)として(0、0)を取得する。そして、走査回路210は、エリア221内の相対アドレス(Y、X)の画素の露光を開始させる。次いで、走査回路210は、レイヤL4の相対アドレス(by4、bx4)として(0、1)、(1、0)および(1、1)を順に取得し、それらに対応する画素の露光を順に開始させる。このように、再帰的な四分木探索によりアドレスが求められる。
そして、走査回路210は、露光の開始順と同じ順序で画素のそれぞれの露光を終了させて画素データを出力させる。このように、四分木探索により露光対象のレイヤのアドレスを求めて露光する制御を以下、「Q(Quad)ツリースキャン」と称する。Qツリースキャンにより、画素のそれぞれの露光タイミングの時間的、空間的な一様性を確保することができる。
続いて、画像処理部130は、伸長する際に、原フレーム内のそれぞれのエリア221において、そのエリア内の画素群を、露光順が連続するK(Kは、2以上の整数)個のグループに分割する。例えば、エリア221内の画素数が「256」で、Kを「4」とする。この場合、0番目から63番目の露光順のグループと、64番目から127番目の露光順のグループと、128番目から191番目の露光順のグループと、192番目から255番目の露光順のグループとに分割される。
そして、画像処理部130は、それぞれのグループ内の画素データを配列して、グループごとに1枚の画像データをサブフレームとして生成する。これにより、1枚の原フレームからK(例えば、「4」)枚のサブフレームが生成される。画像処理部130が、動画データ内の原フレームごとに分割を行うことにより、フレームレートをK倍にすることができる。ただし、サブフレームの画素数(解像度)は、原フレームの1/Kとなる。例えば、解像度が3840×2160画素で原フレームレート30fps(Frames Per Second)の動画データは、解像度が(3840/2)×(2160/2)画素で出力フレームレートが120fpsの動画データに変換される。以下、フレームレート変換前のフレームレートを「原フレームレート」と称し、変換後のフレームレートを「出力フレームレート」と称する。
図7は、本技術の第1の実施の形態における第1サブフレームに対応する領域を示す図である。走査回路210は、撮像が開始されると、一定の順序で最初のグループ内の0乃至63番目の露光順の画素を順に露光させる。これにより、太枠で囲った64個の画素の画素データが読み出される。同図に例示するように、それぞれのレイヤL2において左上の1個のレイヤL3の部分が露光される。レイヤL1からみると、それぞれのレイヤL1内で4個のレイヤL3の部分が露光される。分割数Kが「4」の場合、これらの部分の画素データから、最初の第1サブフレームが生成される。エリア221の個数はP×Q個であるため、サブフレームの画素数は、P×Q×64画素である。なお、これらの最初のグループ内の画素データは、特許請求の範囲に記載の第1画素データの一例である。
ここで、一般的な撮像素子ではラスタスキャンが行われるが、ラスタスキャンでは、時間的、空間的に、露光タイミングがエリア221内の一部に偏ってしまう。例えば、ラスタスキャンでは、0番目から63番目に、4行×16列の64画素が露光され、露光タイミングが、この4行に偏ってしまう。ランダムに画素を選択して露光するランダムスキャンも知られているが、このランダムスキャンでは、ラスタスキャンよりも一様性は確保されているものの、依然として露光タイミングに偏りが生じてしまう。
これに対して、撮像素子200では、図7に例示したように、0番目から63番目の画素は、エリア221内に一様に分布しており、露光タイミングの時間的、空間的な一様性を確保することができる。
図8は、本技術の第1の実施の形態における第2サブフレームに対応する領域を示す図である。走査回路210は、63番目の画素を露光させた後に、2番目のグループ内の64乃至127番目の露光順の画素を順に露光させる。これにより、太枠で囲った64個の画素の画素データが読み出される。同図に例示するように、それぞれのレイヤL2において右下のレイヤL3の部分が露光される。分割数Kが「4」の場合、これらの部分の画素データから、2番目の第2サブフレームが生成される。なお、これらの2番目のグループ内の画素データは、特許請求の範囲に記載の第2画素データの一例である。
図9は、本技術の第1の実施の形態における第3サブフレームに対応する領域を示す図である。走査回路210は、127番目の画素を露光させた後に、3番目のグループ内の128乃至191番目の露光順の画素を順に露光させる。これにより、太枠で囲った64個の画素の画素データが読み出される。同図に例示するように、それぞれのレイヤL2において右上のレイヤL3の部分が露光される。分割数Kが「4」の場合、これらの部分の画素データから、3番目の第3サブフレームが生成される。
図10は、本技術の第1の実施の形態における第4サブフレームに対応する領域を示す図である。走査回路210は、191番目の画素を露光させた後に、4番目のグループ内の192乃至255番目の露光順の画素を順に露光させる。これにより、太枠で囲った64個の画素の画素データが読み出される。同図に例示するように、それぞれのレイヤL2において左下のレイヤL3の部分が露光される。分割数Kが「4」の場合、これらの部分の画素データから、4番目の第4サブフレームが生成される。
なお、レイヤL3より上位のレイヤL1およびレイヤL2は、特許請求の範囲に記載の分割領域の一例である。また、レイヤL3は、特許請求の範囲に記載の部分領域の一例である。それぞれのサブフレームにおいてレイヤL1内で露光されるレイヤL3の個数である「4」と、レイヤL2内で露光されるレイヤL3の個数である「1」とは、特許請求の範囲に記載の所定数の一例である。
図11は、本技術の第1の実施の形態における露光タイミングを示すタイミングチャートの一例である。同図において、白色の部分の長さは、画素の露光時間TEXを示す。また、斜線部分の長さは、画素データのAD変換に要する時間TADを示す。
走査回路210は、垂直同期信号VSYNCの立上りのタイミングt3よりもTEX+TADだけ前のタイミングt0において、P×Q個のエリア221のそれぞれの0番目の露光順の画素を駆動して露光を開始させる。そして、タイミングt0からTAD+Tbの時間が経過したタイミングt1において、走査回路210は、P×Q個のエリア221のそれぞれの1番目の露光順の画素を駆動して露光を開始させる。そして、タイミングt0からTEXが経過したタイミングt2において走査回路210は、0番目の画素の露光を終了させて画素データを出力させる。タイミングt1からTEXが経過したタイミングt4において、走査回路210は、1番目の画素の露光を終了させて画素データを出力させる。以下、3番目以降の画素が順に露光される。そして、タイミングt5において、それぞれのエリア221内の最後の画素のAD変換が終了する。タイミングt3から、垂直同期信号VSYNCの周期TVSYNCが経過したタイミングt6において、次のフレームの最初の画素のAD変換が終了する。
エリア221ごとに、その内部の画素群は、露光順が連続するK個のグループに分割され、グループごとに1枚のサブフレームが生成される。例えば、エリア221の画素数が「256」で、Kが「4」の場合、0番目から63番目の露光順の64画素(すなわち、最初のグループ)から最初のサブフレームS[0]が生成される。次に、64番目から127番目の露光順の64画素(すなわち、2番目のグループ)からサブフレームS[1]が生成される。以下、同様に、サブフレームS[2]からサブフレームS[K−1](S[3])までが原フレームから生成される。エリア221はP×Q個であるため、それぞれのサブフレームの画素数は、P×Q×64画素である。
ここで、Tbには、次の式を満たす値が設定される。
(TAD+Tb)×M=TVSYNC
上式において、Mは、エリア221内の画素数(例えば、256)である。
このようにTbを設定することにより、エリア221内で最後の画素データが出力されたタイミングから、垂直同期信号VSYNCの立上りのタイミングまでの時間であるブランク期間を略零にすることができる。
ラスタスキャンを行う一般的な撮像素子では、フォーカルプレーン歪みを小さくする観点からTbは略零に設定され、この結果、ブランク区間は長くなる。このため、垂直同期信号VSYNCの周期TVSYNC内において、ブランク期間外の期間に、露光タイミングが集中してしまう。
これに対して、撮像素子200では、前述したようにブランク期間を略零にするため、周期TVSYNC内において、露光タイミングが一様に分布する。したがって、サブフレームのそれぞれの露光時間の時間的な一様性を確保することができる。なお、撮像素子200では、Qツリースキャンを行うため、フォーカルプレーン歪みは生じない。
[画像処理部の構成例]
図12は、本技術の第1の実施の形態における画像処理部130の一構成例を示すブロック図である。この画像処理部130は、圧縮部131および伸長部135を備える。
圧縮部131は、撮像素子200からの動画データを圧縮するものである。圧縮された動画データは、動きデータとともにデータストレージ150に記録される。
伸長部135は、ユーザの操作に従って、圧縮された動画データをデータストレージ150から読み出して伸長するものである。伸長部135は、伸長した動画データを表示部160に供給する。
[圧縮部の構成例]
図13は、本技術の第1の実施の形態における圧縮部131の一構成例を示すブロック図である。この圧縮部131は、デモザイク処理部132およびエンコード部133を備える。
デモザイク処理部132は、動画データ内の原フレームに対して、デモザイク処理を行うものである。ここで、デモザイク処理は、画素ごとに、その画素に足りない色情報を周囲から補間して、画素ごとにR(Red)、G(Green)およびB(Blue)の色情報を持つフルカラー画像を生成する処理である。デモザイク処理部132は、デモザイク後の原フレームをエンコード部133に供給する。
エンコード部133は、所定のコーデックを用いて、動画データを圧縮(すなわち、エンコード)するものである。例えば、MPEG(Moving Picture Experts Group)−2やH.264/MPEG−4 AVC(Advanced Video Coding)の規格に準拠したコーデックが用いられる。あるいは、MPEG HVC(High-performance Video Coding)やDSC(Display Stream Compression)の規格に準拠したコーデックが用いられる。エンコード部133は、圧縮した動画データをデータストレージ150に記録する。
[伸長部の構成例]
図14は、本技術の第1の実施の形態における伸長部135の一構成例を示すブロック図である。この伸長部135は、デコード部136、ベイヤー化部137およびフレームレート変換部300を備える。
デコード部136は、エンコード部133と同様のコーデックを用いて、圧縮された動画データを伸長(デコード)するものである。このデコード部136は、伸長した動画データをベイヤー化部137に供給する。
ベイヤー化部137は、動画データ内のフルカラーの原フレームをベイヤー配列の画像に変換するものである。すなわち、デモザイク処理と逆の処理が行われる。ベイヤー化部137は、変換後の原フレームのそれぞれをフレームレート変換部300に供給する。
フレームレート変換部300は、動画データのフレームレートを変換するものである。フレームレートの変換の際にフレームレート変換部300は、動きデータを用いて手ブレ補正を行う。フレームレート変換部300は、サブフレームからなる動画データを表示部160に出力する。
なお、画像処理部130は、原フレームを圧縮した後に伸長してフレームレートを変換しているが、圧縮および伸長を行わずに、撮像素子200からの原フレームのフレームレートの変換のみを行ってもよい。この場合には、圧縮部131、デコード部136、および、ベイヤー化部137は不要となる。
[フレームレート変換部の構成例]
図15は、本技術の第1の実施の形態におけるフレームレート変換部300の一構成例を示すブロック図である。このフレームレート変換部300は、マッピング計算部310、マッピング処理部320、正規化部330および制御部340を備える。
マッピング計算部310は、動きデータの示す動きに基づいて、マッピングデータを計算するものである。ここで、マッピングデータは、動きデータから得られた動き量に基づいて原フレーム内の画素のそれぞれを、サブフレーム内にマッピングする際のマッピング先のアドレスを示すデータである。この動き量は、動きセンサ140により測定された加速度や角速度の測定値から算出される。動き量の計算においては、必要に応じて線形補間などの内挿補間が行われる。マッピング計算部310は、マッピングデータをマッピング処理部320に供給する。
マッピング処理部320は、マッピングデータに基づいて、原フレーム内の画素のそれぞれをマッピングするものである。このマッピング処理部320は、K個のグループごとにマッピングを行い、それぞれのマッピング後のデータをサブフレームとして正規化部330に供給する。これにより、フレームレートが変換される。
正規化部330は、サブフレームに対して所定の正規化処理を行うものである。正規化部330は、正規化処理後のサブフレームを表示部160に供給する。
制御部340は、フレームレート変換部300全体を制御するものである。例えば、制御部340は、画素ごとに、その画素アドレスと、その露光順を示す露光順インデックスとをマッピング計算部310に供給する。また、制御部340は、R、GおよびBのカラーチャネルをマッピング処理部320に供給する。また、制御部340は、所定のタイミング信号を正規化部330に供給する。
[マッピング処理部の構成例]
図16は、本技術の第1の実施の形態におけるマッピング処理部320の一構成例を示すブロック図である。このマッピング処理部320は、セレクタ321、Rチャネルバッファ更新部322、Gチャネルバッファ更新部323、Bチャネルバッファ更新部324、Rチャネルバッファ325、Gチャネルバッファ326およびBチャネルバッファ327を備える。
セレクタ321は、制御部340からのカラーチャネルに従って、データストレージ150およびマッピング計算部310からの画素データおよびマッピングデータの出力先を切り替えるものである。Rチャネルが指定された場合にセレクタ321は、画素データおよびマッピングデータをRチャネルバッファ更新部322に供給する。また、セレクタ321は、Gチャネルが指定された場合に画素データおよびマッピングデータをGチャネルバッファ更新部323に供給し、Bチャネルが指定された場合に画素データおよびマッピングデータをBチャネルバッファ更新部324に供給する。
Rチャネルバッファ更新部322は、マッピングデータに従って、セレクタ321からの画素データにより、Rチャネルバッファ325を更新するものである。Gチャネルバッファ更新部323は、マッピングデータに従って、セレクタ321からの画素データにより、Gチャネルバッファ326を更新するものである。Bチャネルバッファ更新部324は、マッピングデータに従って、セレクタ321からの画素データにより、Bチャネルバッファ327を更新するものである。
Rチャネルバッファ325は、Rチャネルのワーキングバッファおよび重みテーブルを保持するものである。ワーキングバッファおよび重みテーブルについては後述する。また、Gチャネルバッファ326は、Gチャネルのワーキングバッファおよび重みテーブルを保持するものであり、Bチャネルバッファ327は、Bチャネルのワーキングバッファおよび重みテーブルを保持するものである。これらのバッファに保持されたデータは、後段の正規化部330により読み出される。
図17は、本技術の第1の実施の形態における露光中心と動きベクトルとの関係を示す図である。マッピング計算部310は、サブフレーム内の画素データに順に着目し、着目した画素データの露光中心時刻と、そのサブフレームの露光中心時刻との一方から他方までの撮像装置100の動き量および動き方向を示す動きベクトルを動きデータに基づいて取得する。同図において丸印は、サブフレームの露光中心時刻を示す。
例えば、サブフレーム内で最初に露光された画素データの露光中心時刻がt11であり、サブフレームの露光中心時刻t12が、t11の後である場合には、その画素データについてt11からt12までの動きを示す動きベクトルが求められる。サブフレーム内で最後に露光された画素データの露光中心時刻がt13であり、そのt12がt13の前である場合には、その画素データについてt13からt12までの動きを示す動きベクトルが、求められる。
図18は、本技術の第1の実施の形態における動きベクトルの一例を示す図である。前述したように、マッピング計算部310は、画素毎に動きベクトルを算出する。同図において、矢印は、太枠で囲った着目画素について得られた動きベクトルを示す。黒丸は、動きベクトルの始点を示し、そのアドレスは、着目画素のアドレスである。また、白丸は、動きベクトルの終点を示す。ここで、動きセンサ140の解像度は、撮像素子200の解像度よりも高いものとする。例えば、動きセンサ140のある方向の解像度が218程度であるのに対し、その方向の撮像素子200の解像度は212乃至213である。このため、終点のアドレスは、画素のアドレスよりも高い精度で算出される。例えば、画素のアドレスが整数値で表されるのに対し、動きベクトルの終点のアドレスは、一定の桁数の実数により表される。
そこで、終点を含む画素のXアドレス(整数)から、終点のXアドレス(実数)までの距離と、終点のXアドレス(実数)から、終点の右隣の画素のXアドレス(整数)までの距離との比率をa:1−aとする。また、終点を含む画素のYアドレス(整数)から、終点のYアドレス(実数)までの距離と、終点のYアドレス(実数)から、終点の真下の画素のYアドレス(整数)までの距離との比率をb:1−bとする。ここで、aおよびbは、0以上、1未満の実数である。
マッピング処理部320は、画素データのそれぞれの値を用いて下記の式により、Rチャネルバッファ325、Gチャネルバッファ326およびBチャネルバッファ327からなるワーキングバッファおよび重みテーブルを更新する。
work_buff(c,y,x)=work_buff(c,y,x)+(1-a)(1-b)・src_pix(c,y,x)
work_buff(c,y,x+1)=work_buff(c,y,x+1)+a(1-b)・src_pix(c,y,x)
work_buff(c,y+1,x)=work_buff(c,y+1,x)+b(1-a)・src_pix(c,y,x)
work_buff(c,y+1,x+1)=work_buff(c,y+1,x+1)+ab・src_pix(c,y,x)
weight_table(c,y,x)=weight_table(c,y,x)+(1-a)(1-b)
weight_table(c,y,x+1)=weight_table(c,y,x+1)+a(1-b)
weight_table(c,y+1,x)=weight_table(c,y+1,x)+b(1-a)
weight_table(c,y+1,x+1)=weight_table(c,y+1,x+1)+ab
上式において、cは、カラーチャネルであり、R、GおよびBのいずれかを示す。xおよびyは、画素データの水平方向および垂直方向のアドレスを示す。work_buff()は、ワーキングバッファに保持される色情報の積算値を示す。src_pix()は、マッピング処理部320に入力された画素データを示す。weight_table()は、重みテーブルに保持される重みデータを示す。この重みデータは、画素毎に、積算された回数を示す。
図19は、本技術の第1の実施の形態における正規化部330の一構成例を示すブロック図である。この正規化部330は、Rチャネル加重平均演算部331、Gチャネル加重平均演算部332、Bチャネル加重平均演算部333および画素補間部334を備える。
Rチャネル加重平均演算部331は、Rの画素データについて、加重平均を演算するものである。このRチャネル加重平均演算部331は、ワーキングバッファを参照し、work_table(c,y,x)が、所定値E(Eは実数)よりも大きいか否かを判断する。
work_table(c,y,x)が所定値Eより大きい場合に、Rチャネル加重平均演算部331は、ワーキングバッファおよび重みテーブルを参照して次の式により加重平均を演算する。
work_buff(c,y,x)=work_buff(c,y,x)/weight_table(c,y,x)
そして、Rチャネル加重平均演算部331は、有効画素であるか否かを示すフラグであるvalid_pixel_flag(c,y,x)に、有効画素であることを示す論理値「1」を設定する。
一方、work_table(c,y,x)が所定値E以下の場合に、Rチャネル加重平均演算部331は、valid_pixel_flag(c,y,x)に欠陥画素であることを示す論理値「0」を設定する。Rチャネル加重平均演算部331は、Rの全画素データについて、同様の処理を実行する。
Gチャネル加重平均演算部332は、Gの画素データについて、加重平均を演算するものである。Bチャネル加重平均演算部333は、Bの画素データについて、加重平均を演算するものである。これらのGチャネル加重平均演算部332およびBチャネル加重平均演算部333の処理は、GおよびBチャネルについて処理を行う点以外は、Rチャネル加重平均演算部331の処理と同様である。
Rチャネル加重平均演算部331、Gチャネル加重平均演算部332およびBチャネル加重平均演算部333は、全画素のvalid_pixel_flag(c,y,x)およびwork_buff(c,y,x)を画素補間部334に供給する。
画素補間部334は、周囲の情報を用いて欠陥画素を補間するものである。この画素補間部334は、全ての画素に順に着目して、その画素のvalid_pixel_flag(y,x)の値を求める。valid_pixel_flag(R,y,x)、valid_pixel_flag(G,y,x)およびvalid_pixel_flag(B,y,x)が全て論理値「1」である場合に「1」のvalid_pixel_flag(y,x)が取得される。一方、そうでない場合に論理値「0」のvalid_pixel_flag(y,x)が取得される。
そして、画素補間部334は、着目した画素について次の式に示す演算を行う。この演算で用いられるガウシアンフィルタのフィルタサイズは、所定の初期値(例えば、3×3画素)に設定される。
Figure 2018098524
Figure 2018098524
式1および式2において、Gaussian_filter(i,j)は、ガウシアンフィルタ内の(i、j)の位置の係数を返す関数である。また、iは、ガウシアンフィルタ内の垂直方向の相対位置であり、jは、水平方向の相対位置である。sum_pixel(c,y,x)は、その係数で補間を行った結果を示すデータである。また、sum_weight(c,y,x)は、補間に用いた係数の合計を示す。
画素補間部334は、式2で得られたsum_weight(c,y,x)が、所定の閾値未満であるか否かを判断する。sum_weight(c,y,x)が、閾値より大きい場合に画素補間部334は、次の式により正規化を行う。
dst_pix(c,y,x)=sum_pix(c,y,x)/sum_weight(c,y,x)
一方、sum_weight(c,y,x)が、閾値以下である場合に、画素補間部334は、ガウシアンフィルタのフィルタサイズを前回値よりも大きくして、上述の処理を再度実行して補間を試みる。ここで、フィルタサイズには、画質への影響を考慮して上限が設けられる。補間処理の終了後に画素補間部334は、正規化後のサブフレームを出力する。
図15乃至図19に例示したように、撮像装置100が動きデータに基づいてマッピング処理を行うことにより、手ブレを補正して画質を向上させることができる。また、撮像装置100は、Qツリースキャンを行っているため、前述したように、時間的、空間的に露光タイミングが一様である。したがって、手ブレ補正においてマッピング処理を行っても、欠陥画素が生じにくい。これに対して、ラスタスキャンでは、露光タイミングが一様でないため、欠陥画素が生じやすい。
なお、撮像装置100は、フレームレート変換時に手ブレ補正を行っているが、手ブレ補正を行わずにフレームレート変換のみを行ってもよい。この場合には、動きセンサ140は不要であり、フレームレート変換部300は、動き量を零として上述のマッピング処理を行う。また、欠陥画素は生じないため、欠陥画素の補間は不要となる。
図20は、本技術の第1の実施の形態におけるガウシアンフィルタにおける係数の一構成例を示す図である。同図に例示するように、3行×3列のガウシアンフィルタ内の中央の画素(すなわち、着目した画素)に対する係数として、例えば「4」が設定される。また、中央の左右、上下の画素に対する係数として「2」が設定され、残りの画素に対する係数として「1」が設定される。
図21は、本技術の第1の実施の形態におけるフレームレート変換前後の動画データの一例を示す図である。撮像素子200により、原フレーム510や520を含む動画データが撮像されたものとする。圧縮部131は、その動画データを圧縮してデータストレージ150に記録する。
そして、伸長部135は、伸長の際に動画データ内の原フレームのそれぞれを、解像度が1/KのK個のサブフレームに分割する。例えば、Kが「4」である場合に原フレーム510は、解像度が1/4のサブフレーム511、512、513および514に分割される。また、原フレーム520は、サブフレーム521、522、523および524に分割される。このように原フレームを、解像度が1/KのK個のサブフレームに分割することにより、フレーム間に新たなフレームを補間せずにフレームレートを向上させることができる。
[撮像装置の動作例]
図22は、本技術の第1の実施の形態における撮像装置100の動作の一例を示すフローチャートである。この動作は、例えば、撮像を開始させるための操作(シャッターボタンの押下など)が行われたときに開始される。
撮像装置100は、原フレームを撮像するための撮像処理を実行する(ステップS910)。そして、撮像装置100は、撮像した原フレームに対してデモザイク処理(ステップS901)を実行し、動画データに対してエンコードを行う(ステップS902)。
撮像装置100は、撮像を終了するか否かを判断する(ステップS903)。例えば、撮像を終了させるための操作(停止ボタンの押下など)が行われたときに、撮像装置100は、撮像を終了する。撮像終了でない場合に(ステップS903:No)、撮像装置100は、ステップS910以降の処理を繰り返し実行する。
一方、撮像終了の場合(ステップS903:Yes)に撮像装置100は、動画データの伸長が指示されたか否かを判断する(ステップS904)。ここで、動画データの伸長の指示は、動画データ全体に対するものであってもよいし、動画データの一部に対するものであってもよい。伸長が指示されていない場合に(ステップS904:No)、撮像装置100は、ステップS904を繰り返す。
伸長が指示された場合に(ステップS904:Yes)、撮像装置100は、圧縮された動画データに対してデコードを行い(ステップS905)、原フレームに対してベイヤー化を行う(ステップS906)。そして、撮像装置100は、動画データに対してフレームレート変換処理を行う(ステップS950)。
撮像装置100は、伸長が完了したか否かを判断する(ステップS907)。伸長が完了していない場合に(ステップS907:No)、撮像装置100は、ステップS905以降の処理を繰り返し実行する。一方、伸長が完了した場合に(ステップS907:Yes)、撮像装置100は、動作を終了する。
図23は、本技術の第1の実施の形態における撮像処理の一例を示すフローチャートである。まず、撮像素子200は、レイヤL3の相対アドレス(by3、bx3)に(0、0)を設定し(ステップS901)、レイヤL2のアドレスを取得するためのレイヤL2アドレス取得処理(ステップS920)を実行する。
そして、撮像素子200は、(by3、bx3)に(1、1)を設定し(ステップS902)、レイヤL2アドレス取得処理(ステップS920)を実行する。次に撮像素子200は、(by3、bx3)に(0、1)を設定し(ステップS903)、レイヤL2アドレス取得処理(ステップS920)を実行する。そして、撮像素子200は、(by3、bx3)に(1、0)を設定し(ステップS904)、レイヤL2アドレス取得処理(ステップS920)を実行する。これらのレイヤL2アドレス取得処理内では、一定の露光順で画素の露光が開始される。
撮像素子200は、露光の開始順と同じ順序で露光を終了して、全画素の画素データを出力する(ステップS905)。ステップS905の後に撮像素子200は、撮像処理を終了する。
図24は、本技術の第1の実施の形態におけるレイヤL2アドレス取得処理の一例を示すフローチャートである。撮像素子200は、レイヤL2の相対アドレス(bx2、by2)に(0、0)を設定し(ステップS921)、レイヤL1のアドレスを取得するためのレイヤL1アドレス取得処理(ステップS930)を実行する。
そして、撮像素子200は、(by2、bx2)に(1、1)を設定し(ステップS922)、レイヤL1アドレス取得処理(ステップS930)を実行する。次に撮像素子200は、(by2、bx2)に(0、1)を設定し(ステップS923)、レイヤL1アドレス取得処理(ステップS930)を実行する。そして、撮像素子200は、(by2、bx2)に(1、0)を設定し(ステップS924)、レイヤL1アドレス取得処理(ステップS930)を実行してレイヤL2アドレス取得処理を終了する。
図25は、本技術の第1の実施の形態におけるレイヤL1アドレス取得処理の一例を示すフローチャートである。撮像素子200は、レイヤL1の相対アドレス(by1、bx1)に(0、0)を設定し(ステップS931)、レイヤL4のアドレスを取得して露光させるためのレイヤL4露光処理(ステップS940)を実行する。
そして、撮像素子200は、(by1、bx1)に(1、1)を設定し(ステップS932)、レイヤL4露光処理(ステップS940)を実行する。次に撮像素子200は、(by1、bx1)に(0、1)を設定し(ステップS933)、レイヤL4露光処理(ステップS940)を実行する。そして、撮像素子200は、(by1、bx1)に(1、0)を設定し(ステップS934)、レイヤL4露光処理(ステップS940)を実行してレイヤL1アドレス取得処理を終了する。
図26は、本技術の第1の実施の形態におけるレイヤL4露光処理の一例を示すフローチャートである。撮像素子200は、レイヤL4の相対アドレス(by4、bx4)に(0、0)を設定し(ステップS941)、エリアA[0][0]内の相対アドレス(Y、X)の画素の露光を開始させる(ステップS942)。他のエリアにおいても、エリアA[0][0]と同じアドレスの画素について露光が開始される。
そして、撮像素子200は、レイヤL4の相対アドレス(by4、bx4)に(0、1)を設定し(ステップS943)、エリアA[0][0]内の相対アドレス(Y、X)の画素の露光を開始させる(ステップS944)。次いで撮像素子200は、レイヤL4の相対アドレス(by4、bx4)に(1、0)を設定し(ステップS945)、エリアA[0][0]内の相対アドレス(Y、X)の画素の露光を開始させる(ステップS946)。
そして、撮像素子200は、レイヤL4の相対アドレス(by4、bx4)に(1、1)を設定し(ステップS947)、エリアA[0][0]内の相対アドレス(Y、X)の画素の露光を開始させる(ステップS948)。他のエリアにおいても、エリアA[0][0]と同じアドレスについて露光が開始される。ステップS948の後に、撮像素子200は、レイヤL4露光処理を終了する。
図27は、本技術の第1の実施の形態におけるフレームレート変換処理の一例を示すフローチャートである。画像処理部130は、動きデータに基づいて、全画素についてマッピング計算を行う(ステップS951)。そして、画像処理部130は、マッピング処理を行ってワーキングバッファおよび重みテーブルの更新を行い(ステップS952)、画素毎に、加重平均を演算する(ステップS953)。このマッピング処理によりサブフレームが生成される。次いで、画像処理部130は、サブフレーム内の欠陥画素の補間を行う(ステップS954)。ステップS954の後に、画像処理部130は、フレームレート変換処理を終了する。
図28は、本技術の第1の実施の形態におけるスキャン方式ごとの欠陥画素率の一例を示す図である。ここでは、ラスタスキャンと、ランダムスキャンと、Qツリースキャンとのそれぞれで得られたフレームに対して手ブレ補正を行った場合の欠陥画素の発生率を下記の条件の下でシミュレーションにより求めている。また、このシミュレーションでは、エリアごとにADCを配置した構成でなく、カラムごとにADCを配置した構成を想定している。
センササイズ:5.5×3.1ミリメートル(mm)
センサ画素数(フルサイズ):5504×3104画素
画角:水平70度、垂直51度
撮像フレームレート(原フレームレート):30fps
撮像画素数(原フレームの画素数):4500×2800画素
エリアサイズ:100×56画素
エリア数:45×50
FD共有画素単位:2×4画素
垂直信号線数:水平4画素当たり2本
分割数K:16
出力フレームレート:30×16=480fps
サブフレームの画素数:(4500/4)×(2800/4)画素
=1125×700画素
手ブレ波形:1ヘルツ(Hz)乃至9ヘルツ(Hz)
エリアサイズおよびエリア数は、ADC261に対応するエリア221のサイズおよび個数を示す。また、サブフレームの画素数は、周辺を切り出すことにより、最終的に960画素×540画素に調整されるものとする。また、ワーキングバッファのバッファサイズは、サブフレーム1つ分である。
図28におけるaは、上述の条件下で得られたスキャン方式毎の欠陥画素率の最大値および平均値を示す表である。同図におけるbは、上述の条件下で得られたスキャン方式毎の欠陥画素率の最大値および平均値を示すグラフである。これらに例示するようにラスタスキャンでは、欠陥画素率が最も大きい。これは、前述したように、時間的、空間的に露光タイミングに偏りが生じるためである。
一方、ランダムスキャンでは、露光タイミングの偏りは、ラスタスキャンに比べてかなり改善される。しかしながら、部分的な偏りは生じるため、欠陥画素率は、Qツリースキャンよりは高くなる。Qツリースキャンでは、露光タイミングの時間的、空間的一様性が確保されるため、欠陥画素率は最も低くなる。これにより、サブフレームの画質を向上させることができる。
なお、撮像素子200において、エリア221ごとにADC261を配置せず、画素のカラムごとにADC261を配置することもできる。この場合、例えば、図29に示すようにエリアA[0][0]には、複数の画素ブロック222が配列される。それぞれの画素ブロック222には、4行×2列の画素223が配列される。これらの画素223は、浮遊拡散層を共有する。同図における白丸は、浮遊拡散層を示す。
また、エリアA[0][0]には、垂直方向に沿って複数の垂直信号線224が配線される。この垂直信号線224は、画素ブロック222の列ごとに配線される。エリアA[0][0]内の画素ブロック222の列がR(Rは整数)列である場合には、R本の垂直信号線224が配線される。そして、r(rは0乃至R−1の整数)列目の画素ブロック222は、r本目の垂直信号線224に接続される。それぞれの画素ブロック222は、接続された垂直信号線224を介して画素データを出力する。
カラムごとにADC216を配する場合、4行×2列の8個の画素223が浮遊拡散層を共有する構成としているが、浮遊拡散層を共有する画素数は、8個に限定されず、2行×2列の4個などであってもよい。また、浮遊拡散層を共有せず、画素223毎に浮遊拡散層を設ける構成であってもよい。
また、カラムごとにADC261を配置する場合のアドレスのシフト方法について図30を用いて説明する。前述したように、エリアA[0][0]内の画素は、四分木探索により一定の順序で露光される。しかし、エリアA[1][0]乃至エリアA[Q−1][0]についても同様の順序で露光すると、これらのエリアが垂直信号線を共有するため、垂直信号線上でデータの衝突が生じてしまう。これを回避するために、走査回路210は、エリアA[0][0]について取得した相対Xアドレスに対してシフト演算を行って、エリアA[1][0]乃至エリアA[Q−1][0]のアドレスとする。
例えば、エリアA[0][0]について相対アドレス(0・・・0、0・・・0)の左上のアドレスを取得した際に、走査回路210は、その相対Xアドレスに「1」を加算した「0・・1」を1ビット左シフトする。走査回路210は、シフト演算により得られた「0・・・10」をエリアA[1][0]の相対Xアドレスとする。また、走査回路210は、そのアドレスをさらに1ビット左シフトした「0・・・100」をエリアA[2][0]の相対Yアドレスとする。エリアA[3][0]以降についても同様の手順で相対Xアドレスが取得される。それらのアドレスの画素が同時に露光される。図30における黒色の画素は、露光対象の画素を示す。
このようにアドレスをシフトすることにより、エリアA[0][0]乃至[Q−1][0]のそれぞれにおいて、互いに異なる垂直信号線を介して画素データが読み出される。
エリアA[0][1]乃至A[Q−1][1]についても同様に、アドレスがシフトされる。エリアA[0][2]以降についても同様である。
このように、本技術の第1の実施の形態によれば、撮像装置100は、互いに異なる部分(レイヤL3)を露光させた複数のグループに分割してグループごとにサブフレームを生成するため、フレームを補間せずにフレームレートを向上させることができる。
[第1の変形例]
上述の第1の実施の形態では、画素アレイ部220を正方形のエリア221により区分していたが、画素アレイ部220のアスペクト比によっては、正方形では区分することが困難なことがある。この場合には、長方形のエリア221により画素アレイ部220を区分すればよい。この第1の実施の形態の第1の変形例の撮像素子200は、画素アレイ部220を長方形のエリア221により区分した点において第1の実施の形態と異なる。
図31は、本技術の第1の実施の形態の第1の変形例における空間分割方法の一例を示す図である。画素アレイ部220は、長方形のエリア221により区分され、エリア221のそれぞれは、2行×3列の正方形のレイヤL1により分割される。レイヤL1の相対Yアドレスby1は、「0」または「1」となり、相対Xアドレスbx1は10進数で「0」、「1」および「2」のいずれかとなる。
このように、本技術の第1の実施の形態の第1の変形例によれば、画素アレイ部220を長方形のエリア221により区分するため、正方形による区分が困難なアスペクト比の画素アレイ部220を区分することができる。
[第2の変形例]
上述の第1の実施の形態では、撮像素子200は、ダイナミックレンジを変更せずにフレームレート変換を行っていたが、自然光の下での撮像などにおいてダイナミックレンジが不足し、白飛びや黒つぶれにより画質が低下するおそれがある。この第1の実施の形態の第2の変形例の撮像素子200は、フレームレート変換時にダイナミックレンジを広くする点において第1の実施の形態と異なる。
図32は、本技術の第1の実施の形態の第2の変形例における正規化部330の一構成例を示すブロック図である。この第2の変形例における正規化部330は、Rチャネル加重平均演算部331の代わりに、Rチャネル加重平均演算部335を備える点において第1の実施の形態と異なる。また、第2の変形例における正規化部330は、Gチャネル加重平均演算部332およびBチャネル加重平均演算部333の代わりに、Gチャネル加重平均演算部336およびBチャネル加重平均演算部337を備える。
Rチャネル加重平均演算部335は、次の式により加重平均を演算する点において第1の実施の形態と異なる。Gチャネル加重平均演算部336およびBチャネル加重平均演算部337についても同様である。
work_buff(c,y,x)=(work_buff(c,y,x)<<ext_bit)/weight_table(c,y,x)
上式においてext_bitは、シフト量を示し、「<<」は左シフト演算を示す。
また、上式において「ext_bit」の値を大きく設定するほど、ダイナミックレンジを広くすることができる。
このように、本技術の第1の実施の形態の第2の変形例によれば、撮像素子200は、ワーキングバッファの値を左シフトさせるため、そのシフト量の分、ダイナミックレンジを広くすることができる。
[第3変形例]
上述の第1の実施の形態では、撮像素子200は、原フレームを、解像度が1/Kのサブフレームに分割することにより、出力フレームレートを原フレームレートのK倍にしていたが、出力フレームレートを高くするほど、解像度が低下してしまう。また、サブフレームの解像度を高くするほど、出力フレームレートが低下してしまう。この第1の実施の形態の第3の変形例の撮像素子200は、解像度やフレームレートの低下を抑制する点において第1の実施の形態と異なる。
図33は、本技術の第1の実施の形態の第3の変形例におけるフレームの分割方法の一例を示す図である。この第3の変形例の画像処理部130は、露光順が連続し、かつ、隣接する2つの互いの一部が重複するK個のグループに、エリア221内の画素群を分割する。例えば、エリア221の画素数が256個でKが「4」とする。この場合、0乃至127番目の画素からなるグループと、64乃至191番目の画素からなるグループと、128乃至255番目の画素からなるグループと、192乃至255番目および次の0乃至63番目の画素からなるグループとに4分割される。そして、画像処理部130は、グループごとにサブフレームを生成する。同図における点線で囲った部分は、サブフレームに対応するグループを示す。このように分割することにより、サブフレームのそれぞれの画素数は、P×Q×128画素に向上する。
隣接する2つのサブフレームの一部が重複するため、画像処理部130には、サブフレーム2つ分のワーキングバッファが設けられる。重みテーブルについても同様である。以下、サブフレームB(Bは整数)個分のワーキングバッファのバッファサイズを「B」とする。
なお、隣接する2つの互いの一部が重複するK個のグループに分割しているが、隣接する3つ以上の互いの一部が重複するグループに分割してもよい。この場合には、バッファサイズBは、「3」以上に設定される。
バッファサイズBを「2」以上にすることにより、出力フレームレートが一定の下でサブフレームの解像度を向上することができる。また、サブフレームの解像度が一定の下で、出力フレームレートを向上することができる。
例えば、第1の実施の形態では、次の式が成立する。
Figure 2018098524
上式において、「OriginalResolution」は、原フレームの解像度を示し、「OriginalFrameRate」は、フレームレート変換前のフレームレートを示す。また、「OutputResolution」は、サブフレームの解像度を示し、「OutputFrameRate」は、フレームレート変換後のフレームレートを示す。「DefectPixcelRatio」は、サブフレーム内の欠陥画素の発生率を示す。上式より、DefectPixelRatioが0に十分近い場合、解像度を1/Kにすることにより、フレームレートをK倍にすることができる。
これに対して、第1の実施の形態の第3の変形例では、次の式が成立する範囲でフレームレートおよび解像度を設定することができる。
Figure 2018098524
上式において「BufferSize」は、ワーキングバッファのサイズBを示す。上式より、サブフレームの解像度を1/Kにする場合に、フレームレートをK倍より高くすることができる。また、フレームレートをK倍にする際に、サブフレームの解像度を1/Kより高くすることができる。
なお、第1の実施の形態に第2の変形例を適用する場合には式3の代わりに次の式が成立する。
Figure 2018098524
上式において、「OriginalDynamicRange」は、原フレームのダイナミックレンジを示し、「OutputDynamicRange」は、サブフレームのダイナミックレンジを示す。
また、第3の変形例に第2の変形例を適用する場合には式4の代わりに次の式が成立する。
Figure 2018098524
このように、本技術の第1の実施の形態の第3の変形例では、画像処理部130は、互いに一部が重複するK個のサブフレームを生成するため、サブフレームの解像度や出力フレームレートを向上させることができる。
<2.第2の実施の形態>
上述の第1の実施の形態では、撮像装置100は、動きセンサ140を設けて、そのセンサにより検出された動きデータを用いて手ブレ補正を行っていたが、動きセンサ140を備えない構成において手ブレ補正を行うこともできる。この第2の実施の形態の撮像装置100は、動きセンサ140を用いずに手ブレ補正を行う第1の実施の形態と異なる。
図34は、本技術の第2の実施の形態における撮像装置100の一構成例を示すブロック図である。この第2の実施の形態の撮像装置100は、動きセンサ140を備えない点において第1の実施の形態と異なる。
図35は、本技術の第2の実施の形態におけるフレームレート変換部300の一構成例を示すブロック図である。この第2の実施の形態のフレームレート変換部300は、前段フレームレート変換部341、動き推定部342、および、後段フレームレート変換部343を備える。
前段フレームレート変換部341は、動き量を「0」に設定して原フレームのそれぞれをK個のサブフレームに分割するものである。前段フレームレート変換部341は、それらのサブフレームからなる動画データを動き推定部342に供給する。
動き推定部342は、動画データから撮像装置100の動きを推定する。例えば、動き推定部342は、連続する2枚のサブフレームで共通の部分を重ねて位置合わせを行い、サブフレーム全体について、ずれた量と方向とを動き量および動き方向として推定する。そして、動き推定部342は、動き量および動き方向を示す動きベクトルを後段フレームレート変換部343に供給する。後段フレームレート変換部343は、サブフレームの一部を切り出して、その部分全体を動きベクトルに沿ってずらして出力する。
後段フレームレート変換部343は、推定された動きベクトルを用いて第1の実施の形態と同様のフレームレート変換を行うものである。
このように、本技術の第2の実施の形態では、撮像装置100がサブフレームから動きを推定し、その動きに沿ってマッピングを行うため、動きセンサを用いずに手ブレ補正を行うことができる。このため、動きセンサの分、コストや消費電力を低減することができる。
<3.移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図36は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図36に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図36の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図37は、撮像部12031の設置位置の例を示す図である。
図37では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図37には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12101ないし12104内に適用され得る。具体的には、撮像部内の画像処理部は、原フレームをK個のサブフレームに分割してフレームレートをK倍にすることができる。撮像部12101ないし12104とに本開示に係る技術を適用することにより、フレームレートを変換して、速度の大きな移動体を容易に検知することができる。
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
なお、本技術は以下のような構成もとることができる。
(1)それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部と、
前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査回路と、
前記第1の画素データから第1のフレームを生成する処理と、前記第2の画素データから第2のフレームを生成する処理とを順に行う画像処理部と
を具備する撮像装置。
(2)前記複数の分割領域は、前記画素アレイ部を四分木分割により分割した領域であり、
前記複数の部分領域は、前記複数の分割領域のそれぞれを四分木分割により分割した領域であり、
前記走査回路は、前記第1および第2の部分領域のそれぞれを四分木探索により求めて露光する
前記(1)記載の撮像装置。
(3)互いに異なる区分領域に接続された複数のアナログデジタル変換器をさらに具備し、
前記区分領域のそれぞれは、所定数の前記分割領域からなり、
前記複数のアナログデジタル変換器のそれぞれは、前記接続された区分領域からの画素データに対してアナログデジタル変換を行って前記画像処理部に供給する
前記(1)または(2)記載の撮像装置。
(4)前記画素アレイ部において所定方向に配線された信号線をさらに具備し、
前記画素データは、前記信号線を介して伝送され、
前記走査回路は、所定方向に沿って配列された前記区分領域のそれぞれにおいて互いに異なる前記部分領域を前記第1の部分領域として露光させる
前記(3)記載の撮像装置。
(5)前記走査回路は、所定の同期信号に同期して前記制御を行い、
前記区分領域内の最後の画素データが出力されたタイミングから前記所定の同期信号の立上りのタイミングまでのブランク区間は略零である
前記(1)から(4)のいずれかに記載の撮像装置。
(6)前記撮像装置の動きを検出する動きセンサをさらに具備し、
前記画像処理部は、前記第1のフレームの露光中心時刻と前記第1の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第1の画素データをマッピングして前記第1のフレームを生成し、前記第2のフレームの露光中心時刻と前記第2の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第2の画素データをマッピングして前記第2のフレームを生成する
前記(1)から(5)のいずれかに記載の撮像装置。
(7)前記画像処理部は、前記生成した第1および第2のフレームのそれぞれにおいて欠陥画素を補間する
前記(6)記載の撮像装置。
(8)前記画像処理部は、
前記第1および第2のフレームを含む動画データを生成する前段処理部と、
前記動画データから前記撮像装置の動きを推定する動き推定部と、
前記第1のフレームの露光中心時刻と前記第1の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第1の画素データをマッピングして前記第1のフレームを生成し、前記第2のフレームの露光中心時刻と前記第2の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第2の画素データをマッピングして前記第2のフレームを生成する後段処理部と
を備える
前記(1)から(5)のいずれかに記載の撮像装置。
(9)前記画像処理部は、前記第1および第2のフレームのダイナミックレンジを拡大する
前記(1)から(8)のいずれかの記載の撮像装置。
(10)前記画像処理部は、互いに一部が重複する前記第1および第2のフレームを生成する
前記(1)から(9)のいずれかに記載の撮像装置。
(11)それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部と、
前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査回路と、
を具備する撮像素子。
(12)それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部内の前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査手順と、
前記第1の画素データから第1のフレームを生成する処理と、前記第2の画素データから第2のフレームを生成する処理とを順に行う画像処理手順と
を具備する撮像装置の制御方法。
100 撮像装置
110 撮像レンズ
120 撮像制御部
130 画像処理部
131 圧縮部
132 デモザイク処理部
133 エンコード部
135 伸長部
136 デコード部
137 ベイヤー化部
140 動きセンサ
150 データストレージ
160 表示部
200 撮像素子
201 上側基板
202 下側基板
210 走査回路
220 画素アレイ部
221 エリア
222 画素ブロック
223 画素
260 AD変換部
261 ADC
300 フレームレート変換部
310 マッピング計算部
320 マッピング処理部
321 セレクタ
322 Rチャネルバッファ更新部
323 Gチャネルバッファ更新部
324 Bチャネルバッファ更新部
325 Rチャネルバッファ
326 Gチャネルバッファ
327 Bチャネルバッファ
330 正規化部
331、335 Rチャネル加重平均演算部
332、336 Gチャネル加重平均演算部
333、337 Bチャネル加重平均演算部
334 画素補間部
340 制御部
341 前段フレームレート変換部
342 動き推定部
343 後段フレームレート変換部
12101、12102、12103、12104、12105 撮像部

Claims (12)

  1. それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部と、
    前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査回路と、
    前記第1の画素データから第1のフレームを生成する処理と、前記第2の画素データから第2のフレームを生成する処理とを順に行う画像処理部と
    を具備する撮像装置。
  2. 前記複数の分割領域は、前記画素アレイ部を四分木分割により分割した領域であり、
    前記複数の部分領域は、前記複数の分割領域のそれぞれを四分木分割により分割した領域であり、
    前記走査回路は、前記第1および第2の部分領域のそれぞれを四分木探索により求めて露光する
    請求項1記載の撮像装置。
  3. 互いに異なる区分領域に接続された複数のアナログデジタル変換器をさらに具備し、
    前記区分領域のそれぞれは、所定数の前記分割領域からなり、
    前記複数のアナログデジタル変換器のそれぞれは、前記接続された区分領域からの画素データに対してアナログデジタル変換を行って前記画像処理部に供給する
    請求項1記載の撮像装置。
  4. 前記画素アレイ部において所定方向に配線された信号線をさらに具備し、
    前記画素データは、前記信号線を介して伝送され、
    前記走査回路は、所定方向に沿って配列された前記区分領域のそれぞれにおいて互いに異なる前記部分領域を前記第1の部分領域として露光させる
    請求項3記載の撮像装置。
  5. 前記走査回路は、所定の同期信号に同期して前記制御を行い、
    前記区分領域内の最後の画素データが出力されたタイミングから前記所定の同期信号の立上りのタイミングまでのブランク区間は略零である
    請求項1記載の撮像装置。
  6. 前記撮像装置の動きを検出する動きセンサをさらに具備し、
    前記画像処理部は、前記第1のフレームの露光中心時刻と前記第1の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第1の画素データをマッピングして前記第1のフレームを生成し、前記第2のフレームの露光中心時刻と前記第2の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第2の画素データをマッピングして前記第2のフレームを生成する
    請求項1記載の撮像装置。
  7. 前記画像処理部は、前記生成した第1および第2のフレームのそれぞれにおいて欠陥画素を補間する
    請求項6記載の撮像装置。
  8. 前記画像処理部は、
    前記第1および第2のフレームを含む動画データを生成する前段処理部と、
    前記動画データから前記撮像装置の動きを推定する動き推定部と、
    前記第1のフレームの露光中心時刻と前記第1の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第1の画素データをマッピングして前記第1のフレームを生成し、前記第2のフレームの露光中心時刻と前記第2の画素データの露光中心時刻との一方から他方までの前記動きに基づいて前記第2の画素データをマッピングして前記第2のフレームを生成する後段処理部と
    を備える
    請求項1記載の撮像装置。
  9. 前記画像処理部は、前記第1および第2のフレームのダイナミックレンジを拡大する
    請求項1記載の撮像装置。
  10. 前記画像処理部は、互いに一部が重複する前記第1および第2のフレームを生成する
    請求項1記載の撮像装置。
  11. それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部と、
    前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査回路と、
    を具備する撮像素子。
  12. それぞれが複数の部分領域からなる複数の分割領域に分割された画素アレイ部内の前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち所定数の領域を第1の部分領域として露光させて第1の画素データを出力させる制御と、前記複数の分割領域のそれぞれにおいて前記複数の部分領域のうち前記第1の部分領域とは異なる領域を第2の部分領域として露光させて第2の画素データを出力させる制御とを順に行う走査手順と、
    前記第1の画素データから第1のフレームを生成する処理と、前記第2の画素データから第2のフレームを生成する処理とを順に行う画像処理手順と
    を具備する撮像装置の制御方法。
JP2016238086A 2016-12-08 2016-12-08 撮像素子、撮像システムおよび撮像素子の制御方法 Pending JP2018098524A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016238086A JP2018098524A (ja) 2016-12-08 2016-12-08 撮像素子、撮像システムおよび撮像素子の制御方法
PCT/JP2017/032487 WO2018105187A1 (ja) 2016-12-08 2017-09-08 撮像装置、撮像素子および撮像装置の制御方法
US16/340,963 US10834294B2 (en) 2016-12-08 2017-09-08 Imaging device, imaging element, and method of controlling imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238086A JP2018098524A (ja) 2016-12-08 2016-12-08 撮像素子、撮像システムおよび撮像素子の制御方法

Publications (1)

Publication Number Publication Date
JP2018098524A true JP2018098524A (ja) 2018-06-21

Family

ID=62492201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238086A Pending JP2018098524A (ja) 2016-12-08 2016-12-08 撮像素子、撮像システムおよび撮像素子の制御方法

Country Status (3)

Country Link
US (1) US10834294B2 (ja)
JP (1) JP2018098524A (ja)
WO (1) WO2018105187A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158246A1 (ja) * 2021-01-25 2022-07-28 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102581210B1 (ko) * 2019-01-10 2023-09-22 에스케이하이닉스 주식회사 이미지 신호 처리 방법, 이미지 신호 프로세서 및 이미지 센서 칩
CN110213490B (zh) * 2019-06-25 2020-09-29 浙江大华技术股份有限公司 一种图像防抖方法、装置、电子设备及存储介质
US11128843B2 (en) * 2020-01-13 2021-09-21 Facebook Technologies, Llc Image-sensor data compression

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005328421A (ja) * 2004-05-17 2005-11-24 Sony Corp 撮像装置および撮像方法
JP4614925B2 (ja) * 2006-07-28 2011-01-19 三洋電機株式会社 画素情報読出方法および撮像装置
US7944482B2 (en) * 2006-07-28 2011-05-17 Sanyo Electric Co., Ltd. Pixel information readout method and image pickup apparatus
JP5930079B2 (ja) * 2013-09-30 2016-06-08 株式会社ニコン 電子機器
JP2016019076A (ja) 2014-07-07 2016-02-01 ソニー株式会社 撮像装置、撮像方法、およびプログラム、並びに再生装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022158246A1 (ja) * 2021-01-25 2022-07-28 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Also Published As

Publication number Publication date
US10834294B2 (en) 2020-11-10
US20190289171A1 (en) 2019-09-19
WO2018105187A1 (ja) 2018-06-14

Similar Documents

Publication Publication Date Title
WO2017145450A1 (ja) 測距モジュール、測距システム、および、測距モジュールの制御方法
KR102649782B1 (ko) 신호 처리 장치 및 촬상 장치
WO2018105187A1 (ja) 撮像装置、撮像素子および撮像装置の制御方法
JP2018036102A (ja) 測距装置、および、測距装置の制御方法
JP7024782B2 (ja) 画像処理装置と画像処理方法および撮像装置
JP7074136B2 (ja) 撮像装置とフリッカー補正方法およびプログラム
JP6743889B2 (ja) 画像処理装置と画像処理方法および学習装置と学習方法
TWI757419B (zh) 攝像裝置、攝像模組及攝像裝置之控制方法
JP7020434B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2020088480A (ja) 固体撮像素子、および、撮像装置
JP6816769B2 (ja) 画像処理装置と画像処理方法
JP7235906B2 (ja) 固体撮像装置
JP2018101966A (ja) 固体撮像素子、電子機器、および、固体撮像素子の制御方法
WO2018179623A1 (ja) 撮像装置、撮像モジュール、撮像システムおよび撮像装置の制御方法
JP2018098613A (ja) 撮像装置、および、撮像装置の制御方法
JP6930541B2 (ja) 画像処理装置および画像処理方法
WO2020195936A1 (ja) 固体撮像装置、及び電子機器
WO2019167363A1 (ja) 画像処理装置と画像処理方法およびプログラム
JP2006318061A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JP2019193171A (ja) アレイアンテナ、固体撮像装置および電子機器
WO2017122395A1 (ja) 画像データ処理回路および撮像回路
TWI794207B (zh) 攝像裝置、相機模組、攝像系統、及攝像裝置之控制方法
WO2020021826A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
WO2024009343A1 (ja) 光検出装置
WO2020100399A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法