JP7105754B2 - 撮像装置、及び、撮像装置の制御方法 - Google Patents

撮像装置、及び、撮像装置の制御方法 Download PDF

Info

Publication number
JP7105754B2
JP7105754B2 JP2019223950A JP2019223950A JP7105754B2 JP 7105754 B2 JP7105754 B2 JP 7105754B2 JP 2019223950 A JP2019223950 A JP 2019223950A JP 2019223950 A JP2019223950 A JP 2019223950A JP 7105754 B2 JP7105754 B2 JP 7105754B2
Authority
JP
Japan
Prior art keywords
imaging
unit
image
processing
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019223950A
Other languages
English (en)
Other versions
JP2020061755A (ja
JP2020061755A5 (ja
Inventor
良仁 浴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JP2020061755A publication Critical patent/JP2020061755A/ja
Publication of JP2020061755A5 publication Critical patent/JP2020061755A5/ja
Priority to JP2021031510A priority Critical patent/JP6937443B2/ja
Priority to JP2022085048A priority patent/JP7342197B2/ja
Application granted granted Critical
Publication of JP7105754B2 publication Critical patent/JP7105754B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/917Television signal processing therefor for bandwidth reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Description

本技術は、撮像装置、及び、電子機器に関し、特に、例えば、ユーザが必要とする情報を出力する撮像装置を、小型に構成することができるようにする撮像装置、及び、電子機器に関する。
画像を撮像する撮像装置として、センサチップ、メモリチップ、及び、DSP(Digital Signal Processor)チップのチップどうしを、複数のバンプで並列に接続した撮像装置が提案されている(例えば、特許文献1を参照)。
特開2008-048313号公報
特許文献1に記載の撮像装置のように、チップどうしをバンプで接続して、撮像装置を構成する場合には、撮像装置の厚みが厚くなり、撮像装置が大型化する。
一方、撮像装置を使用するユーザは、その撮像装置で撮像された画像を必要とする場合の他、画像そのものではなく、その画像から得られる情報(メタデータ)を必要とする場合がある。
本技術は、このような状況に鑑みてなされたものであり、ユーザが必要とする情報を出力する撮像装置を、小型に構成することができるようにするものである。
本技術の撮像装置又は電子機器は、2次元に並んだ複数の画素を備え、画像を取得する撮像部と、前記撮像部の出力に基づく撮像画像に対して認識処理の少なくとも一部を行う認識処理部と、前記認識処理部による前記認識処理の途中で得られる中間データを外部へ出力可能な出力部とを備え、前記撮像部と前記認識処理部とは、単一のチップ内に配置されている。
本技術によれば、ユーザが必要とする情報を出力する撮像装置を、小型に構成することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したディジタルカメラの一実施の形態の構成例を示すブロック図である。 撮像装置2の構成例を示すブロック図である。 撮像装置2の外観構成例の概要を示す斜視図である。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第1の例を説明するタイミングチャートである。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第2の例を説明するタイミングチャートである。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第3の例を説明するタイミングチャートである。 DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第4の例を説明するタイミングチャートである。 DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理のタイミングの第1の例を説明するタイミングチャートである。 DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理のタイミングの第2の例を説明するタイミングチャートである。 DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。 DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理のタイミングの第1の例を説明するタイミングチャートである。 DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理のタイミングの第2の例を説明するタイミングチャートである。 DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理のタイミングの第3の例を説明するタイミングチャートである。 撮像装置2の他の構成例を示すブロック図である。 撮像装置2を使用する使用例を示す図である。 車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の一例を示す説明図である。
<本技術を適用したディジタルカメラの一実施の形態>
図1は、本技術を適用したディジタルカメラの一実施の形態の構成例を示すブロック図である。
なお、ディジタルカメラは、静止画、及び、動画のいずれも撮像することができる。
図1において、ディジタルカメラは、光学系1、撮像装置2、メモリ3、信号処理部4、出力部5、及び、制御部6を有する。
光学系1は、例えば、図示せぬズームレンズや、フォーカスレンズ、絞り等を有し、外部からの光を、撮像装置2に入射させる。
撮像装置2は、例えば、1チップで構成されるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、光学系1からの入射光を受光し、光電変換を行って、光学系1からの入射光に対応する画像データを出力する。
また、撮像装置2は、画像データ等を用いて、例えば、所定の認識対象を認識する認識処理、その他の信号処理を行い、その信号処理の信号処理結果を出力する。
メモリ3は、撮像装置2が出力する画像データ等を一時記憶する。
信号処理部4は、メモリ3に記憶された画像データを用いたカメラ信号処理としての、例えば、ノイズの除去や、ホワイトバランスの調整等の処理を必要に応じて行い、出力部5に供給する。
出力部5は、信号処理部4からの画像データやメモリ3に記憶された信号処理結果を出力する。
すなわち、出力部5は、例えば、液晶等で構成されるディスプレイ(図示せず)を有し、信号処理部4からの画像データに対応する画像を、いわゆるスルー画として表示する。
また、出力部5は、例えば、半導体メモリや、磁気ディスク、光ディスク等の記録媒体を駆動するドライバ(図示せず)を有し、信号処理部4からの画像データやメモリ3に記憶された信号処理結果を記録媒体に記録する。
さらに、出力部5は、例えば、外部の装置との間でデータ伝送を行うI/F(Interface)として機能し、信号処理部4からの画像データや、記録媒体に記録された画像データ等を、外部の装置に伝送する。
制御部6は、ユーザの操作等に従い、ディジタルカメラを構成する各ブロックを制御する。
以上のように構成されるディジタルカメラでは、撮像装置2が、画像を撮像する。すなわち、撮像装置2は、光学系1からの入射光を受光して光電変換を行い、その入射光に応じた画像データを取得して出力する。
撮像装置2が出力する画像データは、メモリ3に供給されて記憶される。メモリ3に記憶された画像データについては、信号処理部4によるカメラ信号処理が施され、その結果得られる画像データは、出力部5に供給されて出力される。
また、撮像装置2は、撮像によって得られた画像(データ)等を用いて、信号処理を行い、その信号処理の信号処理結果を出力する。撮像装置2が出力する信号処理結果は、例えば、メモリ3に記憶される。
撮像装置2では、撮像によって得られた画像そのものの出力、及び、その画像等を用いた信号処理の信号処理結果の出力は、選択的に行われる。
<撮像装置2の構成例>
図2は、図1の撮像装置2の構成例を示すブロック図である。
図2において、撮像装置2は、撮像ブロック20及び信号処理ブロック30を有する。撮像ブロック20と信号処理ブロック30とは、接続線(内部バス)CL1,CL2、及び、CL3によって電気的に接続されている。
撮像ブロック20は、撮像部21、撮像処理部22、出力制御部23、出力I/F(Interface)24、及び、撮像制御部25を有し、画像を撮像する。
撮像部21は、複数の画素が2次元に並んで構成される。撮像部21は、撮像処理部22によって駆動され、画像を撮像する。
すなわち、撮像部21には、光学系1(図1)からの光が入射する。撮像部21は、各画素において、光学系1からの入射光を受光し、光電変換を行って、入射光に対応するアナログの画像信号を出力する。
なお、撮像部21が出力する画像(信号)のサイズは、例えば、12M(3968×2976)ピクセルや、VGA(Video Graphics Array)サイズ(640×480ピクセル)等の複数のサイズの中から選択することができる。
また、撮像部21が出力する画像については、例えば、RGB(赤、緑、青)のカラー画像とするか、又は、輝度のみの白黒画像とするかを選択することができる。
これらの選択は、撮影モードの設定の一種として行うことができる。
撮像処理部22は、撮像制御部25の制御に従い、撮像部21の駆動や、撮像部21が出力するアナログの画像信号のAD(Analog to Digital)変換、撮像信号処理等の、撮像部21での画像の撮像に関連する撮像処理を行う。
ここで、撮像信号処理としては、例えば、撮像部21が出力する画像について、所定の小領域ごとに、画素値の平均値を演算すること等により、小領域ごとの明るさを求める処理や、撮像部21が出力する画像を、HDR(High Dynamic Range)画像に変換する処理、欠陥補正、現像等がある。
撮像処理部22は、撮像部21が出力するアナログの画像信号のAD変換等によって得られるディジタルの画像信号(ここでは、例えば、12Mピクセル又はVGAサイズの画像)を、撮像画像として出力する。
撮像処理部22が出力する撮像画像は、出力制御部23に供給されるとともに、接続線CL2を介して、信号処理ブロック30の画像圧縮部35に供給される。
出力制御部23には、撮像処理部22から撮像画像が供給される他、信号処理ブロック30から、接続線CL3を介して、撮像画像等を用いた信号処理の信号処理結果が供給される。
出力制御部23は、撮像処理部22からの撮像画像、及び、信号処理ブロック30からの信号処理結果を、(1つの)出力I/F24から外部(例えば、図1のメモリ3等)に選択的に出力させる出力制御を行う。
すなわち、出力制御部23は、撮像処理部22からの撮像画像、又は、信号処理ブロック30からの信号処理結果を選択し、出力I/F24に供給する。
出力I/F24は、出力制御部23から供給される撮像画像、及び、信号処理結果を外部に出力するI/Fである。出力IF24としては、例えば、MIPI(Mobile Industriy Processor Interface)等の比較的高速なパラレルI/F等を採用することができる。
出力I/F24では、出力制御部23の出力制御に応じて、撮像処理部22からの撮像画像、又は、信号処理ブロック30からの信号処理結果が、外部に出力される。したがって、例えば、外部において、信号処理ブロック30からの信号処理結果だけが必要であり、撮像画像そのものが必要でない場合には、信号処理結果だけを出力することができ、出力I/F24から外部に出力するデータ量を削減することができる。
また、信号処理ブロック30において、外部で必要とする信号処理結果が得られる信号処理を行い、その信号処理結果を、出力I/F24から出力することにより、外部で信号処理を行う必要がなくなり、外部のブロックの負荷を軽減することができる。
撮像制御部25は、通信I/F26及びレジスタ群27を有する。
通信I/F26は、例えば、I2C(Inter-Integrated Circuit)等のシリアル通信I/F等の第1の通信I/Fであり、外部(例えば、図1の制御部6等)との間で、レジスタ27群に読み書きする情報等の必要な情報のやりとりを行う。
レジスタ群27は、複数のレジスタを有し、撮像部21での画像の撮像に関連する撮像情報、その他の各種情報を記憶する。
例えば、レジスタ群27は、通信I/F26において外部から受信された撮像情報や、撮像処理部22での撮像信号処理の結果(例えば、撮像画像の小領域ごとの明るさ等)を記憶する。
レジスタ群27に記憶される撮像情報としては、例えば、ISO感度(撮像処理部22でのAD変換時のアナログゲイン)や、露光時間(シャッタスピード)、フレームレート、フォーカス、撮影モード、切り出し範囲等(を表す情報)がある。
撮影モードには、例えば、露光時間やフレームレート等が手動で設定される手動モードと、シーンに応じて自動的に設定される自動モードとがある。自動モードには、例えば、夜景や、人の顔等の各種の撮影シーンに応じたモードがある。
また、切り出し範囲とは、撮像処理部22において、撮像部21が出力する画像の一部を切り出して、撮像画像として出力する場合に、撮像部21が出力する画像から切り出す範囲を表す。切り出し範囲の指定によって、例えば、撮像部21が出力する画像から、人が映っている範囲だけを切り出すこと等が可能になる。なお、画像の切り出しとしては、撮像部21が出力する画像から切り出す方法の他、撮像部21から、切り出し範囲の画像(信号)だけを読み出す方法がある。
撮像制御部25は、レジスタ群27に記憶された撮像情報に従って、撮像処理部22を制御し、これにより、撮像部21での画像の撮像を制御する。
なお、レジスタ群27は、撮像情報や、撮像処理部22での撮像信号処理の結果の他、出力制御部23での出力制御に関する出力制御情報を記憶することができる。出力制御部23は、レジスタ群27に記憶された出力制御情報に従って、撮像画像及び信号処理結果を選択的に出力させる出力制御を行うことができる。
また、撮像装置2では、撮像制御部25と、信号処理ブロック30のCPU31とは、接続線CL1を介して、接続されており、CPU31は、接続線CL1を介して、レジスタ群27に対して、情報の読み書きを行うことができる。
すなわち、撮像装置2では、レジスタ群27に対する情報の読み書きは、通信I/F26から行う他、CPU31からも行うことができる。
信号処理ブロック30は、CPU(Central Processing Unit)31,DSP(Digital Signal Processor)32、メモリ33、通信I/F34、画像圧縮部35、及び、入力I/F36を有し、撮像ブロック10で得られた撮像画像等を用いて、所定の信号処理を行う。
信号処理ブロック30を構成するCPU31ないし入力I/F36は、相互にバスを介して接続され、必要に応じて、情報のやりとりを行うことができる。
CPU31は、メモリ33に記憶されたプログラムを実行することで、信号処理ブロック30の制御、接続線CL1を介しての、撮像制御部25のレジスタ群27への情報の読み書き、その他の各種の処理を行う。
例えば、CPU31は、プログラムを実行することにより、DSP32での信号処理により得られる信号処理結果を用いて、撮像情報を算出する撮像情報算出部として機能し、信号処理結果を用いて算出した新たな撮像情報を、接続線CL1を介して、撮像制御部25のレジスタ群27にフィードバックして記憶させる。
したがって、CPU31は、結果として、撮像画像の信号処理結果に応じて、撮像部21での撮像や、撮像処理部22での撮像信号処理を制御することができる。
また、CPU31がレジスタ群27に記憶させた撮像情報は、通信I/F26から外部に提供(出力)することができる。例えば、レジスタ群27に記憶された撮像情報のうちのフォーカスの情報は、通信I/F26から、フォーカスを制御するフォーカスドライバ(図示せず)に提供することができる。
DSP32は、メモリ33に記憶されたプログラムを実行することで、撮像処理部22から、接続線CL2を介して、信号処理ブロック30に供給される撮像画像や、入力I/F36が外部から受け取る情報を用いた信号処理を行う信号処理部として機能する。
メモリ33は、SRAM(Static Random Access Memory)やDRAM(Dynamic RAM)等で構成され、信号処理ブロック30の処理上必要なデータ等を記憶する。
例えば、メモリ33は、通信I/F34において、外部から受信されたプログラムや、画像圧縮部35で圧縮され、DSP32での信号処理で用いられる撮像画像、DSP32で行われた信号処理の信号処理結果、入力I/F36が受け取った情報等を記憶する。
通信I/F34は、例えば、SPI(Serial Peripheral Interface)等のシリアル通信I/F等の第2の通信I/Fであり、外部(例えば、図1のメモリ3や制御部6等)との間で、CPU31やDSP32が実行するプログラム等の必要な情報のやりとりを行う。
例えば、通信I/F34は、CPU31やDSP32が実行するプログラムを外部からダウンロードし、メモリ33に供給して記憶させる。
したがって、通信I/F34がダウンロードするプログラムによって、CPU31やDSP32で様々な処理を実行することができる。
なお、通信I/F34は、外部との間で、プログラムの他、任意のデータのやりとりを行うことができる。例えば、通信I/F34は、DSP32での信号処理により得られる信号処理結果を、外部に出力することができる。また、通信I/F34は、CPU31の指示に従った情報を、外部の装置に出力し、これにより、CPU31の指示に従って、外部の装置を制御することができる。
ここで、DSP32での信号処理により得られる信号処理結果は、通信I/F34から外部に出力する他、CPU31によって、撮像制御部25のレジスタ群27に書き込むことができる。レジスタ群27に書き込まれた信号処理結果は、通信I/F26から外部に出力することができる。CPU31で行われた処理の処理結果についても同様である。
画像圧縮部35には、撮像処理部22から接続線CL2を介して、撮像画像が供給される。画像圧縮部35は、撮像画像を圧縮する圧縮処理を行い、その撮像画像よりもデータ量が少ない圧縮画像を生成する。
画像圧縮部35で生成された圧縮画像は、バスを介して、メモリ33に供給されて記憶される。
ここで、DSP32での信号処理は、撮像画像そのものを用いて行う他、画像圧縮部35で撮像画像から生成された圧縮画像を用いて行うことができる。圧縮画像は、撮像画像よりもデータ量が少ないため、DSP32での信号処理の負荷の軽減や、圧縮画像を記憶するメモリ33の記憶容量の節約を図ることができる。
画像圧縮部35での圧縮処理としては、例えば、12M(3968×2976)ピクセルの撮像画像を、VGAサイズの画像に変換するスケールダウンを行うことができる。また、DSP32での信号処理が輝度を対象として行われ、かつ、撮像画像がRGBの画像である場合には、圧縮処理としては、RGBの画像を、例えば、YUVの画像に変換するYUV変換を行うことができる。
なお、画像圧縮部35は、ソフトウエアにより実現することもできるし、専用のハードウエアにより実現することもできる。
入力I/F36は、外部から情報を受け取るI/Fである。入力I/F36は、例えば、外部のセンサから、その外部のセンサの出力(外部センサ出力)を受け取り、バスを介して、メモリ33に供給して記憶させる。
入力I/F36としては、例えば、出力IF24と同様に、MIPI(Mobile Industriy Processor Interface)等のパラレルI/F等を採用することができる。
また、外部のセンサとしては、例えば、距離に関する情報をセンシングする距離センサを採用することができる、さらに、外部のセンサとしては、例えば、光をセンシングし、その光に対応する画像を出力するイメージセンサ、すなわち、撮像装置2とは別のイメージセンサを採用することができる。
DSP32では、撮像画像(から生成された圧縮画像)を用いる他、入力I/F36が上述のような外部のセンサから受け取り、メモリ33に記憶される外部センサ出力を用いて、信号処理を行うことができる。
以上のように構成される1チップの撮像装置2では、撮像部21での撮像により得られる撮像画像(から生成される圧縮画像)を用いた信号処理がDSP32で行われ、その信号処理の信号処理結果、及び、撮像画像が、出力I/F24から選択的に出力される。したがって、ユーザが必要とする情報を出力する撮像装置を、小型に構成することができる。
ここで、撮像装置2において、DSP32の信号処理を行わず、したがって、撮像装置2から、信号処理結果を出力せず、撮像画像を出力する場合、すなわち、撮像装置2を、単に、画像を撮像して出力するだけのイメージセンサとして構成する場合、撮像装置2は、出力制御部23を設けない撮像ブロック20だけで構成することができる。
図3は、図1の撮像装置2の外観構成例の概要を示す斜視図である。
撮像装置2は、例えば、図3に示すように、複数のダイが積層された積層構造を有する1チップの半導体装置として構成することができる。
図3では、撮像装置2は、ダイ51及び52の2枚のダイが積層されて構成される。
図3において、上側のダイ51には、撮像部21が搭載され、下側のダイ52には、撮像処理部22ないし撮像制御部25、及び、CPU31ないし入力I/F36が搭載されている。
上側のダイ51と下側のダイ52とは、例えば、ダイ51を貫き、ダイ52にまで到達する貫通孔を形成することにより、又は、ダイ51の下面側に露出したCu配線と、ダイ52の上面側に露出したCu配線とを直接接続するCu-Cu接合を行うこと等により、電気的に接続される。
ここで、撮像処理部22において、撮像部21が出力する画像信号のAD変換を行う方式としては、例えば、列並列AD方式やエリアAD方式を採用することができる。
列並列AD方式では、例えば、撮像部21を構成する画素の列に対してADC(AD Converter)が設けられ、各列のADCが、その列の画素の画素信号のAD変換を担当することで、1行の各列の画素の画像信号のAD変換が並列に行われる。列並列AD方式を採用する場合には、その列並列AD方式のAD変換を行う撮像処理部22の一部が、上側のダイ51に搭載されることがある。
エリアAD方式では、撮像部21を構成する画素が、複数のブロックに区分され、各ブロックに対して、ADCが設けられる。そして、各ブロックのADCが、そのブロックの画素の画素信号のAD変換を担当することで、複数のブロックの画素の画像信号のAD変換が並列に行われる。エリアAD方式では、ブロックを最小単位として、撮像部21を構成する画素のうちの必要な画素についてだけ、画像信号のAD変換(読み出し及びAD変換)を行うことができる。
なお、撮像装置2の面積が大になることが許容されるのであれば、撮像装置2は、1枚のダイで構成することができる。
また、図3では、2枚のダイ51及び52を積層して、1チップの撮像装置2を構成することとしたが、1チップの撮像装置2は、3枚以上のダイを積層して構成することができる。例えば、3枚のダイを積層して、1チップの撮像装置2を構成する場合には、図3のメモリ33を、別のダイに搭載することができる。
ここで、前述の特許文献1に記載のように、センサチップ、メモリチップ、及び、DSPチップのチップどうしを、複数のバンプで並列に接続した撮像装置(以下、バンプ接続撮像装置ともいう)では、積層構造に構成された1チップの撮像装置2に比較して、厚みが大きく増加し、装置が大型化する。
さらに、バンプ接続撮像装置では、バンプの接続部分での信号劣化等により、撮像処理部22から出力制御部23に撮像画像を出力するレートとして、十分なレートを確保することが困難になることがあり得る。
積層構造の撮像装置2によれば、以上のような装置の大型化や、撮像処理部22と出力制御部23との間のレートとして、十分なレートを確保することができなくなることを防止することができる。
したがって、積層構造の撮像装置2によれば、ユーザが必要とする情報を出力する撮像装置を小型に構成することを実現することができる。
ユーザが必要とする情報が、撮像画像である場合には、撮像装置2は、撮像画像を出力することができる。
また、ユーザが必要とする情報が、撮像画像を用いた信号処理により得られる場合には、撮像装置2は、DSP32において、その信号処理を行うことにより、ユーザが必要とする情報としての信号処理結果を得て出力することができる。
撮像装置2で行われる信号処理、すなわち、DSP32の信号処理としては、例えば、撮像画像から、所定の認識対象を認識する認識処理を採用することができる。
また、例えば、撮像装置2は、その撮像装置2と所定の位置関係になるように配置されたToF(Time of Flight)センサ等の距離センサの出力を、入力I/F36で受け取ることができる。この場合、DSP32の信号処理としては、例えば、入力I/F36で受け取った距離センサの出力から得られる距離画像のノイズを、撮像画像を用いて除去する処理のような、距離センサの出力と撮像画像とを統合して、精度の良い距離を求めるフュージョン処理を採用することができる。
さらに、例えば、撮像装置2は、その撮像装置2と所定の位置関係になるように配置されたイメージセンサが出力する画像を、入力I/F36で受け取ることができる。この場合、DSP32の信号処理としては、例えば、入力I/F36で受け取った画像と、撮像画像とをステレオ画像として用いた自己位置推定処理(SLAM(Simultaneously Localization and Mapping))を採用することができる。
以下、DSP32の信号処理として、認識処理、フュージョン処理、及び、自己位置推定処理(以下、SLAM処理ともいう)のそれぞれを行う場合を例に、撮像装置2の処理について説明する。
なお、以下説明する撮像装置2の処理の順番は、可能な範囲で入れ替えることができる。すなわち、撮像装置2の処理の順番は、以下説明する順番に限定されるものではない。
<DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理の例>
図4、図5、及び、図6は、DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。
図4のステップS11において、通信I/F34は、DSP32の信号処理として、認識処理を行うのにあたって、CPU31及びDSP32に実行させるプログラム(コード)を、外部からダウンロードし、メモリ33に記憶させる。ここでは、DSP32に実行させるプログラムは、信号処理として、認識処理を行う認識処理プログラムである。
CPU31は、メモリ33に記憶されたプログラムを実行することで、所定の処理を開始する。
すなわち、ステップS12において、CPU31は、レジスタ群27から、接続線CL1を介して、撮像画像の小領域ごとの明るさ(の情報)、その他の必要な情報を読み出す。
ステップS13において、CPU31は、画像圧縮部35の圧縮処理で、撮像画像のスケールダウンを行う程度を表す縮小率を決定する等の、圧縮処理に関する制御を行う。
ステップS14では、撮像部21が画像の撮像を開始するとともに、撮像処理部22が、撮像部21からの画像を、撮像画像として出力することを開始する。これにより、撮像画像の、撮像処理部22から出力制御部23への供給、及び、撮像処理部22から接続線CL2を介しての画像圧縮部35への供給が開始される。
撮像処理部22から出力制御部23に供給された撮像画像は、出力制御部23において必要に応じて選択され、出力I/F24から外部に出力される。
ステップS15において、画像圧縮部35は、撮像処理部22から接続線CL2を介して供給される撮像画像の圧縮処理を開始する。
ここで、以下では、撮像処理部22が出力する画像の他、撮像部21が出力する画像も、撮像画像という。
図2で説明したように、撮像部21は、例えば、12Mピクセルや、VGAサイズの撮像画像を出力することができる。さらに、撮像部21は、例えば、RGB(赤、緑、青)のカラー画像や、白黒画像を、撮像画像として出力することができる。
撮像画像が、12Mピクセルのフルサイズの画像である場合、画像圧縮部35は、例えば、12Mピクセルの撮像画像を、VGAサイズ等の撮像画像にスケールダウンする処理を、圧縮処理として行う。
但し、撮像画像が、スケールダウン後のサイズ、すなわち、ここでは、VGAサイズの画像になっている場合、画像圧縮部35は、スケールダウンする処理を行わない。
また、撮像画像が、RGBのカラー画像である場合、画像圧縮部35は、例えば、カラーの撮像画像を、白黒の撮像画像に変換するために、YUV変換を、圧縮処理として行う。
但し、撮像画像が、白黒画像である場合、画像圧縮部35は、YUV変換を行わない。
したがって、例えば、撮像画像が、12Mピクセルのカラー画像である場合、画像圧縮部35は、撮像画像のスケールダウン、及び、YUV変換を、圧縮処理として行う。
また、例えば、撮像画像が、VGAサイズのカラー画像である場合、画像圧縮部35は、撮像画像のYUV変換を、圧縮処理として行う。
画像圧縮部35は、圧縮処理の結果得られるVGAサイズの白黒の撮像画像を、圧縮画像として、メモリ33に記憶させる。
なお、撮像装置2は、画像圧縮部35を設けずに構成することができる。但し、画像圧縮部35を設けずに撮像装置2を構成する場合には、DSP32の負荷や、メモリ33に要求される記憶容量が大になる。
図5のステップS21において、DSP32は、ステップS11でメモリ33に記憶された認識処理プログラムを読み込んで実行することにより、その認識処理プログラムに対応する信号処理としての認識処理を開始する。
すなわち、DSP32は、メモリ33に記憶された圧縮画像の各領域を、認識処理の処理対象として、順次、メモリ33から読み出し、その処理対象から、所定の認識対象(例えば、人の顔等)を認識する認識処理を、圧縮画像(ひいては撮像画像)を用いた信号処理として行う。
認識処理は、例えば、CNN(Convolutional Neural Network)等のディープラーニング等の手法を用いて行うことができる。また、認識処理では、人の顔等の特定の被写体を認識対象として、その特定の被写体を検出する他、画像に映るシーンを認識対象として、その画像に映るシーンを検出することができる。
ステップS22において、DSP32は、認識処理の結果を、信号処理結果として、メモリ33に供給して記憶させる。認識処理の結果(以下、認識結果ともいう)には、例えば、認識対象の検出の有無や、認識対象が検出された検出位置等の情報が含まれる。
なお、認識処理では、圧縮画像(撮像画像)の輝度が認識精度に影響することを抑制するため、圧縮画像の平均的な明るさをあらかじめ決められた固定値にするような、圧縮画像の階調変換を行うことができる。かかる階調変換は、図4のステップS12において、CPU31がレジスタ群27から読み出した、撮像画像の小領域ごとの明るさを用いて行うことができる。
図6のステップS31において、CPU31は、メモリ33に記憶された信号処理結果としての認識結果を読み出し、その認識結果を用いて、撮像画像の撮像に適切な露光時間等の撮像情報を算出する演算を行う。
例えば、認識結果が、認識対象としての顔が検出された検出位置を含む場合、CPU31は、圧縮画像(撮像画像)上の、顔の検出位置の輝度等に応じて、検出位置に映る顔の撮影に適切な露光時間を算出する。また、例えば、CPU31は、顔の検出位置にフォーカスを合わせるようにオートフォーカスを制御する撮像情報を算出する。
その他、CPU31は、認識結果を用いて、撮像画像の撮像に適切なフレームレートや、撮影モード、切り出し範囲等の撮像情報を、必要に応じて算出する。
ステップS32において、CPU31は、ステップS31で算出した撮像情報を、接続線CL1を介して、レジスタ群27にフィードバックする。レジスタ群27は、CPU31からフィードバックされた撮像情報を新たに記憶し、その後は、撮像制御部25は、レジスタ群27に新たに記憶された撮像情報に従って、撮像処理部22を制御する。
ステップS33において、CPU31は、メモリ33に記憶された信号処理結果としての認識結果を読み出し、出力制御部23に供給する。
メモリ33から出力制御部23に供給された信号処理結果としての認識結果は、出力制御部23において必要に応じて選択され、出力I/F24から外部に出力される。
図7は、DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第1の例を説明するタイミングチャートである。
例えば、撮像部21は、1/30秒をフレーム周期T1として、そのフレーム周期T1の前半の1/60秒の間に、1フレームの撮像を行う。撮像部21の撮像により得られる撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
なお、図7では、撮像画像は、12Mピクセルのカラー画像であることとする。
出力制御部23では、撮像処理部22から撮像画像が供給されると、その撮像画像が選択され、出力I/F24から外部に出力される。
画像圧縮部35では、12Mピクセルのカラーの撮像画像の圧縮処理として、スケールダウンとYUV変換が行われ、12Mピクセルのカラーの撮像画像が、VGAサイズの白黒の圧縮画像に変換される。この圧縮画像は、メモリ33に記憶される。
いま、あるフレーム周期T1に注目し、そのフレーム周期T1を、注目フレーム周期T1ともいう。
図7では、注目フレーム周期T1の(前半の1/60秒で撮像された)撮像画像の圧縮処理が、注目フレーム周期T1の前半で終了し、その後の、注目フレーム周期T1の後半の1/60秒が開始するタイミングで、DSP32が、メモリ33に記憶された圧縮画像、すなわち、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識処理を開始している。
DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識処理を終了し、その認識処理の認識結果を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、信号処理結果としての認識結果が供給されると、その信号処理結果を選択して、出力I/F24から外部に出力する。
図7では、注目フレーム周期T1についての信号処理結果、すなわち、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識処理の信号処理結果(認識結果)は、注目フレーム周期T1の終了間際から注目フレーム周期T1が終了するまでの期間に、出力I/F24から出力されている。
図8は、DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第2の例を説明するタイミングチャートである。
図8では、図7と同様に、撮像部21は、1/30秒をフレーム周期T1として、そのフレーム周期T1の前半の1/60秒の間に、1フレームの撮像を行い、12Mピクセルのカラーの撮像画像を取得する。撮像部21が取得した撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
出力制御部23では、図7と同様に、撮像処理部22からの撮像画像の供給に応じて、その撮像画像が選択され、出力I/F24から外部に出力される。
画像圧縮部35では、図7と同様に、12Mピクセルのカラーの撮像画像の圧縮処理としてのスケールダウンとYUV変換が行われ、12Mピクセルのカラーの撮像画像が、VGAサイズの白黒の圧縮画像に変換される。この圧縮画像は、メモリ33に記憶される。
図8では、図7と同様に、注目フレーム周期T1の撮像画像の圧縮処理が、注目フレーム周期T1の前半で終了する。
但し、図8では、圧縮処理の開始後、その圧縮処理の終了を待たずに、圧縮処理によって生成される圧縮画像の一部が認識処理に用いることができるようになったタイミングで、DSP32が、注目フレーム周期T1の撮像画像から得られた圧縮画像(の一部)を用いた認識処理を開始している。
したがって、図8では、圧縮処理と認識処理とが、一部の期間で並列に行われている。
DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識処理を終了し、その認識処理の認識結果を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、信号処理結果としての認識結果の供給に応じて、その信号処理結果を選択し、出力I/F24から外部に出力する。
図8では、図7と同様に、注目フレーム周期T1についての信号処理結果としての、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識結果は、注目フレーム周期T1の終了間際から注目フレーム周期T1が終了するまでの期間に、出力I/F24から出力されている。
上述したように、図8では、認識処理が、圧縮処理の終了を待たずに開始されるので、圧縮処理の終了を待って、認識処理を開始する図7の場合に比較して、認識処理を行う時間を、より確保することができる。
図9は、DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第3の例を説明するタイミングチャートである。
図9では、図7と同様に、撮像部21は、1/30秒をフレーム周期T1として、1フレームの撮像を行う。但し、図9では、撮像部21は、12Mピクセルのカラーの撮像画像ではなく、VGAサイズのカラーの撮像画像を撮像する。そのため、図9では、フレーム周期T1の開始から極めて短時間で、1フレームの撮像が終了している。撮像部21が撮像したVGAサイズの撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
ここで、図9では、外部で撮像画像が使用されないことになっており、そのため、出力制御部23は、撮像処理部22から撮像画像が供給されても、撮像画像を選択せず、出力I/F24から外部に出力しない。
画像圧縮部35は、撮像画像の圧縮処理を行い、その結果得られる圧縮画像を、メモリ33に記憶させる。
ここで、図9では、撮像画像が、VGAサイズのカラー画像であるため、圧縮処理としては、YUV変換は行われるが、スケールダウンは行われない。そのため、図9の圧縮処理は、図7や図8の場合に比較して、短時間で終了している。
また、図9では、図8と同様に、圧縮処理の開始後、その圧縮処理の終了を待たずに、圧縮処理によって生成される圧縮画像の一部が認識処理に用いることができるようになったタイミングで、DSP32が、注目フレーム周期T1の撮像画像から得られた圧縮画像(の一部)を用いた認識処理を開始している。
したがって、図9では、図8と同様に、圧縮処理と認識処理とが、一部の期間で並列に行われている。
DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識処理を終了し、その認識処理の認識結果を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、信号処理結果としての認識結果の供給に応じて、その信号処理結果を選択し、出力I/F24から外部に出力する。
図9では、図7や図8と同様に、注目フレーム周期T1についての信号処理結果としての、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識結果は、注目フレーム周期T1の終了間際から注目フレーム周期T1が終了するまでの期間に、出力I/F24から出力されている。
図9では、図8と同様に、認識処理が、圧縮処理の終了を待たずに開始されるので、圧縮処理の終了を待って、認識処理を開始する図7の場合に比較して、認識処理を行う時間を、より確保することができる。
さらに、図9では、撮像部21が出力する撮像画像が、VGAサイズの画像であるため、圧縮処理において、スケールダウンを行わずに済み、圧縮処理の負荷を軽減することができる。
以上のように、撮像部21が出力する撮像画像を、VGAサイズの画像として、出力I/F24から出力しない形態は、例えば、外部において、撮像画像そのものが必要ではなく、信号処理結果(ここでは、認識処理の認識結果)が必要である場合に有用である。
図10は、DSP32の信号処理として認識処理が行われる場合の、撮像装置2の処理のタイミングの第4の例を説明するタイミングチャートである。
図10では、図9と同様に、撮像部21は、1/30秒をフレーム周期T1として、VGAサイズのカラーの撮像画像を撮像する。撮像部21が撮像した撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
ここで、図10では、図9と同様に、外部で撮像画像が使用されないことになっており、そのため、出力制御部23は、撮像画像を出力I/F24から外部に出力しない(選択しない)。
画像圧縮部35は、撮像画像の圧縮処理を行い、その結果得られる圧縮画像を、メモリ33に記憶させる。
ここで、図10では、図9と同様に、圧縮処理としては、YUV変換は行われるが、スケールダウンは行われないため、圧縮処理は、短時間で終了する。
また、図10では、図8や図9と同様に、圧縮処理の開始後、その圧縮処理の終了を待たずに、圧縮処理によって生成される圧縮画像の一部が認識処理に用いることができるようになったタイミングで、DSP32が、注目フレーム周期T1の撮像画像から得られた圧縮画像(の一部)を用いた認識処理を開始している。
したがって、図10では、図8や図9と同様に、圧縮処理と認識処理とが、一部の期間で並列に行われている。
DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識処理を終了し、その認識処理の認識結果を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、図7ないし図9と同様に、注目フレーム周期T1についての信号処理結果としての、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いた認識結果を選択し、注目フレーム周期T1の終了間際に、出力I/F24から出力する。
図10では、DSP32は、信号処理としての認識処理を行っている間、その認識処理の途中で得られる中間データを、適宜出力する。DSP32が出力する中間データは、出力制御部23に供給され、出力制御部23は、中間データが供給されると、信号処理結果と同様に、中間データを選択して、出力I/F24から出力する。
以上のように、信号処理(ここでは、認識処理)の途中で得られる中間データを、出力I/F24から外部に出力する場合には、その中間データを、信号処理を行うプログラム(ここでは、認識処理プログラム)のデバックに供することができる。
<DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理の例>
図11、図12、及び、図13は、DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。
図11のステップS41において、通信I/F34は、DSP32の信号処理として、フュージョン処理を行うのにあたって、CPU31及びDSP32に実行させるプログラムを、外部からダウンロードし、メモリ33に記憶させる。ここでは、DSP32に実行させるプログラムは、信号処理として、フュージョン処理を行うフュージョン処理プログラムである。
CPU31は、メモリ33に記憶されたプログラムを実行することで、所定の処理を開始する。
すなわち、ステップS42において、CPU31は、レジスタ群27から、接続線CL1を介して、撮像画像の小領域ごとの明るさ(の情報)、その他の必要な情報を読み出す。
ステップS43において、CPU31は、画像圧縮部35の圧縮処理で、撮像画像のスケールダウンを行う程度を表す縮小率を決定する等の、圧縮処理に関する制御を行う。
ステップS44では、撮像部21が撮像画像の撮像を開始するとともに、撮像処理部22が、撮像部21からの撮像画像の出力を開始する。これにより、撮像画像の、撮像処理部22から出力制御部23への供給、及び、撮像処理部22から接続線CL2を介しての画像圧縮部35への供給が開始される。
撮像処理部22から出力制御部23に供給された撮像画像は、出力制御部23において必要に応じて選択され、出力I/F24から外部に出力される。
ステップS45において、画像圧縮部35は、撮像処理部22から接続線CL2を介して供給される撮像画像の圧縮処理を開始する。
画像圧縮部35は、圧縮処理の結果得られるVGAサイズの白黒の撮像画像を、圧縮画像として、メモリ33に記憶させる。
信号処理としてフュージョン処理が行われる場合、撮像装置2と所定の位置関係になるように設置された距離センサとしての、例えば、ToFセンサ(図示せず)から、そのToFセンサのセンサ出力が、入力I/F36に供給される。
ここで、ToFセンサのセンサ出力は、例えば、距離のセンシング結果(例えば、ToFセンサが発した光が被写体で反射してToFセンサで受光されるまでの時間に対応する値等)を画素値とする画像の形になっている。以下、この画像を、ToF画像ともいう。ToF画像は、例えば、QQVGAサイズやQVGAサイズ等の画像である。
ステップS46において、入力I/F36は、ToFセンサのセンサ出力としてのToF画像の受け取りを開始する。入力I/F36が受け取ったToF画像は、メモリ33に供給されて記憶される。
図12のステップS51において、DSP32は、ステップS41でメモリ33に記憶されたフュージョン処理プログラムを読み込んで実行することにより、そのフュージョン処理プログラムに対応する信号処理としてのフュージョン処理を開始する。
すなわち、DSP32は、メモリ33に記憶された圧縮画像の各領域を、フュージョン処理の処理対象として、順次、メモリ33から読み出すとともに、ToF画像を、メモリ33から読み出し、圧縮画像の処理対象とToF画像とを用いたフュージョン処理を行う。
フュージョン処理では、例えば、ToF画像の画素値となっているセンサ出力が、距離を表す値に変換され、その距離を表す値を画素値とする距離画像が生成される。本実施の形態では、例えば、連続する4枚のToF画像から、1枚の距離画像が求められる。
さらに、フュージョン処理では、例えば、撮像装置2とToFセンサとの位置関係に基づき、圧縮画像(の処理対象)の各画素と、距離画像の対応する画素との位置合わせ等を行うキャリブレーションが行われる。
また、フュージョン処理では、例えば、圧縮画像のテクスチャ等を参照し、等距離にある被写体が映る圧縮画像の複数の画素に対応する距離画像の複数の画素の画素値としての距離を表す値を一致させる補正等を行うことで、距離画像のノイズが除去される。
ステップS52において、DSP32は、フュージョン処理の結果を、信号処理結果として、メモリ33に供給して記憶させる。フュージョン処理の結果とは、例えば、ノイズが除去された距離画像である。
なお、フュージョン処理では、圧縮画像(撮像画像)の輝度が距離画像のノイズの除去に影響することを抑制するため、圧縮画像の平均的な明るさをあらかじめ決められた固定値にするような、圧縮画像の階調変換を行うことができる。かかる階調変換は、図11のステップS42において、CPU31がレジスタ群27から読み出した、撮像画像の小領域ごとの明るさを用いて行うことができる。
図13のステップS61において、CPU31は、メモリ33に記憶された信号処理結果としての距離画像を読み出し、その距離画像を用いて、撮像画像の撮像に適切なフォーカス等の撮像情報を算出する演算を行う。
例えば、CPU31は、距離画像から、最も手前にある被写体や、所定の距離付近に位置する被写体を検出し、その被写体にフォーカスを合わせるようにオートフォーカスを制御する撮像情報を算出する。また、例えば、CPU31は、距離画像から、最も手前にある被写体や、所定の距離付近に位置する被写体を検出し、その被写体の輝度等に応じて、その被写体の撮影に適切な露光時間を算出する。
その他、CPU31は、距離画像を用いて、撮像画像の撮像に適切なフレームレートや、撮影モード、切り出し範囲等の撮像情報を、必要に応じて算出する。
ステップS62において、CPU31は、ステップS61で算出した撮像情報を、接続線CL1を介して、レジスタ群27にフィードバックする。レジスタ群27は、CPU31からフィードバックされた撮像情報を新たに記憶し、その後は、撮像制御部25は、レジスタ群27に新たに記憶された撮像情報に従って、撮像処理部22を制御する。
ステップS63において、CPU31は、メモリ33に記憶された信号処理結果としての距離画像を読み出し、出力制御部23に供給する。
メモリ33から出力制御部23に供給された信号処理結果としての距離画像は、出力制御部23において必要に応じて選択され、出力I/F24から外部に出力される。
図14は、DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理のタイミングの第1の例を説明するタイミングチャートである。
例えば、撮像部21は、1/30秒をフレーム周期T1として、そのフレーム周期T1の前半の1/60秒の間に、12Mピクセルのカラーの撮像画像の撮像を行う。撮像部21の撮像により得られる撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
出力制御部23は、撮像処理部22からの撮像画像の供給に応じて、その撮像画像を選択し、出力I/F24から外部に出力する。
画像圧縮部35では、12Mピクセルのカラーの撮像画像の圧縮処理として、スケールダウンとYUV変換が行われ、12Mピクセルのカラーの撮像画像が、VGAサイズの白黒の圧縮画像に変換される。この圧縮画像は、メモリ33に記憶される。
図14では、撮像装置2の入力I/F36に、ToFセンサが接続されており、そのToFセンサは、センサ出力として、QVGAサイズのToF画像を出力する。
入力I/F36は、ToFセンサのセンサ出力としてのToF画像を受け取り、メモリ33に記憶させる。
ここで、図14では、ToFセンサは、QVGAサイズのToF画像を、240fps(frame per second)で出力することができる。図14では、ToFセンサは、フレーム周期T1の前半の1/60秒の間に、240fpsのQVGAサイズのToF画像を4枚だけ出力し、入力I/F36は、その4枚のToF画像を、フレーム周期T1の前半の1/60秒の間に受け取る。
図14では、注目フレーム周期T1の(前半の1/60秒で撮像された)撮像画像の圧縮処理が、注目フレーム周期T1の前半で終了する。さらに、注目フレーム周期T1の前半では、入力I/F36において、4枚のToF画像の受け取りが終了する。
そして、その後の、注目フレーム周期T1の後半の1/60秒が開始するタイミングで、DSP32が、メモリ33に記憶された圧縮画像、すなわち、注目フレーム周期T1の撮像画像から得られた圧縮画像と、メモリ33に記憶された4枚のToF画像とを用いたフュージョン処理を開始する。
フュージョン処理では、例えば、注目フレーム周期T1の4枚のToF画像から、注目フレーム周期T1の1枚の距離画像が生成され、圧縮画像の各画素と、距離画像の各画素との位置合わせのキャリブレーションが行われる。そして、圧縮画像を用いて、距離画像のノイズが除去される。
ここで、図14では、ToF画像のフレームレートは、240fpsであるが、距離画像のフレームレートは、フレーム周期T1(1/30秒)に対応する30fpsである。
DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いたフュージョン処理を終了し、そのフュージョン処理の結果得られる、ノイズが除去された距離画像を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、信号処理結果としての距離画像が供給されると、その信号処理結果を選択して、出力I/F24から外部に出力する。
図14では、注目フレーム周期T1についての信号処理結果、すなわち、注目フレーム周期T1の撮像画像から得られた圧縮画像を用いたフュージョン処理の信号処理結果(距離画像)は、注目フレーム周期T1の終了間際から注目フレーム周期T1が終了するまでの期間に、出力I/F24から出力されている。
図15は、DSP32の信号処理としてフュージョン処理が行われる場合の、撮像装置2の処理のタイミングの第2の例を説明するタイミングチャートである。
図15では、図14と同様に、撮像部21において、1/30秒のフレーム周期T1の前半の1/60秒の間に、12Mピクセルのカラーの撮像画像が撮像され、その撮像画像が、出力I/F24から外部に出力される。
さらに、図15では、図14と同様に、画像圧縮部35において、12Mピクセルのカラーの撮像画像の圧縮処理としてのスケールダウン及びYUV変換によって、VGAサイズの白黒の圧縮画像が生成され、メモリ33に記憶される。
また、図15では、図14と同様に、撮像装置2の入力I/F36に、ToFセンサが接続されており、そのToFセンサは、センサ出力として、QVGAサイズのToF画像を出力する。
但し、図15では、ToFセンサは、QVGAサイズのToF画像を、120fpsで出力する。したがって、図15では、ToFセンサにおいて、1枚の距離画像を生成するのに必要な4枚のToF画像を出力するのにかかる時間は、1/30秒=1/120×4秒、すなわち、フレーム周期T1に等しい。
入力I/F36は、ToFセンサのセンサ出力としてのToF画像を受け取り、メモリ33に記憶させる。
すなわち、図15では、上述のように、ToFセンサは、フレーム周期T1の間に、4枚の120fpsのQVGAサイズのToF画像を出力するので、入力I/F36は、その4枚のToF画像を、フレーム周期T1の間に受け取る。
したがって、注目フレーム周期T1の先頭から開始されたToF画像の受け取りにおいて、距離画像の生成に必要な4枚のToF画像の受け取りは、注目フレーム周期T1の(ほぼ)終わりで完了する。
そのため、注目フレーム周期T1の撮像画像から得られた圧縮画像と、注目フレーム周期T1にToFセンサから受け取った4枚のToF画像とを用いたフュージョン処理を、注目フレーム周期T1内に完了することは困難である。
そこで、図15では、注目フレーム周期T1の次のフレーム周期T1の先頭のタイミングで、DSP32が、注目フレーム周期T1の撮像画像から得られた圧縮画像と、注目フレーム周期T1の間にToFセンサから受け取った4枚のToF画像とを用いたフュージョン処理を開始している。
ここで、以下、注目フレーム周期T1の撮像画像から得られた圧縮画像を、注目フレーム周期T1の圧縮画像ともいい、注目フレーム周期T1の間にToFセンサから受け取った(4枚の)ToF画像を、注目フレーム周期T1の(4枚の)ToF画像ともいう。
DSP32は、注目フレーム周期T1の圧縮画像と、注目フレーム周期T1の4枚のToF画像とを用いたフュージョン処理を、注目フレーム周期T1の次のフレーム周期T1の先頭のタイミングで開始し、注目フレーム周期T1の次のフレーム周期T1の前半が終了する少し前のタイミングで終了する。
そして、DSP32は、フュージョン処理の結果得られる、ノイズが除去された距離画像を、信号処理結果として、出力制御部23に供給する。
ここで、注目フレーム周期T1の圧縮画像と、注目フレーム周期T1の4枚のToF画像とを用いたフュージョン処理の信号処理結果、及び、その信号処理結果としての距離画像を、それぞれ、注目フレーム周期T1の信号処理結果、及び、注目フレーム周期T1の距離画像ともいう。
出力制御部23は、注目フレーム周期T1の次のフレーム周期T1の撮像画像の、出力I/F24からの出力が終了した後、注目フレーム周期T1の信号処理結果としての距離画像を選択して、出力I/F24から外部に出力する。
したがって、図15では、図14の場合と同様に、距離画像のフレームレートは、フレーム周期T1(1/30秒)に対応する30fpsであるが、注目フレーム周期T1の信号処理結果としての距離画像は、注目フレーム周期T1の間に出力されず、その次のフレーム周期T1に出力される。
図14では、注目フレーム周期T1の信号処理結果としての距離画像は、注目フレーム周期T1に出力されるに対して、図15では、注目フレーム周期T1の信号処理結果としての距離画像は、注目フレーム周期T1の次のフレーム周期T1に出力される。したがって、図15では、入力I/F36に接続するToFセンサとして、図14の場合よりも、ToF画像のフレームレートが低速なToFセンサ、すなわち、低コストのToFセンサを使用することができる。
なお、図11ないし図15で説明したように、ToFセンサ等の距離センサのセンサ出力を、入力I/F36から受け付け、フュージョン処理を行う撮像装置2の使用形態は、例えば、車両の自動運転等に適用することができる。
<DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理の例>
図16、図17、及び、図18は、DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理の例の概要を説明する図である。
図16のステップS71において、通信I/F34は、DSP32の信号処理として、SLAM処理を行うのにあたって、CPU31及びDSP32に実行させるプログラムを、外部からダウンロードし、メモリ33に記憶させる。ここでは、DSP32に実行させるプログラムは、信号処理として、SLAM処理を行うSLAM処理プログラムである。
CPU31は、メモリ33に記憶されたプログラムを実行することで、所定の処理を開始する。
すなわち、ステップS72において、CPU31は、レジスタ群27から、接続線CL1を介して、撮像画像の小領域ごとの明るさ(の情報)、その他の必要な情報を読み出す。
ステップS73において、CPU31は、画像圧縮部35の圧縮処理で、撮像画像のスケールダウンを行う程度を表す縮小率を決定する等の、圧縮処理に関する制御を行う。
ステップS74では、撮像部21が撮像画像の撮像を開始するとともに、撮像処理部22が、撮像部21からの撮像画像の出力を開始する。これにより、撮像画像の、撮像処理部22から出力制御部23への供給、及び、撮像処理部22から接続線CL2を介しての画像圧縮部35への供給が開始される。
撮像処理部22から出力制御部23に供給された撮像画像は、出力制御部23において必要に応じて選択され、出力I/F24から外部に出力される。
ステップS75において、画像圧縮部35は、撮像処理部22から接続線CL2を介して供給される撮像画像の圧縮処理を開始する。
画像圧縮部35は、圧縮処理の結果得られるVGAサイズの白黒の撮像画像を、圧縮画像として、メモリ33に記憶させる。
信号処理としてSLAM処理が行われる場合、撮像装置2と所定の位置関係になるように設置されたイメージセンサ(図示せず)から、そのイメージセンサのセンサ出力が、入力I/F36に供給される。
ここで、撮像装置2と所定の位置関係になるように設置された、撮像装置2とは別のイメージセンサを、以下、他のセンサともいう。さらに、他のセンサは、光をセンシングし、その光に対応する画像を、センサ出力として出力するが、この、他のセンサのセンサ出力としての画像を、他センサ画像ともいう。ここでは、他センサ画像は、例えば、VGAサイズの画像であることとする。
ステップS76において、入力I/F36は、他のセンサのセンサ出力としてのVGAサイズの他センサ画像の受け取りを開始する。入力I/F36が受け取ったVGAサイズの他センサ画像は、メモリ33に供給されて記憶される。
図17のステップS81において、DSP32は、ステップS71でメモリ33に記憶されたSLAM処理プログラムを読み込んで実行することにより、そのSLAM処理プログラムに対応する信号処理としてのSLAM処理を開始する。
すなわち、DSP32は、メモリ33に記憶された圧縮画像の各領域を、SLAM処理の処理対象として、順次、メモリ33から読み出すとともに、他センサ画像を、メモリ33から読み出し、その圧縮画像の処理対象と他センサ画像とをステレオ画像として用いたSLAM処理を行う。
SLAM処理では、例えば、撮像装置2と他のセンサとの位置関係に基づき、ステレオ画像としての圧縮画像と他センサ画像とを平行化する(撮像装置2と他のセンサとを平行等化する)レクティフィケーション(rectification)が行われる。
そして、SLAM処理では、例えば、レクティフィケーション後のステレオ画像としての圧縮画像と他センサ画像とを用いて、自己位置推定と地図の構築(成長)とが行われる。
ステップS82において、DSP32は、SLAM処理の結果を、信号処理結果として、メモリ33に供給して記憶させる。SLAM処理の結果とは、例えば、自己位置推定の推定結果(以下、位置推定結果ともいう)と、その自己位置推定とともに構築された地図である。
なお、SLAM処理では、圧縮画像(撮像画像)及び他センサ画像の輝度が自己位置推定や地図の構築に影響することを抑制するため、圧縮画像及び他センサ画像の平均的な明るさをあらかじめ決められた固定値にするような、圧縮画像及び他センサ画像の階調変換を行うことができる。かかる階調変換は、図16のステップS72において、CPU31がレジスタ群27から読み出した、撮像画像の小領域ごとの明るさを用いて行うことができる。
図18のステップS91において、CPU31は、メモリ33に記憶された信号処理結果としての位置推定結果及び地図を読み出し、その位置推定結果及び地図を用いて、撮像画像の撮像に適切な露光時間や、フォーカス、フレームレート、撮影モード、切り出し範囲等の撮像情報を算出する演算を、必要に応じて行う。
ステップS92において、CPU31は、ステップS91で算出した撮像情報を、接続線CL1を介して、レジスタ群27にフィードバックする。レジスタ群27は、CPU31からフィードバックされた撮像情報を新たに記憶し、その後は、撮像制御部25は、レジスタ群27に新たに記憶された撮像情報に従って、撮像処理部22を制御する。
ステップS93において、CPU31は、メモリ33に記憶された信号処理結果としての位置推定結果及び地図を読み出し、出力制御部23に供給する。
メモリ33から出力制御部23に供給された信号処理結果としての位置推定結果及び地図は、出力制御部23において選択され、出力I/F24から外部に出力される。
図19は、DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理のタイミングの第1の例を説明するタイミングチャートである。
例えば、撮像部21は、1/30秒をフレーム周期T1として、そのフレーム周期T1の前半の1/60秒の間に、12Mピクセルのカラーの撮像画像の撮像を行う。撮像部21の撮像により得られる撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
出力制御部23は、撮像処理部22からの撮像画像の供給に応じて、その撮像画像を選択し、出力I/F24から外部に出力する。
画像圧縮部35では、12Mピクセルのカラーの撮像画像の圧縮処理として、スケールダウンとYUV変換が行われ、12Mピクセルのカラーの撮像画像が、VGAサイズの白黒の圧縮画像に変換される。この圧縮画像は、メモリ33に記憶される。
図19では、撮像装置2の入力I/F36に、他のセンサが接続されており、その他のセンサは、センサ出力として、VGAサイズの他センサ画像を出力する。
入力I/F36は、他のセンサのセンサ出力としての他センサ画像を受け取り、メモリ33に記憶させる。
ここで、図19では、他のセンサは、VGAサイズの他センサ画像を、フレーム周期T1に等しい30fpsで出力する。すなわち、図19では、他のセンサは、撮像装置2に同期して、フレーム周期T1の開始時に、30fpsのVGAサイズの他センサ画像を出力する。入力I/F36は、その他センサ画像を受け取る。
図19では、注目フレーム周期T1の撮像画像の圧縮処理が、注目フレーム周期T1の前半で終了する。
そして、その後の、注目フレーム周期T1の後半の1/60秒が開始するタイミングで、DSP32が、メモリ33に記憶された注目フレーム周期T1の撮像画像から得られた圧縮画像と、メモリ33に記憶された注目フレーム周期T1の他センサ画像とを用いたSLAM処理を開始する。
SLAM処理では、例えば、注目フレーム周期T1の(撮像画像の)圧縮画像と、注目フレーム周期T1の他センサ画像とのレクティフィケーションが行われ、そのレクティフィケーション後の圧縮画像及び他センサ画像を用いて、注目フレーム周期T1の自己位置推定及び地図の構築が行われる。
DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の圧縮画像及び他センサ画像を用いたSLAM処理を終了し、そのSLAM処理の結果得られる位置推定結果及び地図を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、信号処理結果としての位置推定結果及び地図が供給されると、その信号処理結果を選択して、出力I/F24から外部に出力する。
図19では、注目フレーム周期T1についての信号処理結果、すなわち、注目フレーム周期T1の圧縮画像及び他センサ画像を用いたSLAM処理の信号処理結果(位置推定結果及び地図)は、注目フレーム周期T1の終了間際から注目フレーム周期T1が終了するまでの期間に、出力I/F24から出力されている。
図20は、DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理のタイミングの第2の例を説明するタイミングチャートである。
図20では、図19と同様に、撮像部21において、1/30秒をフレーム周期T1として、12Mピクセルのカラーの撮像画像が撮像され、出力I/F24から外部に出力される。
さらに、図20では、図19と同様に、画像圧縮部35において、12Mピクセルのカラーの撮像画像の圧縮処理としてのスケールダウンとYUV変換によって、VGAサイズの白黒の圧縮画像が生成され、メモリ33に記憶される。
また、図20では、図19と同様に、撮像装置2の入力I/F36に、他のセンサが接続されており、その他のセンサは、センサ出力として、VGAサイズの他センサ画像を出力する。
入力I/F36は、図19と同様に、他のセンサのセンサ出力としての他センサ画像を受け取り、メモリ33に記憶させる。
図20では、図19と同様に、注目フレーム周期T1の撮像画像の圧縮処理が、注目フレーム周期T1の前半で終了する。
そして、その後の、注目フレーム周期T1の後半の1/60秒が開始するタイミングで、DSP32が、メモリ33に記憶された注目フレーム周期T1の撮像画像から得られた圧縮画像と、メモリ33に記憶された注目フレーム周期T1の他センサ画像とを用いたSLAM処理を開始する。
SLAM処理では、例えば、注目フレーム周期T1の圧縮画像と、注目フレーム周期T1の他センサ画像とのレクティフィケーションが行われ、そのレクティフィケーション後の圧縮画像及び他センサ画像を用いて、注目フレーム周期T1の自己位置推定及び地図の構築が行われる。
図20では、DSP32は、注目フレーム周期T1の次のフレーム周期T1の前半が終了する少し前のタイミングで、注目フレーム周期T1の圧縮画像及び他センサ画像を用いたSLAM処理を終了し、そのSLAM処理の結果得られる位置推定結果及び地図を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、注目フレーム周期T1の次のフレーム周期T1の撮像画像の、出力I/F24からの出力が終了した後、注目フレーム周期T1の信号処理結果としての位置推定結果及び地図を選択して、出力I/F24から外部に出力する。
したがって、図20では、注目フレーム周期T1の信号処理結果としての位置推定結果及び地図は、注目フレーム周期T1の間に出力されず、その次のフレーム周期T1に出力される。
図19では、注目フレーム周期T1の信号処理結果としての位置推定結果及び地図は、注目フレーム周期T1に出力されるに対して、図20では、注目フレーム周期T1の信号処理結果としての位置推定結果及び地図は、注目フレーム周期T1の次のフレーム周期T1に出力される。したがって、図20では、図19の場合よりも、SRAM処理に長時間を割り当てることができ、その結果、SRAM処理の信号処理結果としての位置推定結果及び地図の精度を向上させることができる。
図21は、DSP32の信号処理としてSLAM処理が行われる場合の、撮像装置2の処理のタイミングの第3の例を説明するタイミングチャートである。
図21では、撮像部21は、1/30秒をフレーム周期T1として、1フレームの撮像を行う。但し、図21では、撮像部21は、12Mピクセルのカラーの撮像画像ではなく、VGAサイズのカラーの撮像画像を撮像する。そのため、図21では、フレーム周期T1の開始から極めて短時間で、1フレームの撮像が終了している。撮像部21が撮像した撮像画像は、撮像処理部22から、出力制御部23及び画像圧縮部35に供給される。
ここで、図21では、外部で撮像画像が使用されないことになっており、そのため、出力制御部23は、撮像処理部22から撮像画像が供給されても、撮像画像を選択せず、出力I/F24から外部に出力しない。
画像圧縮部35は、撮像画像の圧縮処理を行い、その結果得られる圧縮画像を、メモリ33に記憶させる。
ここで、図21では、撮像画像が、VGAサイズのカラー画像であるため、圧縮処理としては、YUV変換は行われるが、スケールダウンは行われない。そのため、図21の圧縮処理は、撮像画像が12Mピクセルのカラー画像である場合に比較して、短時間で終了している。
図21では、図19や図20と同様に、撮像装置2の入力I/F36に、他のセンサが接続されており、その他のセンサは、センサ出力として、30fpsのVGAサイズの他センサ画像を出力する。
入力I/F36は、他のセンサのセンサ出力としての他センサ画像を受け取り、メモリ33に記憶させる。
図21では、メモリ33に、注目フレーム周期T1の他センサ画像が記憶されたときには、注目フレーム周期T1の撮像画像の圧縮処理が終了し、その圧縮処理により得られた注目フレーム周期T1の圧縮画像が、メモリ33に記憶されている。
すなわち、メモリ33に、注目フレーム周期T1の他センサ画像が記憶されたときには、メモリ33には、注目フレーム周期T1の圧縮画像及び他センサ画像の両方が記憶されており、それらの圧縮画像及び他センサ画像を用いたSLAM処理を開始することができる。
そこで、DSP32は、メモリ33に記憶された注目フレーム周期T1の圧縮画像及び他センサ画像をステレオ画像として用いたSLAM処理を開始する。
SLAM処理では、例えば、注目フレーム周期T1の圧縮画像と、注目フレーム周期T1の他センサ画像とのレクティフィケーションが行われ、そのレクティフィケーション後の圧縮画像及び他センサ画像を用いて、注目フレーム周期T1の自己位置推定及び地図の構築が行われる。
図21では、DSP32は、注目フレーム周期T1が終了する少し前のタイミングで、注目フレーム周期T1の圧縮画像及び他センサ画像を用いたSLAM処理を終了し、そのSLAM処理の結果得られる位置推定結果及び地図を、信号処理結果として、出力制御部23に供給する。
出力制御部23は、信号処理結果としての位置推定結果及び地図が供給されると、その信号処理結果を選択して、出力I/F24から外部に出力する。
図21では、注目フレーム周期T1についての信号処理結果、すなわち、注目フレーム周期T1の圧縮画像及び他センサ画像を用いたSLAM処理の信号処理結果(位置推定結果及び地図)は、注目フレーム周期T1の終了間際から注目フレーム周期T1が終了するまでの期間に、出力I/F24から出力されている。
さらに、図21では、撮像部21が出力する撮像画像が、VGAサイズの画像であるため、圧縮処理において、スケールダウンを行わずに済み、圧縮処理の負荷を軽減することができる。
以上のように、撮像部21が出力する撮像画像を、VGAサイズの画像として、出力I/F24から出力しない形態は、例えば、外部において、撮像画像そのものが必要ではなく、信号処理結果(ここでは、SLAM処理の信号処理結果)が必要である場合に有用である。
なお、図16ないし図21で説明したように、他センサ画像を、入力I/F36から受け付け、SLAM処理を行う撮像装置2の使用形態は、例えば、自律的に行動するロボット等に適用することができる。
ここで、入力I/F36において、他のセンサの他センサ画像を受け取り、その他センサ画像と、撮像装置2で撮像された撮像画像(から生成される圧縮画像)とを、ステレオ画像として用いる場合には、レクティフィケーションが必要となる。
図16ないし図21では、DSP32にSLAM処理プログラムを実行させることにより行われるSLAM処理の一部として、レクティフィケーションを行うこととしたが、すなわち、ソフトウエアにより、レクティフィケーションを行うこととしたが、他センサ画像と撮像画像とをステレオ画像として用いる場合には、その場合に必要となるレクティフィケーションは、ソフトウエアにより行うのではなく、専用のハードウエアを撮像装置2に設け、その専用のハードウエアにより行うことができる。
<撮像装置2の他の構成例>
図22は、図1の撮像装置2の他の構成例を示すブロック図である。
すなわち、図22は、レクティフィケーションを行う専用のハードウエアが設けられた撮像装置2の構成例を示している。
なお、図中、図2の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
図22において、撮像装置2は、撮像部21ないし撮像制御部25、CPU31ないし入力I/F36、及び、レクティフィケーション部71を有する。
したがって、図22の撮像装置2は、撮像部21ないし撮像制御部25、及び、CPU31ないし入力I/F36を有する点で、図2の場合と共通する。
但し、図22の撮像装置2は、レクティフィケーション部71が新たに設けられている点で、図2の場合と相違する。
レクティフィケーション部71は、レクティフィケーションを行う専用のハードウエアであり、メモリ33に記憶された圧縮画像及び他センサ画像を対象に、レクティフィケーションを行う。
図22では、DSP32は、レクティフィケーション部71によるレクティフィケーション後の圧縮画像及び他センサ画像を用いて、SLAM処理を行う。
以上のように、レクティフィケーション専用のハードウエアとしてのレクティフィケーション部71を設けることにより、レクティフィケーションの高速化を図ることができる。
<撮像装置2の使用例>
図23は、図1の撮像装置2を使用する使用例を示す図である。
撮像装置2は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々な電子機器に使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する電子機器
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される電子機器
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される電子機器
・内視鏡や、電子顕微鏡、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される電子機器
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される電子機器
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される電子機器
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される電子機器
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される電子機器
<移動体への応用例>
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図24は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図24に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図24の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図25は、撮像部12031の設置位置の例を示す図である。
図25では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図25には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、図2の撮像装置2は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、撮像部12031は、ユーザが必要とする情報、すなわち、後段の処理を行うブロック(以下、後段ブロックともいう)で必要な情報を出力することができる。したがって、後段ブロックは、画像から、必要な情報を生成する処理を行う必要がなく、その分、後段ブロックの負荷を軽減することができる。
ここで、本明細書において、コンピュータ(プロセッサ)がプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、可視光線をセンシングするイメージセンサの他、赤外線その他の、可視光線以外の電磁波をセンシングするイメージセンサに適用することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下の構成をとることができる。
<1>
複数の画素が2次元に並んだ、画像を撮像する撮像部と、
前記撮像部が出力する撮像画像を用いた信号処理を行う信号処理部と、
前記信号処理の信号処理結果、及び、前記撮像画像を外部に出力する出力I/Fと、
前記信号処理の信号処理結果、及び、前記撮像画像を、前記出力I/Fから外部に選択的に出力させる出力制御を行う出力制御部と
を備える1チップの撮像装置。
<2>
複数のダイが積層された積層構造を有する
<1>に記載の撮像装置。
<3>
前記撮像画像を圧縮し、前記撮像画像よりもデータ量が少ない圧縮画像を生成する画像圧縮部をさらに備える
<1>又は<2>に記載の撮像装置。
<4>
前記撮像画像の撮像に関する撮像情報を記憶するレジスタを有し、前記撮像情報に従って、前記撮像画像の撮像を制御する撮像制御部と、
前記信号処理結果を用いて、前記撮像情報を算出する撮像情報算出部と
をさらに備え、
前記撮像制御部と前記撮像情報算出部とは、所定の接続線を介して接続され、
前記撮像情報算出部は、前記撮像情報を、前記所定の接続線を介して、前記撮像制御部の前記レジスタにフィードバックする
<1>ないし<3>のいずれかに記載の撮像装置。
<5>
前記レジスタは、前記出力制御に関する出力制御情報をも記憶し、
前記出力制御部は、前記レジスタに記憶された前記出力制御情報に従って、前記出力制御を行う
<4>に記載の撮像装置。
<6>
前記レジスタに読み書きする情報を外部との間でやりとりする第1の通信I/Fをさらに備える
<4>又は<5>に記載の撮像装置。
<7>
前記信号処理部は、プログラムを実行するプロセッサであり、
前記プロセッサが実行するプログラムを外部からダウンロードする第2の通信I/Fをさらに備える
<1>ないし<6>のいずれかに記載の撮像装置。
<8>
前記信号処理部は、前記信号処理として、前記撮像画像から、所定の認識対象を認識する認識処理を行う
<1>ないし<7>のいずれかに記載の撮像装置。
<9>
外部のセンサから外部センサ出力を受け取る入力I/Fをさらに備え、
前記信号処理部は、前記撮像画像及び前記外部センサ出力を用いた信号処理を行う
<1>ないし<7>のいずれかに記載の撮像装置。
<10>
前記外部センサ出力は、距離に関する情報をセンシングする距離センサの出力、又は、光をセンシングし、前記光に対応する画像を出力するイメージセンサの出力である
<9>に記載の撮像装置。
<11>
前記信号処理部は、前記信号処理として、前記撮像画像と前記距離センサの出力とを用いて距離を求めるフュージョン処理、又は、前記イメージセンサの出力としての画像と前記撮像画像とを用いた自己位置推定処理を行う
<10>に記載の撮像装置。
<12>
光を集光する光学系と、
光を受光し、前記光の受光量に対応する画像を出力する1チップの撮像装置と
を備え、
前記撮像装置は、
複数の画素が2次元に並んだ、画像を撮像する撮像部と、
前記撮像部が出力する撮像画像を用いた信号処理を行う信号処理部と、
前記信号処理の信号処理結果、及び、前記撮像画像を外部に出力する出力I/Fと、
前記信号処理の信号処理結果、及び、前記撮像画像を、前記出力I/Fから外部に選択的に出力させる出力制御を行う出力制御部と
を有する
電子機器。
符号の説明
1 光学系, 2 撮像装置, 3 メモリ, 4 信号処理部, 5 出力部, 6 制御部, 20 撮像ブロック, 21 撮像部, 22 撮像処理部, 23 出力制御部, 24 出力I/F, 25 撮像制御部, 26 通信I/F, 27 レジスタ群, 30 信号処理ブロック, 31 CPU, 32 DSP, 33 メモリ, 34 通信I/F, 35 画像圧縮部, 36 入力I/F, 51,52 ダイ, 71 レクティフィケーション部

Claims (12)

  1. 複数の画素が2次元に並んだ撮像画像を出力する撮像部と、
    前記撮像画像に基づく画像を用いた所定の処理を実行する処理部と、
    前記処理部による処理結果又は前記処理の途中で得られる中間データと、前記撮像画像とを外部へ出力可能な出力部と、
    前記処理結果又は前記中間データ、及び、前記撮像画像のうちの少なくとも一方を前記出力部から外部に出力させる出力制御部と、
    前記撮像画像の撮像に関する撮像情報を記憶するレジスタを有し、前記撮像情報に従って前記撮像画像の撮像を制御する撮像制御部と、
    前記所定の処理の結果を用いて前記撮像情報を算出する撮像情報算出部と
    を備え、
    前記撮像部と前記処理部とは、単一のチップ内に配置され、
    前記単一のチップは、第1のダイと、当該第1のダイに積層された第2のダイとから構成され、
    前記撮像部は、1フレーム周期の一部である所定期間内に1フレーム分の前記撮像画像を出力し、
    前記処理部は、前記撮像部が前記撮像画像の出力を開始した後、前記所定期間の終了前に、前記撮像画像に基づく画像を用いた前記所定の処理を開始し、
    前記撮像制御部と前記撮像情報算出部とは、所定の接続線を介して接続され、
    前記撮像情報算出部は、前記撮像情報を、前記所定の接続線を介して、前記撮像制御部の前記レジスタにフィードバックする
    撮像装置。
  2. 前記撮像部から出力された前記撮像画像を圧縮して圧縮画像を前記撮像画像に基づく画像として生成する圧縮部をさらに備え、
    前記圧縮部は、前記撮像部及び前記処理部と同一の前記チップ内に配置され、
    前記圧縮部は、前記撮像部が前記撮像画像の出力を開始した後、前記所定期間の終了前に、前記撮像画像の圧縮を開始し、
    前記処理部は、前記圧縮部が前記撮像画像の圧縮を開始した後、当該撮像画像の圧縮を完了する前に、前記圧縮画像を用いた前記所定の処理を開始する
    請求項1に記載の撮像装置。
  3. 複数の画素が2次元に並んだ撮像画像を出力する撮像部と、
    前記撮像部から出力された前記撮像画像を圧縮して圧縮画像を生成する圧縮部と、
    前記圧縮画像を用いた所定の処理として前記撮像画像に基づく画像に対する認識処理の少なくとも一部を実行する処理部と、
    前記処理部による処理結果又は前記処理の途中で得られる中間データと、前記撮像画像とを外部へ出力可能な出力部と、
    前記処理結果又は前記中間データ、及び、前記撮像画像のうちの少なくとも一方を前記出力部から外部に出力させる出力制御部と
    を備え、
    前記撮像部と前記圧縮部と前記処理部とは、単一のチップ内に配置され、
    前記単一のチップは、第1のダイと、当該第1のダイに積層された第2のダイとから構成され、
    前記撮像部は、1フレーム周期の一部である所定期間内に1フレーム分の前記撮像画像を出力し、
    前記圧縮部は、前記撮像部が前記撮像画像の出力を開始した後、前記所定期間の終了前に、前記撮像画像の圧縮を開始し、
    前記処理部は、前記圧縮部が前記撮像画像の圧縮を開始した後、当該撮像画像の圧縮を完了する前に、前記圧縮画像を用いた前記所定の処理を開始する
    撮像装置。
  4. 前記圧縮部は、前記撮像画像の解像度を下げるスケールダウン、及び、前記撮像画像をカラー画像から白黒画像に変換する色変換のうちの少なくとも1つを含む
    請求項2又は3に記載の撮像装置。
  5. 前記所定の処理は、前記撮像画像に基づく画像に対する認識処理の少なくとも一部である
    請求項1又は2に記載の撮像装置。
  6. 前記出力部及び前記出力制御部は、前記撮像部及び前記処理部と同一の前記チップ内に配置されている
    請求項1~5の何れか1項に記載の撮像装置。
  7. 前記第1のダイは、前記撮像部を備え、
    前記第2のダイは、前記処理部を備える
    請求項1~6の何れか1項に記載の撮像装置。
  8. 前記撮像画像は、前記撮像部の出力に階調処理を行い生成された画像である
    請求項1~7の何れか1項に記載の撮像装置。
  9. 前記所定の処理は、ディープラーニングの手法を用いた認識処理である
    請求項1~8の何れか1項に記載の撮像装置。
  10. 前記ディープラーニングの手法は、コンボリューショナルニューラルネットワーク(Convolutional Neural Network)である
    請求項9に記載の撮像装置。
  11. 前記所定の処理を行うプログラムは、外部からダウンロードされる
    請求項1~10の何れか1項に記載の撮像装置。
  12. 複数の画素が2次元に並んだ撮像画像を出力する撮像部と、前記撮像画像に基づく画像を用いた所定の処理を実行する処理部と、前記処理部による処理結果又は前記処理の途中で得られる中間データと、前記撮像画像とを外部へ出力可能な出力部と、前記処理結果又は前記中間データ、及び、前記撮像画像のうちの少なくとも一方を前記出力部から外部に出力させる出力制御部と、前記撮像画像の撮像に関する撮像情報を記憶するレジスタを有し、前記撮像情報に従って前記撮像画像の撮像を制御する撮像制御部と、前記所定の処理の結果を用いて前記撮像情報を算出する撮像情報算出部とを備え、前記撮像部と前記処理部とは、単一のチップ内に配置され、前記単一のチップは、第1のダイと、当該第1のダイに積層された第2のダイとから構成され、前記撮像制御部と前記撮像情報算出部とは、所定の接続線を介して接続された撮像装置の制御方法であって、
    前記撮像部が、1フレーム周期の一部である所定期間内に1フレーム分の前記撮像画像を出力し、
    前記処理部が、前記撮像部が前記撮像画像の出力を開始した後、前記所定期間の終了前に、前記撮像画像に基づく画像を用いた前記所定の処理を開始し、
    前記撮像情報算出部が、前記撮像情報を、前記所定の接続線を介して、前記撮像制御部の前記レジスタにフィードバックする
    撮像装置の制御方法。
JP2019223950A 2016-09-16 2019-12-11 撮像装置、及び、撮像装置の制御方法 Active JP7105754B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021031510A JP6937443B2 (ja) 2016-09-16 2021-03-01 撮像装置及び撮像装置の制御方法
JP2022085048A JP7342197B2 (ja) 2016-09-16 2022-05-25 撮像装置及び撮像装置の制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016181194 2016-09-16
JP2016181194 2016-09-16

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018539628A Division JP6633216B2 (ja) 2016-09-16 2017-09-01 撮像装置、及び、電子機器

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2021031510A Division JP6937443B2 (ja) 2016-09-16 2021-03-01 撮像装置及び撮像装置の制御方法
JP2022085048A Division JP7342197B2 (ja) 2016-09-16 2022-05-25 撮像装置及び撮像装置の制御方法

Publications (3)

Publication Number Publication Date
JP2020061755A JP2020061755A (ja) 2020-04-16
JP2020061755A5 JP2020061755A5 (ja) 2020-10-08
JP7105754B2 true JP7105754B2 (ja) 2022-07-25

Family

ID=61619417

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018539628A Active JP6633216B2 (ja) 2016-09-16 2017-09-01 撮像装置、及び、電子機器
JP2019223950A Active JP7105754B2 (ja) 2016-09-16 2019-12-11 撮像装置、及び、撮像装置の制御方法
JP2021031510A Active JP6937443B2 (ja) 2016-09-16 2021-03-01 撮像装置及び撮像装置の制御方法
JP2022085048A Active JP7342197B2 (ja) 2016-09-16 2022-05-25 撮像装置及び撮像装置の制御方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018539628A Active JP6633216B2 (ja) 2016-09-16 2017-09-01 撮像装置、及び、電子機器

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021031510A Active JP6937443B2 (ja) 2016-09-16 2021-03-01 撮像装置及び撮像装置の制御方法
JP2022085048A Active JP7342197B2 (ja) 2016-09-16 2022-05-25 撮像装置及び撮像装置の制御方法

Country Status (6)

Country Link
US (5) US10795024B2 (ja)
EP (3) EP4064680A1 (ja)
JP (4) JP6633216B2 (ja)
KR (5) KR102647268B1 (ja)
CN (2) CN109691079B (ja)
WO (1) WO2018051809A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020027229A1 (ja) * 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020027074A1 (ja) * 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020027230A1 (ja) 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 積層型受光センサ及び車載撮像装置
US11820289B2 (en) * 2018-07-31 2023-11-21 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic device
JP7423491B2 (ja) 2018-07-31 2024-01-29 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び車両制御システム
CN112470462A (zh) 2018-07-31 2021-03-09 索尼半导体解决方案公司 层叠式光接收传感器和电子装置
JP6646347B2 (ja) * 2018-07-31 2020-02-14 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020027233A1 (ja) 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び車両制御システム
WO2020027161A1 (ja) 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 積層型受光センサ及び電子機器
JP6697042B2 (ja) * 2018-08-31 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、固体撮像方法及びプログラム
JP6638852B1 (ja) * 2018-08-31 2020-01-29 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
JP6925474B2 (ja) * 2018-08-31 2021-08-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、情報処理システム、固体撮像装置の動作方法及びプログラム
JP6695947B2 (ja) * 2018-09-21 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、画像処理方法及びプログラム
JP7402606B2 (ja) 2018-10-31 2023-12-21 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
JP2020113809A (ja) * 2019-01-08 2020-07-27 ソニー株式会社 固体撮像素子およびその信号処理方法、並びに電子機器
JP2020136903A (ja) 2019-02-19 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2020170729A1 (ja) * 2019-02-20 2020-08-27 富士フイルム株式会社 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
JP6996025B2 (ja) * 2019-02-20 2022-02-04 富士フイルム株式会社 撮像素子、撮像装置、撮像素子の作動方法、及びプログラム
JP2021064860A (ja) * 2019-10-11 2021-04-22 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
JP2021068952A (ja) * 2019-10-18 2021-04-30 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
JP2021068954A (ja) * 2019-10-18 2021-04-30 ソニーセミコンダクタソリューションズ株式会社 受光装置及び電子機器
JP7388131B2 (ja) 2019-10-31 2023-11-29 ソニーグループ株式会社 微小粒子回収方法、微小粒子分取用マイクロチップ、微小粒子回収装置、エマルションの製造方法、及びエマルション
CN114902648A (zh) * 2020-01-30 2022-08-12 索尼半导体解决方案公司 固态成像装置、电子设备和成像系统
EP4105340A4 (en) 2020-02-14 2023-08-09 Sony Group Corporation ANALYTICAL METHOD, ANALYTICAL SYSTEM AND INTERFACE FOR ANALYSIS
CN115280760A (zh) * 2020-03-19 2022-11-01 索尼半导体解决方案公司 固态成像装置
JP7105976B2 (ja) * 2020-04-23 2022-07-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、固体撮像装置の動作方法及びプログラム
EP4177353A4 (en) 2020-07-06 2024-01-17 Sony Group Corp SYSTEM AND METHOD FOR BIOPARTICLE ANALYSIS
JP2022017705A (ja) 2020-07-14 2022-01-26 ソニーグループ株式会社 微小粒子分取装置、微小粒子分取方法、プログラム、及び微小粒子分取システム
US11706546B2 (en) * 2021-06-01 2023-07-18 Sony Semiconductor Solutions Corporation Image sensor with integrated single object class detection deep neural network (DNN)
US20230039592A1 (en) * 2021-08-04 2023-02-09 Sony Semiconductor Solutions Corporation Image sensor with integrated efficient multiresolution hierarchical deep neural network (dnn)
US11763417B2 (en) * 2021-11-19 2023-09-19 Renesas Electronics Corporation Semiconductor device and image processing system for processing regions of interest images
JP2023119701A (ja) * 2022-02-17 2023-08-29 ソニーセミコンダクタソリューションズ株式会社 撮像装置および信号処理方法
WO2023182049A1 (ja) * 2022-03-23 2023-09-28 ソニーセミコンダクタソリューションズ株式会社 イメージセンサ、データ構造
WO2023218936A1 (ja) * 2022-05-10 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 イメージセンサ、情報処理方法、プログラム
WO2024014278A1 (ja) * 2022-07-11 2024-01-18 ソニーセミコンダクタソリューションズ株式会社 撮像装置およびデータ出力方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146816A (ja) 2002-09-30 2004-05-20 Matsushita Electric Ind Co Ltd 固体撮像装置およびこれを用いた機器
JP2009246803A (ja) 2008-03-31 2009-10-22 Aisin Seiki Co Ltd 画像認識装置及びコンピュータプログラム
JP2010283787A (ja) 2009-06-08 2010-12-16 Panasonic Corp 撮像装置
JP2011508293A (ja) 2007-11-30 2011-03-10 コグネックス・コーポレイション ビジョンセンサ、システムおよび方法
JP2014143667A (ja) 2012-12-28 2014-08-07 Canon Inc 撮像素子、撮像装置、その制御方法、および制御プログラム
JP2016010125A (ja) 2014-06-26 2016-01-18 ソニー株式会社 信号処理装置、制御方法、撮像素子、並びに、電子機器
US20160165100A1 (en) 2005-01-13 2016-06-09 Sony Corporation Image pickup apparatus and processing method for result of image pickup
JP2016110232A (ja) 2014-12-02 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10336519A (ja) * 1997-06-02 1998-12-18 Sony Corp 撮像素子及び撮像装置
JP2000241131A (ja) * 1998-12-22 2000-09-08 Matsushita Electric Ind Co Ltd レンジファインダ装置および撮像装置
JP2001036793A (ja) * 1999-07-21 2001-02-09 Sharp Corp ビデオカメラ
JP5108172B2 (ja) 2000-09-06 2012-12-26 株式会社ニコン 画像データサイズ変換処理装置、電子スチルカメラ、および画像データサイズ変換処理用記録媒体
US6617565B2 (en) 2001-11-06 2003-09-09 Omnivision Technologies, Inc. CMOS image sensor with on-chip pattern recognition
JP3778114B2 (ja) * 2002-03-27 2006-05-24 ソニー株式会社 露光制御方法、露光制御回路、撮像装置、プログラム、記憶媒体
JP2004048455A (ja) 2002-07-12 2004-02-12 Niles Co Ltd 撮像システム
JP4574249B2 (ja) 2004-06-29 2010-11-04 キヤノン株式会社 画像処理装置及びその方法、プログラム、撮像装置
JP4244218B2 (ja) * 2004-07-09 2009-03-25 パナソニック株式会社 撮像信号処理回路およびカメラシステム
JP2006067291A (ja) * 2004-08-27 2006-03-09 Canon Inc 撮像装置
US20090094570A1 (en) 2005-09-13 2009-04-09 Evgeny Artyomov Configurable Asic-based Sensing Circuit
JP2007082059A (ja) * 2005-09-16 2007-03-29 Fujifilm Corp 電子カメラ
JP2007174160A (ja) * 2005-12-21 2007-07-05 Konica Minolta Photo Imaging Inc 撮像装置
JP4827611B2 (ja) * 2006-05-23 2011-11-30 ローム株式会社 シリアルインタフェイス装置、画像形成装置
JP4289377B2 (ja) 2006-08-21 2009-07-01 ソニー株式会社 物理量検出装置及び撮像装置
JP4957134B2 (ja) * 2006-09-12 2012-06-20 株式会社日立製作所 距離計測装置
JP2008124742A (ja) * 2006-11-10 2008-05-29 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP4301308B2 (ja) * 2007-03-02 2009-07-22 ソニー株式会社 撮像装置および画像処理方法
US7676146B2 (en) * 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
JP2009081818A (ja) * 2007-09-27 2009-04-16 Mitsubishi Electric Corp 無線通信基地局装置
JP2009081808A (ja) * 2007-09-27 2009-04-16 Fujifilm Corp 撮影制御装置、撮影制御方法、撮影制御プログラム、および撮影装置
JP2009145598A (ja) 2007-12-13 2009-07-02 Sharp Corp 固体撮像装置およびそれを備えた電子機器
JP5082973B2 (ja) * 2008-03-26 2012-11-28 株式会社日立製作所 映像記録システム、及び撮像装置
JP5266864B2 (ja) * 2008-05-13 2013-08-21 ソニー株式会社 イメージセンサ、データ出力方法、撮像デバイス、及び、カメラ
JP2011023898A (ja) * 2009-07-14 2011-02-03 Panasonic Corp 表示装置、表示方法および集積回路
JP5625298B2 (ja) * 2009-09-28 2014-11-19 ソニー株式会社 撮像装置
JP5700963B2 (ja) * 2010-06-29 2015-04-15 キヤノン株式会社 情報処理装置およびその制御方法
JP5631108B2 (ja) * 2010-08-19 2014-11-26 キヤノン株式会社 撮像装置及びその制御方法、並びにプログラム
KR101706093B1 (ko) * 2010-11-30 2017-02-14 삼성전자주식회사 3차원 좌표 추출 시스템 및 그 방법
JP6066658B2 (ja) * 2012-10-17 2017-01-25 キヤノン株式会社 半導体装置
US9568985B2 (en) * 2012-11-23 2017-02-14 Mediatek Inc. Data processing apparatus with adaptive compression algorithm selection based on visibility of compression artifacts for data communication over camera interface and related data processing method
JP6091216B2 (ja) * 2013-01-08 2017-03-08 キヤノン株式会社 画像信号処理装置およびその制御方法、並びに撮像装置
US9465484B1 (en) * 2013-03-11 2016-10-11 Amazon Technologies, Inc. Forward and backward looking vision system
JP5900393B2 (ja) * 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
JP6141084B2 (ja) * 2013-04-19 2017-06-07 キヤノン株式会社 撮像装置
WO2015017868A1 (en) * 2013-08-02 2015-02-05 Emotient Filter and shutter based on image emotion content
EP3035667A4 (en) * 2013-08-12 2017-03-22 Nikon Corporation Electronic device, electronic device control method, and control program
JP2015056700A (ja) * 2013-09-10 2015-03-23 株式会社東芝 撮像素子、撮像装置および半導体装置
JP2015091005A (ja) * 2013-11-05 2015-05-11 オリンパス株式会社 撮像装置
US20160286203A1 (en) * 2015-03-27 2016-09-29 Osterhout Group, Inc. See-through computer display systems
JP2015185927A (ja) 2014-03-20 2015-10-22 ソニー株式会社 撮像素子、制御方法、並びに、撮像装置
EP3151552A4 (en) * 2014-05-30 2018-02-21 Hitachi Kokusai Electric Inc. Monitoring system and camera device
JP2017535279A (ja) * 2014-09-23 2017-11-30 宝時得科技(中国)有限公司Positec Technology (China) Co.,Ltd. 自動移動ロボット
EP3203725B1 (en) 2014-09-30 2022-01-26 Hitachi Astemo, Ltd. Vehicle-mounted image recognition device
US9940533B2 (en) * 2014-09-30 2018-04-10 Qualcomm Incorporated Scanning window for isolating pixel values in hardware for computer vision operations
EP3213288B8 (en) * 2014-10-30 2019-11-06 Verizon Patent and Licensing Inc. Parking and traffic analysis
JP6537608B2 (ja) * 2015-06-26 2019-07-03 マクセル株式会社 撮像装置及び画像処理方法
JP2017017624A (ja) 2015-07-03 2017-01-19 ソニー株式会社 撮像素子、画像処理方法、および電子機器
US20170041540A1 (en) * 2015-08-04 2017-02-09 Ronald B Foster Energy-efficient secure vision processing applying object detection algorithms
KR102460838B1 (ko) * 2015-08-28 2022-10-28 삼성전자주식회사 얼굴 검출을 이용한 카메라의 자동 초점 조절 방법 및 카메라 제어 장치
WO2017159082A1 (ja) * 2016-03-14 2017-09-21 株式会社リコー 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
KR102462644B1 (ko) * 2016-04-01 2022-11-03 삼성전자주식회사 전자 장치 및 그의 동작 방법
WO2017206066A1 (en) * 2016-05-31 2017-12-07 Nokia Technologies Oy Method and apparatus for detecting small objects with an enhanced deep neural network

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004146816A (ja) 2002-09-30 2004-05-20 Matsushita Electric Ind Co Ltd 固体撮像装置およびこれを用いた機器
US20160165100A1 (en) 2005-01-13 2016-06-09 Sony Corporation Image pickup apparatus and processing method for result of image pickup
JP2011508293A (ja) 2007-11-30 2011-03-10 コグネックス・コーポレイション ビジョンセンサ、システムおよび方法
JP2009246803A (ja) 2008-03-31 2009-10-22 Aisin Seiki Co Ltd 画像認識装置及びコンピュータプログラム
JP2010283787A (ja) 2009-06-08 2010-12-16 Panasonic Corp 撮像装置
JP2014143667A (ja) 2012-12-28 2014-08-07 Canon Inc 撮像素子、撮像装置、その制御方法、および制御プログラム
JP2016010125A (ja) 2014-06-26 2016-01-18 ソニー株式会社 信号処理装置、制御方法、撮像素子、並びに、電子機器
JP2016110232A (ja) 2014-12-02 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム

Also Published As

Publication number Publication date
CN113271400B (zh) 2023-12-19
EP3515057A1 (en) 2019-07-24
KR20190051968A (ko) 2019-05-15
JP6633216B2 (ja) 2020-01-22
US10795024B2 (en) 2020-10-06
KR20230058190A (ko) 2023-05-02
JP6937443B2 (ja) 2021-09-22
KR102374013B1 (ko) 2022-03-11
JPWO2018051809A1 (ja) 2019-07-04
JP2020061755A (ja) 2020-04-16
US20220214458A1 (en) 2022-07-07
US20200363534A1 (en) 2020-11-19
JP7342197B2 (ja) 2023-09-11
CN109691079B (zh) 2021-05-14
EP3515057A4 (en) 2019-10-02
JP2021093759A (ja) 2021-06-17
US20190204448A1 (en) 2019-07-04
KR20220058975A (ko) 2022-05-10
KR102490799B1 (ko) 2023-01-20
EP4064679A1 (en) 2022-09-28
US20220244387A1 (en) 2022-08-04
WO2018051809A1 (ja) 2018-03-22
JP2022111151A (ja) 2022-07-29
KR102647268B1 (ko) 2024-03-12
US20220244388A1 (en) 2022-08-04
EP3515057B1 (en) 2024-02-21
EP4064680A1 (en) 2022-09-28
KR20220018071A (ko) 2022-02-14
KR102526559B1 (ko) 2023-04-27
KR20220066986A (ko) 2022-05-24
CN113271400A (zh) 2021-08-17
CN109691079A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
JP7105754B2 (ja) 撮像装置、及び、撮像装置の制御方法
WO2017175492A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
KR102493027B1 (ko) 촬상 소자 및 그 구동 방법, 그리고 전자 기기
WO2022019026A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP7144926B2 (ja) 撮像制御装置、撮像装置、および、撮像制御装置の制御方法
WO2018139187A1 (ja) 固体撮像装置およびその駆動方法、並びに電子機器
WO2019167363A1 (ja) 画像処理装置と画像処理方法およびプログラム
US10873732B2 (en) Imaging device, imaging system, and method of controlling imaging device
WO2017199487A1 (ja) 制御装置、制御方法、およびプログラム
WO2022219874A1 (ja) 信号処理装置および方法、並びにプログラム
US20240078803A1 (en) Information processing apparatus, information processing method, computer program, and sensor apparatus
WO2022019025A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220525

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220602

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220712

R150 Certificate of patent or registration of utility model

Ref document number: 7105754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150