JP2021068952A - 撮像装置及び電子機器 - Google Patents
撮像装置及び電子機器 Download PDFInfo
- Publication number
- JP2021068952A JP2021068952A JP2019191414A JP2019191414A JP2021068952A JP 2021068952 A JP2021068952 A JP 2021068952A JP 2019191414 A JP2019191414 A JP 2019191414A JP 2019191414 A JP2019191414 A JP 2019191414A JP 2021068952 A JP2021068952 A JP 2021068952A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- image data
- imaging device
- storage unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 132
- 238000012545 processing Methods 0.000 claims abstract description 149
- 238000003860 storage Methods 0.000 claims abstract description 117
- 238000006243 chemical reaction Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 118
- 238000001514 detection method Methods 0.000 claims description 89
- 239000000758 substrate Substances 0.000 claims description 88
- 230000008569 process Effects 0.000 claims description 59
- 230000033001 locomotion Effects 0.000 claims description 22
- 238000003062 neural network model Methods 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 16
- 238000005520 cutting process Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 5
- 230000015654 memory Effects 0.000 abstract description 24
- 238000004364 calculation method Methods 0.000 description 26
- IOCYQQQCJYMWDT-UHFFFAOYSA-N (3-ethyl-2-methoxyquinolin-6-yl)-(4-methoxycyclohexyl)methanone Chemical compound C=1C=C2N=C(OC)C(CC)=CC2=CC=1C(=O)C1CCC(OC)CC1 IOCYQQQCJYMWDT-UHFFFAOYSA-N 0.000 description 25
- 230000001575 pathological effect Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 17
- 241000724291 Tobacco streak virus Species 0.000 description 16
- 239000010410 layer Substances 0.000 description 14
- 210000001519 tissue Anatomy 0.000 description 14
- 238000002674 endoscopic surgery Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 8
- 239000004065 semiconductor Substances 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 210000004027 cell Anatomy 0.000 description 5
- 238000009795 derivation Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 238000011144 upstream manufacturing Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 239000011521 glass Substances 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000003153 chemical reaction reagent Substances 0.000 description 3
- 239000010949 copper Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010336 energy treatment Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 238000010827 pathological analysis Methods 0.000 description 3
- 230000007170 pathology Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 208000005646 Pneumoperitoneum Diseases 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 210000004748 cultured cell Anatomy 0.000 description 2
- 235000013601 eggs Nutrition 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000003364 immunohistochemistry Methods 0.000 description 2
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 2
- 229960004657 indocyanine green Drugs 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 235000013372 meat Nutrition 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000149 penetrating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010186 staining Methods 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000252212 Danio rerio Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 239000012620 biological material Substances 0.000 description 1
- 239000012472 biological sample Substances 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002073 fluorescence micrograph Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000012744 immunostaining Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 230000002107 myocardial effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000012188 paraffin wax Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000955 prescription drug Substances 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000003296 saliva Anatomy 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/65—Control of camera operation in relation to power supply
- H04N23/651—Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/78—Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/79—Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Image Processing (AREA)
Abstract
【課題】内蔵メモリを使用して信号処理を行う。【解決手段】撮像装置は、光電変換を行う複数の画素を有する、画素アレイ部と、前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、前記デジタル画像データの画像処理を行う、画像処理部と、通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、を備える。【選択図】図1
Description
本開示は、撮像装置及び電子機器に関する。
近年では、イメージセンサで撮像された画像データに対して種々の信号処理を高速に行うことが求められている。また、半導体プロセス技術の進展により、イメージセンサチップ、メモリチップ及び信号処理チップなどの複数のチップ同士をバンプで接続してパッケージングした半導体デバイスや、イメージセンサが配置されたダイと、メモリや信号処理回路等が配置されたダイとを積層してパッケージングした半導体デバイスが提案されている。
イメージセンサと信号処理回路とを内蔵する半導体デバイス(以下、撮像装置と呼ぶ)をスマートフォン等の電子機器に搭載する場合、撮像装置内の信号処理回路は、電子機器に搭載されているアプリケーションプロセッサの指示に従って各種の信号処理を行うことが多い。
アプリケーションプロセッサは、撮像装置内の信号処理回路よりも、高度な信号処理を高速に行えるハードウェア性能を備えていることが多いため、撮像装置内の信号処理回路は、アプリケーションプロセッサの指示に従った信号処理を行うのが一般的である。例えば、DSP(Digital Signal Processor)を搭載したアプリケーションプロセッサに外付けされたDRAM(Dynamic Random Access Memory)を用いて認識処理等を実現していた。
しかしながら、DRAMの実装するための基板面積が必要であり、かつ、認識処理をする場合にアプリケーションプロセッサを動作させる必要があり、システム全体の消費電力が高く、また、外付けのDRAMは、ハッキングされるリスクが高いといった問題点もある。
そこで、本開示では、内蔵メモリを使用して信号処理を行うことができる撮像装置及び電子機器を提供するものである。
一実施形態によれば、撮像装置は、光電変換を行う複数の画素を有する、画素アレイ部と、画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、デジタル画像データの画像処理を行う、画像処理部と、通電状態を選択的に指定できる複数の領域を有し、少なくとも、画像処理部の出力したデジタル画像データを記憶する、記憶部と、を備えてもよい。
画像処理部は、デジタル画像データの拡大、縮小、又は、切り出しの処理を実行してもよい。
画像処理部は、デジタル画像データの歪み補正処理を実行してもよい。このように、画像処理部は、様々な信号処理に適する画像データへと変換する処理を実行してもよい。
撮像装置は、記憶部の領域ごとの通電状態を切り替える、制御部、をさらに備えてもよい。
撮像装置は、記憶部に記憶されているデジタル画像データを回転したデータを取得する、画像回転部、をさらに備えてもよく、記憶部はさらに、画像回転部の出力したデジタル画像データを記憶してもよい。このように、画像データを回転することにより、前処理を行ってもよい。
画像回転部は、デジタル画像データを所定角度回転してもよい。例えば、90度、180度、270度といった比較的コストの低い画像回転処理を実行してもよい。
撮像装置は、画素アレイ部の傾きを検出する、傾き検出部、をさらに備えてもよく、画像回転部は、傾き検出部の出力に基づいて回転角度を取得し、回転角度に基づいてデジタル画像データを回転してもよい。例えば、ジャイロセンサを備え、このジャイロセンサの出力に基づいて画像を回転させてもよい。
撮像装置は、記憶部に記憶されているデジタル画像データに対して、認識処理をする、画像認識部、をさらに備えてもよく、記憶部はさらに、画像認識部の出力データを記憶してもよい。このように、記憶部の消費電力を抑えたまま自動的に認識処理を行ってもよい。
画像認識部は、あらかじめ訓練された重みパラメータにより形成されるニューラルネットワークモデルに基づいて、デジタル画像データの認識処理をしてもよい。このように、認識処理は、訓練済のニューラルネットワークモデルに基づいて実行されてもよい。
記憶部はさらに、重みパラメータを記憶してもよい。このように、ニューラルネットワークを形成するためのパラメータを、記憶部が記憶していてもよい。
記憶部は、重みパラメータを記憶する、少なくとも1つの領域を備えてもよい。
画像認識部における認識処理に基づいて、重みパラメータを訓練する、訓練部、をさらに備えてもよい。このように、認識精度を向上すべく、訓練をしてもよい。
制御部は、複数の領域のうち、処理の対象となるデジタル画像データが記憶されている領域、及び、処理後のデータを記憶する領域、を参照可能に制御してもよい。このように、制御部により、アクセスする領域を選択的に通電させてもよい。
撮像装置は、画像処理部が処理したデータにおいて、画素アレイ部が取得したアナログ画素信号における動きを検知する、検知部をさらに備えてもよい。このように、撮像装置が撮像する範囲における動き検出を、例えば、差分回路等により行ってもよい。
検知部はさらに、顔画像認識を行ってもよい。
画素アレイ部を有する、第1基板と、第1基板に積層され、変換器、画像処理部及び記憶部、を有する、第2基板と、を備えてもよい。このように、上記の撮像装置は、2層型の基板を備える積層型受光センサであってもよい。
第1基板と第2基板とは、CoC(Chip on Chip)方式、CoW(Chip on Wafer)方式、又は、WoW(Wafer on Wafer)方式のいずれかで貼り合わされてもよい。このように、第1基板と第2基板は、適切な方法であれば、どのような方法で積層されていてもよい。
また、一実施形態によれば、電子機器は、撮像された画像データを出力する撮像装置と、画像データに対して所定の信号処理を行うプロセッサと、を備え、撮像装置は、光電変換を行う複数の画素を有する、画素アレイ部と、画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、デジタル画像データの画像処理を行う、画像処理部と、通電状態を選択的に指定できる複数の領域を有し、少なくとも、画像処理部の出力したデジタル画像データを記憶する、記憶部と、画像処理部が処理したデータにおいて、画素アレイ部が取得したアナログ画素信号における動きを検知する、検知部と、を備えてもよく、プロセッサは、検知部が動きを検知した場合に、記憶部において、いずれの領域の通電状態を切り替えるかを撮像装置に通知してもよい。
電子機器は、上述の撮像装置の各構成要素を任意で備えていてもよい。このように、必要に応じて適切な処理を実行することができる。
以下、図面を参照して、撮像装置及び電子機器の実施形態について説明する。以下では、撮像装置及び電子機器の主要な構成部分を中心に説明するが、撮像装置及び電子機器には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
(第1実施形態)
図1は一実施形態による撮像装置1を備えた電子機器2の概略構成を示すブロック図である。電子機器2は、撮像装置1と、アプリケーションプロセッサ(以下、AP:Application Processor)20と、を備えている。電子機器2は、撮像機能を備えたスマートフォン、携帯電話、タブレット、PC、デジタルカメラなどであり、その具体的な機器は問わない。
図1は一実施形態による撮像装置1を備えた電子機器2の概略構成を示すブロック図である。電子機器2は、撮像装置1と、アプリケーションプロセッサ(以下、AP:Application Processor)20と、を備えている。電子機器2は、撮像機能を備えたスマートフォン、携帯電話、タブレット、PC、デジタルカメラなどであり、その具体的な機器は問わない。
撮像装置1は、1つの半導体デバイスで実現可能であり、この半導体デバイスをイメージセンサ又は固体撮像装置と呼ぶこともある。撮像装置1は、CMOSイメージセンサ(以下、CIS)10と、制御部(以下、CPU:Central Processing Unit)11と、画像処理部(以下、ISP:Image Signal Processor)12と、検出部13と、回転部14と、デジタル信号処理部(DSP:Digital Signal Processor)15と、記憶部16と、セレクタ(以下、SEL:Selector)17と、を備えている。
CIS10は、撮像部と、アナログデジタル変換器(以下、ADC:Analog Digital Converter)104と、を有するイメージセンサである。撮像部は、光学系100と画素アレイ部102とを有する。光学系100は、例えばズームレンズ、単焦点レンズ、絞り等を有する。光学系100は、入射された光を画素アレイ部102に導く。画素アレイ部102は、二次元方向に配置された複数の画素を有する。各画素は、RGB等の複数色用の複数の単位画素で構成されている。各単位画素は、フォトダイオード等の受光素子を有する。受光素子は、入射された光を光電変換して、アナログ画素信号を出力する。撮像部に入射された光は、光学系100を介して、複数の受光素子が配列された受光面に結像される。各受光素子は、入射された光の強度に応じた電荷を蓄積して、蓄積電荷量に応じたアナログ画素信号を出力する。
ADC104は、画素アレイ部102から出力されたアナログ画素信号をデジタル画素データに変換する。ADC104でA/D変換を行うため、ADC104よりも後段側のISP12、検出部13、回転部14、DSP15、記憶部16及びSEL17は、デジタル画素データを扱うことになる。なお、ADC104の内部、あるいはADC104とは別個に、撮像装置1に供給される電源電圧等から撮像部を駆動するための駆動電圧を生成する電圧生成回路を設けてもよい。このADC104からの出力をCIS10の出力とする。
CPU11は、AP20等からの指示により、記憶部16の通電状態を含む、撮像装置1内の各部を制御する。CPU11は、後述するDSP15と統合してもよい。
ISP12は、デジタル画素データに対して種々の画像処理を行う。ISP12は、CIS10から出力されたデジタル画素データに対して信号処理を行ってもよいし、CIS10から出力されて記憶部16に記憶されたデジタル画素データに対して画像処理を行ってもよい。ISP12は、外部からの指示に応じた画像処理を行う。ISP12が行う具体的な信号処理の内容については後述する。
検出部13は、CIS10から出力されたデジタル画像データにおいて、動きがあるか否かを検出する。すなわち、光学系100を介して画素アレイ部102により取得された画素データにおいて差分が生じた場合に、動きがあったことを検出し、検出信号を、例えば、CPU11へと出力する。この検出信号は、CPU11及びSEL17を介してAP20へと出力されてもよい。また、図1においては、ISP12と接続されているが、CIS10と接続され、差分回路等により動きを検知してもよい。検出部13は、動き検知の他、人間の顔が撮影されているかを検知してもよい。この場合、人間がCIS10の撮像範囲内に入ると、DSP15による処理及びその前処理が開始されてもよい。顔認識は、DSP15で実行する認識処理と比較して精度が低く、処理のコストが低いものであってもよい。
回転部14は、記憶部16に記憶されているデジタル画像データ、すなわち、ISP12により画像処理されたデジタル画像データを、任意の角度又は所定角度だけ回転させる。回転部14は、回転したデジタル画像データを記憶部16に再度格納してもよい。
DSP15は、ISP12で信号処理されたデータに基づいて、所定の認識処理及び検出処理の少なくとも一方を行う情報処理部の機能を有する。DSP15は、ISP12が処理したデータ、又は、さらに回転部14が回転処理を実行したデータについて、認識処理等を行う。
DSP15は、例えば、記憶部16に記憶されたプログラムを実行することで、機械学習された計算モデルを用いた演算処理を行う。記憶部16には、学習済の計算モデルに関する種々の情報が予め記憶されており、DSP15は、記憶部16から計算モデルに関する必要な情報を読み出して、ISP12の出力データを計算モデルに入力して、演算処理を行う。機械学習された計算モデルの具体的な形式は問わないが、例えば、ディープニューラルネットワーク(以下、DNN)による計算モデルである。この計算モデルは、CIS10の出力データ又はISP12の出力データを入力とし、この入力に対するラベルが紐付いている学習データを学習済の計算モデルに入力して生成されたパラメータに基づいて設計することができる。また、DNNは、複数階層のニューラルネットワークで構成されてもよい。
DSP15は、DNNを用いた演算処理により、例えば、所定の認識処理を行うことができる。ここで、認識処理とは、ISP12の出力データである画像データに、特徴のある画像情報が含まれるか否かを自動で認識する処理である。より具体的には、認識処理は、機械学習により生成されたパラメータにより形成された計算モデルに入力データを与えて演算される処理であり、入力データは、ISP12の出力データである。
DSP15は、記憶部16に記憶されている学習済の計算モデルに基づいて演算処理を実行する過程で、記憶部16に記憶されている辞書係数と画像データとの積和演算を行う。DSP15による演算結果は、記憶部16に記憶されるとともに、SEL17に入力される。DSP15による計算モデルを用いた演算処理の結果は、画像データや、画像データから得られる各種情報(メタデータ)でありうる。DSP15、又は、上述したCPU11は、記憶部16に対する書き込み及び読み出しを制御するメモリコントローラの機能を有してもよいし、DSP15やCPU11とは別個に、メモリコントローラを設けてもよい。また、DSP15は、動き検出処理や顔検出処理などの検出処理を行ってもよい。検出処理は、DSP15の代わりにISP12で行ってもよい。あるいは、ISP12とDSP15が協働して検出処理を行ってもよい。
記憶部16は、CIS10から出力されたデジタル画素データ、DSP15が実行するプログラム、DSP15が演算処理に利用する学習済の計算モデルに関する各種情報等を記憶する。また、記憶部16は、DSP15の演算処理結果のデータを記憶してもよい。記憶部16は、読み書きが可能なRAM(Random Access Memory)である。記憶部16内の計算モデルに関する情報を入れ替えることで、DSP15は、様々な機械学習の計算モデルを実行することができ、汎用性が高くて適用範囲の広い認識処理や検出処理を行うことができる。なお、DSP15が、特定用途の計算モデルによる演算処理を行う場合には、記憶部16は、その一部としてROM(Read Only Memory)を備えていてもよい。記憶部16のより詳細な構成については、後述する。
SEL17は、CPU11からの選択制御信号に基づいて、ISP12の出力データ、又は、DSP15の出力データを選択して出力する。SEL17の出力データは、例えばAP20に入力される。
AP20は、撮像装置1とは別個の半導体デバイスであり、撮像装置1と同一又は別のベース基板に実装される。AP20は、その内部に撮像装置1のCPU11とは別のCPUを有し、オペレーティングシステムや各種のアプリケーションソフトウェア等のプログラムを実行する。AP20は、撮像装置1のDSP15とは別のDSPを備えており、種々の信号処理を行う。AP20内のDSPは、撮像装置1内のISP12又はDSP15よりも高度な信号処理を高速に行うことができる。
この他、AP20は、GPU(Graphics Processing Unit)やベースバンドプロセッサなどの画像処理や信号処理等を行う機能を搭載していてもよい。AP20は、撮像装置1からの画像データや演算結果に対して、必要に応じて種々の処理を実行してもよいし、電子機器2の表示部に画像を表示する制御を行ってもよいし、処理結果のデータを所定のネットワークを介して外部のクラウドサーバに送信してもよい。
なお、所定のネットワークは、例えば、インターネット、有線LAN(Local Area Network)、無線LAN、移動体通信網、Bluetooth(登録商標)等の近接無線通信などの種々の通信ネットワークを適用可能である。また、画像データや演算結果の送信先は、クラウドサーバに限定されず、スタンドアローン型のサーバや、ファイルサーバ、携帯電話機等の通信端末など、通信機能を有する種々の情報処理装置であってもよい。
図1では、AP20が撮像装置1内のISP12に対して指示を送る例を示している。以下では、AP20がISP12に対して指示を送る例を説明するが、実際にはAP20以外のプロセッサがISP12に対して指示を送る場合も含めて解釈されるものとする。
(記憶部16)
図2は、一実施形態に係る記憶部16の一形態を示す図である。記憶部16は、例えば、SRAM(Static RAM)を記憶領域160として備え、記憶領域160に属する領域ごとに通電状態を切り替えることができるメモリである。CPU11は、記憶部16の記憶領域160において、領域ごとに通電状態を切り替える。この通電状態の切り替えにより、記憶部16は、領域ごとに格納されているデータへのアクセスが可能となる。
図2は、一実施形態に係る記憶部16の一形態を示す図である。記憶部16は、例えば、SRAM(Static RAM)を記憶領域160として備え、記憶領域160に属する領域ごとに通電状態を切り替えることができるメモリである。CPU11は、記憶部16の記憶領域160において、領域ごとに通電状態を切り替える。この通電状態の切り替えにより、記憶部16は、領域ごとに格納されているデータへのアクセスが可能となる。
例えば、記憶領域160は、図2に示すように、小領域161、162、163、164、165、166、を備える。記憶領域160は、大規模なSRAMにおける記憶領域であってもよく、この大領域の中に、小領域161、162、163、164、165、166を有する小規模なSRAMに分割される構成であってもよい。CPU11は、これらの小領域161、162、163、164、165、166を有するSRAMを任意のタイミングで制御することができる。図に示すように、それぞれの小領域に対してCPU11は、電源のオン/オフを切り替えることが可能な構成としてもよい。
それぞれの小領域は、領域ごとに記憶するデータ量が異なるものであってもよい。例えば、小領域161は、他の領域と比較して大きな記憶領域を有している。このような小領域の中において大きな容量を有する小領域には、例えば、画像の生データ等が記憶されてもよいし、ISP12により処理されたデジタル画像データが記憶されてもよい。このように、格納されるデータに基づいて、使用する小領域を選択してもよい。
一例として、小領域161には、ISP12により処理されたデジタル画像データが記憶される。ISP12が出力をするタイミングで、CPU11は、記憶領域160のうち小領域161を通電状態とし、小領域161にアクセス可能な状態とする。ISP12は、処理したデジタル画像データを小領域161へと格納する。
なお、以下の説明において、小領域にアクセス可能である/アクセス可能でない、とは、CPU11が小領域の電源をオンにすることをアクセス可能である、とし、CPU11が小領域の電源をオフにすることをアクセス可能でない、とする。
回転部14は、例えば、小領域161に記憶されているデータを回転させる。このタイミングでは、CPU11は、例えば、小領域161を通電状態とし、回転部14は、小領域161からデータを読み出し、回転処理したデジタル画像データを小領域161へと格納する。
DSP15は、例えば、回転部14が回転したデータに対して認識処理を実行する。認識処理を実行するためのパラメータが小領域166に格納されている場合、CPU11は、小領域166の通電状態を制御し、小領域166へのアクセスが可能な状態にする。DSP15は、小領域166にアクセスし、訓練済のパラメータを用いてニューラルネットワークモデルを形成する。DSP15がニューラルネットワークモデルを形成した後、CPU11は、小領域166の通電状態を切り替え、アクセスが可能ではない状態としてもよい。
CPU11は、DSP15がデジタル画像データを取得するタイミングにおいて、小領域161の通電状態をアクセスが可能となるように制御する。DSP15は、アクセスが可能となった小領域161からデジタル画像データを取得して、認識処理を実行する。CPU11は、DSP15の小領域161へのアクセスが終了したタイミングで、小領域161の通電状態を切り替えてもよい。
認識処理を格納する領域が小領域162である場合、CPU11は、小領域162の通電状態をアクセスが可能となるように制御する。DSP15は、小領域162へと認識結果を記憶させ、この認識結果を、SEL17を介してAP20へと通知してもよい。別の例として、DPS15が小領域162に認識結果を格納した後、CPU11がこの認識結果を、SEL17を介してAP20へと通知してもよい。
撮像装置1から出力されるデータは、認識結果に限られず、他のデータであってもよい。例えば、AP20からの要求により、画像の生データを記憶部16から出力してもよい。別の例として、認識に用いた入力画像を記憶部16から出力してもよい。出力されるデータが格納されている小領域をCPU11が制御してアクセス可能とすることにより、適切なデータを出力することができる。また、AP20に記憶部16のメモリコントローラ(制御部)を備えていてもよく、この場合AP20から記憶部16のそれぞれの小領域の通電状態を制御して、取得したいデータを出力してもよい。
なお、図2においては、それぞれの小領域は、重なる領域が無いものとしたが、これには限られず、少なくとも2の小領域が重なる範囲の領域を共有していてもよい。CPU11(制御部)は、内部に、記憶部16の小領域の通電状態を切り替えるメモリコントローラを個別に備えていてもよい。別の形態として、撮像装置1は、CPU11とは別に、記憶部16の小領域の通電状態を制御するメモリコントローラ(制御部)を備えていてもよい。また、記憶領域160を形成するメモリとしてSRAMを挙げたが、これには限られず、MRAM、DRAM等、他の不揮発性又は揮発性メモリであってもよい。メモリは、撮像装置1を形成する、又は、備えられる半導体基板の面積、消費電力、反応速度等が適するものであればよい。
このように、記憶部16に備えられる記憶領域160において、必要となる領域に対して、アクセスが可能となるように通電状態を制御する。一例として、検出部13が動きを検知したことをフラグとして撮像装置1が動作する場合について説明する。
図3は、一実施形態に係る処理の流れを示すフローチャートである。
まず、撮像装置1は、CIS10を低消費電力モード等により電力消費を押させた状態で待機させておく。
差分回路等を備える検出部13により、CIS10により取得されている情報において、差分が生じたことを検出する待機状態とする(S100)。動きを検知しない場合(S100:NO)、S100の待機状態を持続する。
動きを検知した場合(S100:YES)、ISP12は、CIS10が取得した画像に必要な画像処理を施す(S102)。例えば、CIS10の光学系100は、一般的に歪みを生じさせるため、この歪みを補正するデワープ処理をしてもよい。また、ニューラルネットワークモデルを用いて認識処理を行う場合、当該ニューラルネットワークモデルの入力層、すなわち、入力する画像サイズに合わせて画像を縮小、拡大又は切り出しする処理を行ってもよい。切り出しは、差分回路において差分を検出した領域を含むように実行してもよい。縮小、拡大を実行する手法は、例えば、線形補間、バイリニア補間、バイキュービック補間、ランチョス法、等、種々の手法を用いることができ、これらに限定されるものではない。
このように、ISP12は、その後の処理に必要となる前処理を実行する。例えば、ISP12が画像処理を行う場合、CIS10は、バッファとして記憶部16を用いてもよいし、CIS10の出力を記憶部16に格納してもよい。CPU11は、必要に応じて、適切に小領域の通電状態を制御する。ISP12の出力するデジタル画像データを格納する場合には、当該格納に必要となる小領域の通電状態を制御する。例えば、初期状態においては、図2の例であれば、容量の大きな小領域161にアクセス可能な状態とし、他の小領域はアクセスできないように通電状態を制御してもよい。
また、ISP12は、例えば、ユーザが所定サイズの認識前のデジタル画像データを取得したいと設定等している場合には、当該サイズに縮小等した画像を記憶部16に記憶させるようにしてもよい。このように、認識処理に用いない画像をISP12から出力してもよい。また、ROI(Region of Interest)を設定しておき、ISP12は、取得したデジタル画像データからROIを含む領域を切り出すようにしてもよい。また、現在よりも前のタイミングで取得された検知結果に基づいて、ISP12は、画像の切り出しを継続して行ってもよい。例えば、直前のフレームで検知した範囲と、この範囲の周辺を含むような切り出しを実行してもよい。これら場合においても、CPU11による記憶部16の小領域の制御は、同様に行われてもよい。
次に、画像において回転が必要であるか否かを判断する(S104)。例えば、撮像装置1のCIS10の鉛直方向に対する傾きが取得できている場合、当該傾きに対する補正が必要であれば、回転が必要であると判断する。一方で、傾きが取得できていない場合又は傾きが0度である場合には、回転が不要であると判断する。なお、この処理は、必須の処理では無く、DSP15は、回転処理を行わずにISP12が出力したデジタル画像データに対して実行してもよい。
回転が必要であると判断すると(S104:YES)、回転部14によりデジタル画像データの回転処理が実行される(S106)。この場合も同様に、CPU11は、必要となる小領域のアクセスが可能な状態とし、それ以外の小領域をアクセス可能ではない状態と制御してもよい。
例えば、撮像装置1が固定された状態で設置されている場合、CIS10の取得したデータの回転は、一意的に決定することもできる。このような場合は、回転処理の要/不要を当該固定された状態に基づいて判断し、回転処理が必要である場合には、固定された角度に基づいて回転処理を行ってもよい。
例えば、デジタルカメラ等、人の手に持つものである場合、多くの場合は、0度か90度の回転であると考えてもよく、このような場合には、0度、すなわち回転しないか、90度の回転が必要であると、判断してもよい。この場合、±90度の2通りの回転が必要であると判断してもよい。または、シャッタスイッチの設置位置に基づいて、90度又は−90度のいずれかの回転だけが必要であると判断してもよい。このように、この分岐は、設定により自由に変えることが可能である。
回転が不要であると判断した場合(S104:NO)、又は、回転処理が終わった後に、DSP15は、認識処理を実行する(S108)。認識処理は、ISP12により対象となるデジタル画像データが認識処理を実行するのに適したサイズへと変更して実行される。
上述したように、訓練済のパラメータが記憶部16の一部に格納されている場合、CPU11は、このタイミングでパラメータが格納されている小領域をアクセス可能としてもよい。認識処理後においても、必要となる小領域においてアクセス可能とし、他の領域においてアクセス可能でないように制御してもよい。
例えば、DSP15の処理が行われるまでは、ISP12が画像処理したデータに対して同じサイズのデータの読み出し、書き込みが行われるため、この読み出し、書き込み処理に必要な小領域だけをアクセス可能な通電状態とし、それ以外の小領域をオフにしておいてもよい。DSP15の処理を行うタイミングにおいて、必要な小領域をオンにしてもよい。
また、DSP15による認識処理が、複数のニューラルネットワークモデルにより実行されてもよい。例えば、周囲の明るさに応じて、認識処理を行うニューラルネットワークモデルを切り替えてもよい。このような場合、利用するニューラルネットワークモデルの入力層に対応して、IDP12において縮小等行うサイズを変更してもよい。
また、2以上のニューラルネットワークモデルのそれぞれに異なるサイズのデジタル画像データを並行して入力してもよい。このような場合、ISP12は、それぞれのニューラルネットワークモデルの入力層に対応するように、画像のサイズを変更したものを記憶部16にそれぞれ格納してもよい。
S108の処理の後は、S100に戻るようにしてもよいし、必要なデータをAP20へと出力する処理を行ってもよい。
図4は、一実施形態に係るデジタル画像データの遷移する様子の一例を示す図である。
CIS10で取得された画像は、例えば、一番左の画像のように、歪みを有している。歪みは、このような樽型の場合だけではなく、糸巻き型の場合でも適用することが可能である。また、画像処理で処理可能なその他の収差をもって撮影されたものであってもよい。図中の破線で表している矩形は、画像処理した後の画像領域である。
ISP12は、まず、このような画像の歪み補正を行う。ISP12は、一般的な手法を用いて歪み補正を行う。例えば、CIS10の光学系等の情報は、事前に取得することができるので、撮影パラメータ似合わせた歪み補正パラメータにより、歪み補正を行う。歪み補正を行った図が、左から2番目の図である。歪み補正を行うことにより、例えば、1920×1080ピクセルといった大きさの画像へと変換される。なお、画素数は、一例として挙げるものであり、本開示を限定するものではない。
次に、ISP12は、画像の切り出し及び縮小により、例えば、画像サイズを256×256ピクセルの画像へと変換する。このサイズは、DSP15において形成されるニューラルネットワークモデルの入力画像に基づいた大きさである。サイズは、例えば、より小さくても、より大きくてもよい。サイズに応じて、精度が変化するニューラルネットワークモデルを複数準備しておいてもよい。この場合、使用するニューラルネットワークモデルに基づいてISP12は、1又は複数解サイズ変更を実行し、サイズが変更された1又は複数の画像を取得する。ニューラルネットワークモデルは、あらかじめ設定されていてもよいし、CIS10の取得した情報に基づき、又は、AP20からの指示に基づいて、選択されるものであってもよい。
次に、DSP15は、サイズが調整された画像をニューラルネットワークモデルに入力し、識別結果を出力し、記憶部16のCPU11により制御された領域へと出力する。格納されたデータは、例えば、SEL17を介してAP20へと出力され、別途AP20へと出力されていたISP12が処理した後の画像と合成されてもよい。図4の例であれば、人物のいる位置を撮像装置1において識別し、識別前の画像と合成してAP20が出力してもよい。
図5は、図4に加えてデジタル画像データの回転を実行する場合の図である。CIS10のデジタル画像データの取得及びISP12による歪み補正とサイズ調整の処理は、図4と同様である。
回転部14は、サイズ調整が終わった後のデジタル画像データを回転させる。図5の例においては、左に90度回転させる。このように、IPS12が処理した画像を、回転部14が回転し、認識しやすい角度のデジタル画像データを作成してもよい。
上記においては、回転処理は、必要な場合に実行するとした。さらに、歪み補正は、実行するものとしたが、これには限られない。例えば、歪みが余り生じない光学系である場合、歪みが生じない範囲で認識をしたい場合には、必須ではない。サイズ調整についても同様であり、切り出し、縮小又は拡大とうのサイズに関する処理は、必要に応じて実行されるものであればよい。
以上のように、本実施形態によれば、複数の領域を有し、それぞれの領域の電源のオン/オフをすることができるメモリと、画像処理部と、信号処理部と、を備える撮像装置を提供することが可能となる。メモリは、様々な処理において、処理に必要となる領域の電源をオンにし、それ以外の電源をオフにすることができる。このように制御することにより、撮像装置の電力の消費を抑制することが可能となる。
また、例えば、監視カメラ等に用いる場合、検出部による動き検知から、人物認識等の処理までを撮像装置内で実行することが可能となり、外部のデバイスの消費電力をも抑えることができる。さらに、必要な処理を選択して認識処理まで行うことができ、必要な場合には、認識結果を出力することもできる。このことから、外部との通信を最小限に抑えることも可能となり、かつ、必要な場合には、遅延無くデータを出力することが可能となる。また、このように必要なデータを撮像装置内で取得することが可能なため、必要なデータを選択して出力することができ、外部へ出力するデータ量を削減することもできる。
また、例えば、記憶部16の記憶領域160内における小領域は、各種の情報処理に対してオンとなる必要がある小領域が設定されていてもよい。このように、小領域に機能ごとについての分担、又は、各構成要素からアクセスされる分担を決めておくことにより、メモリの冗長使用を抑制し、例えば、撮像装置1のチップにおいて、メモリが用いるチップの面積を削減することも可能となる。
(第2実施形態)
撮像装置1は、前述の実施形態の構成要素に加え、傾き検出部を備え、傾き検出部の検出したCIS10の傾きにより、回転角を調整するものである。
撮像装置1は、前述の実施形態の構成要素に加え、傾き検出部を備え、傾き検出部の検出したCIS10の傾きにより、回転角を調整するものである。
図6は、一実施形態に係る撮像装置1を備えた電子機器2の概略構成を示すブロック図である。この図に示すように、撮像装置1は、傾き検出部18をさらに備える。傾き検出部18は、例えば、CIS10の傾きを検知し、CPU11へとその傾きの角度を出力する。出力先は、CPU11出なくともよく、例えば、回転部14に出力してもよい。傾き検出部18は、例えば、ジャイロセンサを備えるが、傾きの検知は、ジャイロセンサ以外の方法で実現されてもよい。
CIS10が撮像したデータをISP12が画像処理するまでは同じ動作を実行する。回転部14は、ISP12が処理したデジタル画像データを、傾き検出部18が検出した角度に基づいて回転させる。回転部14は、傾き検出部18が検出した角度に基づいて、例えば、アフィン変換のパラメータを算出してもよい。別の例として、あらかじめ記憶部16の小領域のいずれかに、代表的な角度の回転の変換テーブルを生成しておき、傾き検出部18が検出した角度と近い角度のテーブルに基づいて、画像の回転をさせてもよい。この場合、テーブルが格納されている小領域について、CPU11が制御を行い、データを読み出してもよい。テーブルデータの読み出し後に、CPU11により当該小領域にアクセス可能ではない状態にしてもよい。
任意の角度でパラメータを算出して回転を実行する場合、画素間の補間の方法は、特に限定されるものではなく、線形補間、バイリニア補間、バイキュービック補間等、種々の手法を使用することが可能である。
図7は、本実施形態において、任意の角度を回転する場合のデジタル画像データの遷移例を示す図である。例えば、傾き検出部18は、地面に対して撮像装置1がどの程度傾いているかを検知する。この検知結果に基づき、回転の角度を設定する。図5と同様に、歪み補正、サイズ調整をISP12において実行した後、傾き検出部18において検知された角度に基づいて、回転部14が回転を実行する。この後の流れは、前述の実施形態と同様である。
最終的には、AP20において、適切に合成された画像を取得することが可能となる。
図8は、AP20における画像の別の合成例を示すものである。ISP12において歪み補正、サイズ調整され、回転部14において回転して検出が行われた後、この図8に示すように処理されてもよい。すなわち、検出結果を傾き検出部18の検知した角度に基づいて適切にアフィン変換(又は一次変換)し、歪み補正を行った後のデジタル画像データと合成をしてもよい。AP20における画像の合成は、検出結果及び回転角度に基づいて適切に処理されればよく、図5、図7、図8の例に限定されるものではない。
以上のように、本実施形態によれば、ジャイロセンサ等を備える傾き検出部18により、CIS10、特に、画素アレイ部102の鉛直方向からの傾きを検出し、当該検出した傾きに基づいて、回転部14がデジタル画像データを回転する角度を取得することができる。このように、傾き検出部18を備えることにより、よりロバストな認識を撮像装置1に閉じた条件で実行することが可能となる。
なお、傾き検出部18は、撮像装置1内に備えられるものとしたが、これには限られず、撮像装置1の外部に備えられてもよい。
前述の各実施形態においては、撮像装置1は、出力だけをするものであったが、DSP15の出力した結果のフィードバックをAP20から受けてもよい。例えば、図4、図5に示されるような合成図を出力した後に、AP20においてユーザによる識別結果の修正を受け付けてもよい。この修正結果に基づいて、AP20からフィードバックを受け、DSP15におけるニューラルネットワークモデルのパラメータの更新を実行してもよい。また、AP20において新たなデータに基づいて訓練をし、AP20から更新されたパラメータを受信してもよい。受信する場合にも、記憶部16の必要となる小領域、すなわち、パラメータが格納されている小領域をオンにし、制御を行ってもよい。このようにすることで、DSP15における認識の精度をさらに向上させることが可能となる。
(撮像装置1のチップ構造)
次に、図1の撮像装置1のチップ構造について説明する。図9は図1の撮像装置1のチップ構造の一例を示す図である。図9の撮像装置1は、第1基板30と第2基板31を積層した積層体である。第1基板30と第2基板31は、ダイと呼ばれることもある。図9の例では、第1基板30と第2基板31が矩形状の例を示しているが、第1基板30と第2基板31の具体的な形状とサイズは任意である。また、第1基板30と第2基板31は同じサイズでもよいし、互いに異なるサイズでもよい。
次に、図1の撮像装置1のチップ構造について説明する。図9は図1の撮像装置1のチップ構造の一例を示す図である。図9の撮像装置1は、第1基板30と第2基板31を積層した積層体である。第1基板30と第2基板31は、ダイと呼ばれることもある。図9の例では、第1基板30と第2基板31が矩形状の例を示しているが、第1基板30と第2基板31の具体的な形状とサイズは任意である。また、第1基板30と第2基板31は同じサイズでもよいし、互いに異なるサイズでもよい。
第1基板30には、図1に示した画素アレイ部102が配置されている。また、第1基板30には、撮像部10の光学系100の少なくとも一部がオンチップで実装されてもよい。
第2基板31には、図1に示したADC104と、CPU11と、ISP12と、検出部13と、回転部14と、DSP15と、記憶部16と、SEL17と、が配置されている。この他、第2基板31には、不図示の入力/出力インタフェース部や電源回路等が配置されてもよい。
貼合せの具体的形態として、第1基板30と第2基板31を例えばウエハから切り出して個片化した後に、上下に重ねて貼り合わされる、いわゆるCoC(Chip on Chip)方式を採用してもよい。あるいは、第1基板30と第2基板31の一方(例えば第1基板30)をウエハから切り出して個片化した後、個片化された第1基板30を個片化前の第2基板31に貼り合わせる、いわゆるCoW(Chip on Wafer)方式を採用してもよい。あるいは、第1基板30と第2基板31をウエハの状態で貼り合わせる、いわゆるWoW(Wafer on Wafer)方式を採用してもよい。
第1基板30と第2基板31の接合方法には、例えばプラズマ接合等を用いることができる。ただし、それ以外の種々の接合方法を用いてもよい。
図10及び図11は第1基板30及び第2基板31のレイアウトの一例を示す図である。図10は、画素アレイ部102が配置される第1基板30のレイアウト例を示している。図10の例では、画素アレイ部102は、第1基板30の4つの辺L301〜L304のうち、1つの辺L301側に片寄って配置されている。言い換えれば、画素アレイ部102は、その中心部O301が第1基板30の中心部O300よりも辺L301側に寄って配置されている。なお、第1基板30における画素アレイ部102が設けられた面が長方形である場合、辺L301は、例えば、第1基板30の短い方の辺であってもよい。ただし、これに限定されず、長い方の辺に、画素アレイ部102が片寄って配置されてもよい。
画素アレイ部102の4つの辺のうちの辺L301に近接する領域、言い換えれば、辺L301と画素アレイ部102との間の領域には、画素アレイ部102中の各単位画素301aを第2基板31に配置されたADC104に電気的に接続させるための配線として、第1基板30を貫通する複数の貫通配線(Through Silicon Via:以下、TSVという)が配列するTSVアレイ302が設けられている。このように、TSVアレイ302を画素アレイ部102が近接する辺L301に近接させることで、第2基板31において、ADC104等の配置スペースを確保し易くなる。
なお、TSVアレイ302は、辺L301と交わる2つの辺L303及びL304のうち一方の辺L304(ただし、辺L303であってもよい)に近接する領域、言い換えれば、辺L304(又は、辺L303)と画素アレイ部102との間の領域にも設けられていてよい。
第1基板30の4つの辺L301〜L304のうち、画素アレイ部102が片寄って配置されていない辺L302〜L303それぞれには、直線状に配列された複数のパッドを有するパッドアレイ303が設けられている。パッドアレイ303は、例えば、画素アレイ部102やADC104などのアナログ回路用の電源電圧が印加されるパッド(電源ピンともいう)を含んでいてもよい。また、パッドアレイ303は、CPU11、ISP12、検出部13、回転部14、DSP15、記憶部16、SEL17等のデジタル回路用の電源電圧が印加されるパッド(電源ピンともいう)を含んでいてもよい。あるいは、パッドアレイ303は、MIPI(Mobile Industry Processor Interface)、SPI(Serial Peripheral Interface)などのインタフェース用のパッド(信号ピンともいう)を含んでいてもよい。あるいは、パッドアレイ303は、クロックやデータの入出力のためのパッド(信号ピンともいう)を含んでいてもよい。各パッドは、例えば、外部の電源回路やインタフェース回路とワイヤを介して電気的に接続される。各パッドアレイ303とTSVアレイ302とは、パッドアレイ303中の各パッドに接続されたワイヤからの信号の反射の影響を無視できる程度に十分に離れていることが好ましい。
図11は、ADC104と、CPU11と、ISP12と、検出部13と、回転部14と、DSP15と、記憶部16と、が配置される第2基板31のレイアウト例を示している。第2基板31には、ADC104と、CPU11と、ISP12と、検出部13と、回転部14と、DSP15と、記憶部16とが配置されている。図11のレイアウト例では、ADC104がADC部104aとDAC部(Digital to Analog Converter)104bとの2つの領域に分かれている。DAC104bは、ADC部104aにAD変換用の参照電圧を供給する回路であり、広い意味でADC104の一部に含まれる。また、図11には図示されていないが、SEL17も第2基板31に配置されている。
また、第2基板31には、第1基板30を貫通するTSVアレイ302中の各TSV(以下、単にTSVアレイ302とする)と接触することで電気的に接続される配線322が設けられている。さらに、第2基板31には、第1基板30のパッドアレイ303における各パッドと電気的に接続される複数のパッドが直線状に配列されたパッドアレイ323が設けられている。
TSVアレイ302と配線322との接続には、例えば、第1基板30に設けられたTSVと第1基板30から第2基板31にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式が採用されてもよい。あるいは、第1基板30から第2基板31にかけて設けられた共通のTSVで接続する、いわゆるシェアードTSV方式が採用されてもよい。ただし、これらに限定されず、例えば、第1基板30の接合面と第2基板31の接合面とにそれぞれ露出させた銅(Cu)同士を接合する、いわゆるCu−Cuボンディング方式など、種々の接続形態が採用可能である。
第1基板30のパッドアレイ303における各パッドと、第2基板31のパッドアレイ323における各パッドとの接続形態は、例えば、ワイヤボンディングである。ただし、これに限定されず、スルーホールやキャスタレーション等の接続形態であってもよい。
第2基板31のレイアウト例では、例えば、TSVアレイ302と接続される配線322の近傍を上流側とし、画素アレイ部102から読み出された信号の流れに沿って、上流から順に、ADC部104aと、ISP12と、回転部14と、DSP15とが配置されている。すなわち、画素アレイ部102から読み出された画素信号が最初に入力されるADC部104aが最も上流側である配線322の近傍に配置され、次いで、ISP12、回転部14が配置され、配線322から最も遠い領域にDSP15が配置されている。また、検出部13は、例えば、ADC部104a又はISP12が出力する情報を取得しやすいように、ADC部104a又はISP12に隣接して配置されてもよい。このように、ADC104からDSP15までを信号の流れに沿って上流側から配置したレイアウトとすることで、各部を接続する配線を短縮することができる。それにより、信号遅延の低減、信号の伝搬損失の低減、S/N比の向上、消費電力の削減などを図ることができる。
また、CPU11は、例えば、上流側である配線322の近傍に配置されている。図11では、ADC104とISP12との接するようにCPU11が配置されている。このようなレイアウトを採用することで、CPU11が画素アレイ部102を制御する際の信号遅延の低減、信号の伝搬損失の低減、S/N比の向上、消費電力の低減などを図れる。また、アナログ回路用の信号ピンや電源ピンをアナログ回路の近傍(例えば、図11中の下側)にまとめて配置し、残りのデジタル回路用の信号ピンや電源ピンをデジタル回路の近傍(例えば、図11中の上側)にまとめて配置し、又は、アナログ回路用の電源ピンとデジタル回路用の電源ピンとを十分に離して配置することもできる。
また、図11に示すレイアウトでは、DSP15が最も下流側であるADC部104aとは反対側に配置されている。このようなレイアウトを採用することで、言い換えれば、第1基板30と第2基板31との積層方向(以下、単に上下方向という)において、画素アレイ部102と重畳しない領域に、DSP15を配置することができる。
このように、上下方向において破線で示す領域にある画素アレイ部102とDSP15とが重畳しない構成とすることで、DSP15が信号処理を実行することで発生したノイズが画素アレイ部102に入り込むことを低減することができる。その結果、DSP15を学習済みモデルに基づいた演算を実行する処理部として動作させた場合でも、画素アレイ部102へのDSP15の信号処理に起因したノイズの入り込みを低減することができるため、品質の劣化が低減された画像を取得することができる。
記憶部16は、ISP12、回転部14及びDSP15の近傍に配置されている。記憶部16には、デジタル画像データ及び学習済の計算モデルに関する各種情報が記憶されている。回転部14は、必要に応じてISP12が出力し、記憶部16の所定領域に格納したデジタル画像データを読み出し、回転させ、記憶部16の同一又は異なる所定領域に格納する。
DSP15は、記憶部16から計算モデルに関する情報及びISP12又は回転部14が出力したデジタル画像データを読み出し、計算モデルを用いて演算処理を行い、演算処理の結果を記憶部16に記憶する。また、DSP15は、記憶部16に演算結果を格納すること無く、SEL17を介して外部へと演算結果を出力してもよい。
このように、回転部14、DSP15の近傍に記憶部16を配置することで、記憶部16にアクセスする際の信号伝搬時間を短縮でき、回転部14、DSP15は記憶部16に高速でアクセスすることができる。
パッドアレイ323は、例えば、第1基板30のパッドアレイ303と上下方向において対応する第2基板31上の位置に配置される。ここで、パッドアレイ323に含まれるパッドのうち、ADC部104aの近傍に位置するパッドは、アナログ回路(主にADC部104a)用の電源電圧やアナログ信号の伝搬に使用される。一方、CPU11、ISP12、検出部13、回転部14、DSP15、記憶部16の近傍に位置するパッドは、デジタル回路(主に、CPU11、ISP12、検出部13、回転部14、DSP15、記憶部16)用の電源電圧やデジタル信号の伝搬に使用される。このようなパッドレイアウトとすることで、各パッドと各部とを接続する配線上の距離を短くすることができる。それにより、信号遅延の低減、信号や電源電圧の伝搬損失の低減、S/N比の向上、消費電力の低減などを実現できる。
このように、本実施形態では、例えば、検出部13が動きを検知した結果に基づいて撮像装置1内のISP12が情報検出信号に基づいて信号処理を行うことができるようにしたため、AP20がISP12に指示を与えない場合においても、ISP12は撮像装置1にとって最適な信号処理を行うことができる。より具体的には、撮像装置1内で、ISP12の出力データに基づいて認識処理や検出処理、また、認識処理に必要なデジタル画像データ処理などの情報処理を行う場合には、認識処理などの情報処理を行うために最適な入力データとなるように、ISP12にて信号処理を行うことができる。これにより、撮像装置1の内部で信頼性の高い認識処理や検出処理などの情報処理を行うことができ、単に撮像を行うだけでない認識処理や検出処理などの情報処理も行えるインテリジェントな撮像装置1が得られる。
いくつかの配置例について説明する。以下に挙げる例においても、図11と同様の効果を奏することが可能であるとともに、個々においてそれぞれ別の効果を奏する。
図12は、第2基板31の別の配置例を示す図である。図12に示すように、CPU11、特に、CPU11のうち記憶部16の通電状態を切り替えるメモリコントローラ部は、記憶部16と接するように配置されてもよい。
図13は、第2基板31のさらに別の配置例を示す図である。図13に示すように、CPU11、特に、CPU11のうち記憶部16の通電状態を切り替えるメモリコントローラ部は、図12と比較して記憶部16とより広い領域において接するように配置されてもよい。このように配置することにより、記憶部16の各領域の通電状態をより高速に切り替えることが可能となる。
図14は、第2基板31のあらに別の配置例を示す図である。図14に示すように、CPU11は、ISP12、回転部14、DSP15、記憶部16と接するように配置されてもよい。この場合、ISP12、回転部14、DSP15の制御の高速化を図るとともに、記憶部16の各領域の通電状態を高速に切り替えることも可能となる。
図11から図14の例は、いくつかの例として挙げたものであり、第2基板31における各部の配置は、これらに限られるものではない。すなわち、CPU11は、記憶部16の通電状態を高速、又は、精度よく切り替えるとともに、他の各部の制御が高速に行えるべく適切に配置されればよい。
(他のセンサへの適用)
なお、上述した第1及び第2の実施形態では、2次元画像を取得する撮像装置(イメージセンサ)1に対して本開示に係る技術を適用した場合を例示したが、本開示に係る技術の適用先は撮像装置に限定されるものではない。例えば、ToF(Time of Flight)センサや赤外線(IR)センサやDVS(Dynamic Vision Sensor)等、種々の受光センサに対して本開示に係る技術を適用することが可能である。すなわち、受光センサのチップ構造を積層型とすることで、センサ結果に含まれるノイズの低減やセンサチップの小型化等を達成することが可能である。
なお、上述した第1及び第2の実施形態では、2次元画像を取得する撮像装置(イメージセンサ)1に対して本開示に係る技術を適用した場合を例示したが、本開示に係る技術の適用先は撮像装置に限定されるものではない。例えば、ToF(Time of Flight)センサや赤外線(IR)センサやDVS(Dynamic Vision Sensor)等、種々の受光センサに対して本開示に係る技術を適用することが可能である。すなわち、受光センサのチップ構造を積層型とすることで、センサ結果に含まれるノイズの低減やセンサチップの小型化等を達成することが可能である。
(移動体への応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図15は本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム12000の概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、図15に示した例では、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053を備える。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付けて、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図15の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図16は撮像部12031の設置位置の例を示す図である。図16では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図16には、撮像部12101ないし12104の撮影範囲の一例が一点鎖線で示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。撮像部12031等に本開示に係る技術を適用することにより、撮像部12031等を小型化することが可能となるため、車両12100のインテリアやエクステリアの設計が容易となる。また、撮像部12031等に本開示に係る技術を適用することにより、ノイズの低減されたクリアな画像を取得することが可能となるため、より見やすい撮影画像をドライバに提供することができる。それにより、ドライバの疲労を軽減することが可能になる。
(内視鏡手術システムへの応用例)
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
図17は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
図17では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
図18は図17に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、カメラヘッド11102の撮像部11402等に適用され得る。カメラヘッド11102に本開示に係る技術を適用することにより、カメラヘッド11102等を小型化することが可能となるため、内視鏡手術システム11000をコンパクト化が可能となる。また、カメラヘッド11102等に本開示に係る技術を適用することにより、ノイズの低減されたクリアな画像を取得することが可能となるため、より見やすい撮影画像を術者に提供することができる。それにより、術者の疲労を軽減することが可能になる。
なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(WSI(Whole Slide Imaging)システムへの応用例)
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、医師等が患者から採取された細胞や組織を観察して病変を診断する病理診断システムやその支援システム等(以下、診断支援システムと称する)に適用されてもよい。この診断支援システムは、デジタルパソロジー技術を利用して取得された画像に基づいて病変を診断又はその支援をするWSI(Whole Slide Imaging)システムであってもよい。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、医師等が患者から採取された細胞や組織を観察して病変を診断する病理診断システムやその支援システム等(以下、診断支援システムと称する)に適用されてもよい。この診断支援システムは、デジタルパソロジー技術を利用して取得された画像に基づいて病変を診断又はその支援をするWSI(Whole Slide Imaging)システムであってもよい。
図19は本開示に係る技術が適用される診断支援システム5500の概略的な構成の一例を示す図である。図19に示すように、診断支援システム5500は、1以上の病理システム5510を含む。さらに医療情報システム5530と、導出装置5540とを含んでもよい。
1以上の病理システム5510それぞれは、主に病理医が使用するシステムであり、例えば研究所や病院に導入される。各病理システム5510は、互いに異なる病院に導入されてもよく、それぞれWAN(Wide Area Network)(インターネットを含む)やLAN(Local Area Network)や公衆回線網や移動体通信網などの種々のネットワークを介して医療情報システム5530及び導出装置5540に接続される。
各病理システム5510は、顕微鏡5511と、サーバ5512と、表示制御装置5513と、表示装置5514とを含む。
顕微鏡5511は、光学顕微鏡の機能を有し、ガラススライドに収められた観察対象物を撮像し、デジタル画像である病理画像を取得する。観察対象物とは、例えば、患者から採取された組織や細胞であり、臓器の肉片、唾液、血液等であってよい。
サーバ5512は、顕微鏡5511によって取得された病理画像を図示しない記憶部に記憶、保存する。また、サーバ5512は、表示制御装置5513から閲覧要求を受け付けた場合に、図示しない記憶部から病理画像を検索し、検索された病理画像を表示制御装置5513に送る。
表示制御装置5513は、ユーザから受け付けた病理画像の閲覧要求をサーバ5512に送る。そして、表示制御装置5513は、サーバ5512から受け付けた病理画像を、液晶、EL(Electro‐Luminescence)、CRT(35Cathode Ray Tube)などを用いた表示装置5514に表示させる。なお、表示装置5514は、4Kや8Kに対応していてもよく、また、1台に限られず、複数台であってもよい。
ここで、観察対象物が臓器の肉片等の固形物である場合、この観察対象物は、例えば、染色された薄切片であってよい。薄切片は、例えば、臓器等の検体から切出されたブロック片を薄切りすることで作製されてもよい。また、薄切りの際には、ブロック片がパラフィン等で固定されてもよい。
薄切片の染色には、HE(Hematoxylin-Eosin)染色などの組織の形態を示す一般染色や、IHC(Immunohistochemistry)染色などの組織の免疫状態を示す免疫染色など、種々の染色が適用されてよい。その際、1つの薄切片が複数の異なる試薬を用いて染色されてもよいし、同じブロック片から連続して切り出された2以上の薄切片(隣接する薄切片ともいう)が互いに異なる試薬を用いて染色されてもよい。
顕微鏡5511は、低解像度で撮像するための低解像度撮像部と、高解像度で撮像するための高解像度撮像部とを含み得る。低解像度撮像部と高解像度撮像部とは、異なる光学系であってもよいし、同一の光学系であってもよい。同一の光学系である場合には、顕微鏡5511は、撮像対象に応じて解像度が変更されてもよい。
観察対象物が収容されたガラススライドは、顕微鏡5511の画角内に位置するステージ上に載置される。顕微鏡5511は、まず、低解像度撮像部を用いて画角内の全体画像を取得し、取得した全体画像から観察対象物の領域を特定する。続いて、顕微鏡5511は、観察対象物が存在する領域を所定サイズの複数の分割領域に分割し、各分割領域を高解像度撮像部により順次撮像することで、各分割領域の高解像度画像を取得する。対象とする分割領域の切替えでは、ステージを移動させてもよいし、撮像光学系を移動させてもよいし、それら両方を移動させてもよい。また、各分割領域は、ガラススライドの意図しない滑りによる撮像漏れ領域の発生等を防止するために、隣接する分割領域との間で重複していてもよい。さらに、全体画像には、全36体画像と患者とを対応付けておくための識別情報が含まれていてもよい。この識別情報は、例えば、文字列やQRコード(登録商標)等であってよい。
顕微鏡5511で取得された高解像度画像は、サーバ5512に入力される。サーバ5512は、各高解像度画像をより小さいサイズの部分画像(以下、タイル画像と称する)に分割する。例えば、サーバ5512は、1つの高解像度画像を縦横10×10個の計100個のタイル画像に分割する。その際、隣接する分割領域が重複していれば、サーバ5512は、テンプレートマッチング等の技法を用いて互いに隣り合う高解像度画像にスティッチング処理を施してもよい。その場合、サーバ5512は、スティッチング処理により貼り合わされた高解像度画像全体を分割してタイル画像を生成してもよい。ただし、高解像度画像からのタイル画像の生成は、上記スティッチング処理の前であってもよい。
また、サーバ5512は、タイル画像をさらに分割することで、より小さいサイズのタイル画像を生成し得る。このようなタイル画像の生成は、最小単位として設定されたサイズのタイル画像が生成されるまで繰り返されてよい。
このように最小単位のタイル画像を生成すると、サーバ5512は、隣り合う所定数のタイル画像を合成することで1つのタイル画像を生成するタイル合成処理を、全てのタイル画像に対して実行する。このタイル合成処理は、最終的に1つのタイル画像が生成されるまで繰り返され得る。このような処理により、各階層が1つ以上のタイル画像で構成されたピラミッド構造のタイル画像群が生成される。このピラミッド構造では、ある層のタイル画像とこの層とは異なる層のタイル画像との画素数は同じであるが、その解像度が異なっている。例えば、2×2個の計4つのタイル画像を合成して上層の1つのタイル画像を生成する場合、上層のタイル画像の解像度は、合成に用いた下層のタイル画像の解像度の1/2倍となっている。
このようなピラミッド構造のタイル画像群を構築することによって、表示対象のタイル画像が属する階層次第で、表示装置に表示される観察対象物の37詳細度を切り替えることが可能となる。例えば、最下層のタイル画像が用いられる場合には、観察対象物の狭い領域を詳細に表示し、上層のタイル画像が用いられるほど観察対象物の広い領域が粗く表示されるようにすることができる。
生成されたピラミッド構造のタイル画像群は、例えば、各タイル画像を一意に識別可能な識別情報(タイル識別情報と称する)とともに、不図示の記憶部に記憶される。サーバ5512は、他の装置(例えば、表示制御装置5513や導出装置5540)からタイル識別情報を含むタイル画像の取得要求を受け付けた場合に、タイル識別情報に対応するタイル画像を他の装置へ送信する。
なお、病理画像であるタイル画像は、焦点距離や染色条件等の撮像条件毎に生成されてもよい。撮像条件毎にタイル画像が生成される場合、特定の病理画像とともに、特定の撮像条件と異なる撮像条件に対応する他の病理画像であって、特定の病理画像と同一領域の他の病理画像を並べて表示してもよい。特定の撮像条件は、閲覧者によって指定されてもよい。また、閲覧者に複数の撮像条件が指定された場合には、各撮像条件に対応する同一領域の病理画像が並べて表示されてもよい。
また、サーバ5512は、ピラミッド構造のタイル画像群をサーバ5512以外の他の記憶装置、例えば、クラウドサーバ等に記憶してもよい。さらに、以上のようなタイル画像の生成処理の一部又は全部は、クラウドサーバ等で実行されてもよい。
表示制御装置5513は、ユーザからの入力操作に応じて、ピラミッド構造のタイル画像群から所望のタイル画像を抽出し、これを表示装置5514に出力する。このような処理により、ユーザは、観察倍率を変えながら観察対象物を観察しているような感覚を得ることができる。すなわち、表示制御装置5513は仮想顕微鏡として機能する。ここでの仮想的な観察倍率は、実際には解像度に相当する。
なお、高解像度画像の撮像方法は、どの様な方法を用いてもよい。ステー38ジの停止、移動を繰り返しながら分割領域を撮像して高解像度画像を取得してもよいし、所定の速度でステージを移動しながら分割領域を撮像してストリップ上の高解像度画像を取得してもよい。また、高解像度画像からタイル画像を生成する処理は必須の構成ではなく、スティッチング処理により貼り合わされた高解像度画像全体の解像度を段階的に変化させることで、解像度が段階的に変化する画像を生成してもよい。この場合でも、広いエリア域の低解像度画像から狭いエリアの高解像度画像までを段階的にユーザに提示することが可能である。
医療情報システム5530は、いわゆる電子カルテシステムであり、患者を識別する情報、患者の疾患情報、診断に用いた検査情報や画像情報、診断結果、処方薬などの診断に関する情報を記憶する。例えば、ある患者の観察対象物を撮像することで得られる病理画像は、一旦、サーバ5512を介して保存された後、表示制御装置5513によって表示装置5514に表示され得る。病理システム5510を利用する病理医は、表示装置5514に表示された病理画像に基づいて病理診断を行う。病理医によって行われた病理診断結果は、医療情報システム5530に記憶される。
導出装置5540は、病理画像に対する解析を実行し得る。この解析には、機械学習によって作成された学習モデルを用いることができる。導出装置5540は、当該解析結果として、特定領域の分類結果や組織の識別結果等を導出してもよい。さらに、導出装置5540は、細胞情報、数、位置、輝度情報等の識別結果やそれらに対するスコアリング情報等を導出してもよい。導出装置5540によって導出されたこれらの情報は、診断支援情報として、病理システム5510の表示装置5514に表示されてもよい。
なお、導出装置5540は、1台以上のサーバ(クラウドサーバを含む)等で構成されたサーバシステムであってもよい。また、導出装置5540は、病理システム5510内の例えば表示制御装置5513又はサーバ5512に組み込まれた構成であってもよい。すなわち、病理画像に対する各種解析は、病理システム5510内で実行されてもよい。39
本開示に係る技術は、以上説明した構成のうち、例えば、顕微鏡5511に好適に適用され得る。具体的には、顕微鏡5511における低解像度撮像部及び/又は高解像度撮像部に本開示に係る技術を適用することができる。本開示に係る技術を低解像度撮像部及び/又は高解像度撮像部に適用することで、低解像度撮像部及び/又は高解像度撮像部の小型化、強いては、顕微鏡5511の小型化が可能となる。それにより、顕微鏡5511の運搬が容易となるため、システム導入やシステム組換え等を容易化することが可能となる。さらに、本開示に係る技術を低解像度撮像部及び/又は高解像度撮像部に適用することで、病理画像の取得から病理画像の解析までの処理の一部又は全部を顕微鏡5511内においてオンザフライで実行可能となるため、より迅速且つ的確な診断支援情報の出力も可能となる。
なお、上記で説明した構成は、診断支援システムに限らず、共焦点顕微鏡や蛍光顕微鏡、ビデオ顕微鏡等の生物顕微鏡全般にも適用され得る。ここで、観察対象物は、培養細胞や受精卵、精子等の生体試料、細胞シート、三次元細胞組織等の生体材料、ゼブラフィッシュやマウス等の生体であってもよい。また、観察対象物は、ガラススライドに限らず、ウェルプレートやシャーレ等に格納された状態で観察されることもできる。
さらに、顕微鏡を利用して取得した観察対象物の静止画像から動画像が生成されてもよい。例えば、所定期間連続的に撮像した静止画像から動画像を生成してもよいし、所定の間隔を空けて撮像した静止画像から画像シーケンスを生成してもよい。このように、静止画像から動画像を生成することで、がん細胞や神経細胞、心筋組織、精子等の拍動や伸長、遊走等の動きや培養細胞や受精卵の分裂過程など、観察対象物の動的な特徴を機械学習を用いて解析することが可能となる。
前述した実施形態は、以下のような形態としてもよい。
(1)
光電変換を行う複数の画素を有する、画素アレイ部と、
前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、
前記デジタル画像データの画像処理を行う、画像処理部と、
通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、
を備える、撮像装置。
光電変換を行う複数の画素を有する、画素アレイ部と、
前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、
前記デジタル画像データの画像処理を行う、画像処理部と、
通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、
を備える、撮像装置。
(2)
前記画像処理部は、前記デジタル画像データの拡大、縮小、又は、切り出しの処理を実行する、
(1)に記載の撮像装置。
前記画像処理部は、前記デジタル画像データの拡大、縮小、又は、切り出しの処理を実行する、
(1)に記載の撮像装置。
(3)
前記画像処理部は、前記デジタル画像データの歪み補正処理を実行する、
(1)又は(2)に記載の撮像装置。
前記画像処理部は、前記デジタル画像データの歪み補正処理を実行する、
(1)又は(2)に記載の撮像装置。
(4)
前記記憶部の前記領域ごとの前記通電状態を切り替える、制御部、
をさらに備える、(1)から(3)のいずれかに記載の撮像装置。
前記記憶部の前記領域ごとの前記通電状態を切り替える、制御部、
をさらに備える、(1)から(3)のいずれかに記載の撮像装置。
(5)
前記記憶部に記憶されている前記デジタル画像データを回転したデータを取得する、画像回転部、
をさらに備え、
前記記憶部はさらに、前記画像回転部の出力した前記デジタル画像データを記憶する、
(4)に記載の撮像装置。
前記記憶部に記憶されている前記デジタル画像データを回転したデータを取得する、画像回転部、
をさらに備え、
前記記憶部はさらに、前記画像回転部の出力した前記デジタル画像データを記憶する、
(4)に記載の撮像装置。
(6)
前記画像回転部は、前記デジタル画像データを所定角度回転する、
(5)に記載の撮像装置。
前記画像回転部は、前記デジタル画像データを所定角度回転する、
(5)に記載の撮像装置。
(7)
前記画素アレイ部の傾きを検出する、傾き検出部、
をさらに備え、
前記画像回転部は、前記傾き検出部の出力に基づいて回転角度を取得し、前記回転角度に基づいて前記デジタル画像データを回転する、
(5)又は(6)に記載の撮像装置。
前記画素アレイ部の傾きを検出する、傾き検出部、
をさらに備え、
前記画像回転部は、前記傾き検出部の出力に基づいて回転角度を取得し、前記回転角度に基づいて前記デジタル画像データを回転する、
(5)又は(6)に記載の撮像装置。
(8)
前記記憶部に記憶されている前記デジタル画像データに対して、認識処理をする、画像認識部、
をさらに備え、
前記記憶部はさらに、前記画像認識部の出力データを記憶する、
(5)から(7)のいずれかに記載の撮像装置。
前記記憶部に記憶されている前記デジタル画像データに対して、認識処理をする、画像認識部、
をさらに備え、
前記記憶部はさらに、前記画像認識部の出力データを記憶する、
(5)から(7)のいずれかに記載の撮像装置。
(9)
前記画像認識部は、あらかじめ訓練された重みパラメータにより形成されるニューラルネットワークモデルに基づいて、前記デジタル画像データの認識処理をする、
(8)に記載の撮像装置。
前記画像認識部は、あらかじめ訓練された重みパラメータにより形成されるニューラルネットワークモデルに基づいて、前記デジタル画像データの認識処理をする、
(8)に記載の撮像装置。
(10)
前記記憶部はさらに、前記重みパラメータを記憶する、
(9)に記載の撮像装置。
前記記憶部はさらに、前記重みパラメータを記憶する、
(9)に記載の撮像装置。
(11)
前記記憶部は、前記重みパラメータを記憶する、少なくとも1つの前記領域を備える、
(10)に記載の撮像装置。
前記記憶部は、前記重みパラメータを記憶する、少なくとも1つの前記領域を備える、
(10)に記載の撮像装置。
(12)
前記画像認識部における前記認識処理に基づいて、前記重みパラメータを訓練する、訓練部、
をさらに備える、
(9)から(11)のいずれかに記載の撮像装置。
前記画像認識部における前記認識処理に基づいて、前記重みパラメータを訓練する、訓練部、
をさらに備える、
(9)から(11)のいずれかに記載の撮像装置。
(13)
前記制御部は、複数の前記領域のうち、処理の対象となる前記デジタル画像データが記憶されている領域、及び、処理後のデータを記憶する領域、を参照可能に制御する、
(6)から(12)のいずれかに記載の撮像装置。
前記制御部は、複数の前記領域のうち、処理の対象となる前記デジタル画像データが記憶されている領域、及び、処理後のデータを記憶する領域、を参照可能に制御する、
(6)から(12)のいずれかに記載の撮像装置。
(14)
前記画像処理部が処理したデータにおいて、前記画素アレイ部が取得した前記アナログ画素信号における動きを検知する、検知部、
をさらに備える、(4)から(13)のいずれかに記載の撮像装置。
前記画像処理部が処理したデータにおいて、前記画素アレイ部が取得した前記アナログ画素信号における動きを検知する、検知部、
をさらに備える、(4)から(13)のいずれかに記載の撮像装置。
(15)
前記検知部はさらに、顔画像認識を行う、
(14)に記載の撮像装置。
前記検知部はさらに、顔画像認識を行う、
(14)に記載の撮像装置。
(16)
前記画素アレイ部を有する、第1基板と、
前記第1基板に積層され、前記変換器、前記画像処理部及び前記記憶部、を有する、第2基板と、
を備える、(1)から(15)のいずれかに記載の撮像装置。
前記画素アレイ部を有する、第1基板と、
前記第1基板に積層され、前記変換器、前記画像処理部及び前記記憶部、を有する、第2基板と、
を備える、(1)から(15)のいずれかに記載の撮像装置。
(17)
前記第1基板と前記第2基板とは、CoC(Chip on Chip)方式、CoW(Chip on Wafer)方式、又は、WoW(Wafer on Wafer)方式のいずれかで貼り合わされる、
(16)に記載の撮像装置。
前記第1基板と前記第2基板とは、CoC(Chip on Chip)方式、CoW(Chip on Wafer)方式、又は、WoW(Wafer on Wafer)方式のいずれかで貼り合わされる、
(16)に記載の撮像装置。
(18)
撮像された画像データを出力する撮像装置と、
前記画像データに対して所定の信号処理を行うプロセッサと、を備え、
前記撮像装置は、
光電変換を行う複数の画素を有する、画素アレイ部と、
前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、
前記デジタル画像データの画像処理を行う、画像処理部と、
通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、
前記画像処理部が処理したデータにおいて、前記画素アレイ部が取得した前記アナログ画素信号における動きを検知する、検知部と、
を備え、
前記プロセッサは、前記検知部が動きを検知した場合に、前記記憶部において、いずれの前記領域の前記通電状態を切り替えるかを前記撮像装置に通知する、
電子機器。
撮像された画像データを出力する撮像装置と、
前記画像データに対して所定の信号処理を行うプロセッサと、を備え、
前記撮像装置は、
光電変換を行う複数の画素を有する、画素アレイ部と、
前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、
前記デジタル画像データの画像処理を行う、画像処理部と、
通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、
前記画像処理部が処理したデータにおいて、前記画素アレイ部が取得した前記アナログ画素信号における動きを検知する、検知部と、
を備え、
前記プロセッサは、前記検知部が動きを検知した場合に、前記記憶部において、いずれの前記領域の前記通電状態を切り替えるかを前記撮像装置に通知する、
電子機器。
(19)
(2)〜(17)に記載の各構成要素を任意で備える、
(18)に記載の電子機器。
(2)〜(17)に記載の各構成要素を任意で備える、
(18)に記載の電子機器。
本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
また、上述の移動体、医療への適用の他、監視カメラ等、動きを検知して認識処理を撮像装置1内で行う機器に対しても応用することが可能である。
1:撮像装置、
10:CIS、
100:光学系、
102:画素アレイ部、
104:ADC、
11:CPU、
12:ISP、
13:検出部、
14:回転部、
15:DSP、
16:記憶部、
17:SEL、
18:傾き検出部、
2:電子機器、
20:AP、
30:第1基板、
31:第2基板
10:CIS、
100:光学系、
102:画素アレイ部、
104:ADC、
11:CPU、
12:ISP、
13:検出部、
14:回転部、
15:DSP、
16:記憶部、
17:SEL、
18:傾き検出部、
2:電子機器、
20:AP、
30:第1基板、
31:第2基板
Claims (18)
- 光電変換を行う複数の画素を有する、画素アレイ部と、
前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、
前記デジタル画像データの画像処理を行う、画像処理部と、
通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、
を備える、撮像装置。 - 前記画像処理部は、前記デジタル画像データの拡大、縮小、又は、切り出しの処理を実行する、
請求項1に記載の撮像装置。 - 前記画像処理部は、前記デジタル画像データの歪み補正処理を実行する、
請求項1に記載の撮像装置。 - 前記記憶部の前記領域ごとの前記通電状態を切り替える、制御部、
をさらに備える、請求項1に記載の撮像装置。 - 前記記憶部に記憶されている前記デジタル画像データを回転したデータを取得する、画像回転部、
をさらに備え、
前記記憶部はさらに、前記画像回転部の出力した前記デジタル画像データを記憶する、
請求項4に記載の撮像装置。 - 前記画像回転部は、前記デジタル画像データを所定角度回転する、
請求項5に記載の撮像装置。 - 前記画素アレイ部の傾きを検出する、傾き検出部、
をさらに備え、
前記画像回転部は、前記傾き検出部の出力に基づいて回転角度を取得し、前記回転角度に基づいて前記デジタル画像データを回転する、
請求項5に記載の撮像装置。 - 前記記憶部に記憶されている前記デジタル画像データに対して、認識処理をする、画像認識部、
をさらに備え、
前記記憶部はさらに、前記画像認識部の出力データを記憶する、
請求項5に記載の撮像装置。 - 前記画像認識部は、あらかじめ訓練された重みパラメータにより形成されるニューラルネットワークモデルに基づいて、前記デジタル画像データの認識処理をする、
請求項8に記載の撮像装置。 - 前記記憶部はさらに、前記重みパラメータを記憶する、
請求項9に記載の撮像装置。 - 前記記憶部は、前記重みパラメータを記憶する、少なくとも1つの前記領域を備える、
請求項10に記載の撮像装置。 - 前記画像認識部における前記認識処理に基づいて、前記重みパラメータを訓練する、訓練部、
をさらに備える、
請求項9に記載の撮像装置。 - 前記制御部は、複数の前記領域のうち、処理の対象となる前記デジタル画像データが記憶されている領域、及び、処理後のデータを記憶する領域、を参照可能に制御する、
請求項6に記載の撮像装置。 - 前記画像処理部が処理したデータにおいて、前記画素アレイ部が取得した前記アナログ画素信号における動きを検知する、検知部、
をさらに備える、請求項4に記載の撮像装置。 - 前記検知部はさらに、顔画像認識を行う、
請求項14に記載の撮像装置。 - 前記画素アレイ部を有する、第1基板と、
前記第1基板に積層され、前記変換器、前記画像処理部及び前記記憶部、を有する、第2基板と、
を備える、請求項1に記載の撮像装置。 - 前記第1基板と前記第2基板とは、CoC(Chip on Chip)方式、CoW(Chip on Wafer)方式、又は、WoW(Wafer on Wafer)方式のいずれかで貼り合わされる、
請求項16に記載の撮像装置。 - 撮像された画像データを出力する撮像装置と、
前記画像データに対して所定の信号処理を行うプロセッサと、を備え、
前記撮像装置は、
光電変換を行う複数の画素を有する、画素アレイ部と、
前記画素アレイ部から出力されたアナログ画素信号をデジタル画像データに変換する、変換器と、
前記デジタル画像データの画像処理を行う、画像処理部と、
通電状態を選択的に指定できる複数の領域を有し、少なくとも、前記画像処理部の出力した前記デジタル画像データを記憶する、記憶部と、
前記画像処理部が処理したデータにおいて、前記画素アレイ部が取得した前記アナログ画素信号における動きを検知する、検知部と、
を備え、
前記プロセッサは、前記検知部が動きを検知した場合に、前記記憶部において、いずれの前記領域の前記通電状態を切り替えるかを前記撮像装置に通知する、
電子機器。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019191414A JP2021068952A (ja) | 2019-10-18 | 2019-10-18 | 撮像装置及び電子機器 |
US17/754,711 US20240080546A1 (en) | 2019-10-18 | 2020-10-08 | Imaging apparatus and electronic equipment |
PCT/JP2020/038173 WO2021075352A1 (ja) | 2019-10-18 | 2020-10-08 | 撮像装置及び電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019191414A JP2021068952A (ja) | 2019-10-18 | 2019-10-18 | 撮像装置及び電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021068952A true JP2021068952A (ja) | 2021-04-30 |
Family
ID=75538486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019191414A Pending JP2021068952A (ja) | 2019-10-18 | 2019-10-18 | 撮像装置及び電子機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240080546A1 (ja) |
JP (1) | JP2021068952A (ja) |
WO (1) | WO2021075352A1 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004333957A (ja) * | 2003-05-09 | 2004-11-25 | Hitachi Ltd | 携帯端末 |
JP2009267792A (ja) * | 2008-04-25 | 2009-11-12 | Panasonic Corp | 撮像装置 |
EP4064679A1 (en) * | 2016-09-16 | 2022-09-28 | Sony Semiconductor Solutions Corporation | Imaging device and electronic device |
-
2019
- 2019-10-18 JP JP2019191414A patent/JP2021068952A/ja active Pending
-
2020
- 2020-10-08 US US17/754,711 patent/US20240080546A1/en active Pending
- 2020-10-08 WO PCT/JP2020/038173 patent/WO2021075352A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20240080546A1 (en) | 2024-03-07 |
WO2021075352A1 (ja) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7090666B2 (ja) | 固体撮像装置、電子機器及び制御方法 | |
JP6705044B2 (ja) | 積層型受光センサ及び車載撮像装置 | |
TWI840429B (zh) | 積層型受光感測器及電子機器 | |
WO2021070894A1 (ja) | 撮像装置、電子機器及び撮像方法 | |
WO2020027233A1 (ja) | 撮像装置及び車両制御システム | |
WO2021075321A1 (ja) | 撮像装置、電子機器及び撮像方法 | |
JP7423491B2 (ja) | 固体撮像装置及び車両制御システム | |
US20240021646A1 (en) | Stacked light-receiving sensor and in-vehicle imaging device | |
WO2020027161A1 (ja) | 積層型受光センサ及び電子機器 | |
WO2021075352A1 (ja) | 撮像装置及び電子機器 | |
WO2021075292A1 (ja) | 受光装置、電子機器及び受光方法 | |
WO2020027074A1 (ja) | 固体撮像装置および電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200819 |