JP6695947B2 - 固体撮像システム、画像処理方法及びプログラム - Google Patents

固体撮像システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6695947B2
JP6695947B2 JP2018177311A JP2018177311A JP6695947B2 JP 6695947 B2 JP6695947 B2 JP 6695947B2 JP 2018177311 A JP2018177311 A JP 2018177311A JP 2018177311 A JP2018177311 A JP 2018177311A JP 6695947 B2 JP6695947 B2 JP 6695947B2
Authority
JP
Japan
Prior art keywords
dnn
solid
state imaging
processing unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018177311A
Other languages
English (en)
Other versions
JP2020047191A (ja
Inventor
清剛 花田
清剛 花田
秀 小林
秀 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2018177311A priority Critical patent/JP6695947B2/ja
Priority to CN201980060063.7A priority patent/CN112703726A/zh
Priority to PCT/JP2019/034127 priority patent/WO2020059464A1/ja
Priority to US17/275,410 priority patent/US20220058411A1/en
Priority to EP19862570.9A priority patent/EP3855726A4/en
Publication of JP2020047191A publication Critical patent/JP2020047191A/ja
Application granted granted Critical
Publication of JP6695947B2 publication Critical patent/JP6695947B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/771Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising storage means other than floating diffusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本開示は、固体撮像システム、固体撮像装置、情報処理装置、画像処理方法及びプログラムに関する。
近年、ニューラルネットワークを搭載した種々の装置が提案されている。例えば、特許文献1には、検出物体らしさを示す尤度に基づくことで、画像に対する識別性能を向上させることのできる技術が開示されている。
特開2015−191334号公報
ところで、デジタルカメラなどに代表される機器には、CMOS(Complementary Metal Oxide Semiconductor)やDSP(Digital Signal Processor)を有するイメージセンサが搭載される。近年では、画像処理の多様化・高速化や個人情報の保護等の観点から、例えば、イメージセンサにDNN(Deep Neural Network)の機能を持たせて、高度な処理を実行することが望まれている。
しかしながら、特許文献1では、イメージセンサから対象画像を出力させる必要があるため、出力するデータ量が多く、また個人情報を保護できない可能性がある。
そこで、本開示では、イメージセンサから出力されるデータ量が少なくし、かつ個人情報を保護することのできる固体撮像システム、固体撮像装置、情報処理装置、画像処理方法、情報処理方法及びプログラムを提案する。
上記の課題を解決するために、本開示に係る一形態の固体撮像システムは、固体撮像装置と、情報処理装置とを含み、前記固体撮像装置は、画像データに対してDNNアルゴリズムの一部を第1DNNによって実行して第1結果を生成する第1DNN処理部を備え、前記情報処理装置は、前記固体撮像装置から取得された前記第1結果に対して前記DNNアルゴリズムの残りを第2DNNによって実行して第2結果を生成する第2DNN処理部を備える。
本開示の第1実施形態に係る固体撮像システムの構成の一例を示すブロック図である。 本開示の第1実施形態に係る固体撮像システムの接続関係の一例を説明するための模式図である。 本開示の第1実施形態に係る固体撮像装置の積層構造の一例を示す模式図である。 本開示の第1実施形態に係る固体撮像システムの処理を説明するための模式図である。 DNNアルゴリズムの構成を説明するための模式図である。 DNNアルゴリズムの分割処理の一例を説明するための模式図である。 本開示の第1実施形態に係る固体撮像システムの処理の流れの一例を示すシーケンス図である。 本開示の第1実施形態に係る固体撮像装置及び情報処理装置それぞれの制御部及びDNN処理部の処理の流れの一例を示すシーケンス図である。 本開示の第2実施形態に係る固体撮像システムの構成の一例を示すブロック図である。 本開示の第2実施形態に係る固体撮像システムの接続関係の一例を示すブロック図である。 本開示の第2実施形態に係る固体撮像システムの接続関係の一例を示すブロック図である。 本開示の固体撮像装置及び情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.第1実施形態
1−1.第1実施形態に係る固体撮像システムの構成
1−2.DNNアルゴリズムの構成
1−3.第1実施形態に係る固体撮像システムの処理
2.第2実施形態
2−1.第2実施形態に係る固体撮像システムの構成
2−2.第2実施形態に係る固体撮像システムの変形例の構成
3.ハードウェア構成
(1.第1実施形態)
[1−1.第1実施形態に係る固体撮像システムの構成]
図1を用いて、本開示の第1実施形態に係る固体撮像システムの構成について説明する。図1は、本開示の第1実施形態に係る固体撮像システムの構成の一例を示すブロック図である。
図1に示すように、固体撮像システム1は、固体撮像装置100と、情報処理装置200とを含む。
図2に示すように、固体撮像装置100と、情報処理装置200とは、同一の筐体10の中に存在している。言い換えれば、固体撮像装置100と、情報処理装置200とは、同一の筐体10の中に別チップとして存在している。固体撮像装置100と、情報処理装置200とは、SoC(System-on-a-chip)、MCM(Multi-Chip Module)、SIP(System In a Package)、SOP(Small Outline Package)などで実装されている。固体撮像システム1は、例えば、インターネット通信網300によって外部の装置と通信可能に接続されていてもよい。この場合、固体撮像システム1は、例えば、無線通信によって外部の装置と通信可能に接続されていてもよい。また、図2に示す固体撮像システム1は、固体撮像装置100と、情報処理装置200とを1つずつ含むが、これは例示であり、本開示を限定するものではない。固体撮像システム1は、固体撮像装置100と、情報処理装置200とをそれぞれ複数備えていてもよい。また、固体撮像システム1が含む固体撮像装置100と、情報処理装置200との数は異なっていてもよい。固体撮像システム1は、例えば、VPA(Virtual Personal Assistant)や、車載カメラに適用することができる。
図1に示すように、固体撮像装置100は、撮像部110と、撮像処理部120と、第1DNN処理部130と、第1記憶部140と、第1制御部150と、セレクタ160と、通信I/F170と、通信制御部180とを備える。
図3は、第1実施形態に係る固体撮像装置100の積層構造の一例を示す模式図である。図3に示すように、固体撮像装置100は、例えば、矩形の第1基板11と、矩形の第2基板12とが貼り合わされた積層構造を有している。
第1基板11と、第2基板12とは、例えば、第1基板11及び第2基板12をそれぞれチップに個片化した後、これら個片化された第1基板11及び第2基板12を貼り合わせる、いわゆるCoC(Chip on Chip)方式で貼り合わせればよい。また、第1基板11と第2基板12とのうち一方(例えば、第1基板11)をチップに個片化した後、この個片化された第1基板11を個片化前(すなわち、ウエハ状態)の第2基板12に貼り合わせる、いわゆるCoW(Chip on Wafer)方式で貼り合わせてもよい。さらに、第1基板11と第2基板12とを共にウエハの状態で、いわゆるWoW(Wafer on Wafer)方式で貼り合わせてもよい。
第1基板11と第2基板12との接合方法には、例えば、プラズマ接合等を使用することができる。ただし、これに限定されず、種々の接合方法が用いられてよい。
第1基板11と、第2基板12とのサイズは、同じであってもよいし、異なっていてもよい。第1基板11と、第2基板12とは、例えば、シリコン基板などの半導体基板である。
第1基板11には、図1に示す固体撮像装置100の構成要素のうち、例えば、撮像部110が配置される。
第2基板12は、図1に示す固体撮像装置100の構成要素のうち、例えば、撮像処理部120と、第1DNN処理部130と、第1記憶部140と、第1制御部150と、セレクタ160と、通信I/F170と、通信制御部180とが配置される。
すなわち、固体撮像装置100の撮像部110は、撮像部110以外の構成要素に積層実装された構成を有している。
再び図1を参照する。撮像部110は、例えば、ズームレンズ、フォーカスレンズ、絞りなどを備える光学系と、フォトダイオードなどの受光素子を含む単位画素が2次元マトリクス状に配列した構成を備える画素アレイ部とを備える。外部から入射した光は、光学系を介することで、画素アレイ部における受光素子が配列した受光面に結像される。画素アレイ部の各単位画素は、その受光素子に入射した光を光電変換することで、入射光の光量に応じた画像データを生成する。撮像部110は、撮像した画像データを撮像処理部120に出力する。
撮像処理部120は、例えば、画像データをデジタルの画像データに変換する。撮像処理部120は、例えば、デジタルに変換した画像データに対して、「前処理」、「データ拡張」、及び「データの正規化」を実行する。前処理は、推論時及び学習時において撮像部110に対して実行する処理であり、例えば、デワープ、クロップ、レンズシェーディング補正、ダウンスケール、アップスケールといった処理を含む。データ拡張は、学習時において画像データに対して実行される処理であり、例えば、画像データの縦横比を変更したり、画像データを平行に移動させたり、回転させたり、反転させたり、幾何学的に変形させたりする処理を含む。また、データ拡張は、例えば、画像データの色の濃淡を変更させたり、色を変動させたりする処理を含む。さらに、データ拡張は、例えば、画像データにノイズを加算する処理を含む。データの正規化は、推論時及び学習時に画像データに対して実行される処理であり、例えば、画像データの画素値の平均を0にしたり、画素値の分散を1にしたり、成分間の相関を0にして画像データを白色化したりする処理を含む。撮像処理部120は、種々の処理を実行したデジタルの画像データを第1DNN処理部130と、セレクタ160とに出力する。
第1DNN処理部130は、例えば、第1記憶部140に記憶されているDNNモデルに基づいて、撮像処理部120から入力された画像データに対してDNNを実行することで、画像データに含まれる物体の認識処理を実行する。具体的には、第1DNN処理部130は、撮像処理部120から受けた画像データに対して第1DNNを実行し、DNNモデルを構成するアルゴリズムの一部を実行し、実行結果を生成する。ここでの実行結果は、特徴マップ、マップ、及び単に画像などとも呼ばれることがある。第1DNN処理部130は、画像データに対して第1DNNを実行することで、中間層のマップと、第1結果を生成する。より具体的には、第1DNN処理部130は、第1結果として、入力された画像データ全体の中間層マップと、入力された画像データの一部の中間層マップ(例えば、ROI(Region Of Interest)した中間層マップ)とを出力する。なお、第1DNN処理部130は、全体の中間マップと、一部の中間マップとの両方を出力してもよいし、どちらか一方の中間マップを出力してもよい。また、第1DNN処理部130は、第1結果として、ROI情報や、物体の存在確率を算出する。第1DNN処理部130は、第1DNNの実行が完了すると、完了通知を第1制御部150に出力する。第1DNN処理部130は、第1結果をセレクタ160に出力する。
具体的には、第1DNN処理部130は、例えば、撮像処理部120から受けた画像データに対して畳み込み演算、バイアス加算、活性化演算、プーリング処理を実行することで物体検知処理を行う。
第1DNN処理部130が活性化演算で用いる活性化関数としては、例えば、恒等関数、シグモイド関数、ソフトマックス関数、ステップ関数、ReLU関数、及びTanh関数を挙げることができるが、これらに限定されない。
また、第1DNN処理部130は、例えば、学習時において、誤差や、損失関数の値を計算する。第1DNN処理部130は、例えば、勾配降下法、確率的勾配降下法、ニュートン法、準ニュートン法、誤差逆伝搬法などの手法を用いて、対象となるDNNモデルの誤差を計算する。第1DNN処理部130は、例えば、最小二乗誤差、交差エントロピー誤差などの手法を用いて、損失関数の値を算出する。
第1記憶部140は、例えば、第1DNN処理部130で実行する少なくとも1つのDNNモデルを記憶している。第1記憶部140は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子で実現することができる。
第1制御部150は、例えば、第1DNN処理部130を制御する。具体的には、第1制御部150は、例えば、第1DNN処理部130を制御して、第1DNNを実行したり、中断したり、停止したりする。第1制御部150は、例えば、第1制御情報を生成する。第1制御部150は、例えば、第1制御情報を情報処理装置200に送信する。第1制御情報には、例えば、画像データに対して実行すべきDNNアルゴリズムのうち、第1DNN処理部130が実行した第1DNNに関する情報を含む。また、第1制御情報には、例えば、同期信号が含まれる。第1制御部150は、例えば、第1DNN処理部130の実行完了通知を情報処理装置200に送信する。第1制御部150は、例えば、情報処理装置200の第2制御部250から第2制御情報を受信する。この場合、第1制御部150は、例えば、第2制御情報に基づいて、第1DNN処理部130を制御する。ここで、第1制御部150は、パイプライン的に画像データに対してDNNアルゴリズムを実行するように、第1DNN処理部130を制御してもよい。具体的には、第1制御部150は、ある画像データに対して第1DNNを実行させた後、その画像データに対する第2DNN処理の完了を受ける前に、次の画像データに対して第1DNNを実行するように第1DNN処理部130を制御してもよい。これにより、本実施形態は、例えば、撮像部110が撮像した複数の画像データに対して、DNN処理を効率的に実行することができるようになる。
セレクタ160は、例えば、撮像処理部120から種々の処理が施されたデジタルの画像データを受ける。セレクタ160は、例えば、第1DNN処理部130から第1結果を受ける。セレクタ160は、例えば、図示しないセレクタの制御部からの制御信号に従って撮像処理部120、及び第1DNN処理部130から受けたデータを選択的に通信I/F170に出力する。
通信I/F170は、送信部171と、受信部172とを備える。固体撮像装置100は、送信部171を介して情報処理装置200にデータを送信する。固体撮像装置100は、受信部172を介して情報処理装置200からデータを受信する。
通信制御部180は、通信I/F170を制御する。これにより、通信I/F170は、情報処理装置200にデータを送信したり、情報処理装置200からデータを受信したりする。通信制御部180は、例えば、データを暗号化してもよい。暗号化する場合には、通信制御部180は、例えば、DES(Data Encryption Standard)や、AES(Advanced Encryption Standard)といった共通鍵暗号を用いることができる。また、通信制御部180は、例えば、ECB(Electronic Codebook)、CBC(Cipher Block Chaining)、CFB(Cipher Feedback)、OFB(Output Feedback)、及びCTR(Counter)といった暗号モードを利用してもよい。
情報処理装置200は、通信I/F210と、通信制御部220と、第2DNN処理部230と、第2記憶部240と、第2制御部250とを備える。第1実施形態において、情報処理装置200は、例えば、アプリケーションプロセッサである。
通信I/F210は、受信部211と、送信部212とを備える。情報処理装置200は、受信部211を介して固体撮像装置100からデータを受信する。情報処理装置200は、送信部212を介して固体撮像装置100にデータを送信する。
通信制御部220は、通信I/F210を制御する。これにより、通信I/F210は、情報処理装置200にデータを送信したり、情報処理装置200からデータを受信したりする。通信制御部220は、例えば、データを暗号化して固体撮像装置100と通信してもよい。暗号化する場合には、通信制御部220は、例えば、DESや、AESといった共通鍵暗号を用いることができる。また、通信制御部220は、例えば、ECB、CBC、CFB、OFB、及びCTRといった暗号モードを利用してもよい。
第2DNN処理部230は、例えば、第2記憶部240に記憶されているDNNモデルに基づいて、固体撮像装置100から入力された第1結果に対してDNNを実行することで、画像データに含まれる物体の認識処理を実行する。具体的には、第2DNN処理部230は、固体撮像装置100から受けた第1結果に対して第2DNNを実行し、DNNモデルを構成するアルゴリズムうち、第1DNNで実行されなかった残りの部分を実行する。これにより、第2DNN処理部230は、第2結果を出力する。具体的には、第2DNN処理部230は、第2結果として、画像データに含まれる物体を認識する。また、第2DNN処理部230は、例えば、第1結果と、第2結果とをマージして、ROIと、物体分類を実行する。第2DNN処理部230は、第2DNNの実行が完了すると、完了通知を第2制御部250に出力する。第2DNN処理部230は、例えば、第2結果を外部の装置に出力する。
具体的には、第2DNN処理部230は、例えば、撮像処理部120から受けた画像データに対して畳み込み演算、バイアス加算、活性化演算、プーリング処理を実行することで物体検知処理を行う。
第2DNN処理部230が活性化演算で用いる活性化関数としては、例えば、恒等関数、シグモイド関数、ソフトマックス関数、ステップ関数、ReLU関数、及びTanh関数を挙げることができるが、これらに限定されない。
また、第2DNN処理部230は、例えば、学習時において、誤差や、損失関数の値を計算する。第2DNN処理部230は、例えば、勾配降下法、確率的勾配降下法、ニュートン法、準ニュートン法、誤差逆伝搬法などの手法を用いて、対象となるDNNモデルの誤差を計算する。第2DNN処理部230は、例えば、最小二乗誤差、交差エントロピー誤差などの手法を用いて、損失関数の値を算出する。
第2記憶部240は、例えば、第2DNN処理部230で実行する少なくとも1つのDNNモデルを記憶している。ここで、固体撮像装置100の第1記憶部140が記憶しているDNNモデルと、第2記憶部240が記憶しているDNNモデルとを組み合わせることで、1つのDNNアルゴリズムが構成される。これにより、固体撮像装置100と、情報処理装置200との2つの装置によって、1つのDNNアルゴリズムを実行することができる。言い換えれば、本実施形態は、1つのDNNアルゴリズムを、固体撮像装置100と、情報処理装置200との2つの装置に分割して実行させることができる。第2記憶部240は、例えば、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子で実現することができる。
第2制御部250は、例えば、第2DNN処理部230を制御する。具体的には、第2制御部250は、例えば、第2DNN処理部230を制御して、第2DNNを実行したり、中断したり、停止したりする。第2制御部250は、例えば、固体撮像装置100の第1制御部150から第1制御情報を受信し、受信した第1制御情報に基づいて、第2DNN処理部230を制御する。第2制御部250は、例えば、第2制御情報を生成する。第2制御部250は、例えば、生成した第2制御情報を固体撮像装置100に送信する。ここで、第2制御情報には、例えば、第1結果に対して、第2DNN処理部230が実行した第2DNNに関する情報を含む。第2制御情報には、例えば、同期信号が含まれる。第2制御部250は、例えば、第2DNN処理部230の実行完了通知を固体撮像装置100に送信する。第2制御部250は、パイプライン的に画像データに対してDNNアルゴリズムを実行するように、第2DNN処理部230を制御してもよい。具体的には、第2制御部250は、ある第1結果に対して第2DNNを実行し、第2結果を生成する。そして、第2DNN処理部230は、第2結果が他の処理装置に送信され、他の処理装置から第2結果に対する処理の完了通知を受ける前に、次の第1結果に対して第2DNNを実行するように第2DNN処理部230を制御してもよい。これにより、本実施形態は、複数の第1結果に対して、DNN処理を効率的に実行することができるようになる。
図4を用いて、第1DNN処理部130と、第2DNN処理部230との処理について説明する。図4は、第1DNN処理部130と、第2DNN処理部230との処理を説明するための模式図である。
まず、第1DNN処理部130は、撮像処理部120から画像データを受ける(ステップS1)。ここでは、第1DNN処理部130は、例えば、犬Dと、人Mとを含む画像データを受ける。
次いで、第1DNN処理部130は、ステップS1で受けた画像データに対して、第1DNNを実行する(ステップS2)。ここでは、第1DNN処理部130は、画像データに対して第1DNNを実行し、第1結果として、中間層などの特徴マップを生成する。特徴マップでは、領域R1と、領域R2とに、何かしらの物体が高確率で存在することが示されている。そして、第1DNN処理部130は、特徴マップを第2DNN処理部230に出力する。ここで、第1DNN処理部130は、第2DNN処理部230に対し、全体の特徴マップを出力してもよいし、領域R1と、領域R2との特徴マップのみを出力してもよい。言い換えれば、第1DNN処理部130は、撮像部110で撮像された画像データをエンコードして、第2DNN処理部230に出力する。そのため、第1DNN処理部130から出力されるデータには、撮像部110によって撮像された、犬Dや人Mの元の画像データが含まれていないので、個人情報を保護することができる。また、特徴マップは画像データと比べ容量が小さいので、固体撮像装置100から情報処理装置200に送信するデータ量も小さくすることができる。
そして、第2DNN処理部230は、ステップS2で得られた特徴マップ(第1結果)に対して、第2DNNを実行する(ステップS3)。これにより、第2DNN処理部230は、特徴マップの領域R1には犬Dが存在し、領域R2には人Mが存在していることを、認識することができる。
すなわち、本実施形態では、DNNアルゴリズムの一部を第1DNN処理部130で実行し、残りを第2DNN処理部230で実行することで、画像データに含まれている物体の認識処理を行っている。言い換えれば、第1DNN処理部130と、第2DNN処理部230との2つのDNN処理部によって、1つのDNNアルゴリズムを実行している。
[1−2.DNNアルゴリズムの構成]
図5を用いて、DNNアルゴリズムの構成の一例について説明する。図5は、DNNアルゴリズムの構成の一例を示す模式図である。
図5は、物体検知アルゴリズム20の構造の一例を示す模式図である。
まず、物体検知アルゴリズム20では、画像データに対してCNN(Convolutional Neural Network)が実行される。具体的には、画像データIが畳み込み層CLに入力される。そして、畳み込み層CLは、画像データI全体に対してCNNを実行して、特徴マップFM1を出力する。ここまでの処理が、CNN21を用いた画像処理である。
次の段では、特徴マップFM1に対して、物体領域認識アルゴリズムが実行される。特徴マップFMに対して物体領域認識アルゴリズムを実行することで、特徴マップに含まれる物体が存在する候補の領域が抽出される。具体的には、図5に示す例では、特徴マップFM1から物体が存在する候補の領域としてRoI1と、RoI2と、RoI3とが抽出される。ここまでの処理が、物体領域認識アルゴリズム22を用いた画像処理である。
次の段では、特徴マップFM1に、RoI1と、RoI2と、RoI3とを重畳させて、RoI特徴マップFM2を生成し、Pooling層に格納する。そして、RoI1と、RoI2と、RoI3とが重畳された特徴マップFM1に対して、RoI pooling層によってRoI poolingが実行される。RoI poolingは、RoI1と、RoI2と、RoI3とを含む領域を、個別の特徴マップとして抽出する処理である。これにより、RoI1と、RoI2と、RoI3とを含む領域が、それぞれ、特徴マップFM3と、特徴マップFM4と、特徴マップFM5として抽出される。特徴マップFM3と、特徴マップFM4と、特徴マップFM5とは、全結合層31に入力される。
次の段では、分類層33と、矩形回帰層34とは、全結合層31に入力された特徴マップFM3と、特徴マップFM4と、特徴マップFM5とを共有している。
分類層33は、特徴マップFM3と、特徴マップFM4と、特徴マップFM5とに含まれる物体の種類を分類する。そして、分類層33は、分類結果44を出力する。矩形回帰層34は、特徴マップFM3と、特徴マップFM4と、特徴マップFM5とに含まれる物体を囲うような矩形を生成する。
また、分類層33及び矩形回帰層34の処理とは並行に、特徴マップFM3と、特徴マップFM4と、特徴マップFM5がFCN(Fully Convolution Network)32に入力される。具体的には、特徴マップFM3と、特徴マップFM4と、特徴マップFM5とは、RoIAlign層によってRoIAlignが実行された後にFCN32に入力される。ここで。RoIAlignとは、画像データIからRoI特徴マップFM2を生成する際に発生する丸め誤差を、バイリニア補間法を用いて補正する処理である。
FCN32は、特徴マップFM3と、特徴マップFM4と、特徴マップFM5ごとに、各特徴マップに含まれている物体を分類したり、物体を囲うような矩形を生成したり、物体をマスキングしたりする。そして、FCN32は、特徴マップごとに、分類結果41と、矩形枠42と、マスク結果43とを出力する。ここまでの処理が、物体検知アルゴリズム20である。
本実施形態において、第1DNN処理部130と、第2DNN処理部230とは、図5に示したDNNアルゴリズムに含まれる処理のうち、分割して実行さえすれば、どのように分割して処理を実行してもよい。例えば、第1DNN処理部130が特徴マップFM1を生成するまでの処理を実行し、残りの処理を第2DNN処理部230が実行してもよい。また、例えば、第1DNN処理部130が物体検知アルゴリズム20において、特徴マップFM3と、特徴マップFM4と、特徴マップFM5とを抽出するまでの処理を実行し、第2DNN処理部230がFCN32の処理のみを実行してもよい。第1DNN処理部130が実行する処理は、任意に決定することができる。例えば。第1DNN処理部130がどの処理までを実行するかは、第1DNN処理部130の性能に応じて決定すればよい。
図6を用いて、第1DNN処理部130と、第2DNN処理部230とで実行する処理の一例について説明する。図6は、第1DNN処理部130と、第2DNN処理部230とで実行する処理の一例を示す模式図である。
まず、図6に示す処理では、例えば、撮像処理部120から複数の画像データが、第1DNN処理部130に入力される(ステップS11)。
次に、第1DNN処理部130は、撮像処理部120から受けた画像データに画像認識処理を実行することによって、画像データに含まれる物体を認識する(ステップS12)。具体的には、第1DNN処理部130は、各画像データに対して、CNNを実行することによって、画像データに含まれる物体を認識する。そして、第1DNN処理部130は、CNNによる各画像データに対する実行結果からメタデータを生成する。
次に、第2DNN処理部230は、第1DNN処理部130によって生成されたメタデータの関係性を、RNN(Recurrent Neural Network)を用いて認識する(ステップS13)。具体的には、第2DNN処理部230は、LSTM(Long short-term memory)ネットワークを用いて、メタデータの関係性を認識する。
そして、第2DNN処理部230は、メタデータの関係性を認識してキャプショニングを行う(ステップS14)。例えば、第2DNN処理部230は、画像データに対して、「少年」、「遊んでいる」、「ゴルフ」などのようなキャプショニングを行う。
上述のとおり、物体認識と、LSTMとを組み合わせることで画像フレーム間の関係性を認識することができる。この場合、本実施形態では、第1DNN処理部130によって物体認識を実行し、第2DNN処理部230によってLSTMを実行することで、1つのDNNアルゴリズムを分割して実行している。また、ここでは、複数の静止画像が入力されるものとして説明したが、本実施形態は、動画像に対しても同様に、認識処理を実行することができる。
[1−3.第1実施形態に係る固体撮像システムの処理]
図7を用いて、固体撮像装置100と、情報処理装置200との処理について説明する。図7は、固体撮像装置100と、情報処理装置200との処理の流れを示すシーケンス図である。
まず、固体撮像装置100は、第1DNN処理部130を制御する(ステップS101)。具体的には、固体撮像装置100は、第1制御部150によって、第1DNN処理部130を制御する。
次に、固体撮像装置100は、入力された画像データに対して第1DNNを実行する(ステップS102)。具体的には、固体撮像装置100は、第1DNN処理部130によって、入力画像データに対して第1DNNを実行し、第1結果を出力する。
次に、固体撮像装置100は、第1制御情報を生成する(ステップS103)。具体的には、固体撮像装置100は、第1制御部150によって、第1制御情報を生成する。
次に、固体撮像装置100は、第1結果及び第1制御情報を情報処理装置200に送信する(ステップS104)。具体的には、固体撮像装置100は、送信部171によって第1結果及び第1制御情報を、情報処理装置200に送信する。ここで、送信部171は、第2DNN処理部230が実行する前までに第1結果を情報処理装置200に送信すればよい。
次に、情報処理装置200は、第2DNN処理部230を制御する(ステップS105)。具体的には、情報処理装置200は、第1制御情報に基づいて、第2制御部250によって、第2DNN処理部230を制御する。
次に、情報処理装置200は、第1結果に対して第2DNNを実行する(ステップS106)。具体的には、情報処理装置200は、第2DNN処理部230によって、第2DNNを実行し、第2結果を生成する。
次に、情報処理装置200は、第2制御情報を生成する(ステップS107)。具体的には、情報処理装置200は、第2制御部250によって、第2制御情報を生成する。
次に、情報処理装置200は、第2結果を外部の装置に送信する(ステップS108)。具体的には、情報処理装置200は、第2DNN処理部230によって第2結果を外部の装置に送信する。なお、ステップS108において、情報処理装置200は、第2結果を外部の装置に送信しているものとして説明しているが、これは例示であり、本開示を限定するものではない。例えば、ステップS108において、情報処理装置200は、第2結果を外部の装置に出力しないで、保持しておいてもよい。
そして、情報処理装置200は、第2制御情報を固体撮像装置100に送信する(ステップS109)。具体的には、情報処理装置200は、送信部212によって第2制御情報を固体撮像装置100に送信する。
図8を用いて、固体撮像装置100と、情報処理装置200との処理についてより詳細に説明する。図8は、第1DNN処理部130と、第1制御部150と、第2DNN処理部230と、第2制御部250との処理の流れの一例を示すシーケンス図である。
まず、第1制御部150は、第1DNN処理部制御情報を、第1DNN処理部130に出力する(ステップS201)。第1制御部150は、第1DNN処理部制御情報によって、第1DNN処理部130にDNNを実行させたり、中断させたり、停止させたりする。
次に、第1DNN処理部130は、第1DNN処理部制御情報に従って、入力された画像データに対して、第1DNNを実行する(ステップS202)。
次に、第1DNN処理部130は、画像データに対する第1DNNの実行が完了すると、完了通知を第1制御部150に出力する(ステップS203)。
次に、第1制御部150は、完了通知を受けると、第1制御情報を、第2制御部250に送信する(ステップS204)。具体的には、第1制御情報は、送信部171から受信部211に送信される。そして、第2制御部250は、受信部211から第1制御情報を受ける。
次に、第1DNN処理部130は、第1DNNの実行結果である第1結果を第2DNN処理部230に送信する(ステップS205)。具体的には、第1結果は、送信部171から受信部211に送信される。そして、第2DNN処理部230は、受信部211から第1結果を受ける。
次に、第2制御部250は、第1制御情報に基づいて、第2DNN処理部制御情報を、第2DNN処理部230に出力する(ステップS206)。
次に、第2DNN処理部230は、第2DNN処理部制御情報に従って、入力された第1結果に対して第2DNNを実行する(ステップS207)。
次に、第2DNN処理部230は、第1結果に対する第2DNNの実行が完了すると、完了通知を第2制御部250に出力する(ステップS208)。
次に、第2DNN処理部230は、第2DNNの実行結果である第2結果を、外部に送信する(ステップS209)。なお、ステップS209において、第2DNN処理部230は、第2結果を外部に送信しているものとして説明しているが、これは例示であり、本開示を限定するものではない。例えば、ステップS209において、第2DNN処理部230は、第2結果を外部に出力しないで、保持しておいてもよい。
次に、第2制御部250は、第2制御情報を第1制御部150に送信する(ステップS210)。具体的には、第2制御情報は、送信部212から受信部171に送信される。そして、第1制御部150は、受信部171から第1制御情報を受ける。
(2.第2実施形態)
[2−1.第2実施形態に係る固体撮像システムの構成]
図9を用いて、第2実施形態に係る固体撮像システムの構成について説明する。図9は、第2実施形態に係る固体撮像システムの構成の一例を示すブロック図である。
図9に示すように、固体撮像システム1Aは、固体撮像装置100と、情報処理装置200Aとを含む。固体撮像システム1Aを構成する各装置の構成要素や動作については、第1実施形態に係る固体撮像システム1と同様なので、説明は省略する。
図10に示すように、固体撮像装置100と、情報処理装置200Aとは、例えば、インターネット通信網300を介して通信可能に接続されている。この場合、固体撮像装置100の通信I/F170と、情報処理装置200Aの通信I/F210とが、インターネット通信網300を介して通信可能に接続されていればよい。固体撮像装置100の通信I/F170と、情報処理装置200Aの通信I/F210とが、無線通信によって通信可能に接続されていてもよい。また、図10に示す固体撮像システム1Aは、固体撮像装置100と、情報処理装置200Aとを1つずつ含むが、これは例示であり、本開示を限定するものではない。固体撮像システム1Aは、固体撮像装置100と、情報処理装置200Aとをそれぞれ複数備えていてもよい。また、固体撮像システム1Aが含む固体撮像装置100と、情報処理装置200Aとの数は異なっていてもよい。第2実施形態において、情報処理装置200Aは、例えば、固体撮像装置100とインターネット通信網300や、無線によって通信可能に接続されたクラウドサーバである。固体撮像システム1Aは、例えば、FA(Factory Automation)や、監視カメラに適用することができる。
[2−2.第2実施形態に係る固体撮像システムの変形例の構成]
図11を用いて、本開示の第2実施形態に係る固体撮像システムの変形例について説明する。図11は、本開示の第2実施形態に係る固体撮像システムの接続関係の変形例を説明するための図である。
固体撮像システム1A−1は、固体撮像装置100−1と、固体撮像装置100−2と、・・・、固体撮像装置100−N(Nは3以上の整数)と、情報処理装置200A−1と、情報処理装置200A−2と、・・・、情報処理装置200−Nとを含む。すなわち、固体撮像システム1A−1は、複数の固体撮像装置と、複数の情報処理装置とが、インターネット通信網300を介して通信可能に接続されている。固体撮像システム1A−1において、固体撮像装置と、情報処理装置との数は同じであってもよいし、異なっていてもよい。
固体撮像システム1A−1は、固体撮像装置と、情報処理装置とのそれぞれを複数含んでいるが、これは例示であり、本開示を限定するものではない。固体撮像システム1A−1は、例えば、1台の固体撮像装置と、複数台の情報処理装置とから構成されていてもよい。また、固体撮像システム1A−1は、例えば、複数台の固体撮像装置と、1台の情報処理装置とから構成されていてもよい。
(3.ハードウェア構成)
上述してきた各実施形態に係る固体撮像装置100及び情報処理装置200は、例えば、図12に示すような構成のコンピュータ1000によって実現される。以下、第1の実施形態に係る固体撮像装置100を例に挙げて説明する。図12は、固体撮像装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェース1500、及び入出力インターフェース1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300又はHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係るプログラムを記録する記録媒体である。
通信インターフェース1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェースである。例えば、CPU1100は、通信インターフェース1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
入出力インターフェース1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェースである。例えば、CPU1100は、入出力インターフェース1600を介して、キーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェース1600を介して、ディスプレイやスピーカーやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェース1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェースとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が第1の実施形態に係る固体撮像装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、固体撮像装置100を構成する各部の機能を実現する。また、HDD1400には、本開示に係るプログラムが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
固体撮像装置と、情報処理装置とを含み、
前記固体撮像装置は、
画像データに対してDNNアルゴリズムの一部を第1DNNによって実行し、前記DNNアルゴリズムの残りを実行する情報処理装置に送信される第1結果を生成する第1DNN処理部を備え、
前記情報処理装置は、
前記第1結果に対して前記DNNアルゴリズムの残りを第2DNNによって実行して第2結果を生成する第2DNN処理部を備える、
固体撮像システム。
(2)
前記第1結果は、前記DNNアルゴリズムの中間層から出力された特徴マップを含む、
前記(1)に記載の固体撮像システム。
(3)
前記固体撮像装置は、少なくとも、前記第1DNNを実行するための前記DNNアルゴリズムの一部を記憶している第1記憶部をさらに備え、
前記情報処理装置は、少なくとも、前記第2DNNを実行するための前記DNNアルゴリズムの残りを記憶している第2記憶部をさらに備える、
前記(1)または(2)に記載の固体撮像システム。
(4)
前記第1記憶部と、前記第2記憶部とで、前記画像データに対して実行するための前記DNNアルゴリズムを記憶している、
前記(3)に記載の固体撮像システム。
(5)
前記固体撮像装置は、前記第1DNN処理部を制御する第1制御部をさらに備え、
前記情報処理装置は、前記第2DNN処理部を制御する第2制御部をさらに備える、
前記(1)〜(4)のいずれか1項に記載の固体撮像システム。
(6)
前記第1制御部は、前記第1DNNに関する情報を含む第1制御情報を生成して前記第2制御部に送信し、
前記第2制御部は、前記第2DNNに関する情報を含む第2制御情報を生成して前記第1制御部に送信する、
前記(5)に記載の固体撮像システム。
(7)
前記第1制御部は、前記第2制御情報に基づいて、前記第1DNN処理部を制御し、
前記第2制御部は、前記第1制御情報に基づいて、前記第2DNN処理部を制御する、
前記(5)または(6)に記載の固体撮像システム。
(8)
前記第1制御部は、前記第1DNN処理部の実行完了通知を前記第2制御部に送信し、
前記第2制御部は、前記第2DNN処理部の実行完了通知を前記第1制御部に送信する、
前記(5)〜(7)のいずれか1項に記載の固体撮像システム。
(9)
前記情報処理装置は、アプリケーションプロセッサまたはクラウドサーバである、
前記(1)〜(8)のいずれか1項に記載の固体撮像システム。
(10)
画像データに対してDNNアルゴリズムの一部を実行し、前記DNNアルゴリズムの残りを実行する情報処理装置に送信される第1結果を生成するDNN処理部を備える、
固体撮像装置。
(11)
前記第1結果は、前記DNNアルゴリズムの中間層から出力された特徴マップを含む、
前記(10)に記載の固体撮像装置。
(12)
少なくとも、前記DNNアルゴリズムの一部を記憶している記憶部をさらに備える、
前記(10)または(11)に記載の固体撮像装置。
(13)
画像データに対してDNNアルゴリズムの一部が実行された第1結果を固体撮像装置から受け、前記第1結果に対して前記DNNアルゴリズムの残りを実行して第2結果を生成するDNN処理部を備える、
情報処理装置。
(14)
少なくとも、前記第1結果に対して実行する、前記DNNアルゴリズムの残りを記憶している記憶部をさらに備える、
前記(13)に記載の情報処理装置。
(15)
画像データに対してDNNアルゴリズムの一部を実行して第1結果を生成し、
前記第1結果を情報処理装置に送信する、
画像処理方法。
(16)
画像データに対してDNNアルゴリズムの一部が実行された第1結果を固体撮像装置から受け、前記第1結果に対して前記DNNアルゴリズムの残りを実行して第2結果を生成する、
情報処理方法。
(17)
コンピュータを、
画像データに対してDNNアルゴリズムの一部を実行し、前記DNNアルゴリズムの残りを実行する情報処理装置に送信される第1結果を生成するDNN処理部、
として機能させるためのプログラム。
(18)
コンピュータを、
画像データに対してDNNアルゴリズムの一部が実行された第1結果を他の情報処理装置から受け、前記第1結果に対して前記DNNアルゴリズムの残りを実行して第2結果を生成するDNN処理部、
として機能させるためのプログラム。
1 固体撮像システム
10 筐体
11 第1基板
12 第2基板
100 固体撮像装置
110 撮像部
120 撮像処理部
130 第1DNN処理部
140 第1記憶部
150 第1制御部
160 セレクタ
170,210 通信I/F
171,212 送信部
172,211 受信部
180,220 通信制御部
200 情報処理装置
230 第2DNN処理部
240 第2記憶部
250 第2制御部

Claims (8)

  1. 固体撮像装置と、情報処理装置とを含み、
    前記固体撮像装置は、
    複数の画像データに対してDNNアルゴリズムの一部であるCNNを実行することで前記複数の画像データに含まれる物体を認識し、前記CNNの各画像データに対する実行結果からメタデータを生成する第1DNN処理部を備え、
    前記情報処理装置は、
    前記固体撮像装置から取得された前記メタデータに対して前記DNNアルゴリズムの残りであるLSTMネットワークを実行することで、前記メタデータの関係性を認識してキャプショニングを実行する第2DNN処理部を備え、
    前記固体撮像装置は、前記第1DNN処理部を制御する第1制御部をさらに備え、
    前記情報処理装置は、前記第2DNN処理部を制御する第2制御部をさらに備え、
    前記第1制御部は、前記CNNに関する情報を含む第1制御情報を生成して前記第2制御部に送信し、
    前記第2制御部は、前記LSTMネットワークに関する情報を含む第2制御情報を生成して前記第1制御部に送信する、
    固体撮像システム。
  2. 前記第1制御部は、前記第1DNN処理部の実行完了通知を前記第2制御部に送信し、
    前記第2制御部は、前記第2DNN処理部の実行完了通知を前記第1制御部に送信する、
    請求項1に記載の固体撮像システム。
  3. 前記固体撮像装置は、少なくとも、前記CNNを実行するための前記DNNアルゴリズムの一部を記憶している第1記憶部をさらに備え、
    前記情報処理装置は、少なくとも、前記LSTMネットワークを実行するための前記DNNアルゴリズムの残りを記憶している第2記憶部をさらに備える、
    請求項1に記載の固体撮像システム。
  4. 前記第1記憶部と、前記第2記憶部とで、前記複数の画像データに対して実行するための前記DNNアルゴリズムを記憶している、
    請求項3に記載の固体撮像システム。
  5. 前記第1制御部は、前記第2制御情報に基づいて、前記第1DNN処理部を制御し、
    前記第2制御部は、前記第1制御情報に基づいて、前記第2DNN処理部を制御する、
    請求項1に記載の固体撮像システム。
  6. 前記情報処理装置は、アプリケーションプロセッサまたはクラウドサーバである、
    請求項1に記載の固体撮像システム。
  7. 固体撮像装置の第1DNN処理部が、複数の画像データに対してDNNアルゴリズムの一部であるCNNを実行することで前記複数の画像データに含まれる物体を認識し、前記CNNの各画像データに対する実行結果からメタデータを生成し、
    情報処理装置の第2DNN処理部が、前記固体撮像装置から取得された前記メタデータに対して前記DNNアルゴリズムの残りであるLSTMネットワークを実行することで、前記メタデータの関係性を認識してキャプショニングを実行する
    ことを含み、
    前記固体撮像装置は、前記第1DNN処理部を制御する第1制御部をさらに備え、
    前記情報処理装置は、前記第2DNN処理部を制御する第2制御部をさらに備え、
    前記第1制御部は、前記CNNに関する情報を含む第1制御情報を生成して前記第2制御部に送信し、
    前記第2制御部は、前記LSTMネットワークに関する情報を含む第2制御情報を生成して前記第1制御部に送信する、
    画像処理方法。
  8. 請求項7に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2018177311A 2018-09-21 2018-09-21 固体撮像システム、画像処理方法及びプログラム Active JP6695947B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018177311A JP6695947B2 (ja) 2018-09-21 2018-09-21 固体撮像システム、画像処理方法及びプログラム
CN201980060063.7A CN112703726A (zh) 2018-09-21 2019-08-30 固态成像系统、固态成像装置、信息处理装置、图像处理方法、信息处理方法和程序
PCT/JP2019/034127 WO2020059464A1 (ja) 2018-09-21 2019-08-30 固体撮像システム、固体撮像装置、情報処理装置、画像処理方法、情報処理方法及びプログラム
US17/275,410 US20220058411A1 (en) 2018-09-21 2019-08-30 Solid state image capturing system, solid state image capturing device, information processing device, image processing method, information processing method, and program
EP19862570.9A EP3855726A4 (en) 2018-09-21 2019-08-30 SOLID IMAGING SYSTEM, SOLID IMAGING DEVICE, INFORMATION PROCESSING DEVICE, IMAGE PROCESSING METHOD, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018177311A JP6695947B2 (ja) 2018-09-21 2018-09-21 固体撮像システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020047191A JP2020047191A (ja) 2020-03-26
JP6695947B2 true JP6695947B2 (ja) 2020-05-20

Family

ID=69888776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018177311A Active JP6695947B2 (ja) 2018-09-21 2018-09-21 固体撮像システム、画像処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20220058411A1 (ja)
EP (1) EP3855726A4 (ja)
JP (1) JP6695947B2 (ja)
CN (1) CN112703726A (ja)
WO (1) WO2020059464A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077039A (ja) * 2019-11-07 2021-05-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム。
US20230039592A1 (en) * 2021-08-04 2023-02-09 Sony Semiconductor Solutions Corporation Image sensor with integrated efficient multiresolution hierarchical deep neural network (dnn)
KR20230065519A (ko) * 2021-11-05 2023-05-12 고려대학교 산학협력단 스플릿 러닝을 이용한 영상처리 시스템 및 영상처리방법
WO2023095666A1 (ja) * 2021-11-29 2023-06-01 ソニーセミコンダクタソリューションズ株式会社 信号処理装置および信号処理方法、並びに固体撮像素子
WO2023218935A1 (ja) * 2022-05-10 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 イメージセンサ、情報処理方法、プログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6320112B2 (ja) 2014-03-27 2018-05-09 キヤノン株式会社 情報処理装置、情報処理方法
US9665802B2 (en) * 2014-11-13 2017-05-30 Nec Corporation Object-centric fine-grained image classification
US10832138B2 (en) * 2014-11-27 2020-11-10 Samsung Electronics Co., Ltd. Method and apparatus for extending neural network
CN107851195B (zh) * 2015-07-29 2022-02-11 诺基亚技术有限公司 利用神经网络进行目标检测
JP2017187850A (ja) * 2016-04-01 2017-10-12 株式会社リコー 画像処理システム、情報処理装置、プログラム
US10210418B2 (en) * 2016-07-25 2019-02-19 Mitsubishi Electric Research Laboratories, Inc. Object detection system and object detection method
US20180039853A1 (en) * 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
US10929977B2 (en) * 2016-08-25 2021-02-23 Intel Corporation Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation
KR102374013B1 (ko) * 2016-09-16 2022-03-11 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 장치 및 전자 기기
WO2018094296A1 (en) * 2016-11-18 2018-05-24 Salesforce.Com, Inc. Sentinel long short-term memory
US10467458B2 (en) * 2017-07-21 2019-11-05 Altumview Systems Inc. Joint face-detection and head-pose-angle-estimation using small-scale convolutional neural network (CNN) modules for embedded systems
US10360494B2 (en) * 2016-11-30 2019-07-23 Altumview Systems Inc. Convolutional neural network (CNN) system based on resolution-limited small-scale CNN modules
EP3549102B1 (en) * 2016-12-02 2021-05-26 Google LLC Determining structure and motion in images using neural networks
WO2018099473A1 (zh) * 2016-12-02 2018-06-07 北京市商汤科技开发有限公司 场景分析方法和系统、电子设备
JP6832155B2 (ja) * 2016-12-28 2021-02-24 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び画像処理システム
JP7317717B2 (ja) * 2017-05-09 2023-07-31 ニューララ インコーポレイテッド ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法
WO2018218651A1 (en) * 2017-06-02 2018-12-06 Nokia Technologies Oy Artificial neural network
US10751548B2 (en) * 2017-07-28 2020-08-25 Elekta, Inc. Automated image segmentation using DCNN such as for radiation therapy
CN108229479B (zh) * 2017-08-01 2019-12-31 北京市商汤科技开发有限公司 语义分割模型的训练方法和装置、电子设备、存储介质
US11200665B2 (en) * 2017-08-02 2021-12-14 Shanghai Sixth People's Hospital Fundus image processing method, computer apparatus, and storage medium
US10282589B2 (en) * 2017-08-29 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
US20190079533A1 (en) * 2017-09-13 2019-03-14 TuSimple Neural network architecture method for deep odometry assisted by static scene optical flow
KR101977174B1 (ko) * 2017-09-13 2019-05-10 이재준 영상 분석 방법, 장치 및 컴퓨터 프로그램
JP2019096006A (ja) * 2017-11-21 2019-06-20 キヤノン株式会社 情報処理装置、情報処理方法
JP6985121B2 (ja) * 2017-12-06 2021-12-22 国立大学法人 東京大学 物体間関係認識装置、学習済みモデル、認識方法及びプログラム
US11544348B2 (en) * 2018-03-05 2023-01-03 Tata Consultancy Services Limited Neural network based position estimation of target object of interest in video frames
CN108681743B (zh) * 2018-04-16 2019-12-06 腾讯科技(深圳)有限公司 图像对象识别方法和装置、存储介质
CN108932508B (zh) * 2018-08-13 2022-03-18 杭州大拿科技股份有限公司 一种题目智能识别、批改的方法和系统
WO2020051776A1 (en) * 2018-09-11 2020-03-19 Intel Corporation Method and system of deep supervision object detection for reducing resource usage
EP3627379A1 (en) * 2018-09-24 2020-03-25 Siemens Aktiengesellschaft Methods for generating a deep neural net and for localising an object in an input image, deep neural net, computer program product, and computer-readable storage medium

Also Published As

Publication number Publication date
CN112703726A (zh) 2021-04-23
EP3855726A1 (en) 2021-07-28
WO2020059464A1 (ja) 2020-03-26
JP2020047191A (ja) 2020-03-26
EP3855726A4 (en) 2021-11-17
US20220058411A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP6695947B2 (ja) 固体撮像システム、画像処理方法及びプログラム
JP6697042B2 (ja) 固体撮像システム、固体撮像方法及びプログラム
US11290633B2 (en) Electronic device for recording image as per multiple frame rates using camera and method for operating same
KR20230013243A (ko) 프레임에서 타겟 오브젝트를 위한 고정된 크기 유지
TW201918997A (zh) 用於使用卷積神經網路的視頻超解析度的方法和設備
US9609192B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
CN109756671B (zh) 使用多个相机记录图像的电子装置及其操作方法
JP2019512194A (ja) モバイルデバイスを用いたhdrビデオキャプチャのためのシステムおよび方法
KR20210051242A (ko) 멀티 렌즈 영상 복원 장치 및 방법
JP7259756B2 (ja) 撮像装置および信号処理装置
US11393078B2 (en) Electronic device and method for correcting image on basis of image transmission state
WO2013088690A1 (ja) 撮像装置、撮像システム、撮像方法および画像処理方法
JP2017183952A (ja) 撮像装置およびその制御方法、撮像素子
JP6290949B2 (ja) フォト・クラスターの検出および圧縮
WO2023146698A1 (en) Multi-sensor imaging color correction
KR20200072136A (ko) 렌즈 어레이 카메라 및 렌즈 어레이 카메라의 구동 방법
JP6925474B2 (ja) 固体撮像装置、情報処理システム、固体撮像装置の動作方法及びプログラム
JP7105976B2 (ja) 固体撮像装置、固体撮像装置の動作方法及びプログラム
US10748305B2 (en) Image capturing apparatus that can reduce amount of data that is to be recorded, method for controlling the image capturing apparatus, and storage medium
US11843847B2 (en) Device, information processing apparatus, control method therefor, and computer-readable storage medium
US11825207B1 (en) Methods and systems for shift estimation for one or more output frames
JP7094828B2 (ja) 集積回路装置
KR102370881B1 (ko) 이미지 데이터의 속성에 기반하여 이미지를 압축할 수 있는 전자 장치 및 방법
TW202332255A (zh) 影像感測器、影像處理系統及其操作方法
JP2021166381A (ja) 情報処理装置、改ざん検知装置、情報処理方法、および検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191119

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200422

R150 Certificate of patent or registration of utility model

Ref document number: 6695947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150