JP7451407B2 - センサ装置、電子機器、センサシステム及び制御方法 - Google Patents

センサ装置、電子機器、センサシステム及び制御方法 Download PDF

Info

Publication number
JP7451407B2
JP7451407B2 JP2020536817A JP2020536817A JP7451407B2 JP 7451407 B2 JP7451407 B2 JP 7451407B2 JP 2020536817 A JP2020536817 A JP 2020536817A JP 2020536817 A JP2020536817 A JP 2020536817A JP 7451407 B2 JP7451407 B2 JP 7451407B2
Authority
JP
Japan
Prior art keywords
data
sensor
fpga
circuit
sensor information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020536817A
Other languages
English (en)
Other versions
JPWO2020116046A1 (ja
Inventor
渉二 瀬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2020116046A1 publication Critical patent/JPWO2020116046A1/ja
Application granted granted Critical
Publication of JP7451407B2 publication Critical patent/JP7451407B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Power Engineering (AREA)
  • Neurology (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Indication And Recording Devices For Special Purposes And Tariff Metering Devices (AREA)
  • Selective Calling Equipment (AREA)
  • Image Processing (AREA)

Description

本開示は、センサ装置、電子機器、センサシステム及び制御方法に関する。
近年、IoT(Internet of Things)の社会への浸透に伴い、センサやデバイスといった「モノ」がインターネットを通じてクラウドやフォグやサーバなどに接続して情報交換することで、「モノ」同士で相互に制御するシステムの開発が盛んになってきている。また、IoTにより収集したビッグデータを活用して様々なサービスをユーザに提供するシステムの開発が盛んに行なわれている。
特開2000-235644号公報 特開2018-26682号公報
しかしながら、IoTに限らず、カメラなどのセンサを用いて情報を取得する場合、センサ自体が使用や経年等で劣化することで、正確な情報を収集することができないという課題が存在する。
そこで本開示では、センサが劣化した場合でも正確な情報を取得することを可能にするセンサ装置、電子機器、センサシステム及び制御方法を提案する。
上記の課題を解決するために、本開示に係る一形態のセンサ装置は、センサ情報を取得するセンサと、前記センサで取得された前記センサ情報に所定の処理を実行するFPGA(Field-Programmable Gate Array)と、前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリとを備える。
第1の実施形態に係るセンサシステム1の概略構成例を示す模式図である。 第1の実施形態に係る電子機器としての通信デバイスの概略構成例を示すブロック図である。 第1の実施形態に係るイメージセンサのチップ構成を示す模式図である。 第1の実施形態に係るフレキシブルロジックチップの他の構成例を示す図である。 第1の実施形態に係るフレキシブルロジックチップのさらに他の構成例を示す図である。 第1の実施形態に係るイメージセンサの動作を説明するための図である。 第1の実施形態に係る通信デバイスの概略動作例を示すフローチャートである。 第1の実施形態に係るサーバの概略動作例を示すフローチャートである。 第1の実施形態に係る変更項目の例を示す図である。 従来型のデバイス構成を示すブロック図である。 図10に例示したデバイス構成でデータを処理する際の流れを説明するための図である。 図10に例示したデバイス構成で1000個のデータを処理する際に要するクロックサイクル数を示す図である。 第1の実施形態に係るイメージセンサのデバイス構成を示すブロック図である。 第1の実施形態に係るイメージセンサがデータを処理する際の流れを説明するための図である。 第1の実施形態に係るイメージセンサで1000個のデータを処理する際に要するクロックサイクル数を示す図である。 第2の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 第2の実施形態に係るイメージセンサのチップ構成を示す模式図である。 第3の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 第3の実施形態に係るイメージセンサのチップ構成を示す模式図である。 第4の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 第4の実施形態に係るイメージセンサのチップ構成を示す模式図である。 第5の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 第5の実施形態に係るイメージセンサのチップ構成を示す模式図である。 第6の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 第6の実施形態に係る通信デバイスの他の概略構成例を示すブロック図である。 第6の実施形態に係る通信デバイスのさらに他の概略構成例を示すブロック図である。 第6の実施形態に係る通信デバイスのさらに他の概略構成例を示すブロック図である。 第6の実施形態に係る通信デバイスのさらに他の概略構成例を示すブロック図である。 第7の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 第7の実施形態に係るDNN解析処理(機械学習処理)の一例を説明するための図である。 第7の実施形態に係る動作の概略例を示すフローチャートである。 第8の実施形態に係る通信デバイスの概略構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.はじめに
2.第1の実施形態
2.1 システム構成
2.2 デバイス構成
2.3 スタック構造
2.4 イメージセンサの動作
2.5 各処理とチップとの関係
2.6 イメージセンサの劣化補正
2.7 劣化補正の手順
2.8 画像データの解析(機械学習)
2.9 動作フロー
2.9.1 通信デバイス側の動作
2.9.2 サーバ側の動作
2.10 設定データ/回路データの変更
2.11 高速処理の手法
2.12 作用・効果
3.第2の実施形態
3.1 デバイス構成
3.2 チップ構成
3.3 作用・効果
4.第3の実施形態
4.1 デバイス構成
4.2 チップ構成
4.3 作用・効果
5.第4の実施形態
5.1 デバイス構成
5.2 チップ構成
5.3 作用・効果
6.第5の実施形態
6.1 デバイス構成
6.2 チップ構成
6.3 作用・効果
7.第6の実施形態
7.1 デバイス構成
7.2 デバイス構成の変形例
7.3 作用・効果
8.第7の実施形態
8.1 デバイス構成
8.2 DNN解析処理
8.3 動作フロー
8.4 作用・効果
9.第8の実施形態
10.応用例
1.はじめに
現在、カメラモジュールなどのセンサを搭載するデバイスとしては、例えば、スマートフォンや携帯電話機などのウェアラブル端末、定点カメラや監視カメラなどの固定された撮像デバイス、ドローン、自動車、家庭内ロボット、ファクトリーオートメーション(FA)ロボット、監視ロボット、自律ロボットなどの移動するデバイス、医療機器等、種々のデバイスが存在するが、これらのデバイスでは、仕様頻度や使用年数が増えることにより、カメラの経年劣化が発生する。例えば、カメラが経年劣化した場合に浮上する問題としては、以下のような項目を例示することができる。
第1に、カメラの劣化に伴う画質や制御等の調整は、パーソナルコンピュータなどを用いて設定値の変更する必要があり、メーカ等へ修理に出すなどの手間が生じる。
第2に、デバイスに組み込まれたソフトウエアをアップデートすることで画質や制御等を変更することは可能であるが、画質や制御等の変化はデバイスごとに個体差があるため、ソフトウエアのアップデートでは個別の調整が困難である。
第3に、自動車やドローンや各種ロボットなど、リアルタイムに画像データを解析してその結果に基づき自律的に移動するデバイスについては、画質劣化や制御調整の不具合が生じた場合にリアルタイムで設定値を補正する必要が生じる。
第4に、医療の分野では、例えば、カプセル内視鏡などのカメラが劣化していた場合に再検査が必要となり、体力や費用等の面で患者への負担が大きくなる。
第5に、デバイス自身で画質や制御等の調整を行なう場合、デバイス内に調整用のシステムを組み込むか、あるいは、外部のシステムとデバイスとを接続する必要が生じ、全体としてシステム構成が大型化し、それにより、コストや設置面積や重量等が増加してしまう。
第6に、リアルタイムな画像解析が必要なデバイスでは、シーケンシャルに各段階の処理が実行されるが、その場合、各段階でメモリがシェアされる構造のため、例えば、割り込み処理が入った場合に処理時間が非常に長くなってしまう。
そこで、以下の実施形態では、カメラなどのセンサが使用や経年等で劣化した場合でも正確な情報を取得することを可能にするセンサ装置、電子機器、センサシステム及び制御方法について、例を挙げて説明する。
2.第1の実施形態
まず、第1の実施形態について、図面を参照して詳細に説明する。なお、本実施形態では、劣化を補正する対象のセンサをイメージセンサとし、それを搭載するデバイスを通信デバイスとした場合を例示する。ただし、センサは、イメージセンサに限られず、温度センサや湿度センサや放射線計測器などの種々のセンサを適用することが可能である。
2.1 システム構成
図1は、本実施形態に係るセンサシステム1の概略構成例を示す模式図である。図1に示すように、センサシステム1は、通信機能を備えた1台以上の通信デバイス2と、サーバ3とが、ネットワーク4を介して接続された構成を備える。
通信デバイス2は、撮像機能の他に、上述したように、ネットワーク4を介してサーバ3と通信するための通信機能を備えている。なお、通信デバイス2としては、スマートフォンや携帯電話機などのウェアラブル端末、定点カメラや監視カメラなどの固定された撮像デバイス、ドローン、自動車、家庭内ロボット、ファクトリーオートメーション(FA)ロボット、監視ロボット、自律ロボットなどの移動するデバイス、医療機器等、センシング機能と通信機能とを備える種々のデバイスを適用することが可能である。
サーバ3は、例えば、クラウドサーバやフォグサーバなど、ネットワークに接続された種々のサーバであってよい。また、ネットワーク4には、例えば、インターネットやLAN(Local Area Network)や移動体通信網や公衆回線網など、種々のネットワークを適用することが可能である。
2.2 デバイス構成
図2は、本実施形態に係る電子機器としての通信デバイスの概略構成例を示すブロック図である。図2に示すように、通信デバイス2は、例えば、固体撮像装置としてのイメージセンサ10と、送受信部18とを備える。イメージセンサ10は、例えば、受光部11と、高速信号処理回路12と、フレキシブルロジック回路13と、メインプロセッサ14と、メモリ15と、ドライバ16と、不揮発性メモリ17とを含んで構成される。
受光部11は、例えば、フォトダイオードなどの光電変換素子が行方向及び列方向に2次元マトリクス状に配列された光センサアレイ(画素アレイともいう)と、光センサアレイの受光面に設けられたレンズ等の光学系及びそれを駆動するアクチュエータとを備える。
高速信号処理回路12は、受光部11の各光電変換素子から読み出されたアナログの画素信号をデジタルの画素信号に変換するADCなどのアナログ回路と、ADCでデジタル値に変換された画素信号に基づいてCDS(Correlated Double Sampling)処理などのデジタル処理を実行するロジック回路とを含む。
メモリ15は、高速信号処理回路12から出力されたデジタルの画像データを格納する。また、メモリ15は、後述するフレキシブルロジック回路13やメインプロセッサ14で所定の処理が施された画像データを格納する。さらに、メモリ15は、フレキシブルロジック回路13に含まれるFPGA(Field-Programmable Gate Array)に所定の回路構成を実現するための各種データも格納する。以下、FPGAの論理コンポーネントを接続して回路構成を実現するためのデータを回路データと称し、回路データにより実現された回路構成に対して与えるパラメータを設定データと称する。
フレキシブルロジック回路13は、上述したように、FPGAを含み、後述するメインプロセッサ14と連携することで、メモリ15に格納された画像データに対して、黒レベル処理、欠陥補正、シェーディング補正、歪み補正、リニアマトリックス処理、ガンマ補正、輝度色彩分離、エッジ強調処理、色差マトリックス処理、リサイズ・ズームなどの処理を実行する。また、フレキシブルロジック回路13は、その他にも、制御系補正、自動露光(AE)、自動フォーカス(AF)、自動ホワイトバランス調整(AWB)、同期処理出力インタフェース(IF)処理など、各種処理を実行する。
メインプロセッサ14は、通信デバイス2内の各部を制御する。また、メインプロセッサ14は、フレキシブルロジック回路13と連携して動作することで、上記列挙した各種処理をパイプライン処理として実行する。
ドライバ16は、例えば、垂直駆動回路や水平転送回路やタイミング制御回路等を含み、高速信号処理回路12における後述する画素回路を駆動することで、高速信号処理回路12に受光部11からの画素信号の読出しを実行させる。また、ドライバ16は、受光部11におけるレンズやシャッタなどの光学系を駆動するアクチュエータの制御も実行する。
不揮発性メモリ17は、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)などで構成され、ドライバ16が高速信号処理回路12内の各種回路や受光部11内のアクチュエータを制御する際のパラメータ等を記憶する。
送受信部18は、ネットワーク4を介してサーバ3と通信するための通信部であり、例えば、送信データをDA(Digital to Analog)変換するDAC181と、DA変換されたデータをネットワーク4へ送信する送信アンテナ182と、ネットワーク4からデータを受信する受信アンテナ184と、受信アンテナ184で受信されたデータをAD(Analog to Digital)変換するADC183とを備える。ただし、送受信部18は、無線に限定されず、有線であってもよい。
2.3 スタック構造
図3は、本実施形態に係るイメージセンサのチップ構成を示す模式図である。なお、図3では、簡略化のため、ドライバ16と不揮発性メモリ17とが省略されている。
図3に示すように、イメージセンサ10における、例えば、受光部11、高速信号処理回路12、フレキシブルロジック回路13、メインプロセッサ14及びメモリ15は、それぞれ1つのチップで構成されている。
受光部11は、半導体基板よりなる受光チップ110に光センサアレイ111が作り込まれた構成を備える。高速信号処理回路12は、半導体基板よりなるアナログ・ロジックチップ120に、画素回路121とADC122とCDS回路123とゲイン調整回路124とが作り込まれた構成を備える。なお、ゲイン調整回路124は、例えば、CDS処理後のデジタルの画素信号のゲインをRGBそれぞれで調整する回路であってよい。
フレキシブルロジック回路13は、半導体基板よりなるフレキシブルロジックチップ130にFPGA131が作り込まれた構成を備える。メインプロセッサ14は、半導体基板よりなるプロセッサチップ140にMPU(Micro Processing Unit)141が作り込まれた構成を備える。なお、プロセッサチップ140に形成されるMPU141は、1つに限られず、複数であってもよい。
メモリ15は、半導体基板よりなるメモリチップ150にSRAM(Static RAM)やDRAM(Dynamic RAM)などのメモリ領域151が作り込まれた構成を備える。メモリ領域151における一部の領域は、FPGA131に回路構成を設定するための回路データやその設定データを格納するためのメモリ領域(以下、プログラマブルメモリ領域という)152として使用される。
各チップ110、120、130、140及び150は、図3に示す順序で上から積層される。したがって、イメージセンサ10は、受光チップ110と、アナログ・ロジックチップ120と、メモリチップ150と、フレキシブルロジックチップ130と、プロセッサチップ140とが順に積層されたスタック構造を備える。
なお、イメージセンサ10を構成する他の構成、例えば、ドライバ16及び不揮発性メモリ17は、それぞれ独立又は共通のチップに作り込まれてもよいし、チップ110、120、130、140及び150における何れかのチップに作り込まれてもよい。同様に、送受信部18は、独立のチップに作り込まれてもよいし、上記チップの何れかに作り込まれてもよい。
また、フレキシブルロジックチップ130には、FPGA131だけでなく、図4又は図5に例示するように、ロジック回路132が作り込まれていてもよい。なお、図4は、FPGA131とロジック回路132とが分離した領域にそれぞれ作り込まれている場合を例示し、図5は、ロジック回路132の一部にFPGA131が作り込まれている場合を例示している。
さらに、本実施形態では、それぞれ個別のチップ110、120、130、140及び150に作り込まれた受光部11、高速信号処理回路12、フレキシブルロジック回路13、メインプロセッサ14及びメモリ15を積層したスタック構造を例示しているが、上述する実施形態にあるように、スタック構造は、種々変形することが可能である。例えば、スマートフォンや携帯電話機などのウェアラブル端末、定点カメラや監視カメラなどの固定された撮像デバイスなど、高速な画像処理が要求されないデバイスを通信デバイス2とした場合には、メインプロセッサ14とフレキシブルロジック回路13とメモリ15とを1つのチップとすることで、製造コストを抑えることが可能となる。また、ドローン、自動車、家庭内ロボット、ファクトリーオートメーション(FA)ロボット、監視ロボット、自律ロボットなどの移動するデバイスを通信デバイス2とした場合には、本実施形態や後述する実施形態で例示するようなスタック構造とすることで、処理スピードを高めてリアルタイム性を向上することが可能となる。
2.4 イメージセンサの動作
つづいて、図2に示す通信デバイス2におけるイメージセンサ10の動作について、図6を用いて説明する。
図6に示すように、イメージセンサ10が実行する動作は、大まかに、光電変換ステップS100、信号処理ステップS200、ベースステップS300、制御系ステップS400、及び、絵作りステップS500の5段階に分けることができる。
光電変換ステップS100では、受光部11における光電変換素子が、入射した光を入射光量に応じた電荷に変換する光電変換101を実行する。
信号処理ステップS200では、光電変換素子に蓄積された電荷が、高速信号処理回路12における画素回路によりアナログの画像信号として読み出される。なお、高速信号処理回路12は、例えば、行単位で画素信号を読み出す方式など、複数の画素から同時に画素信号を読み出すことが可能な方式が採用された信号処理回路であってよい。
読み出されたアナログの画素信号は、高速信号処理回路12におけるADCにてデジタルの画素信号に変換される(201)。そして、AD変換された画素信号に対し、高速信号処理回路12におけるCDS回路がCDS処理を実行する(201)。これにより、ノイズが除去された画像データが生成される。生成された画像データは、一時、メモリ15に格納される。
ベースステップS300では、メモリ15に格納されている画像データに対し、黒レベル処理301と、欠陥補正302と、シェーディング補正303と、歪み補正304とが順次実行される。
なお、黒レベル処理301とは、例えば、受光部11において発生した暗電流などによって生じるノイズを除去して画像データの黒レベルを補正する処理であってよい。
欠陥補正302とは、例えば、素子不良等により欠落した画素の画素値を隣接画素の画素値等に基づいて補間する処理であってよい。
シェーディング補正303とは、光源の向きやレンズ収差の影響による明るさのムラを補正する処理であってよい。
歪み補正304とは、像高の高い領域におけるレンズ等に起因した画像の歪みを補正する処理であってよい。
制御系ステップS400では、ドライバ16が受光部11のアクチュエータや画素回路を駆動する際に使用する各種パラメータを補正する制御系補正401が実行される。なお、制御系ステップS400は、信号処理ステップS200の後に限られず、任意のタイミングで実行されてよい。
絵作りステップS500では、自動露光(AE)、自動フォーカス(AF)及び自動ホワイトバランス調整(AWB)(501)と、同期処理502と、リニアマトリックス処理503と、ガンマ補正504と、輝度色彩分離505と、エッジ強調処理506と、色差マトリックス処理507と、リサイズ・ズーム508とが順次実行される。
なお、自動露光(AE)とは、受光部11の光電変換素子に対する電荷蓄積時間を自動的に調整する処理であってよい。また、自動フォーカス(AF)は、受光部11の光学系の焦点を自動的に合せる処理であってよい。さらに、自動ホワイトバランス調整(AWB)は、高速信号処理回路12の画素回路によって読み出されたR/G/B値それぞれのゲインを調整することで白レベルを自動的に調整する処理であってよい。
同期処理502とは、非同期に処理された結果を同期させる処理であってよい。
リニアマトリックス処理503とは、高速信号処理回路12の画素回路によって読み出されたR/G/B値をマトリックス変換することで受光部11の入力分光特性を理想的な値に調整する処理であってよい。
ガンマ補正504とは、画像データの輝度レベルを表示デバイス(例えば、CRT(Cathode Ray Tube))のガンマ特性にて補正する処理であってよい。
輝度色彩分離505とは、YC変換とも称され、R/G/Bの画像データの色空間を変換して、Y/B-Y/R-Yの画像データを生成する処理であってよい。
エッジ強調処理506とは、画像データの空間周波数特性の劣化を補償したり、輪郭を強調したりすることで、空間周波数特性の劣化に起因した輪郭のボケを改善するための処理であってよい。
色差マトリックス処理507とは、YC変換後の画像データにおけるB-Y/R-Yに対してマトリックス変換を行なうことで、輝度を変化させることなく色相や飽和度を調整する処理であってよい。
リサイズ・ズーム508とは、表示デバイスの表示サイズに合せて画像データの大きさを変更したり、特定の領域をズームしたりする処理であってよい。
その後、上記処理後の画像データ(以下、処理済み画像データという)を不図示のインタフェースを介して外部のISP(Image Signal Processor)やAP(Application Processor)等へ出力する出力IF処理509が実行される。なお、出力IF処理509は、例えば、NTSCの場合には、YUVやエンコードやカメラリングなどを含む処理であってよい。また、処理済み画像データは、例えば、一旦、メモリ15に再度格納された後に外部へ出力されてもよいし、フレキシブルロジック回路13又はメインプロセッサ14からインタフェースを介して直接出力されてもよい。
2.5 各処理とチップとの関係
以上の流れにおいて、光電変換101は、例えば、受光部11の光センサアレイ111において実行される。また、A/D及びCDS201は、例えば、高速信号処理回路12のADC122及びCDS回路123において実行される。
黒レベル処理301、欠陥補正302、シェーディング補正303、歪み補正304、制御系補正401、AE,AF及びAWB501、同期処理502、リニアマトリックス処理503、ガンマ補正504、輝度色彩分離505、エッジ強調処理506、色差マトリックス処理507、リサイズ・ズーム508及び出力IF処理509は、例えば、フレキシブルロジック回路13におけるFPGA131にプログラマブルメモリ領域152からそれぞれの回路構成を実現するための回路データを読み込むとともに、各回路構成に対する設定データを対応するレジスタに登録することで実行される。したがって、設定データや回路データを変更することで、各処理の入力に対する出力を調整することができる。
なお、図4又は図5に例示したように、フレキシブルロジック回路13の一部をFPGA131とし、残りをロジック回路132とした場合では、FPGA131が、欠陥補正302、シェーディング補正303、歪み補正304、制御系補正401、AE,AF及びAWB501、同期処理502、リニアマトリックス処理503及びエッジ強調処理506を実行し、ロジック回路132が、黒レベル処理301、ガンマ補正504、輝度色彩分離505、色差マトリックス処理507、リサイズ・ズーム508及び出力IF処理509を実行するように構成することも可能である。
また、メインプロセッサ14は、フレキシブルロジック回路13が実行する各処理をパイプライン処理するように、フレキシブルロジック回路13と連携して動作する。
2.6 イメージセンサの劣化補正
上述した構成において、イメージセンサ10の例えば光センサアレイ111は、仕様頻度や使用年数が増えることにより経年劣化する。このようなイメージセンサ10の劣化は、例えば、FPGA131の回路構成やそのパラメータを変更することで補正することができる。
そこで本実施形態では、イメージセンサ10の劣化の状態を常時、定期的又は任意のタイミングで検出し、検出された劣化の状態に応じて、FPGA131の回路構成及び/又はそのパラメータを変更する。これにより、イメージセンサ10を劣化状態に応じてカスタマイズすることが可能となるため、イメージセンサ10が使用や経年等で劣化した場合でも正確な情報(例えば、画像データ)を取得することが可能となる。
イメージセンサ10の劣化補正は、例えば、イメージセンサ10で取得された画像データを、ネットワーク4を介してサーバ3へ送信することで実行される。
サーバ3は、例えば、ネットワーク4を介して通信デバイス2から受信した画像データを解析することで、イメージセンサ10における劣化箇所や劣化原因を特定する。そして、サーバ3は、特定された劣化箇所や劣化原因の補正を目的として、イメージセンサ10のフレキシブルロジック回路13のFPGA131に設定する設定データ及び/又は回路データを生成し、生成した設定データ及び/又は回路データを、ネットワーク4を介して通信デバイス2へ送信(フィードバック)する。
サーバ3から設定データ及び/又は回路データを受信した通信デバイス2は、これをイメージセンサ10におけるメモリ15に格納する。イメージセンサ10は、メモリ15に格納された設定データ及び/又は回路データをFPGA131に設定することで、劣化箇所や劣化原因を補正する。
なお、劣化箇所や劣化原因を補正するための設定データ及び/又は回路データは、例えば、過去のデータを機械学習することで得られた学習済みモデルを利用して生成することができる。
2.7 劣化補正の手順
サーバ3側で画像データを解析して通信デバイス2におけるフレキシブルロジック回路13の設定及び/又は回路構成を変更する手順としては、以下のような手法を例示することができる。
まず第1に、通信デバイス2からサーバ3へ画像データを送信する。
第2に、サーバ3側で画像データを解析する(機械学習)。
第3に、サーバ3において解析結果に基づいて設定データ及び/又は回路データを生成する。
第4に、生成された設定データ及び/又は回路データをサーバ3から通信デバイス2へフィードバックする(バイナリデータ転送)。
第5に、通信デバイス2において受信した設定データ及び/回路データをメモリ15のプログラマブルメモリ領域152における所定の番地に書き込む。
第6に、プログラマブルメモリ領域152内の設定データ及び/又は回路データをロードすることで、FPGA131に新規回路を構成したり、FPGA131に実現された回路構成のパラメータを変更したりする。
以上のような動作を、例えば、フレームごとに実行することで、FPGA131の更新を常時行うことができる。
なお、FPGA131のレイヤ構成としては、FPGA131のみ構成されているもの(図3参照)、FPGA131とロジック回路132とで構成されているもの(図4参照)、FPGA131とロジック回路132とが混載しているもの(ベースのロジック回路132に対してFPGA131で回路変更を行っていくもの。図5参照)など、用途によって適宜変更することが可能である。
また、サーバ3側における機械学習の結果に基づき、FPGA131に新規回路を追加することや、スピード向上のためにFPGA131の回路構成を変更すること(例えば、一部機能の削減)などを実現することも可能である。例えば、高速信号処理回路12から出力される画像データを10ビットの画像データから14ビットの画像データに変更したり、8ビットの画像データに変更したりすることも、FPGA131の回路構成を変更することで可能となる。
2.8 画像データの解析(機械学習)
イメージセンサ10の劣化の状態は、例えば、イメージセンサ10で取得された画像データを解析することで、判断することができる。画像データの解析では、例えば、イメージセンサ10で取得した画像データをサーバ3側で保管しておき、画像データの解析時に、保管しておいた画像データと新たに取得された画像データとを比較することで、イメージセンサ10が劣化しているか否かを判断することが可能である。
その際、サーバ3側に保管しておく画像データとしては、通信デバイス2の出荷前に取得しておいた画像データや、通信デバイス2がユーザの手に渡った際の初期設定時に取得しておいた画像データなど、イメージセンサ10の経年劣化が小さい段階での画像データを利用するとよい。
また、劣化判断のために通信デバイス2からサーバ3へ送信する画像データは、任意のタイミングで取得された画像データであってもよいし、所定の条件が満たされた際に取得された画像データであってもよい。なお、所定の条件としては、サーバ3において保管されている画像データと同じ領域を撮像した画像データであることや、サーバ3において保管されている画像データを撮像した際と同じ照度条件の下で撮像された画像データであることなどとすることができる。
若しくは、例えば、イメージセンサ10が機械シャッタを備えている場合には、機械シャッタを閉じた状態で取得した画像データをサーバ3側に保管しておき、劣化判断時には、同じく機械シャッタを閉じた状態で画像データを取得し、その画像データをサーバ3へ送信するように構成されてもよい。その場合、黒レベルやノイズや欠陥画素等からイメージセンサ10の劣化状態を確認することが可能となる。
また、画像データの解析においては、例えば、機械学習により画像データの劣化の状態とその原因とを学習して学習済みモデルを構築しておくことで、後の解析時における原因究明の正確性と迅速性とを上場することが可能となる。なお、機械学習の手法としては、RNN(Recurrent Neural Network)やCNN(Convolution Neural Network)など、種々の手法を利用することが可能である。
2.9 動作フロー
つづいて、イメージセンサ10の劣化を検出して補正する際の動作を、フローチャートを用いて詳細に説明する。図7は、本実施形態に係る通信デバイスの概略動作例を示すフローチャートである。図8は、本実施形態に係るサーバの概略動作例を示すフローチャートである。
2.9.1 通信デバイス側の動作
図7に示すように、通信デバイス2は、まず、常時又は定期的に、サーバ3に対して、イメージセンサ10で取得された画像データの解析を要求し(ステップS101)、サーバ3から解析の許可応答を受信するのを待機する(ステップS102のNO)。サーバ3から解析の許可応答を受信すると(ステップS102のYES)、通信デバイス2は、解析の繰返し回数を管理する値Nに1をセットする(ステップS103)。つづいて、通信デバイス2は、イメージセンサ10を駆動して画像データを取得する(ステップS104)。この際に取得される画像データは、図6に例示した各段階の処理が施された処理済み画像データであってよい。
次に、通信デバイス2は、処理済み画像データをアナログデータにDA変換後に暗号化する(ステップS105)。なお、暗号化は、例えば、メインプロセッサ14又は不図示のアプリケーションプロセッサ(暗号化部)において実行されてよい。つづいて、通信デバイス2は、暗号化済みの画像データをネットワーク4を介してサーバ3へ送信し(ステップS106)、サーバ3からの応答を待機する(ステップS107のNO)。これに対し、サーバ3は、後述において図8を用いて説明するように、通信デバイス2から受信した画像データを解析し、画像劣化があると認められる場合には、当該画像劣化を解消するためにFPGA131に設定する設定データを生成する。
サーバ3から画像劣化無しの解析結果を受信した場合(ステップS107のYES)、通信デバイス2は、本動作を終了する。一方、画像劣化がある旨の解析結果を受信した場合(ステップS107のNO)、通信デバイス2は、サーバ3からネットワーク4を介して暗号化済みの設定データを受信し(ステップS108)、受信した暗号化済み設定データの暗号化を解除する(ステップS109)。なお、暗号化の解除(復号)は、例えば、メインプロセッサ14又は不図示のアプリケーションプロセッサ(復号部)において実行されてよい。つづいて、通信デバイス2は、暗号化が解除された設定データで、メモリ領域151のプログラマブルメモリ領域152に格納されているFPGA131の設定データを更新し(ステップS110)、更新した設定データをFPGA131に設定する(ステップS111)。なお、受信した設定データに受光部11の光学系を駆動するアクチュエータや高速信号処理回路12の各部に対する設定データが含まれていた場合には、通信デバイス2は、この設定データで不揮発性メモリ17内の所定のパラメータを更新する。これにより、ドライバ16による各部の駆動が調整される。
次に、通信デバイス2は、繰返し回数Nを1インクリメントし(ステップS112)、インクリメント後の値Nが予め設定しておいた繰返し回数の上限値(本例では3)より大きいか否かを判定する(ステップS113)。繰返し回数Nが上限値以下である場合(ステップS113のNO)、通信デバイス2は、ステップS104へリターンし、再度、以降の動作を実行する。一方、繰返し回数Nが上限値よりも大きい場合(ステップS113のYES)、通信デバイス2は、ステップS114へ進む。
ステップS114では、通信デバイス2は、繰返し回数Nを1にリセットする。つづいて、通信デバイス2は、上述のステップS104~107と同様に、イメージセンサ10から取得した画像データをDA変換後に暗号化してサーバ3へ送信し(ステップS106)、その後、サーバ3からの応答を待機する(ステップS115~S118)。これに対し、サーバ3は、後述において図8を用いて説明するように、通信デバイス2から受信した画像データを解析し、画像劣化があると認められる場合には、当該画像劣化を解消するためにFPGA131に組み込む回路データを生成する。
サーバ3から画像劣化無しの解析結果を受信した場合(ステップS118のYES)、通信デバイス2は、本動作を終了する。一方、画像劣化がある旨の解析結果を受信した場合(ステップS118のNO)、通信デバイス2は、サーバ3からネットワーク4を介して暗号化済みの回路データを受信し(ステップS119)、受信した暗号化済み回路データの暗号化を解除する(ステップS120)。つづいて、通信デバイス2は、暗号化が解除された回路データで、メモリ領域151のプログラマブルメモリ領域152に格納されているFPGA131の回路データを更新し(ステップS121)、更新した回路データをFPGA131に組み込むことで、FPGA131の回路構成を変更する(ステップS122)。
次に、通信デバイス2は、繰返し回数Nを1インクリメントし(ステップS123)、インクリメント後の値Nが予め設定しておいた繰返し回数の上限値(本例では3)より大きいか否かを判定する(ステップS124)。繰返し回数Nが上限値以下である場合(ステップS124のNO)、通信デバイス2は、ステップS115へリターンし、再度、以降の動作を実行する。一方、繰返し回数Nが上限値よりも大きい場合(ステップS124のYES)、通信デバイス2は、本動作を終了する。
2.9.2 サーバ側の動作
図8に示すように、サーバ3は、本動作を起動後、通信デバイス2から解析要求を受信するまで待機し(ステップS131のNO)、解析要求を受信すると(ステップS131のYES)、まず、解析要求を送信した通信デバイス2を特定する(ステップS132)。
次に、サーバ3は、解析要求を送信した通信デバイス2の特定に成功すると、特定した通信デバイス2のプログラマブルメモリ領域152に格納されている回路データ及び設定データを、所定の記憶装置から読み出すとともに(ステップS133)、解析要求を送信した通信デバイス2に対して、解析の許可応答を送信する(ステップS134)。なお、サーバ3の記憶装置には、登録済みの通信デバイス2のプログラマブルメモリ領域152に格納されている回路データ及び設定データが、通信デバイス2ごとに格納されている。すなわち、各通信デバイス2の回路データ及び設定データは、通信デバイス2とサーバ3とで共有されている。
次に、サーバ3は、繰返し回数Nに1をセットし(ステップS135)、その後、通信デバイス2から暗号化済み画像データを受信するまで待機する(ステップS136のNO)。暗号化済み画像データを受信すると(ステップS136のYES)、サーバ3は、暗号化済み画像データの暗号化を解除し(ステップS137)、暗号化が解除された画像データを解析し(ステップS138)、その結果に基づいて、画像劣化があるか否かを判定する(ステップS139)。
画像劣化がない場合(ステップS139のNO)、サーバ3は、画像劣化がないことを通信デバイス2へ通知し(ステップS157)、ステップS158へ進む。一方、画像劣化がある場合(ステップS139のYES)、ステップS138の解析結果に基づいて、イメージセンサ10における画像劣化の原因となる箇所を特定し、特定された箇所の新たな設定データを生成する(ステップS140)。そして、サーバ3は、生成した設定データを通信デバイス2に対応付けて所定の記憶装置に保存する(ステップS141)とともに、生成した設定データを暗号化し(ステップS142)、暗号化済みの設定データをネットワーク4を介して通信デバイス2へ送信する(ステップS143)。なお、新たな設定データを生成には、上述したように、過去のデータに対する機械学習により得られた学習済みモデルが用いられてよい。
次に、サーバ3は、繰返し回数Nを1インクリメントし(ステップS144)、インクリメント後の値Nが予め設定しておいた繰返し回数の上限値(本例では3)より大きいか否かを判定する(ステップS145)。繰返し回数Nが上限値以下である場合(ステップS145のNO)、サーバ3は、ステップS136へリターンし、再度、以降の動作を実行する。一方、繰返し回数Nが上限値よりも大きい場合(ステップS145のYES)、通信デバイス2は、ステップS146へ進む。
ステップS146では、サーバ3は、繰返し回数Nを1にリセットする。つづいて、サーバ3は、通信デバイス2から暗号化済み画像データを受信するまで待機する(ステップS147のNO)。暗号化済み画像データを受信すると(ステップS147のYES)、サーバ3は、暗号化済み画像データの暗号化を解除し(ステップS148)、暗号化が解除された画像データを解析し(ステップS149)、その結果に基づいて、画像劣化があるか否かを判定する(ステップS150)。
画像劣化がない場合(ステップS150のNO)、サーバ3は、画像劣化がないことを通信デバイス2へ通知し(ステップS157)、ステップS158へ進む。一方、画像劣化がある場合(ステップS150のYES)、ステップS149の解析結果に基づいて、イメージセンサ10における画像劣化の原因となる箇所を特定し、特定された箇所の新たな回路データを生成する(ステップS151)。そして、サーバ3は、生成した回路データを通信デバイス2に対応付けて所定の記憶装置に保存する(ステップS152)とともに、生成した回路データを暗号化し(ステップS153)、暗号化済みの回路データをネットワーク4を介して通信デバイス2へ送信する(ステップS154)。なお、新たな回路データを生成には、上述したように、過去のデータに対する機械学習により得られた学習済みモデルが用いられてよい。
次に、サーバ3は、繰返し回数Nを1インクリメントし(ステップS155)、インクリメント後の値Nが予め設定しておいた繰返し回数の上限値(本例では3)より大きいか否かを判定する(ステップS156)。繰返し回数Nが上限値以下である場合(ステップS156のNO)、サーバ3は、ステップS147へリターンし、再度、以降の動作を実行する。一方、繰返し回数Nが上限値よりも大きい場合(ステップS156のYES)、通信デバイス2は、ステップS158へ進む。
ステップS158では、サーバ3は、本動作を終了するか否かを判定し、終了する場合(ステップS158のYES)、本動作を終了する。一方、終了しない場合(ステップS158のNO)、サーバ3は、ステップS131へリターンし、以降の動作を実行する。
以上のような動作を実行することで、通信デバイス2のフレキシブルロジック回路13におけるFPGA131の回路構成及び/又はパラメータがカスタマイズされて、イメージセンサ10の劣化が補正される。それにより、通信デバイス2において、良好な状態の画像データを取得することが可能となる。
なお、通信デバイス2からサーバ3へ画像データをアップロードする頻度は、適宜変更されてよい。また、例えば、リアルタイム性が重要となるドローンや自動車やロボットなどでは、通信デバイス2からサーバ3へ送信する画像データのデータ量は小さい方が好ましい。そのような場合には、画像データのデータ量を低減するために、送信対象の画像データをVGAレベルやQVGAレベルで圧縮したり、ビニングなどでデータを圧縮したりしてもよい。
2.10 設定データ/回路データの変更
また、画像データの解析から特定されたイメージセンサ10の劣化状態に応じて変更される項目(設定データ及び回路データ)の例を、図9の表に示す。
図9に示すように、劣化の原因には、イメージセンサ10の光センサアレイ111における光電変換素子によるものと、レンズやアクチュエータなどの光学系のモジュールによるものとが存在する。例えば、黒レベル処理301、AE,AF,AWB501、同期処理502、リニアマトリックス処理503、ガンマ補正504、輝度色彩分離505、エッジ強調処理506、色差マトリックス処理507等に劣化の原因が認められる場合には、光電変換素子(センサ)に劣化の原因があると考えられる。また、シェーディング補正303、歪み補正304、制御系補正401、リサイズ・ズーム508等に劣化の原因が認められる場合には、光学系のモジュールに劣化の原因があると考えられる。なお、欠陥補正302に劣化の原因が認められる場合には、光電変換素子及びモジュールの少なくとも一方に劣化の原因があると考えられる。
そこで、本実施形態では、図9の表に示すように、黒レベル処理301に劣化の原因が認められる場合には、例えば、設定データの1つであるオプティカルブラック(OB)値を変更する。
また、欠陥補正302に劣化の原因が認められる場合には、例えば、設定データに欠陥補正値を追加するか、回路データにおけるクラスタ以上の補正回路を変更するか、又は、回路データにおけるシミ改善回路を変更する。
さらに、シェーディング補正303に劣化の原因が認められる場合には、例えば、設定データの1つであるシェーディング補正値を変更するか、又は、回路データにおけるシェーディングアルゴリズムを変更する(例えば、シェーディングカーブ関数の変更)。
さらにまた、歪み補正304に劣化の原因が認められる場合には、例えば、回路データに歪み補正回路(糸巻き型又は樽型)を追加する。
さらにまた、制御系補正401に劣化の原因が認められる場合には、例えば、設定データであるAF、OIS(手ブレ補正)及び/又はキャリブレーションデータを変更するか、又は、回路データにサーボ調整、ホールゲイン調整及び/又は光軸調整を目的としたドライバ制御調整フォワード回路を追加する。
さらにまた、AE,AF,AWB501に劣化の原因が認められる場合には、例えば、回路データにおけるAE,AWBを実行する回路のアルゴリズムを変更する。
さらにまた、同期処理502に劣化の原因が認められる場合には、例えば、設定データの1つである補間補正値を変更するか、又は、回路データにおける補間アルゴリズムを変更する。
さらにまた、リニアマトリックス処理503に劣化の原因が認められる場合には、例えば、設定データの1つである分光補正値を変更するか、又は、回路データにける等式関数アルゴリズムを変更する。
さらにまた、ガンマ補正504に劣化の原因が認められる場合には、例えば、設定データの1つであるガンマ補正値(コントラスト)を変更する。
さらにまた、エッジ強調処理506に劣化の原因が認められる場合には、例えば、設定データの1つである輪郭(アパーチャ)補正・ノイズ補正値を変更するか、又は、回路データにおける輪郭(アパーチャ)補正・ノイズ補正アルゴリズムを変更する。
さらにまた、色差マトリックス処理507に劣化の原因が認められる場合には、例えば、設定データの1つであるカラーマトリックス値を変更する。
さらにまた、リサイズ・ズーム508に劣化の原因が認められる場合には、例えば、設定データの1つであるズーム値を変更する。
さらにまた、出力IF処理509に劣化の原因が認められる場合には、例えば、設定データの1つであるモードによる出力レーンを変更する。
以上のような設定データの変更及び/又は回路データの変更を実行することで、例えば、像高80パーセント以上の領域で画像劣化を抑制することが可能となる。なお、メモリを追加したい場合には、メモリを追加することが可能なように構成されてもよい。
2.11 高速処理の手法
次に、本実施形態に係る通信デバイス2が実行する高速処理の手法について、従来と比較しつつ説明する。
図10は、従来型のデバイス構成を示すブロック図である。図11は、図10に例示したデバイス構成でデータを処理する際の流れを説明するための図である。図12は、図10に例示したデバイス構成で1000個のデータを処理する際に要するクロックサイクル数を示す図である。一方、図13は、本実施形態に係るイメージセンサのデバイス構成を示すブロック図である。図14は、本実施形態に係るイメージセンサがデータを処理する際の流れを説明するための図である。図15は、本実施形態に係るイメージセンサで1000個のデータを処理する際に要するクロックサイクル数を示す図である。
図10に示すように、ロジック回路913、メインプロセッサ914及びメモリ915がバス919を介して接続されている従来型のデバイス構成では、1つのレイヤにロジック回路913とメインプロセッサ914とメモリ15とが混載している。そのため、シーケンシャルな処理により、複雑のプログラムをフレキシブルに実行することができる。
ただし、各処理を実行する回路(演算器ともいう)間でメモリ15をシェアする仕組みであるため、プロセッサコアの増加に伴い性能が落ちたり、並列処理に時間がかかったりなどのデメリットが発生する。例えば、図6に例示した各処理を実行する際には、メインプロセッサ914がバス919を介してメモリ915から対象の1つずつデータを吸い上げ、これをロジック回路913に順次入力して処理を実行する必要がある。したがって、従来型のデバイス構造では、図11に例示するように、各データDに対する処理が順次行なわれるような、シーケンシャルな処理の流れとなる。
そのため、例えば、同じレベルの1000個の命令を処理する場合には、1クロックあたりに実行できる命令数が1であることから、図12に示すように、全ての命令を処理するためには、少なくとも1000クロックサイクルが必要となってしまう。
これに対し、本実施形態に係るイメージセンサ10は、各処理を実行するチップ110、120、130、140及び150が積層されたスタック構造を備える。そのため、イメージセンサ10では、図13に示すように、フレキシブルロジック回路13がメモリ15から直接データを吸い上げて処理することが可能となる。
このようなスタック構造であることの利点を生かすことで、複雑なプログラムをフレキシブルに実行することが可能になることや、メインプロセッサ14で待機中のデータを吸い上げ、フレキシブルロジック回路13でレジスタと演算回路を生成して並列処理に処理することなどのメリットが得られる。例えば、図14に示すように、イメージセンサ10では、複数のデータDを並列に処理するパイプライン処理が可能となる。
このように、並列処理を可能とすることで、リアルタイム性能を向上することが可能となる。また、次処理が別処理の場合でも、FPGA131の回路構成を変更して複雑なプログラムもフレキシブルに実行することが可能となる。
例えば、1クロックあたりに実行できる命令数を2とした場合には、すなわち、パイプライン処理の並列度を2とした場合には、図15に示すように、同じレベルの1000個の命令を処理するのに要するクロックサイクル数を、例えば、図12に例示した従来型のデバイス構造と比較して、半分の500クロックサイクルとすることが可能となる。すなわち、パイプライン処理の並列度をさらに上げることで、同じレベルの命令を処理するのに要するクロックサイクル数をその倍数分の1程度に低減することが可能である。
また、図14に示すように、1回目の処理S1を機械学習しておくことで、2回目以降の処理S2において、処理すべきデータDの数を低減することが可能となるため、より高速な処理を実現することも可能となる。
なお、FPGA131への新規回路の追加、処理スピード向上のための回路構成の変更(並列処理の改善、一部機能の削減等)などは、サーバ3側における画像データの解析による機械学習によって行われてよい。
2.12 作用・効果
以上で説明したように、本実施形態によれば、イメージセンサ10で取得された画像データに基づき、画像劣化を補正するように、FPGA131のパラメータや回路構成を変更することが可能となる。それにより、イメージセンサ10が劣化した場合でも正確な画像データを取得することが可能になる。
また、本実施形態に係るイメージセンサ10は、受光チップ110、アナログ・ロジックチップ120、メモリチップ150、フレキシブルロジックチップ130及びプロセッサチップ140が積層されたスタック構造を備える。それにより、受光部11、高速信号処理回路12、メモリ15、フレキシブルロジック回路13及びメインプロセッサ14をバスを介さずに接続することが可能となるため、複雑のプログラムをフレキシブルに動かせたり、メインプロセッサ14の待機中にデータを吸い上げてFPGA131側でレジスタと演算回路を生成したり、各処理をパイプラインにて並列処理したりすることが可能となる。それにより、リアルタイム性能の向上や、複雑なプログラムに対するフレキシブルな対応が可能になる。
3.第2の実施形態
次に、第2の実施形態について、図面を参照して詳細に説明する。上述した第1の実施形態では、受光部11と高速信号処理回路12とが異なるチップ(受光チップ110及びアナログ・ロジックチップ120。図3参照)に作り込まれていた場合を例示した。これに対し、第2の実施形態では、受光部11と高速信号処理回路12とが同一のチップに作り込まれている場合について、例を挙げて説明する。なお、以下の説明において、第1の実施形態と同様の構成、動作及び効果については、それを引用することで、その重複する説明を省略する。
3.1 デバイス構成
図16は、本実施形態に係る通信デバイスの概略構成例を示すブロック図である。図16に示すように、本実施形態に係るイメージセンサ20は、例えば、受光部+高速信号処理回路21と、フレキシブルロジック回路13と、メインプロセッサ14と、メモリ15と、ドライバ16と、不揮発性メモリ17とを含んで構成される。フレキシブルロジック回路13、メインプロセッサ14、メモリ15、ドライバ16及び不揮発性メモリ17、並びに、送受信部18は、第1の実施形態において図2を用いて説明したそれらと同様であってよい。
3.2 チップ構成
図17は、本実施形態に係るイメージセンサのチップ構成を示す模式図である。なお、図17では、図3と同様に、簡略化のため、ドライバ16と不揮発性メモリ17とが省略されている。
図17に示すように、イメージセンサ20では、受光部11を構成する光センサアレイ111と、高速信号処理回路12を構成する画素回路121、ADC122、CDS回路123及びゲイン調整回路124とが、1つの受光チップ110に作り込まれた構成を備える。
3.3 作用・効果
以上のような構成によっても、第1の実施形態と同様に、イメージセンサ20で取得された画像データに基づき、画像劣化を補正するように、FPGA131のパラメータや回路構成を変更することが可能となる。それにより、イメージセンサ20が劣化した場合でも正確な画像データを取得することが可能になる。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
4.第3の実施形態
また、上述した第1の実施形態では、高速信号処理回路12の直下にメモリ15を配置した場合を例示したが、メモリ15の位置は、高速信号処理回路12の直下に限定されない。そこで第3の実施形態では、メモリ15をスタック構造における最下層に配置した場合について、例を挙げて説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それを引用することで、その重複する説明を省略する。
4.1 デバイス構成
図18は、本実施形態に係る通信デバイスの概略構成例を示すブロック図である。図18に示すように、本実施形態に係るイメージセンサ30では、例えば、第1の実施形態において図2を用いて説明したイメージセンサ10と同様の構成において、メモリ15が最下層であるメインプロセッサ14の下層に配置された構成を備える。また、イメージセンサ30は、イメージセンサ10における高速信号処理回路12が信号処理回路32に置き換えられている。信号処理回路32は、高速信号処理回路12のような高速な読出しが可能な信号処理回路であってもよいし、高速信号処理回路12よりも低速な読出しを実行する信号処理回路であってもよい。また、その他の構成は、第1の実施形態において図2を用いて説明した構成と同様であってよい。
4.2 チップ構成
図19は、本実施形態に係るイメージセンサのチップ構成を示す模式図である。なお、図19では、図3と同様に、簡略化のため、ドライバ16と不揮発性メモリ17とが省略されている。
図19に示すように、イメージセンサ30では、フレキシブルロジックチップ130とメモリチップ150との間に介在するプロセッサチップ140に、フレキシブルロジックチップ130のFPGA131と、メモリチップ150のメモリ領域151におけるプログラマブルメモリ領域152とを直接的に接続するための貫通配線142が設けられている。FPGA131とプログラマブルメモリ領域152とは、この貫通配線142を介して直接接続されている。
なお、貫通配線142は、例えば、プロセッサチップ140を貫通するTSV(Through Silicon Via)などであってよい。
4.3 作用・効果
以上のような構成によっても、上述した実施形態と同様に、イメージセンサ30で取得された画像データに基づき、画像劣化を補正するように、FPGA131のパラメータや回路構成を変更することが可能となる。それにより、イメージセンサ30が劣化した場合でも正確な画像データを取得することが可能になる。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
5.第4の実施形態
また、上述した第3の実施形態では、受光部11と信号処理回路32とが異なるチップ(受光チップ110及びアナログ・ロジックチップ120。図19参照)に作り込まれていた場合を例示した。これに対し、第4の実施形態では、受光部11と信号処理回路32とが同一のチップに作り込まれている場合について、例を挙げて説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それを引用することで、その重複する説明を省略する。
5.1 デバイス構成
図20は、本実施形態に係る通信デバイスの概略構成例を示すブロック図である。図20に示すように、本実施形態に係るイメージセンサ40は、例えば、受光部+信号処理回路41と、フレキシブルロジック回路13と、メインプロセッサ14と、メモリ15と、ドライバ16と、不揮発性メモリ17とを含んで構成される。フレキシブルロジック回路13、メインプロセッサ14、メモリ15、ドライバ16及び不揮発性メモリ17、並びに、送受信部18は、第1の実施形態において図2を用いて説明したそれらと同様であってよい。
5.2 チップ構成
図21は、本実施形態に係るイメージセンサのチップ構成を示す模式図である。なお、図21では、図3と同様に、簡略化のため、ドライバ16と不揮発性メモリ17とが省略されている。
図21に示すように、イメージセンサ40では、受光部11を構成する光センサアレイ111と、信号処理回路32を構成する画素回路121、ADC122、CDS回路123及びゲイン調整回路124とが、1つの受光チップ110に作り込まれた構成を備える。
5.3 作用・効果
以上のような構成によっても、上述した実施形態と同様に、イメージセンサ40で取得された画像データに基づき、画像劣化を補正するように、FPGA131のパラメータや回路構成を変更することが可能となる。それにより、イメージセンサ40が劣化した場合でも正確な画像データを取得することが可能になる。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
6.第5の実施形態
また、上述した第4の実施形態では、受光部11と信号処理回路32とが同一の受光チップ110(図21参照)に作り込まれていた場合を例示した。これに対し、第5の実施形態では、信号処理回路32とフレキシブルロジック回路13とが同一のチップに作り込まれている場合について、例を挙げて説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それを引用することで、その重複する説明を省略する。
6.1 デバイス構成
図22は、本実施形態に係る通信デバイスの概略構成例を示すブロック図である。図22に示すように、本実施形態に係るイメージセンサ50は、例えば、受光部11と、信号処理回路+フレキシブルロジック回路53と、メインプロセッサ14と、メモリ15と、ドライバ16と、不揮発性メモリ17とを含んで構成される。受光部11、メインプロセッサ14、メモリ15、ドライバ16及び不揮発性メモリ17、並びに、送受信部18は、第1の実施形態において図2を用いて説明したそれらと同様であってよい。
6.2 チップ構成
図23は、本実施形態に係るイメージセンサのチップ構成を示す模式図である。なお、図23では、図3と同様に、簡略化のため、ドライバ16と不揮発性メモリ17とが省略されている。
図23に示すように、イメージセンサ50では、信号処理回路32を構成する画素回路121、ADC122、CDS回路123及びゲイン調整回路124と、フレキシブルロジック回路13を構成するFPGA131(及びロジック回路132)とが、1つのフレキシブルロジックチップ130に作り込まれた構成を備える。
6.3 作用・効果
以上のような構成によっても、上述した実施形態と同様に、イメージセンサ50で取得された画像データに基づき、画像劣化を補正するように、FPGA131のパラメータや回路構成を変更することが可能となる。それにより、イメージセンサ50が劣化した場合でも正確な画像データを取得することが可能になる。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
7.第6の実施形態
上述した第1~第5の実施形態では、イメージセンサ10、20、30、40又は50で取得した画像データをサーバ3側で解析することでその劣化の原因を特定し、特定された劣化原因に基づいて、サーバ3がFPGA131の設定データ及び/又は回路データの更新データを生成する場合について例示した。これに対し、第6の実施形態では、通信デバイス側で画像データの解析から更新データの生成までを実行する場合について、例を挙げて説明する。
7.1 デバイス構成
図24は、本実施形態に係る通信デバイスの概略構成例を示すブロック図である。図24に示すように、本実施形態に係る通信デバイスにおけるイメージセンサ10は、例えば、第1の実施形態において図2を用いて説明したイメージセンサ10と同様の構成を備える。ただし、本実施形態では、例えば、メインプロセッサ14が、メモリ15内に格納されている処理済み画像データを解析してその劣化の原因を特定し、特定された劣化原因に基づいて、FPGA131の設定データ及び/又は回路データの更新データを生成する。生成された設定データ及び/又は回路データの更新データは、上述した実施形態と同様に、メモリ15における所定のプログラマブルメモリ領域152内に格納され、FPGA131に設定される。
なお、メインプロセッサ14は、上述した実施形態におけるサーバ3と同様に、過去のデータを機械学習することで学習済みモデルを生成し、生成した学習済みモデルを利用して設定データ及び/又は回路データの更新データを生成するように構成されてもよい。
7.2 デバイス構成の変形例
なお、図24では、第1の実施形態をベースとした場合を例示したが、ベースとなるイメージセンサの構成は、第1の実施形態に限られない。例えば、図25に示すように、第2の実施形態に係るイメージセンサ20をベースとすることも可能であるし、図26に示すように、第3の実施形態に係るイメージセンサ30をベースとすることも可能であるし、図27に示すように、第4の実施形態に係るイメージセンサ40をベースとすることも可能であるし、図28に示すように、第5の実施形態に係るイメージセンサ50をベースとすることも可能である。
7.3 作用・効果
以上のように、画像データの解析から更新データの生成までを通信デバイス側で行なう構成とした場合でも、上述した実施形態と同様に、イメージセンサ10、20、30、40又は50で取得された画像データに基づき、画像劣化を補正するように、FPGA131のパラメータや回路構成を変更することが可能となる。それにより、イメージセンサ10、20、30、40又は50が劣化した場合でも正確な画像データを取得することが可能になる。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
8.第7の実施形態
上述した第6の実施形態では、メインプロセッサ14が機械学習を実行して学習済みモデルを作成し、それを用いて設定データ及び/又は回路データの更新データを生成する場合について例示したが、通信デバイス側で画像データの解析から更新データの生成までを実行する場合、通信デバイス内に機械学習を実行する専用のチップが設けられてもよい。
8.1 デバイス構成
図29は、本実施形態に係る通信デバイスの概略構成例を示すブロック図である。図29に示すように、本実施形態に係る通信デバイスにおけるイメージセンサ60は、例えば、第6の実施形態において図24を用いて説明したイメージセンサ10と同様の構成に対し、機械学習を実行するDNN(Deep Neural Network)回路61が追加された構成を備える。DNN回路61は、例えば、フレキシブルロジック回路13とメインプロセッサ14との間の層に配置されてもよい。
8.2 DNN解析処理
図30は、本実施形態に係るDNN解析処理(機械学習処理)の一例を説明するための図である。図30に示すように、DNN解析ステップS600では、例えば、第1の実施形態において図6を用いて例示した、光電変換ステップS100、信号処理ステップS200、ベースステップS300、制御系ステップS400、及び、絵作りステップS500の5つのステップのうち、信号処理ステップS200、ベースステップS300、制御系ステップS400、及び、絵作りステップS500それぞれの処理の結果が入力層に与えられる。DNN解析ステップS600は、入力層から隠れ層を介して出力層までの各層のノード(ニューロンともいう)間を結ぶ各エッジの重みを求めることで、画像データの劣化を低減するのに最適となる設定データ及び/又は回路データを出力層に出現させる学習済みモデルが作成される。
DNN回路61及びメインプロセッサ14は、以上のようにして作成された学習済みモデルを用いることで、画像データの劣化を低減するのに最適となる設定データ及び/又は回路データの更新データを生成し、作成した更新データを、メモリ15のプログラマブルメモリ領域152に格納する。
8.3 動作フロー
つづいて、イメージセンサ60の劣化を検出して補正する際の動作を、フローチャートを用いて詳細に説明する。図31は、本実施形態に係る動作の概略例を示すフローチャートである。
図31に示すように、本動作では、まず、メインプロセッサ14が、解析の繰返し回数を管理する値Nに1をセットする(ステップS201)。つづいて、高速信号処理回路12を制御することで、受光部11から画像データが読み出される(ステップS202)。
次に、メインプロセッサ14及びフレキシブルロジック回路13が、取得した画像データに対して、図6に例示した各段階の処理を施し、それぞれの段階の結果をDNN回路61に入力することで、画像データを解析する(ステップS203)。そして、メインプロセッサ14は、解析結果に基づいて、画像劣化があるか否かを判定する(ステップS204)。
画像劣化がない場合(ステップS204のNO)、メインプロセッサ14は、本動作を終了する。一方、画像劣化がある場合(ステップS204のYES)、メインプロセッサ14及びDNN回路61は、ステップS203の解析結果に基づいて、イメージセンサ60における画像劣化の原因となる箇所を解析し(ステップS205)、その解析結果に基づいて、新たな設定データ及び/又は回路データを生成する(ステップS206)。
次に、メインプロセッサ14は、生成した設定データ及び/又は回路データで、メモリ領域151のプログラマブルメモリ領域152に格納されているFPGA131設定データ及び/又は回路データを更新し(ステップS207)、更新した設定データをFPGA131に設定するとともに、更新した回路データをFPGA131に組み込むことで、FPGA131の回路構成を変更する(ステップS208)。なお、受光部11の光学系を駆動するアクチュエータや高速信号処理回路12の各部に対する設定データを更新する場合には、この設定データで不揮発性メモリ17内の所定のパラメータが更新される。これにより、ドライバ16による各部の駆動が調整される。
次に、メインプロセッサ14は、繰返し回数Nを1インクリメントし(ステップS209)、インクリメント後の値Nが予め設定しておいた繰返し回数の上限値(本例では3)より大きいか否かを判定する(ステップS210)。繰返し回数Nが上限値以下である場合(ステップS210のNO)、メインプロセッサ14は、ステップS202へリターンし、再度、以降の動作を実行する。一方、繰返し回数Nが上限値よりも大きい場合(ステップS210のYES)、メインプロセッサ14は、本動作を終了する。
8.4 作用・効果
以上のように、DNN回路61を通信デバイス側に組み込むことで、通信デバイス側で機械学習に基づいて、画像データの解析から更新データの生成までを行なうことが可能となる。それにより、イメージセンサ10、20、30、40又は50が劣化した場合でも正確な画像データを取得することが可能になる。
なお、本実施形態では、第6の実施形態において図24を用いて説明したイメージセンサ10をベースとした場合を説明したが、これに限定されず、図25~図28を用いて説明したイメージセンサ20、30、40又は50など、他の実施形態をベースとすることも可能である。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
9.第8の実施形態
また、上述した実施形態のうち、第1~第5の実施形態では、サーバ3側で画像データの解析から更新データの生成までを実行する場合を例示し、第6の実施形態では、通信デバイス側で画像データの解析から更新データの生成までを実行する場合を例示したが、画像データの解析から更新データの生成までを実行する構成は、サーバ3と通信デバイスとの何れか一方に限定されない。
例えば、図32に例示するように、画像データの解析から更新データの生成までを実行する構成を、サーバ3と通信デバイスとから選択できる構成とすることも可能である。
例えば、通信デバイスがドローンや自動車や自律ロボットなどの移動するデバイスである場合、移動中は通信デバイス内で画像データの解析から更新データの生成までを実施し、停止中はサーバ3側で画像データの解析から更新データの生成までを実施する等、適宜切り替えて実行するように構成することも可能である。
又は、画像データの解析から更新データの生成までの処理のうち、一部をサーバ3側で実行し、残りを通信デバイス側で実行するように構成することも可能である。
画像データの解析から更新データの生成までの実行をサーバ3側で実行するか通信デバイス2側で実行するかの切替えは、例えば、メインプロセッサ14又は不図示のアプリケーションプロセッサ(切替部)で実行されてよい。
なお、本実施形態では、第1の実施形態において図2を用いて説明したイメージセンサ及び第6の実施形態において図24を用いて説明したイメージセンサ10をベースとした場合を説明したが、これに限定されず、他の実施形態をベースとすることも可能である。
その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
10.応用例
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
図33は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図33に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図33では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection And Ranging、Laser Imaging Detection And Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図34は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図34には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図33に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図33の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
なお、図33に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
なお、図1を用いて説明した本実施形態に係るセンサシステム1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
以上説明した車両制御システム7000において、図2を用いて説明した本実施形態に係る通信デバイス2は、図33に示した応用例の統合制御ユニット7600に適用することができる。例えば、通信デバイス2のメインプロセッサ14、メモリ15、送受信部18は、統合制御ユニット7600のマイクロコンピュータ7610、記憶部7690、車載ネットワークI/F7680に相当する。
また、図2を用いて説明した通信デバイス2の少なくとも一部の構成要素は、図33に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。さらに、図1を用いて説明したセンサシステム1は、図33に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
センサ情報を取得するセンサと、
前記センサで取得された前記センサ情報に所定の処理を実行するFPGA(Field-Programmable Gate Array)と、
前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリと、
を備えるセンサ装置。
(2)
前記メモリ内の前記データは、前記センサ情報の解析結果に応じて更新される前記(1)に記載のセンサ装置。
(3)
前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信する送信部と、
前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信する受信部と、
をさらに備え、
前記メモリ内の前記データは、前記更新データで更新される
前記(1)又は(2)に記載のセンサ装置。
(4)
前記送信部は、無線により前記センサ情報を所定のネットワークへ送信し、
前記受信部は、無線により前記所定のネットワークから前記更新データを受信する
前記(3)に記載のセンサ装置。
(5)
前記センサ情報を暗号化する暗号化部と、
前記更新データの暗号化を解除する復号部と、
をさらに備える前記(4)に記載のセンサ装置。
(6)
前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための更新データを生成し、当該生成された更新データで前記メモリ内の前記データを更新するプロセッサをさらに備える前記(1)又は(2)に記載のセンサ装置。
(7)
前記センサ情報を機械学習により解析するDNN(Deep Neural Network)回路をさらに備え、
前記プロセッサは、前記DNN回路による前記機械学習の結果に基づいて前記センサ情報を解析する前記(6)に記載のセンサ装置。
(8)
前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信する送信部と、
前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信する受信部と、
前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための更新データを生成するプロセッサと、
前記センサ情報を、前記送信部を介して前記所定のネットワークへ送信するか、前記プロセッサに入力するかを切り替える切替部と、
をさらに備え、
前記メモリ内の前記データは、前記受信部で受信された前記更新データ、又は、前記プロセッサで生成された前記更新データで更新される
前記(1)又は(2)に記載のセンサ装置。
(9)
前記センサ情報は、画像データであり、
前記センサは、複数の光電変換素子を備える受光部と、前記受光部から画像データを読み出す信号処理回路とを含む
前記(1)~(8)の何れか1項に記載のセンサ装置。
(10)
前記所定の処理は、黒レベル処理と、欠陥補正と、シェーディング補正と、歪み補正と、自動露光、自動フォーカス、自動ホワイトバランス調整と、同期処理と、リニアマトリックス処理と、ガンマ補正と、輝度色彩分離と、エッジ強調処理と、色差マトリックス処理と、リサイズ・ズームとのうち少なくとも1つを含む前記(9)に記載のセンサ装置。
(11)
前記データは、前記FPGAに前記所定の処理を実行する回路構成を組み込むための回路データと、前記回路構成に設定するパラメータを含む設定データとを含む前記(1)~(10)の何れか1項に記載のセンサ装置。
(12)
前記FPGAと連携して前記所定の処理を実行するプロセッサをさらに備える前記(1)又は(2)に記載のセンサ装置。
(13)
前記センサを備える第1チップと、
前記FPGAを備える第2チップと、
前記メモリを備える第3チップと、
をさらに備え、
前記第1~第3チップが積層されたスタック構造を備える
前記(1)~(12)の何れか1項に記載のセンサ装置。
(14)
前記第3チップは前記第1チップと前記第2チップとの間に位置する前記(13)に記載のセンサ装置。
(15)
前記FPGAと連携して前記所定の処理を実行するプロセッサを備える第4チップをさらに備え、
前記スタック構造は、前記第1~第4チップが積層された構造を備える前記(13)又は(14)に記載のセンサ装置。
(16)
前記第1チップは、前記スタック構造の最上層に位置し、
前記第4チップは、前記スタック構造の最下層に位置する
前記(15)に記載のセンサ装置。
(17)
前記センサ情報は、画像データであり、
前記センサは、複数の光電変換素子を備える受光部と、前記受光部から画像データを読み出す信号処理回路とを含み、
前記第1チップは、前記受光部を備える第5チップと、前記信号処理回路を備える第6チップとを含む
前記(13)~(16)の何れか1項に記載のセンサ装置。
(18)
センサ情報を取得するセンサと、
前記センサで取得された前記センサ情報に所定の処理を実行するFPGAと、
前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリと、
を備える電子機器。
(19)
電子機器とサーバとが所定のネットワークを介して接続されたセンサシステムであって、
前記電子機器は、
センサ情報を取得するセンサと、
前記センサで取得された前記センサ情報に所定の処理を実行するFPGAと、
前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリと、
前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信する送信部と、
前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信する受信部と、
を備え、
前記サーバは、前記所定のネットワークを介して前記電子機器から受信した前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための前記更新データを生成し、当該生成された更新データを前記所定のネットワークへ送信し、
前記メモリ内の前記データは、前記受信部が前記所定のネットワークを介して受信した前記更新データで更新される
センサシステム。
(20)
センサで取得されたセンサ情報を解析するステップと、
前記センサ情報の解析結果に応じて、前記センサ情報に所定の処理を実行するFPGAの回路構成及び前記回路構成の設定値のうちの少なくとも1つを変更するステップと、
を備える制御方法。
1 センサシステム
2 通信デバイス
3 サーバ
10、20、30、40、50、60 イメージセンサ
11 受光部
12 高速信号処理回路
13 フレキシブルロジック回路
14 メインプロセッサ
15 メモリ
16 ドライバ
17 不揮発性メモリ
18 送受信部
21 受光部+高速信号処理回路
32 信号処理回路
41 受光部+信号処理回路
53 信号処理回路+フレキシブルロジック回路
61 DNN回路
110 受光チップ
111 光センサアレイ
120 アナログ・ロジックチップ
121 画素回路
122 ADC
123 CDS回路
124 ゲイン調整回路
130 フレキシブルロジックチップ
131 FPGA
132 ロジック回路
140 プロセッサチップ
141 MPU
150 メモリチップ
151 メモリ領域
152 プログラマブルメモリ領域
181 DAC
182 送信アンテナ
183 ADC
184 受信アンテナ
101 光電変換
201 A/D,CDS
301 黒レベル処理
302 欠陥補正
303 シェーディング補正
304 歪み補正
401 制御系補正
501 AE,AF,AWB
502 同期処理
503 リニアマトリックス処理
504 ガンマ補正
505 輝度色彩分離
506 エッジ強調処理
507 色差マトリックス処理
508 リサイズ・ズーム
509 出力IF処理

Claims (4)

  1. センサ情報を取得するセンサと、
    前記センサで取得された前記センサ情報に所定の処理を実行するFPGA(Field-Programmable Gate Array)と、
    前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリと、
    前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信する送信部と、
    前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信する受信部と、
    前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための更新データを生成するプロセッサと、
    前記センサ情報を、前記送信部を介して前記所定のネットワークへ送信するか、前記プロセッサに入力するかを切り替える切替部と、
    を備え、
    前記メモリ内の前記データは、前記受信部で受信された前記更新データ、又は、前記プロセッサで生成された前記更新データで更新される
    センサ装置。
  2. センサ情報を取得するセンサと、
    前記センサで取得された前記センサ情報に所定の処理を実行するFPGAと、
    前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリと、
    前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信する送信部と、
    前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信する受信部と、
    前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための更新データを生成するプロセッサと、
    前記センサ情報を、前記送信部を介して前記所定のネットワークへ送信するか、前記プロセッサに入力するかを切り替える切替部と、
    を備え、
    前記メモリ内の前記データは、前記受信部で受信された前記更新データ、又は、前記プロセッサで生成された前記更新データで更新される
    電子機器。
  3. 電子機器とサーバとが所定のネットワークを介して接続されたセンサシステムであって、
    前記電子機器は、
    センサ情報を取得するセンサと、
    前記センサで取得された前記センサ情報に所定の処理を実行するFPGAと、
    前記FPGAに前記所定の処理を実行させるためのデータを記憶するメモリと、
    前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信する送信部と、
    前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信する受信部と、
    前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための更新データを生成するプロセッサと、
    前記センサ情報を、前記送信部を介して前記所定のネットワークへ送信するか、前記プロセッサに入力するかを切り替える切替部と、
    を備え、
    前記サーバは、前記所定のネットワークを介して前記電子機器から受信した前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための前記更新データを生成し、当該生成された更新データを前記所定のネットワークへ送信し、
    前記メモリ内の前記データは、前記受信部が前記所定のネットワークを介して受信した前記更新データ、又は、前記プロセッサで生成された前記更新データで更新される
    センサシステム。
  4. センサでセンサ情報を取得するステップと、
    FPGAに所定の処理を実行させるためのデータをメモリに記憶するステップと、
    前記FPGAで前記センサ情報に前記所定の処理を実行するステップと、
    前記所定の処理が実行された前記センサ情報を所定のネットワークへ送信するステップと、
    前記所定のネットワークへ送信された前記センサ情報の解析結果に応じて生成された前記FPGAを更新するための更新データを受信するステップと、
    プロセッサで、前記センサ情報を解析し、当該解析の結果に応じて前記FPGAを更新するための更新データを生成するステップと、
    前記センサ情報を、前記所定のネットワークへ送信するか、前記プロセッサに入力するかを切り替えるステップと、
    を備え、
    前記メモリ内の前記データは、受信された前記更新データ、又は、前記プロセッサで生成された前記更新データで更新される
    制御方法。
JP2020536817A 2018-12-07 2019-10-23 センサ装置、電子機器、センサシステム及び制御方法 Active JP7451407B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018230398 2018-12-07
JP2018230398 2018-12-07
PCT/JP2019/041441 WO2020116046A1 (ja) 2018-12-07 2019-10-23 センサ装置、電子機器、センサシステム及び制御方法

Publications (2)

Publication Number Publication Date
JPWO2020116046A1 JPWO2020116046A1 (ja) 2021-10-14
JP7451407B2 true JP7451407B2 (ja) 2024-03-18

Family

ID=70975322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536817A Active JP7451407B2 (ja) 2018-12-07 2019-10-23 センサ装置、電子機器、センサシステム及び制御方法

Country Status (7)

Country Link
US (1) US11457143B2 (ja)
JP (1) JP7451407B2 (ja)
KR (1) KR20210098839A (ja)
CN (1) CN111656144B (ja)
DE (1) DE112019000317T5 (ja)
TW (1) TWI811479B (ja)
WO (1) WO2020116046A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11320821B2 (en) * 2018-12-11 2022-05-03 Airbus Helicopters Drone for industrial activities
JP2020136903A (ja) * 2019-02-19 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
US10782759B1 (en) 2019-04-23 2020-09-22 Arbor Company, Lllp Systems and methods for integrating batteries with stacked integrated circuit die elements
JP2021122106A (ja) * 2020-01-31 2021-08-26 キヤノン株式会社 撮像装置、学習装置、撮像装置の制御方法、学習方法、学習済みモデルおよびプログラム
KR102567207B1 (ko) 2020-06-29 2023-08-16 아르보 컴퍼니 엘엘엘피 5g 프로세서 독립형 모뎀과 함께 3d 다이 스태킹 재구성 가능 프로세서 모듈을 사용하는 모바일 iot 에지 디바이스
JP7355717B2 (ja) * 2020-07-30 2023-10-03 トヨタテクニカルディベロップメント株式会社 映像変換システム、映像変換方法及び映像変換プログラム
US11582414B2 (en) * 2020-09-24 2023-02-14 Canon Kabushiki Kaisha Signal processing apparatus, photoelectric conversion apparatus, photoelectric conversion system, control method of signal processing apparatus, and non-transitory computer-readable storage medium
JP2022062835A (ja) * 2020-10-09 2022-04-21 キヤノン株式会社 撮像装置、収差補正方法およびプログラム
KR20220061351A (ko) * 2020-11-06 2022-05-13 삼성전자주식회사 이미지 센서 및 이미지 센싱 장치
JP2022133135A (ja) * 2021-03-01 2022-09-13 キヤノン株式会社 撮像装置、撮像装置の制御方法、情報処理装置
CN118034785B (zh) * 2024-04-11 2024-06-11 清华大学 指令压缩方法、装置、加速器及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160356632A1 (en) 2015-06-02 2016-12-08 Empire Technology Development Llc Sensor degradation compensation
JP2017129951A (ja) 2016-01-19 2017-07-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2017191566A (ja) 2016-04-15 2017-10-19 オムロン株式会社 画像処理装置、画像処理方法、情報処理プログラム、および記録媒体
WO2017192096A1 (en) 2016-05-06 2017-11-09 Smoltek Ab Assembly platform
WO2018204487A1 (en) 2017-05-02 2018-11-08 De Rochemont L Pierre High speed semiconductor chip stack
JP2019106059A (ja) 2017-12-13 2019-06-27 日立オートモティブシステムズ株式会社 演算システム、サーバ、車載装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0682821B2 (ja) * 1988-04-13 1994-10-19 工業技術院長 固体撮像装置
JP3033575B1 (ja) 1999-02-17 2000-04-17 日本電気株式会社 画像処理装置
JP2005035396A (ja) * 2003-07-15 2005-02-10 Stanley Electric Co Ltd 車載用情報処理装置
JP5747327B2 (ja) * 2011-08-26 2015-07-15 学校法人 名城大学 情報セキュリティシステム,ホスト,デバイス,その制御方法
US9496247B2 (en) * 2013-08-26 2016-11-15 Optiz, Inc. Integrated camera module and method of making same
JP2015061164A (ja) * 2013-09-18 2015-03-30 株式会社リコー 電子機器、データ通信システム、および情報処理方法
KR101545951B1 (ko) * 2013-12-02 2015-08-21 (주)실리콘화일 이미지 처리 패키지 및 이를 구비하는 카메라 모듈
CN105427449A (zh) * 2015-10-30 2016-03-23 新达通科技股份有限公司 一种纸币图像光补偿校正方法及验钞识别装置、atm机
JP2018026682A (ja) 2016-08-09 2018-02-15 株式会社Jvcケンウッド 撮像装置、設定装置、画像解析装置、画像解析システム、及び設定方法
JP2018055648A (ja) * 2016-09-30 2018-04-05 株式会社日立製作所 アクセラレーションシステム及びアクセラレーション方法
JP6661522B2 (ja) * 2016-12-12 2020-03-11 株式会社日立製作所 衛星画像処理システム及び方法
US20180370502A1 (en) * 2017-06-27 2018-12-27 Dura Operating, Llc Method and system for autonomous emergency self-learning braking for a vehicle
TWM555538U (zh) * 2017-10-12 2018-02-11 天鉞電子股份有限公司 照明監視設備

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160356632A1 (en) 2015-06-02 2016-12-08 Empire Technology Development Llc Sensor degradation compensation
JP2017129951A (ja) 2016-01-19 2017-07-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2017191566A (ja) 2016-04-15 2017-10-19 オムロン株式会社 画像処理装置、画像処理方法、情報処理プログラム、および記録媒体
WO2017192096A1 (en) 2016-05-06 2017-11-09 Smoltek Ab Assembly platform
WO2018204487A1 (en) 2017-05-02 2018-11-08 De Rochemont L Pierre High speed semiconductor chip stack
JP2019106059A (ja) 2017-12-13 2019-06-27 日立オートモティブシステムズ株式会社 演算システム、サーバ、車載装置

Also Published As

Publication number Publication date
US20200351440A1 (en) 2020-11-05
DE112019000317T5 (de) 2020-10-08
US11457143B2 (en) 2022-09-27
JPWO2020116046A1 (ja) 2021-10-14
TW202038088A (zh) 2020-10-16
TWI811479B (zh) 2023-08-11
KR20210098839A (ko) 2021-08-11
CN111656144B (zh) 2024-08-16
WO2020116046A1 (ja) 2020-06-11
CN111656144A (zh) 2020-09-11

Similar Documents

Publication Publication Date Title
JP7451407B2 (ja) センサ装置、電子機器、センサシステム及び制御方法
US10957029B2 (en) Image processing device and image processing method
CN109565546B (zh) 图像处理设备、信息生成设备以及信息生成方法
US10885389B2 (en) Image processing device, image processing method, learning device, and learning method
US10704957B2 (en) Imaging device and imaging method
JP6977722B2 (ja) 撮像装置、および画像処理システム
JPWO2018016151A1 (ja) 画像処理装置と画像処理方法
US20230013424A1 (en) Information processing apparatus, information processing method, program, imaging apparatus, and imaging system
JP6981416B2 (ja) 画像処理装置と画像処理方法
WO2021246303A1 (ja) 測距装置、電子機器、センサシステム及び制御方法
JP7059185B2 (ja) 画像処理装置、画像処理方法、および撮像装置
WO2024150690A1 (ja) 固体撮像装置
WO2024101210A1 (ja) 情報処理装置
WO2021229983A1 (ja) 撮像装置及びプログラム
TW202433943A (zh) 固態攝像裝置
JP2019103046A (ja) 撮像システム、画像処理装置、及び、画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240306

R150 Certificate of patent or registration of utility model

Ref document number: 7451407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150