JP2018125701A - 画像処理システム、光学センサ、及び学習装置 - Google Patents
画像処理システム、光学センサ、及び学習装置 Download PDFInfo
- Publication number
- JP2018125701A JP2018125701A JP2017016385A JP2017016385A JP2018125701A JP 2018125701 A JP2018125701 A JP 2018125701A JP 2017016385 A JP2017016385 A JP 2017016385A JP 2017016385 A JP2017016385 A JP 2017016385A JP 2018125701 A JP2018125701 A JP 2018125701A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- learning
- image
- image processing
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 159
- 238000012545 processing Methods 0.000 title claims abstract description 124
- 230000005540 biological transmission Effects 0.000 claims abstract description 58
- 230000010365 information processing Effects 0.000 claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims description 67
- 238000003384 imaging method Methods 0.000 claims description 46
- 239000000463 material Substances 0.000 claims description 12
- 230000001788 irregular Effects 0.000 claims description 7
- 239000007787 solid Substances 0.000 claims description 6
- 238000009792 diffusion process Methods 0.000 claims description 5
- 230000002787 reinforcement Effects 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 20
- 210000002569 neuron Anatomy 0.000 description 34
- 238000003860 storage Methods 0.000 description 29
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000005337 ground glass Substances 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0037—Arrays characterized by the distribution or form of lenses
- G02B3/0056—Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本実施形態に係る画像処理システム100及び学習装置2の適用場面の一例を模式的に例示する。本実施形態に係る画像処理システム100は、被写体6の属性を学習済みの学習器(後述するニューラルネットワーク7)を用いて、被写体6の属性を解析する情報処理システムである。
[ハードウェア構成]
<画像処理装置>
次に、図2を用いて、本実施形態に係る画像処理装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係る画像処理装置1のハードウェア構成の一例を模式的に例示する。
次に、図3A及び図3Bを用いて、本実施形態に係る光学センサ3の構成の一例について説明する。図3Aは、本実施形態に係る光学センサ3を横から見た状態を模式的に例示する。図3Bは、本実施形態に係る光学センサ3を正面から見た状態を模式的に例示する。
次に、図4を用いて、本実施形態に係る学習装置2のハードウェア構成の一例を説明する。図4は、本実施形態に係る学習装置2のハードウェア構成の一例を模式的に例示する。
<画像処理装置>
次に、図5を用いて、本実施形態に係る画像処理装置1の機能構成の一例を説明する。図5は、本実施形態に係る画像処理装置1の機能構成の一例を模式的に例示する。
次に、図6を用いて、本実施形態に係る学習装置2の機能構成の一例を説明する。図6は、本実施形態に係る学習装置2の機能構成の一例を模式的に例示する。
画像処理装置1及び学習装置2の各機能に関しては後述する動作例で詳細に説明する。なお、本実施形態では、画像処理装置1及び学習装置2の各機能がいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上の機能の一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、画像処理装置1及び学習装置2それぞれの機能構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。
[対象物解析装置]
次に、図7を用いて、画像処理装置1の動作例を説明する。図7は、画像処理装置1の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
まず、利用者は、画像処理装置1を起動し、起動した画像処理装置1に画像処理プログラム121を実行させる。画像処理装置1の制御部11は、学習結果データ122を参照して、ニューラルネットワーク7の構造、各ニューロン間の結合の重み及び各ニューロンの閾値の設定を行う。そして、制御部11は、以下の処理手順に従って、被写体6の属性の解析を行う。
ステップS101では、制御部11は、画像取得部111として機能し、外部インタフェース16を介して接続される光学センサ3の各撮像素子32から、当該各撮像素子32により撮像した撮像画像123を取得する。本実施形態では、光学センサ3は、11×13個の撮像素子32を備えているため、本ステップS101では、制御部11は、基本的には1回の撮像毎に11×13件の撮像画像123を取得する。
次のステップS102では、制御部11は、属性取得部112として機能し、ステップS101で取得した各撮像画像123をニューラルネットワーク7の入力として用いて、当該ニューラルネットワーク7の演算処理を行うことにより、当該ニューラルネットワーク7から出力値を得る。
次のステップS103では、制御部11は、属性取得部112として機能し、ステップS102でニューラルネットワーク7から得られた出力値に基づいて被写体6の属性を特定することで、当該被写体6の属性を示す属性情報を取得する。
次に、図8を用いて、学習装置2の動作例を説明する。図8は、学習装置2の処理手順の一例を例示するフローチャートである。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部21は、学習画像取得部211として機能し、光学センサ3の各撮像素子32の撮像した各撮像画像223及び各撮像画像223に映る被写体6の属性を示す属性情報224の組を学習データ222として取得する。
次のステップS202では、制御部21は、学習処理部212として機能して、ステップS201で取得した学習データ222を用いて、各撮像画像223を入力すると属性情報224により示される被写体6の属性に対応する出力値を出力するようにニューラルネットワーク8を学習させる。
次のステップS203では、制御部21は、学習処理部212として機能して、構築したニューラルネットワーク8の構成、各ニューロン間の結合の重み、及び各ニューロンの閾値を示す情報を学習結果データ122として記憶部22に格納する。これにより、制御部21は、本動作例に係るニューラルネットワーク8の学習処理を終了する。
以上のように、本実施形態では、上記ステップS101において、上記レンズアレイ31を用いることで、異なる光学特性を反映した状態で被写体6が映る複数の撮像画像123を取得することができる。そして、上記ステップS102及びS103により、そのような複数の撮像画像123をニューラルネットワーク7に入力して、当該ニューラルネットワーク7から得られる出力値に基づいて被写体6の属性を特定する。学習のパートでも同様に、異なる光学特性を反映した状態で被写体6が映る複数の撮像画像223を取得して、そのような複数の撮像画像123を利用して、ニューラルネットワーク8の学習が行われる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
例えば、上記実施形態では、図5及び図6に示されるとおり、各ニューラルネットワーク(7、8)として、多層構造を有する一般的な順伝播型ニューラルネットワークを用いている。しかしながら、各ニューラルネットワーク(7、8)の種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各ニューラルネットワーク(7、8)は、入力層71及び中間層72を畳み込み層及びプーリング層として利用する畳み込みニューラルネットワークであってもよい。また、例えば、各ニューラルネットワーク(7、8)は、中間層72から入力層71等のように出力側から入力側に再帰する結合を有する再帰型ニューラルネットワークであってもよい。なお、各ニューラルネットワーク(7、8)の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、及び各ニューロンの伝達関数は、実施の形態に応じて適宜決定されてよい。
また、上記実施形態では、被写体6の属性を解析する画像処理装置1と学習器(ニューラルネットワーク)の学習を行う学習装置2とは別々のコンピュータで構成されている。しかしながら、画像処理装置1及び学習装置2の構成はこのような例に限定されなくてもよく、画像処理装置1及び学習装置2の両方の機能を有するシステムを1台又は複数台のコンピュータで実現してもよい。
また、上記実施形態では、学習器は、ニューラルネットワークにより構成されている。しかしながら、学習器の種類は、各撮像素子32から得られた複数の撮像画像123を入力として利用可能であれば、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。複数の撮像画像123を入力可能な学習器として、例えば、上記ニューラルネットワークの他、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成された学習器を挙げることができる。
また、例えば、上記実施形態では、各レンズ311の間で相違する光学特性の一例として集光角度を挙げた。しかしながら、各レンズ311の間で相違する光学特性の種類は、集光角度に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。光学特性は、集光角度の他、例えば、屈折率、透過する光の帯域等を含む。屈折率は、各レンズ311の大きさ、素材、及び形状の少なくともいずれかを調節して設計することで実現することができる。また、透過する光の帯域は、各レンズ311の素材及び色の少なくともいずれかを調節して設計することで実現することができる。
また、例えば、上記実施形態では、レンズアレイ31は、中央に配置される領域Aに含まれる各レンズ311Aの集光角度θAは、所定の第1集光角度として2度以下となり、領域Aの周囲を囲むように配置される領域B及びCに含まれる各レンズ(311B、311C)の集光角度(θB、θC)はそれぞれ、第2集光角度として20度以上となるように構成されている。しかしながら、各レンズ311(透過部)の光学特性は、このような例に限定されなくてもよく、実施の形態に応じて適宜設定されてよい。すなわち、所定の第1集光角度は、実施の形態に応じて適宜決定されてよい。また、第2集光角度は、第1集光角度より大きければ、実施の形態に応じて適宜決定されてよい。
また、例えば、上記実施形態では、レンズアレイ31は、11×13個のレンズ311を備え、これに対応して、光学センサ3は、11×13個の撮像素子32を備えている。しかしながら、レンズアレイ31の備えるレンズ311の個数及び撮像素子32の個数は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。加えて、レンズ311と撮像素子32とは1対1で対応していなくてもよい。
また、例えば、上記実施形態では、被写体からの光を屈折させる光学部材の一例として、レンズアレイを利用した。しかしながら、光学部材の種類は、レンズアレイに限定されなくてもよく、実施の形態に応じて適宜選択されてよい。光学部材は、例えば、レンズアレイの他、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含んでよく、また、レンズ状でなくとも、透過する光を不規則に撮像素子に対して入光させる光学部材、例えば、すりガラス状の板を用いてもよい。ここで、例えば、回折格子、拡散レンズ、ホログラムレンズの場合にはそれぞれ、1つの撮像素子に対して光を入光させる部分が透過部となる。すなわち、回折格子、拡散レンズ、ホログラムレンズはそれぞれ平板状に形成されていることが一般的であるが、このような平板状の光学部材には、当該光学部材を通して光を受光する各撮像素子に対応して、複数の透過部が存在することになる。このとき、各撮像素子に対応して設けられる各透過部の光学特性が異なるように各種光学部材を設計すればよい。
また、例えば、上記ステップS103において、制御部11は、ニューラルネットワーク7の出力に基づいて被写体6を描画した画像を作成し、作成した画像を属性情報として出力してもよい。この場合、学習時の属性情報224(教師データ)には、レンズアレイを備えない一般的なカメラにより撮像された撮像画像を用いることができる。すなわち、上記ステップS201では、光学センサ3とほぼ同じ位置に一般的なカメラを配置する。そして、光学センサ3によって被写体6を撮像する際に、そのカメラによっても被写体6を撮像する。これによりカメラから得られる撮像画像を属性情報224として、光学センサ3により得られた複数の撮像画像223に紐付けることで、学習データ222を作成することができる。ニューラルネットワーク7の出力に基づいて描画される画像には、被写体6が備える特徴のうちいくつかの特徴が欠落した状態で被写体6の像が映り得る。例えば、被写体6を人間とした場合には、顔の詳細を欠落した状態で当該人間の映る画像を得ることができる。これにより、プライバシーに配慮した出力とすることができる。
また、例えば、上記画像処理装置1は、複数件の学習結果データ122を保持し、利用者の指定に応じて、利用するニューラルネットワーク7を切替可能に構成されていてもよい。この場合、画像処理装置1は、利用者による入力装置14の操作に応じて、各件の学習結果データ122を、ネットワーク10を介して学習装置2から取得してもよいし、ドライブ17を介して記憶媒体91から取得してもよい。また、画像処理装置1は、学習装置2からの配信を受け付けることで、各件の学習結果データ122を取得してもよい。更に、各件の学習結果データ122はNAS(Network Attached Storage)等のその他の情報処理装置(記憶装置)に格納されていてもよく、画像処理装置1は、当該その他の情報処理装置にアクセスすることで、各件の学習結果データ122を取得してもよい。
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…外部インタフェース、
17…ドライブ、
111…画像取得部、112…属性取得部、
121…画像処理プログラム、122…学習結果データ、
123…撮像画像、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…外部インタフェース、
27…ドライブ、
211…学習画像取得部、212…学習処理部、
221…学習プログラム、222…学習データ、
223…撮像画像、224…属性情報、
3…光学センサ、
31…レンズアレイ(光学部材)、
311・311A・311B・311C…レンズ(透過部)、
32…撮像素子、
6…被写体、
7…ニューラルネットワーク、
71…入力層、72…中間層(隠れ層)、73…出力層、
8…ニューラルネットワーク、
81…入力層、82…中間層(隠れ層)、83…出力層、
91・92…記憶媒体
Claims (17)
- 被写体からの光を屈折させる光学部材であって、異なる光学特性を有することで透過する光の屈折パターンがそれぞれ異なるよう構成された複数の透過部を備える光学部材、及び前記各透過部に対応して設けられ、前記各透過部を透過した光を受けて、前記被写体を映した撮像画像をそれぞれ形成する複数の撮像素子を備える光学センサと、
前記被写体の属性を判別するための学習を行った学習済みの学習器に、前記各撮像素子により得られた前記各撮像画像を入力することで、前記被写体の属性を示す属性情報を取得する情報処理装置と、
を備える、
画像処理システム。 - 前記学習器は、ニューラルネットワーク、サポートベクターマシン、自己組織化マップ、又は強化学習により学習を行う学習器によって構成される、
請求項1に記載の画像処理システム。 - 前記光学部材の前記複数の透過部は、中央に配置され、所定の第1集光角度となるように構成された第1の透過部と、前記第1の透過部の周囲に配置され、前記第1の透過部の前記第1集光角度よりも大きい第2集光角度となるように構成された第2の透過部と、を含む、
請求項1又は2に記載の画像処理システム。 - 前記第1集光角度は2.0度以下であり、前記第2集光角度は20度以上である、
請求項3に記載の画像処理システム。 - 前記各投光部の光学特性は不規則性を有している、
請求項1又は2に記載の画像処理システム。 - 前記光学部材は、複数のレンズを備えるレンズアレイ、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含む、
請求項1から5のいずれか1項に記載の画像処理システム。 - 前記光学部材は、前記複数の透過部として複数のレンズを備えるレンズアレイを含み、
前記各透過部の光学特性は、前記各レンズの大きさ、素材、形状、及び色の少なくともいずれかによって実現される、
請求項1から6のいずれか1項に記載の画像処理システム。 - 前記情報処理装置は、前記属性情報として、前記被写体の位置、向き、姿勢、大きさ、形状、動き、種別、固体識別情報、色、明るさ、及び環境情報のうちの一つ又は組み合わせを出力する、
請求項1から7のいずれか1項に記載の画像処理システム。 - 前記情報処理装置は、前記学習器の出力に基づいて前記被写体を描画した画像を作成し、当該作成した画像を前記属性情報として出力する、
請求項1から8のいずれか1項に記載の画像処理システム。 - 被写体からの光を屈折させる光学部材であって、異なる光学特性を有することで透過する光の屈折パターンがそれぞれ異なるよう構成された複数の透過部を備える光学部材と、
前記各透過部に対応して設けられ、前記各透過部を透過した光を受けて、前記被写体を映した撮像画像をそれぞれ形成する複数の撮像素子と、
を備える、
光学センサ。 - 前記光学部材の前記複数の透過部は、中央に配置され、所定の第1集光角度となるように構成された第1の透過部と、前記第1の透過部の周囲に配置され、前記第1の透過部よりも大きい第2集光角度となるように構成された第2の透過部と、を含む、
請求項10に記載の光学センサ。 - 前記第1の集光角度は2.0度以下であり、前記第2集光角度は20度以上である、
請求項11に記載の光学センサ。 - 前記各透過部の光学特性は不規則性を有する、
請求項10に記載の光学センサ。 - 前記光学部材は、複数のレンズを備えるレンズアレイ、回折格子、拡散レンズ、及びホログラムレンズの少なくともいずれかを含む、
請求項10から13のいずれか1項に記載の光学センサ。 - 前記光学部材は、前記複数の透過部として複数のレンズを備えるレンズアレイを含み、
前記各透過部の光学特性は、前記各レンズの大きさ、素材、形状、及び色の少なくともいずれかによって実現される、
請求項10から14のいずれか1項に記載の光学センサ。 - 請求項10から15のいずれか1項に記載の光学センサから前記各撮像素子の撮像した前記各撮像画像を取得する学習画像取得部と、
取得した前記各撮像画像を入力すると前記被写体の属性情報を出力するように学習器を学習させる学習処理部と、
を備える、
学習装置。 - 前記学習処理部は、前記属性情報として、前記被写体の位置、向き、姿勢、大きさ、形状、動き、種別、固体識別情報、色、明るさ、環境情報、及び、前記被写体を描画した画像、のうちの一つ又は組み合わせを出力するように前記学習器を学習させる、
請求項16に記載の学習装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016385A JP6729428B2 (ja) | 2017-02-01 | 2017-02-01 | 画像処理システム、光学センサ、及び学習装置 |
PCT/JP2017/009537 WO2018142634A1 (ja) | 2017-02-01 | 2017-03-09 | 画像処理システム、光学センサ、及び学習装置 |
US16/478,867 US11087498B2 (en) | 2017-02-01 | 2017-03-09 | Image processing system, optical sensor, and learning apparatus with irregular lens array |
CN201780080629.3A CN110115022B (zh) | 2017-02-01 | 2017-03-09 | 图像处理系统、光学传感器、以及学习装置 |
EP17895458.2A EP3579536A4 (en) | 2017-02-01 | 2017-03-09 | IMAGE PROCESSING SYSTEM, OPTICAL SENSOR, AND LEARNING DEVICE |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016385A JP6729428B2 (ja) | 2017-02-01 | 2017-02-01 | 画像処理システム、光学センサ、及び学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018125701A true JP2018125701A (ja) | 2018-08-09 |
JP6729428B2 JP6729428B2 (ja) | 2020-07-22 |
Family
ID=63040448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017016385A Expired - Fee Related JP6729428B2 (ja) | 2017-02-01 | 2017-02-01 | 画像処理システム、光学センサ、及び学習装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11087498B2 (ja) |
EP (1) | EP3579536A4 (ja) |
JP (1) | JP6729428B2 (ja) |
CN (1) | CN110115022B (ja) |
WO (1) | WO2018142634A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112822390A (zh) * | 2019-11-15 | 2021-05-18 | 三星电子株式会社 | 处理图像的方法和图像处理设备 |
US11663691B2 (en) | 2019-10-30 | 2023-05-30 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3766009A4 (en) * | 2018-03-13 | 2021-12-01 | HRL Laboratories, LLC | SPARE ASSOCIATIVE MEMORY FOR IDENTIFYING OBJECTS |
JP7312026B2 (ja) * | 2019-06-12 | 2023-07-20 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP7357171B2 (ja) * | 2020-12-28 | 2023-10-05 | 富士フイルム株式会社 | 撮像支援装置、撮像装置、撮像支援方法、及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010078563A1 (en) * | 2009-01-05 | 2010-07-08 | Applied Quantum Technologies, Inc. | Multiscale optical system using a lens array |
WO2010121637A1 (en) * | 2009-04-22 | 2010-10-28 | Raytrix Gmbh | Digital imaging system, plenoptic optical device and image data processing method |
US20110221599A1 (en) * | 2010-03-09 | 2011-09-15 | Flir Systems, Inc. | Imager with multiple sensor arrays |
JP2015188251A (ja) * | 2013-03-05 | 2015-10-29 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7566855B2 (en) * | 2005-08-25 | 2009-07-28 | Richard Ian Olsen | Digital camera with integrated infrared (IR) response |
DE102008062977A1 (de) | 2008-12-23 | 2010-06-24 | Adc Automotive Distance Control Systems Gmbh | Optisches Modul mit multifokaler Optik zur Erfassung von Fern- und Nahbereich in einem Bild |
JP2011077764A (ja) | 2009-09-30 | 2011-04-14 | Fujifilm Corp | 多次元画像処理装置、多次元画像撮影システム、多次元画像印刷物および多次元画像処理方法 |
US8558915B2 (en) * | 2009-12-22 | 2013-10-15 | Samsung Electronics Co., Ltd. | Photographing apparatus and method |
JP6214236B2 (ja) * | 2013-03-05 | 2017-10-18 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
JP2016045170A (ja) | 2014-08-26 | 2016-04-04 | 富士フイルム株式会社 | 測距装置、方法及びプログラム |
TWI592682B (zh) * | 2015-07-02 | 2017-07-21 | 先進光電科技股份有限公司 | 光學成像系統 |
US10416454B2 (en) * | 2015-10-25 | 2019-09-17 | Facebook Technologies, Llc | Combination prism array for focusing light |
JP6211137B2 (ja) | 2016-06-02 | 2017-10-11 | キヤノン株式会社 | 画像処理装置、撮像装置、及び画像処理方法 |
CN106303228B (zh) | 2016-08-04 | 2019-09-13 | 深圳市未来媒体技术研究院 | 一种聚焦型光场相机的渲染方法和系统 |
-
2017
- 2017-02-01 JP JP2017016385A patent/JP6729428B2/ja not_active Expired - Fee Related
- 2017-03-09 EP EP17895458.2A patent/EP3579536A4/en active Pending
- 2017-03-09 CN CN201780080629.3A patent/CN110115022B/zh not_active Expired - Fee Related
- 2017-03-09 WO PCT/JP2017/009537 patent/WO2018142634A1/ja active Search and Examination
- 2017-03-09 US US16/478,867 patent/US11087498B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010078563A1 (en) * | 2009-01-05 | 2010-07-08 | Applied Quantum Technologies, Inc. | Multiscale optical system using a lens array |
JP2012514796A (ja) * | 2009-01-05 | 2012-06-28 | アプライド クウォンタム テクノロジイズ インク | マルチスケール光学システム |
WO2010121637A1 (en) * | 2009-04-22 | 2010-10-28 | Raytrix Gmbh | Digital imaging system, plenoptic optical device and image data processing method |
JP2012525028A (ja) * | 2009-04-22 | 2012-10-18 | ライトリックス・ゲー・エム・ベー・ハー | デジタル撮像システム、プレノプティック光学装置、及び画像データ処理方法 |
US20110221599A1 (en) * | 2010-03-09 | 2011-09-15 | Flir Systems, Inc. | Imager with multiple sensor arrays |
JP2015188251A (ja) * | 2013-03-05 | 2015-10-29 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11663691B2 (en) | 2019-10-30 | 2023-05-30 | Samsung Electronics Co., Ltd. | Method and apparatus for restoring image |
CN112822390A (zh) * | 2019-11-15 | 2021-05-18 | 三星电子株式会社 | 处理图像的方法和图像处理设备 |
Also Published As
Publication number | Publication date |
---|---|
US11087498B2 (en) | 2021-08-10 |
WO2018142634A1 (ja) | 2018-08-09 |
CN110115022A (zh) | 2019-08-09 |
EP3579536A4 (en) | 2020-04-08 |
CN110115022B (zh) | 2020-12-01 |
EP3579536A1 (en) | 2019-12-11 |
US20190378304A1 (en) | 2019-12-12 |
JP6729428B2 (ja) | 2020-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6729428B2 (ja) | 画像処理システム、光学センサ、及び学習装置 | |
JP6780537B2 (ja) | 光学センサ、学習装置、及び画像処理システム | |
JP6855587B2 (ja) | 視点から距離情報を取得するための装置及び方法 | |
JP7284502B2 (ja) | 画像処理装置及び方法 | |
JP7126123B2 (ja) | 学習装置、学習方法及びプログラム | |
US11068754B1 (en) | Systems and methods regarding image distification and prediction models | |
US10262226B1 (en) | Systems and methods regarding 2D image and 3D image ensemble prediction models | |
US11670097B2 (en) | Systems and methods for 3D image distification | |
CN112232163B (zh) | 指纹采集方法及装置、指纹比对方法及装置、设备 | |
JPWO2019054092A1 (ja) | 画像生成装置及び画像生成方法 | |
Yang et al. | Robustifying semantic cognition of traversability across wearable RGB-depth cameras | |
KR20190119212A (ko) | 인공신경망을 이용한 가상 피팅 시스템, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체 | |
JP2018147286A (ja) | 対象物解析装置、対象物解析方法、学習装置及び学習方法 | |
US20190347520A1 (en) | Learning device, learning method, and storage medium | |
US20220103797A1 (en) | Integrated Spatial Phase Imaging | |
CN112232157B (zh) | 指纹区域检测方法、装置、设备、存储介质 | |
JP2018136211A (ja) | 環境認識システム及び学習装置 | |
Belay et al. | Design of a multichannel, multiresolution smart imaging system | |
Azorin-Lopez et al. | A novel active imaging model to design visual systems: a case of inspection system for specular surfaces | |
Gao et al. | Self super-resolution autostereoscopic 3D measuring system using deep convolutional neural networks | |
Chen et al. | Infrared object classification with a hybrid optical convolution neural network | |
Kim et al. | Compact infrared imaging lidar system for obstacle detection and mapping in sensor fusion | |
CN117252926B (zh) | 基于视觉定位的手机壳辅料智能装配控制系统 | |
Gao et al. | Semi-supervised angular super-resolution method for autostereoscopic 3D surface measurement | |
Xie et al. | Gesture recognition algorithm combining ResNet and ShuffleNet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6729428 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |