JP7386792B2 - 電子機器及び固体撮像装置 - Google Patents

電子機器及び固体撮像装置 Download PDF

Info

Publication number
JP7386792B2
JP7386792B2 JP2020539604A JP2020539604A JP7386792B2 JP 7386792 B2 JP7386792 B2 JP 7386792B2 JP 2020539604 A JP2020539604 A JP 2020539604A JP 2020539604 A JP2020539604 A JP 2020539604A JP 7386792 B2 JP7386792 B2 JP 7386792B2
Authority
JP
Japan
Prior art keywords
unit
image data
processing
electronic device
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020539604A
Other languages
English (en)
Other versions
JPWO2020045598A1 (ja
Inventor
良仁 浴
卓 青木
竜太 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Semiconductor Solutions Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Semiconductor Solutions Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Semiconductor Solutions Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020045598A1 publication Critical patent/JPWO2020045598A1/ja
Application granted granted Critical
Publication of JP7386792B2 publication Critical patent/JP7386792B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/14Special procedures for taking photographs; Apparatus therefor for taking photographs during medical operations
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B29/00Combinations of cameras, projectors or photographic printing apparatus with non-photographic non-optical apparatus, e.g. clocks or weapons; Cameras having the shape of other objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本開示は、電子機器及び固体撮像装置に関する。
近年、デジタルスチルカメラ、デジタルビデオカメラ、携帯電話機等に搭載される小型カメラ等の撮像装置の高性能化に伴い、露出を自動で調整するオート露光(AE)機能や、焦点を自動で調整するオートフォーカス(AF)機能や、シャッタ動作を自動で行なうオートシャッタ機能や、被写体やシーンに応じてカラーマトリクスを自動で調整するオート色補正機能等を搭載する撮像装置が開発されている。
特開2018-061290号公報 特開2017-183775号公報
しかしながら、従来では、オート露光やオートフォーカスやオートシャッタやオート色補正機能等の付加的な機能を実行するために、1~数フレーム分の画像データに対する画像処理が必要であった。そのため、機能実現のための処理時間や消費電力が増大してしまうという課題が存在した。
そこで本開示では、機能実現に伴う処理時間や消費電力の増大を抑制することが可能な電子機器及び固体撮像装置を提案する。
上記の課題を解決するために、本開示に係る一形態の電子機器は、画像データを生成する撮像部と、前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルに基づく処理を実行する処理部と、前記処理の結果に基づいて、所定の機能を実行する機能実行部と、変位を検出する検出部とを備え、前記処理部は、前記検出部が変位を検出した場合、前記処理を実行する。
第1の実施形態に係る電子機器としての撮像装置の概略構成例を示すブロック図である。 第1の実施形態に係るDSPを処理部として機能させた際のイメージセンサの動作例を示すフローチャートである。 1フレーム分の画像データの一例を示す図である。 第1の実施形態に係るDSPが実行する演算処理の流れを説明するための図である。 第1の実施形態に係る演算処理の結果を利用して付加的な機能を実行する際の動作の一例を示すフローチャートである。 第2の実施形態に係る電子機器の概略動作例を示すフローチャートである。 第3の実施形態に係る電子機器の概略構成例を示すブロック図である。 第3の実施形態に係る電子機器の概略動作例を示すフローチャートである。 第4の実施形態に係る電子機器の概略構成例を示すブロック図である。 第4の実施形態に係る電子機器の概略動作例を示すフローチャートである。 第5の実施形態に係る電子機器の概略構成例を示すブロック図である。 第5の実施形態に係る電子機器の概略動作例を示すフローチャートである。 第6の実施形態に係る電子機器の概略構成例を示すブロック図である。 第6の実施形態に係る電子機器の概略動作例を示すフローチャートである。 第7の実施形態に係る電子機器の概略動作例を示すフローチャートである。 第8の実施形態に係る電子機器の概略動作例を示すフローチャートである。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1. 第1の実施形態
1.1 電子機器の概略構成例
1.2 処理部の動作
1.2.1 演算動作の具体例
1.3 演算結果を利用した付加的な機能の実行
1.4 作用・効果
2. 第2の実施形態
2.1 動作例
2.2 作用・効果
3. 第3の実施形態
3.1 電子機器の概略構成例
3.2 動作例
3.3 作用・効果
4. 第4の実施形態
4.1 電子機器の概略構成例
4.2 動作例
4.3 作用・効果
5. 第5の実施形態
5.1 電子機器の概略構成例
5.2 動作例
5.3 作用・効果
6. 第6の実施形態
6.1 電子機器の概略構成例
6.2 動作例
6.3 作用・効果
7. 第7の実施形態
7.1 動作例
7.2 作用・効果
8. 第8の実施形態
8.1 動作例
8.2 作用・効果
9.移動体への応用例
10.内視鏡手術システムへの応用例
1. 第1の実施形態
まず、第1の実施形態について、図面を参照して詳細に説明する。
1.1 電子機器の概略構成例
図1は、第1の実施形態に係る電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器1は、固体撮像装置であるイメージセンサ10と、アプリケーションプロセッサ20とを備える。イメージセンサ10は、撮像部11と、コントロール部12と、信号処理部13と、DSP(Digital Signal Processor)14と、メモリ15と、セレクタ(出力部ともいう)16とを備えている。
コントロール部12は、例えば、ユーザの操作や設定された動作モードに従い、イメージセンサ10内の各部を制御する。
撮像部11は、例えば、ズームレンズ、フォーカスレンズ、絞り等を備える光学系104と、フォトダイオードなどの受光素子(光電変換部ともいう)を含む単位画素が2次元マトリクス状に配列した構成を備える画素アレイ部101とを備える。外部から入射した光は、光学系104を介することで、画素アレイ部101における受光素子が配列した受光面に結像される。画素アレイ部101の各単位画素は、その受光素子に入射した光を電変換することで、入射光の光量に応じた電荷を読出可能に蓄積する。
信号処理部13は、撮像部11の各単位画素から読み出された画素信号に対して、種々の信号処理を実行する。例えば、信号処理部13は、画素アレイ部101の各単位画素から読み出されたアナログの画素信号をデジタル値の画像データに変換する。また、信号処理部13は、例えば、画像データがカラー画像である場合、この画像データをYUVの画像データやRGBの画像データなどにフォーマット変換する。さらに、信号処理部13は、例えば、画像データに対し、ノイズ除去やホワイトバランス調整等の処理を必要に応じて実行する。その他、信号処理部13は、画像データに対し、DSP14がその画像データを処理するのに必要となる種々の信号処理(前処理ともいう)を実行する。
DSP14は、例えば、メモリ15に格納されているプログラムを読み出して実行することで、ディープニューラルネットワーク(DNN)を利用した機械学習によって作成された学習済みモデルを用いて各種処理を実行する処理部として機能する。例えば、DSP14は、メモリ15に記憶されている学習済みモデルに基づいた演算処理を実行することで、メモリ15に記憶されている辞書係数と画像データとを掛け合わせる処理を実行する。このような演算処理により得られた結果(演算結果)は、メモリ15及び/又はセレクタ16へ出力される。なお、演算結果には、学習済みモデルを用いた演算処理を実行することで得られた画像データや、演算結果に基づいて加工された画像データや、画像データから得られた各種情報(画像における一部の領域を示す領域情報等。以下、メタデータという)等が含まれ得る。また、DSP14には、メモリ15へのアクセスを制御するメモリコントローラが組み込まれていてもよい。
演算処理には、例えば、ニューラルネットワーク計算モデルの一例である学習済みの学習モデルを利用したものが存在する。例えば、DSP14は、学習済みの学習モデルを用いて、各種処理であるDSP処理を実行することもできる。例えば、DSP14は、メモリ15から画像データを読み出して学習済みの学習モデルに入力し、学習済みモデルの出力結果として顔の輪郭や顔画像の領域などである顔位置を取得する。そして、DSP14は、画像データのうち、抽出された顔位置に対して、マスキング、モザイク、アバター化などの処理を実行して、加工画像データを生成する。その後、DSP14は、生成した加工された画像データ(加工画像データ)をメモリ15に格納する。
また、学習済みの学習モデルには、学習データを用いて、人物の顔位置の検出などを学習したDNNやサポートベクタマシンなどが含まれる。学習済みの学習モデルは、判別対象のデータである画像データが入力されると、判別結果すなわち顔位置を特定するアドレスなどの領域情報を出力する。なお、DSP14は、学習データを用いて学習モデル内の各種パラメータの重み付けを変更することで学習モデルを更新したり、複数の学習モデルを用意しておき演算処理の内容に応じて使用する学習モデルを変更したり、外部の装置から学習済みの学習モデルを取得または更新したりして、上記演算処理を実行することができる。
なお、DSP14が処理対象とする画像データは、画素アレイ部101から通常に読み出された画像データであってもよいし、この通常に読み出された画像データの画素を間引くことでデータサイズが縮小された画像データであってもよい。若しくは、画素アレイ部101に対して画素を間引いた読み出しを実行することで通常よりも小さいデータサイズで読み出された画像データであってもよい。なお、ここでの通常の読み出しとは、画素を間引かずに読み出すことであってよい。
このような学習モデルによる顔位置の抽出や加工処理により、画像データの顔位置がマスキングされた加工画像データ、画像データの顔位置がモザイク処理された加工画像データ、または、画像データの顔位置がキャラクターに置き換えられてアバター化された加工画像データなどを生成することができる。
メモリ15は、DSP14で得られた演算結果等を必要に応じて記憶する。また、メモリ15は、DSP14が実行する学習済みの学習モデルのアルゴリズムをプログラム及び辞書係数として記憶する。学習済みの学習モデルのプログラム及び辞書係数は、例えば、外部のクラウドサーバ30等で作成されたものがネットワーク40を介して電子機器1にダウンロードされてメモリ15に格納されてもよいし、電子機器1の出荷前にメモリ15に格納されてもよい。
セレクタ16は、例えばコントロール部12からの選択制御信号に従うことで、信号処理部13から出力された画像データと、DSP14から出力された演算結果とを選択的に出力する。なお、DSP14は、演算処理により得られた演算結果を直接、セレクタ16へ出力してもよいし、一旦メモリ15に格納した後、メモリ15から読み出してセレクタ16へ出力してもよい。
以上のようにしてセレクタ16から出力された画像データや演算結果は、表示やユーザインタフェースなどを処理するアプリケーションプロセッサ20に入力される。アプリケーションプロセッサ20は、例えば、CPU(Central Processing Unit)等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行する。このアプリケーションプロセッサ20には、GPU(Graphics Processing Unit)やベースバンドプロセッサなどの機能が搭載されていてもよい。アプリケーションプロセッサ20は、入力された画像データや演算結果に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワーク40を介して外部のクラウドサーバ30へ送信したりする。
また、電子機器1には、イメージセンサ10から出力された画像データや機能設定/実行のための各種メニューを表示するためのディスプレイ17が設けられている。このディスプレイ17は、例えば、ビューファインダとしても機能するし、アプリケーションプロセッサ20が実行するオペレーティングシステムやアプリケーションソフトウエアのGUI(Graphical User Interface)画面を表示するディスプレイとしても機能する。なお、ディスプレイ17は、ユーザインタフェースとしても機能するタッチスクリーンであってもよい。
なお、所定のネットワーク40には、例えば、インターネットや、有線LAN(Local Area Network)又は無線LANや、移動体通信網や、Bluetooth(登録商標)など、種々のネットワークを適用することができる。また、画像データや演算結果の送信先は、クラウドサーバ30に限定されず、単一で動作するサーバや、各種データを保管するファイルサーバや、携帯電話機等の通信端末など、通信機能を有する種々の情報処理装置(システム)であってよい。
1.2 処理部の動作
次に、本実施形態において処理部として機能するDSP14の動作について、以下に図面を参照して詳細に説明する。
本実施形態に係るDSP14は、上述したように、メモリ15に格納されている学習済みの学習モデルを読み出して実行することで、DNNを利用した処理部として機能する。図2に、DSP14を処理部として機能させた際のイメージセンサ10の動作例を示す。
図2に示すように、本動作では、まず、DSP14がメモリ15から学習済みの学習モデルを読み出して実行する(ステップS121)。これにより、DSP14が処理部として機能する。
次に、コントロール部12が撮像部11からのフレーム読出しを開始する(ステップS122)。このフレーム読出しでは、例えば、1フレーム分の画像データが水平ライン単位(行単位ともいう)で順次読み出される。
次に、1フレームにおける所定ライン数の画像データが読み出されると(ステップS123のYES)、DSP14は、読み出された所定ライン数分の画像データに対して、CNN(Convolution Neural Network)を利用した演算処理を実行する(ステップS124)。すなわち、DSP14は、所定ライン数の画像データを単位領域として、学習済みの学習モデルを用いた演算処理を実行する。また、CNNを利用した演算処理では、例えば、顔検出や顔認証や視線検出や表情認識や顔方向検出や物体検出や物体認識や動き(動物体)検出やペット検出やシーン認識や状態検出や回避対象物認識等が実行される。
ここで、顔検出とは、画像データに含まれる人物の顔を検出する処理である。顔認証とは、生体認証の一つであって、画像データに含まれる人物の顔が予め登録された人物の顔と一致するか否かを認証する処理である。視線検出とは、画像データに含まれる人物の視線の方向を検出する処理である。表情認識とは、画像データに含まれる人物の表情を認識する処理である。顔方向検出とは、画像データに含まれる人物の顔の上下方向を検出する処理である。物体検出とは、画像データに含まれる物体を検出する処理である。物体認識とは、画像データに含まれる物体が何であるかを認識する処理である。動き(動物体)検出とは、画像データに含まれる動物体を検出する処理である。ペット検出とは、画像データに含まれる犬や猫などのペットを検出する処理である。シーン認識とは、撮影しているシーン(海や山等)を認識する処理である。状態検出とは、画像データに含まれる人物等の状態(通常の状態か異常の状態か等)を検出する処理である。回避対象物認識とは、自身が移動する場合のその進行方向前方に存在する回避対象の物体を認識する処理である。
CNNを利用した演算処理に成功した場合(ステップS125のYES)、本動作はステップS129へ進む。一方、CNNを利用した演算処理に失敗した場合(ステップS125のNO)、撮像部11から次の所定ライン数の画像データが読み出されるのを待機する(ステップS126のNO)。
なお、本説明において、演算処理に成功するとは、例えば、上記において例示したような顔検出や顔認証等において、一定の検出結果や認識結果や認証が得られたことを意味する。一方、演算処理に失敗するとは、例えば、上記において例示したような顔検出や顔認証等において、十分な検出結果や認識結果や認証が得られなかったことを意味する。
次に、ステップS126において、次の所定ライン数の画像データ(単位領域)が読み出されると(ステップS126のYES)、DSP14は、読み出された所定ライン数の画像データに対して、RNN(Recurrent Neural Network)を利用した演算処理を実行する(ステップS127)。RNNを利用した演算処理では、例えば、同一フレームの画像データに対してこれまでに実行したCNN又はRNNを利用した演算処理の結果も利用される。
RNNを利用した演算処理に成功した場合(ステップS128のYES)、本動作はステップS129へ進む。
ステップS129では、ステップS124又はS127で成功した演算結果が、例えば、DSP14からセレクタ16を介してアプリケーションプロセッサ20へ出力されるか、又は、メモリ15へ格納される。
また、ステップS127において、RNNを利用した演算処理に失敗した場合(ステップS128のNO)、1フレーム分の画像データの読出しが完了したか否かが判定され(ステップS130)、完了していない場合(ステップS130のNO)、ステップS126へリターンして、次の所定ライン数の画像データに対する処理が実行される。
一方、1フレーム分の画像データの読出しが完了している場合(ステップS130のYES)、例えば、コントロール部12は、本動作を終了するか否かを判定し(ステップS131)、終了しない場合(ステップS131のNO)、ステップS122へリターンし、次のフレームに対して同様の動作を実行する。また、終了する場合(ステップS131のYES)、本動作が終了する。
なお、次のフレームへ移行するか否か(ステップS131)は、例えば、アプリケーションプロセッサ20等の外部から終了の指示が入力されたか否かに基づいて判断されてもよいし、予め定めておいた所定フレーム数の画像データに対する一連の処理が完了したか否かに基づいて判断されてもよい。
また、顔検出や顔認証や視線検出や表情認識や顔方向検出や物体検出や物体認識や動き(動物体)検出やシーン認識や状態検出等の演算処理を連続して行なう場合、直前の演算処理に失敗している場合には、次の演算処理がスキップされてもよい。例えば、顔検出の次に顔認証を実行する場合に、顔検出に失敗している場合には、次の顔認証がスキップされてもよい。
1.2.1 演算動作の具体例
つづいて、図2を用いて説明した処理部の動作を、具体例を用いて説明する。なお、以下では、DNNを利用して顔検出を実行する場合を例示する。
図3は、1フレーム分の画像データの一例を示す図である。図4は、本実施形態に係るDSPが実行する演算処理の流れを説明するための図である。
図3に示すような画像データに対して演算処理により顔検出を実行する場合、図4(a)に示すように、DSP14には、まず、所定ライン数分の画像データが入力される(図2のステップS123に相当)。DSP14は、入力された所定ライン数分の画像データに対してCNNを利用した演算処理を実行することで、顔検出を実行する(図2のステップS124に相当)。ただし、図4(a)の段階では、未だ顔全体の画像データが入力されていないため、DSP14は、顔検出に失敗する(図2のステップS125のNOに相当)。
つづいて、図4(b)に示すように、DSP14には、次の所定ライン数分の画像データが入力される(図2のステップS126に相当)。DSP14は、図4(a)で入力された所定ライン数分の画像データに対して実行したCNNを利用した演算処理の結果を用いつつ、新たに入力された所定ライン数分の画像データに対してRNNを利用した演算処理を実行することで、顔検出を実行する(図2のステップS127に相当)。
図4(b)の段階では、図4(a)の段階で入力された所定ライン数分のが総データと合せて、顔全体の画像データが入力されている。したがって、図4(b)の段階において、DSP14は、顔検出に成功する(図2のステップS128のYESに相当)。すると、本動作では、次以降の画像データ(図4(c)~(f)の画像データ)が読み出されることなく、顔検出の結果が出力される(図2のステップS129に相当)。
このように、所定ライン数ずつの画像データに対してDNNを利用した演算処理を実行することで、顔検出に成功した時点以降の画像データに対する読出しや演算処理の実行を省略することが可能となる。それにより、短時間で検出や認識や認証等の処理を完了することが可能となるため、処理時間の短縮及び消費電力の低減を実現することが可能となる。
なお、所定ライン数は、学習済みの学習モデルのアルゴリズムが要求するフィルタの大きさによって決定されるライン数であり、その最小数は1ラインである。
また、撮像部11から読み出される画像データは、列方向及び/又は行方向に間引かれた画像データであってもよい。その場合、例えば、列方向に1行置きに画像データを読み出す場合には、2(N-1)(Nは1以上の整数)ライン目の画像データが読み出される。
また、学習済みの学習モデルのアルゴリズムが要求するフィルタがライン単位でなく、例えば、1×1画素や5×5画素などの画素単位の矩形領域である場合には、所定ライン数の画像データに代えて、そのフィルタの形状やサイズに応じた矩形領域の画像データを、DSP14が演算処理を実行する単位領域の画像データとして、DSP14に入力されてもよい。
さらに、上述では、DNNの例としてCNNとRNNとを例示したが、これらに限定されず、例えば、GAN(Generative Adversarial Network)等、他の学習モデルを利用することも可能である。
1.3 演算結果を利用した付加的な機能の実行
次に、DSP14が実行した演算処理の結果を利用して付加的な機能を実行する際の動作について、図面を参照して詳細に説明する。なお、以下では、演算結果を利用して実行する付加的な機能として、オート露光(AE)機能、オートフォーカス(AF)機能、オートシャッタ(AS)機能、及び、オート色補正機能を例示するが、これらの機能に限定されず、種々の機能を適用することが可能である。
図5は、本実施形態に係る演算処理の結果を利用して付加的な機能を実行する際の動作の一例を示すフローチャートである。図5に示すように、本動作では、例えば、ユーザによる電源投入により電子機器1が起動すると、まず、イメージセンサ10が起動される(ステップS101)。これにより、電子機器1のビューファインダとして機能するディスプレイ17への、イメージセンサ10により得られた画像の表示が開始される。
次に、図2を用いて説明した動作を実行することで、演算処理による検出処理や認識処理等が実行される(ステップS102)。例えば、オート露光機能を実行する場合には、DSP14が実行する演算処理により、撮像部11に映り込んだ人や物等(以下、被写体という)の明度が検出される。また、オートフォーカス機能を実行する場合には、DSP14が実行する演算処理により、被写体までの距離が検出される。さらに、オートシャッタ機能を実行する場合には、DSP14が実行する演算処理により、被写体の表情や姿勢や動き等が検出される。さらにまた、オート色補正機能を実行する場合には、DSP14が実行する演算処理により、シーンや被写体が検出される。なお、シーンには、海や山などの風景に加え、晴れや曇りなどの天気等も含まれ得る。
次に、DSP14による演算に成功したか否か、すなわち、演算処理によって一定の検出結果や認識結果等が得られたか否かが判定される(ステップS103)。演算に成功していた場合(ステップS103のYES)、例えば、ユーザによって有効と設定された機能が実行される(ステップS104)。
例えば、オート露光機能が有効と設定されていた場合であって、ユーザが電子機器1のシャッタボタンを押下している場合には、DSP14が実行した演算処理により得られた被写体の明度に応じて、コントロール部12(機能実行部の一形態)が、絞りやシャッタスピードを自動的に制御する。
また、オートフォーカス機能が有効と設定されていた場合には、DSP14が実行した演算処理により得られた被写体までの距離に応じて、コントロール部12(機能実行部の一形態)が、光学系104の焦点距離を自動的に制御する。
さらに、オートシャッタ機能が有効と設定されていた場合には、DSP14が実行した演算処理により得られた被写体の表情や姿勢や動き等に応じて、コントロール部12(機能実行部の一形態)が、シャッタ動作を自動的に実行する。
さらにまた、オート色補正機能が有効と設定されていた場合には、DSP14が実行した演算処理により検出されたシーンや被写体に応じて、アプリケーションプロセッサ20(機能実行部の一形態)が、カラーマトリクスを自動的に変更する。なお、カラーマトリクスは、画像全体に対して変更されるだけでなく、被写体が映り込んでいる領域ごとに変更されてもよい。例えば、人物が映り込んでいる領域に対しては、人物用のカラーマトリクスが使用され、リンゴやミカンなどの物体が映り込んできる領域には、その物体に応じたカラーマトリクスが使用されてもよい。
その後、ステップS105において、本動作を終了するか否かが判定され、終了する場合(ステップS105のYES)、イメージセンサ10を停止し(ステップS106)、本動作を終了する。一方、終了しない場合(ステップS105のNO)、ステップS102へリターンし、以降の動作を繰返し実行する。
1.4 作用・効果
以上のように、本実施形態によれば、所定ライン数ずつの画像データに対して演算処理を実行することで、演算処理に成功した時点以降の画像データに対する読出しや演算処理の実行を省略することが可能となる。それにより、短時間で検出や認識や認証等の処理を完了することが可能となるため、処理時間の短縮及び消費電力の低減を実現することが可能となる。
また、所定ライン数ずつの画像データに対して実行した演算処理の結果に基づいて付加的な機能を実行する構成とすることで、短時間で検出や認識や認証等の処理を完了することが可能となるため、処理時間の短縮及び消費電力の低減を実現することが可能となる。
さらに、短時間でシーンや被写体を検出してオート露光やオートフォーカスやオート色補正を実行することが可能となるため、シーンや被写体に応じてより綺麗な静止画像や動画像を取得することも可能となる。
さらにまた、オートシャッタを実行する際の反応速度を向上することも可能となるため、より好適なタイミングで自動的にシャッタを切ることも可能となる。
2. 第2の実施形態
次に、第2の実施形態について、図面を参照して詳細に説明する。上述した第1の実施形態では、演算結果の利用形態として、オート露光(AE)機能、オートフォーカス(AF)機能、オートシャッタ(AS)機能、オート色補正機能等の付加的な機能を実行する場合を例示した。これに対し、第2の実施形態では、所定のアプリアプリケーションソフトウエアに対して評価等を自動で入力する場合を例示する。
ユーチューブ(登録商標)やツイッター(登録商標)やフェイスブック(登録商標)やインスタグラム(登録商標)などのソーシャルネットワークサービス(Social Networking Sservice;SNS)や、インターネットフォーラムや、ニュースサイトや、ブログなどには、ユーザが投稿した動画や写真や文章などのコンテンツに対して、他のユーザが評価や好感度等を入力するための機能(ソーシャルボタン)が組み込まれている場合が存在する。そこで本実施形態では、これらのコンテンツを閲覧・再生しているユーザの表情等を演算処理により認識し、その結果に基づいて、評価や好感度等を自動で入力する場合について、例を挙げて説明する。
本実施形態に係る電子機器の概略構成例は、第1の実施形態において図1を用いて説明した電子機器1と同様であってよい。ただし、本実施形態に係る電子機器は、スマートフォンやノート型パーソナルコンピュータなど、カメラ機能とコンテンツ閲覧・再生機能とを備えた通信端末である。
2.1 動作例
図6は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。なお、本説明では、明確化のため、ユーチューブ(登録商標)などで提供される動画像のコンテンツを再生する場合について説明する。
図6に示すように、本動作では、まず、アプリケーションプロセッサ20が、ユーザが入力した操作に従い、コンテンツ再生用の所定のアプリケーションソフトウエアを起動する(ステップS201のYES)。
次に、アプリケーションプロセッサ20は、ユーザが入力した操作に従い、指定されたコンテンツの再生を開始する(ステップS202)。すると、このコンテンツ再生に連動する形で、イメージセンサ10が起動される(ステップS203)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、コンテンツを視聴しているユーザに関して、顔検出(ステップS204)と、視線検出(ステップS205)と、表情認識(ステップS206)との演算処理を順次実行し、それにより得られた表情認識の結果に基づいて、ユーザが笑顔や泣き顔や怒り顔などの特定の表情をしているか否かを判定する(ステップS207)。
コンテンツを視聴しているユーザが特定の表情をしていない場合(ステップS207のNO)、本動作は、そのままステップS210へ進む。一方、ユーザが特定の表情をしている場合(ステップS207のYES)、イメージセンサ10は、ステップS206において認識された表情に関するメタデータをアプリケーションプロセッサ20へ出力する(ステップS208)。これに対し、アプリケーションプロセッサ20(機能実行部の一形態)は、実行中のアプリケーションソフトウエアにおけるソーシャルボタンを利用して、表情に応じた評価をアプリケーションソフトウエアに入力する(ステップS209)。その後、本動作は、ステップS210へ進む。
ステップS210では、アプリケーションプロセッサ20が、同一コンテンツの再生が停止又は終了されたか否かを判定し、停止も終了もされていない場合(ステップS210のNO)、本動作がステップS204へリターンして、以降の動作を継続する。一方、コンテンツの再生が停止又は終了されていた場合(ステップS210のYES)、アプリケーションプロセッサ20は、イメージセンサ10を停止する(ステップS211)。つづいて、アプリケーションプロセッサ20は、アプリケーションソフトウエアが終了されたか否かを判定し(ステップS212)、終了された場合(ステップS212のYES)、本動作が終了する。一方、アプリケーションソフトウエアが終了されていない場合(ステップS212のNO)、本動作がステップS202へリターンし、次のコンテンツの再生に対して以降の動作が実行される。
2.2 作用・効果
以上のように、本実施形態によれば、表情認識に成功した時点以降の画像データに対する読出しや演算処理の実行を省略することが可能となるため、コンテンツ閲覧又は再生時の消費電力の増加を抑制しつつ、自動的にコンテンツに対する評価や好感度等を入力することが可能となる。なお、その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
3. 第3の実施形態
次に、第3の実施形態について、図面を参照して詳細に説明する。本実施形態では、スマートフォンなど、姿勢に応じてディスプレイ17の表示方向を回転させる機能を備えた電子機器において、特定のアプリケーションソフトウエアを実行中に、演算結果を利用してディスプレイ17の表示方向を制御する場合を例示する。
3.1 電子機器の概略構成例
図7は、第3の実施形態に係る電子機器の概略構成例を示すブロック図である。図7に示すように、電子機器3は、第1の実施形態において図1を用いて説明した電子機器1と同様の構成に加え、電子機器3の姿勢の変化(以下、変位という)を検出するための慣性計測装置(Inertial Measurement Unit:IMU)32をさらに備えている。また、電子機器3におけるイメージセンサ10には、IMU32による検出結果に基づいて電子機器3の姿勢を検出するCPU(Central Processing Unit)31がさらに組み込まれている。
IMU32は、例えば、3軸のジャイロと3方向の加速度計とを用いて構成され、3次元の角速度と加速度を検出結果として出力する。
CPU31は、IMU32から出力された検出結果に基づいて、電子機器3が例えば重力方向に対してどのような姿勢であるかを検出する。
アプリケーションプロセッサ20は、例えば、CPU31で検出された電子機器3の姿勢に応じて、ディスプレイ17の表示方向を制御する。例えば、演算処理の結果に基づいてディスプレイ17の表示方向を制御しない場合、アプリケーションプロセッサ20は、電子機器3における長手方向が水平方向よりも垂直方向に近い状態では、ディスプレイ17の表示方向を縦方向とし、長手方向が垂直方向よりも水平方向に近い状態では、ディスプレイ17の表示方向を横方向とする。
一方で、演算処理の結果に基づいてディスプレイ17の表示方向を制御する場合には、アプリケーションプロセッサ20は、DSP14による演算処理の結果として得られたユーザの顔の上下方向と、ディスプレイ17の表示方向とが一致するように、ディスプレイ17の表示方向を制御する。例えば、電子機器3における長手方向が水平方向よりも垂直方向に近い状態にも関わらず、ユーザの顔の上下方向が垂直方向よりも水平方向に近い状態であれば、アプリケーションプロセッサ20は、ディスプレイ17の表示方向をユーザの顔の上下方向と同じ横方向とする。一方、電子機器3における長手方向が垂直方向よりも水平方向に近い状態にも関わらず、ユーザの顔の上下方向が水平方向よりも垂直方向に近い状態であれば、アプリケーションプロセッサ20は、ディスプレイ17の表示方向をユーザの顔の上下方向と同じ縦方向とする。
3.2 動作例
図8は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。図8に示すように、本動作では、まず、アプリケーションプロセッサ20が、ユーザが入力した操作に従い、所定のアプリアプリケーションソフトウエアを起動すると(ステップS301のYES)、CPU31がIMU32で検出された情報に基づいて、電子機器3の姿勢の変化(変位)を検出する(ステップS302)。変位が検出されない場合(ステップS302のNO)、本動作はステップS309へ進む。一方、変位が検出された場合(ステップS302のYES)、イメージセンサ10が起動される(ステップS303)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、電子機器3を使用しているユーザに関して、顔検出(ステップS304)と、顔方向検出(ステップS305)との演算処理を順次実行し、それにより認識された顔方向に基づいて、撮像部11又はディスプレイ17に対するユーザの顔の上下方向に関するメタデータをアプリケーションプロセッサ20へ出力する(ステップS306)。これに対し、アプリケーションプロセッサ20(機能実行部の一形態)は、ディスプレイ17の表示方向を、ユーザの顔の上下方向と一致する方向にロックする(ステップS307)。そして、イメージセンサ10が停止される(ステップS308)。
その後、アプリケーションプロセッサ20は、アプリケーションソフトウエアが終了されたか否かを判定し(ステップS309)、終了された場合(ステップS309のYES)、本動作が終了する。一方、アプリケーションソフトウエアが終了されていない場合(ステップS309のNO)、本動作がステップS302へリターンし、以降の動作を実行する。
3.3 作用・効果
以上のように、本実施形態によれば、特定のアプリケーションソフトウエアを実行している際に、処理時間や消費電力が低減された演算処理の結果に基づいて、ディスプレイ17の表示方向をユーザの顔の上下方向に応じて制御することが可能となる。その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
なお、IMU32により得られた検出結果は、例えば、オートシャッタ機能にも活用することができる。具体例としては、例えば、電子機器が静止したことがIMU32及びCPU31により検出された場合には、自動的にシャッタ動作を実行するようにも構成することが可能である。
また、電子機器として、例えば、ToF(Time Of Flight)センサのような、撮像時に光源の動作も伴う電子機器を適用した場合には、IMU32により得られた検出結果に基づき、イメージセンサ10で撮像を実行するタイミングに合せて光源を駆動することが可能となるため、光源の駆動時間を減らしてより省電力化を実現することが可能である。
4. 第4の実施形態
次に、第4の実施形態について、図面を参照して詳細に説明する。本実施形態では、スマートフォンなど、セキュリティ等の理由からディスプレイ17に表示された画面をロックする機能を搭載した電子機器において、顔認証により画面ロックを解除する際に、演算結果を利用する場合を例示する。
4.1 電子機器の概略構成例
図9は、第4の実施形態に係る電子機器の概略構成例を示すブロック図である。図9に示すように、電子機器4は、第3の実施形態において図7を用いて説明した電子機器3と同様の構成に加え、不揮発性メモリ43をさらに備えている。
不揮発性メモリ43は、例えば、フラッシュメモリなどで構成され、顔認証や虹彩認証などに使用する認証情報を不揮発に記憶する。なお、図9では、不揮発性メモリ43がイメージセンサ10のチップ外に設けられた場合を例示しているが、これに限定されず、イメージセンサ10のチップ内に不揮発性メモリ43が設けられてもよい。
4.2 動作例
図10は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。図10に示すように、本動作では、まず、アプリケーションプロセッサ20によって、電子機器4が画面ロックの状態であるか否かが判定される(ステップS401)。なお、電子機器4の画面ロックは、例えば、アプリケーションプロセッサ20により実行される。電子機器4が画面ロックの状態である場合(ステップS401のYES)、CPU31がIMU32で検出された情報に基づいて、電子機器1の姿勢の変化(変位)を検出する(ステップS402)。そして、電子機器4の変位が検出されると(ステップS402のYES)、イメージセンサ10が起動される(ステップS403)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、電子機器3を使用しているユーザに関して、顔検出(ステップS404)と、視線検出(ステップS405)と、顔認証(ステップS406)との演算処理を順次実行する。なお、ステップS406の顔認証では、例えば、イメージセンサ10から所定ライン数ごとに入力された画像データから特定された顔の情報と、不揮発性メモリ43に予め格納されている所有者の顔の生体情報とに基づいて、現在電子機器4を操作しているユーザが当該電子機器4の所有者であるか否かが判定される。
ステップS406の顔認証に失敗した場合、例えば、現在電子機器4を操作しているユーザが当該電子機器4の所有者でないと判定された場合(ステップS407のNO)、電子機器4の画面ロックが維持されたまま、本動作がステップS402へリターンする。
一方、ステップS406の顔認証に成功した場合、例えば、現在電子機器4を操作しているユーザが当該電子機器4の所有者であると判定された場合(ステップS407のYES)、顔認証に成功したことが、イメージセンサ10からアプリケーションプロセッサ20へ通知される(ステップS408)。
顔認証に成功したことが通知されたアプリケーションプロセッサ20(機能実行部の一形態)は、画面ロックを解除する(ステップS409)。その後、イメージセンサ10が停止され(ステップS410)、本動作が終了する。
4.3 作用・効果
以上のように、本実施形態によれば、IMU32で電子機器4の変位を検出した際に、処理時間や消費電力が低減された演算処理の結果に基づいて、画面ロックが解除される。また、画面ロック中、常時、イメージセンサ10を起動しておく必要がなくなるため、待機中の消費電力をより低減することも可能となる。
なお、図10に示す動作において、ステップS406における顔認証の代わりに、虹彩認証が実行されてもよい。その場合、不揮発性メモリ43には、所有者の虹彩に関する生体情報が予め格納される。その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
5. 第5の実施形態
次に、第5の実施形態について、図面を参照して詳細に説明する。本実施形態では、例えば、第1の実施形態に係る電子機器1を、防犯システムに適用した場合について、例を挙げて説明する。
5.1 電子機器の概略構成例
図11は、第5の実施形態に係る電子機器の概略構成例を示すブロック図である。図11に示すように、電子機器5は、第1の実施形態において図1を用いて説明した電子機器1と同様の構成に加え、不揮発性メモリ43をさらに備えている。
不揮発性メモリ43は、例えば、第4の実施形態において例示した不揮発性メモリ43であってよい。ただし、不揮発性メモリ43には、例えば、家族や社員等、予め登録された人物に対して生体認証を実行するための生体情報が格納されている。なお、図11では、不揮発性メモリ43がイメージセンサ10のチップ外に設けられた場合を例示しているが、これに限定されず、イメージセンサ10のチップ内に不揮発性メモリ43が設けられてもよい。
5.2 動作例
図12は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。図12に示すように、本動作では、例えば、ユーザによる電源投入により電子機器1が起動すると、まず、イメージセンサ10が起動される(ステップS501)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、動き(動物体)検出(ステップS502)と、人検出(ステップS503)と、顔検出(ステップS504)と、顔認証(ステップS505)との演算処理を順次実行する。
ステップS505の顔認証に失敗した場合、例えば、イメージセンサ10で取得された画像データに映り込んだ人物が不揮発性メモリ43に登録された登録者でないと判定された場合(ステップS506のNO)、イメージセンサ10からアプリケーションプロセッサ20へ撮像画像が出力される(ステップS507)。これに対し、アプリケーションプロセッサ20(機能実行部の一形態)は、イメージセンサ10から出力された撮像画像と、この撮像画像の撮像時刻とを、例えば、不揮発性メモリ43に保存する(ステップS508)。なお、アプリケーションプロセッサ20は、不揮発性メモリ43への保存に代えて、若しくは、不揮発性メモリ43への保存とともに、撮像画像と撮像時刻とをネットワーク40を介して外部のクラウドサーバ30へ送信してもよい。
その後、例えば、アプリケーションプロセッサ20により本動作を終了するか否かが判断され(ステップS509)、終了する場合(ステップS509のYES)、イメージセンサ10を停止した後(ステップS510)、本動作が終了する。一方、終了しない場合(ステップS509のNO)、本動作がステップS502へリターンする。
5.3 作用・効果
以上のように、本実施形態によれば、処理時間や消費電力が低減された演算処理の結果に基づいて、撮像された人物が不審者であるか否かを判断することが可能となる。なお、その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
6. 第6の実施形態
次に、第6の実施形態について、図面を参照して詳細に説明する。本実施形態では、例えば、第1の実施形態に係る電子機器1を、例えば、家庭内等の特定の領域内のペットを見守る監視カメラに適用した場合について、例を挙げて説明する。
6.1 電子機器の概略構成例
図13は、第6の実施形態に係る電子機器の概略構成例を示すブロック図である。図13に示すように、電子機器6は、第1の実施形態において図1を用いて説明した電子機器1と同様の構成に加え、動き回るペットを追跡するために、その画角を変更する制御機構21が搭載されている。
6.2 動作例
図14は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。図14に示すように、本動作では、例えば、ユーザによる電源投入により電子機器6が起動すると、まず、イメージセンサ10が起動される(ステップS601)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、動き(動物体)検出(ステップS602)と、ペット検出(ステップS603)との演算処理を順次実行し、それにより検出されたペットが画角の例えば略中心に位置するように制御機構21(機能実行部の一形態)を駆動することで、電子機器1のロール角、ピッチ角及び/又はヨー角を制御する(ステップS604)。
その後、例えば、アプリケーションプロセッサ20により本動作を終了するか否かが判断され(ステップS605)、終了する場合(ステップS605のYES)、イメージセンサ10を停止した後(ステップS606)、本動作が終了する。一方、終了しない場合(ステップS605のNO)、本動作がステップS602へリターンする。
6.3 作用・効果
以上のように、本実施形態によれば、処理時間や消費電力が低減された演算処理の結果に基づいて、家庭内等の特定の領域内のペットを見守ることが可能となる。なお、その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
7. 第7の実施形態
次に、第7の実施形態について、図面を参照して詳細に説明する。本実施形態では、例えば、第1の実施形態に係る電子機器1を、例えば、家庭内等の特定の領域内の子供や老人や要介護者等の人(以下、対象者という)を見守る監視カメラに適用した場合について、例を挙げて説明する。
本実施形態に係る電子機器の概略構成例は、第1の実施形態において図1を用いて説明した電子機器1又は第6の実施形態において図13を用いて説明した電子機器6と同様であってよい。
7.1 動作例
図15は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。図15に示すように、本動作では、例えば、ユーザによる電源投入により電子機器1が起動すると、まず、イメージセンサ10が起動される(ステップS701)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、人検出(ステップS702)と、状態検出(ステップS703)との演算処理を順次実行する。
ステップS703の状態検出にて対象者の状態異常が検出されなかった場合(ステップS704のNO)、本動作がステップS707へ進む。一方、状態異常が検出された場合(ステップS704のYES)、イメージセンサ10からアプリケーションプロセッサ20へ状態異常を示すメタデータが出力される(ステップS705)。なお、状態異常とは、例えば、人が助けを呼ぶしぐさをしていたり、長時間泣き続けていたり、不自然な姿勢で一定時間以上動かなかったり、本来横になる場所でない場所(例えば、キッチンなど)で横になっていたりなど、通常と異なる状態であることであってよい。
このようにして状態異常が通知されたアプリケーションプロセッサ20(機能実行部の一形態)は、例えば、予め登録された連絡先へ状態異常を検出したことを通知し(ステップS706)、ステップS707へ進む。なお、予め登録された連絡先とは、対象者の親族や契約しているサービス会社等の電子メールアドレスや電話番号等であってよいし、ネットワーク40を介して接続されたクラウドサーバ30であってもよい。
その後、ステップS707において、例えば、アプリケーションプロセッサ20により本動作を終了するか否かが判断され、終了する場合(ステップS707のYES)、イメージセンサ10を停止した後(ステップS708)、本動作が終了する。一方、終了しない場合(ステップS707のNO)、本動作がステップS702へリターンする。
7.2 作用・効果
以上のように、本実施形態によれば、処理時間や消費電力が低減された演算処理の結果に基づいて、家庭内等の特定の領域内の子供や老人や要介護者等の対象者を見守ることが可能となる。なお、その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
8. 第8の実施形態
次に、第8の実施形態について、図面を参照して詳細に説明する。本実施形態では、例えば、第1の実施形態に係る電子機器1を、例えば、自動車等の乗り物に搭載される自動運転システムや自律ロボットやドローンなどの自律移動体等に搭載される自律システムに組み込んだ場合について、例を挙げて説明する。
本実施形態に係る電子機器の概略構成例は、第1の実施形態において図1を用いて説明した電子機器1と同様であってよい。ただし、本実施形態において、ネットワーク40は、例えば、車内ネットワークであり、クラウドサーバ30は、自動運転システムを構成する情報処理装置である。
8.1 動作例
図16は、本実施形態に係る電子機器の概略動作例を示すフローチャートである。図16に示すように、本動作では、例えば、運転者による自動車のエンジン始動に連動して、イメージセンサ10が起動される(ステップS801)。
起動したイメージセンサ10は、第1の実施形態において図2を用いて説明した演算処理に従い、一定距離内に存在する物体の検出(ステップS802)と、検出された物体が回避対象物であるか否かの認識(ステップS803)との演算処理を順次実行する。
ステップS803の認識にて物体が回避対象物ではないと認識された場合(ステップS804のNO)、本動作はステップS802へリターンする。一方、回避対象物であると認識された場合(ステップS804のYES)、イメージセンサ10からアプリケーションプロセッサ20へ、画像データと、この画像データに映り込んでいる物体が回避対象物であることを示すメタデータとが出力される(ステップS805)。
画像データとメタデータとが入力されたアプリケーションプロセッサ20は、例えば、入力された画像データを解析することで、回避対象物であると通知された物体が実際に回避対象物であるか否かを再度認識する(ステップS806)。回避対象物であると通知された物体が回避対象物ではないと認識された場合(ステップS807のNO)、本動作はそのままステップS809へ進む。一方、回避対象物であると再度認識された場合(ステップS807のYES)、アプリケーションプロセッサ20(機能実行部の一形態)は、自動運転システムを構成する情報処理装置へ、回避対象物を回避する回避動作を指示し(ステップS808)、ステップS809へ進む。
ステップS809では、例えば、アプリケーションプロセッサ20により本動作を終了するか否かが判断され、終了する場合(ステップS809のYES)、イメージセンサ10を停止した後(ステップS810)、本動作が終了する。一方、終了しない場合(ステップS809のNO)、本動作がステップS802へリターンする。
8.2 作用・効果
以上のように、本実施形態によれば、処理時間や消費電力が低減された演算処理の結果に基づいて回避対象物を認識することが可能となるため、自動運転システムにおける迅速な回避対象物の認識と消費電力の低減とを実現することが可能となる。なお、その他の構成、動作及び効果については、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
なお、上述した第1~第8の実施形態では、DSP14を処理部として動作させる場合について例示したが、これに限定されるものではない。すなわち、同様な検出、認識又は認証の結果を得られる処理であれば、学習モデルに基づいた処理に限定されず、種々の処理をDSP14に実行させることが可能である。
9.移動体への応用例
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図17は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図17に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図17の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図18は、撮像部12031の設置位置の例を示す図である。
図18では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図18には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。撮像部12031等に本開示に係る技術を適用することにより、通信ネットワーク12001を介して送受信されるデータ量を削減できるとともに、車外情報検出ユニット12030や統合制御ユニット12050等において処理すべきデータ量を削減することが可能となる。それにより、認識処理や検出処理等の結果をより迅速に取得することが可能となるため、車両1200の制御や運転者への情報提供等をより的確且つ迅速に行うことが可能となる。
10.内視鏡手術システムへの応用例
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
図19は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
図19では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
光源装置11203は、例えばLED(light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
図20は、図19に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、カメラヘッド11102の撮像部11402等に適用され得る。撮像部11402に本開示に係る技術を適用することにより、CCU11201等において処理すべきデータ量を削減することが可能となる。それにより、画像処理結果をより迅速に取得することが可能となるため、フレームレートや露出値、倍率、焦点等の撮像条件の設定又は更新やユーザへの情報提供等をより的確且つ迅速に行うことが可能となる。
なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の各実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
さらに、上述した各実施形態は、それぞれ単独で使用されてもよいし、他の実施形態と組み合わせて使用されてもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
画像データを生成する撮像部と、
前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルに基づく処理を実行する処理部と、
前記処理の結果に基づいて、所定の機能を実行する機能実行部と、
変位を検出する検出部と、
を備え、
前記処理部は、前記検出部が変位を検出した場合、前記処理を実行する
電子機器。
(2)
前記機能実行部は、前記電子機器の画面ロックを設定/解除する機能を備え、
前記処理部は、前記電子機器の画面ロックが設定された状態で前記検出部が前記電子機器の変位を検出した場合、前記撮像部から読み出された画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた顔認証を実行し、
前記機能実行部は、前記処理部による顔認証に成功した場合、前記電子機器の画面ロックを解除する
前記(1)に記載の電子機器。
(3)
前記機能実行部は、前記電子機器の画面の表示方向を回転させる機能を備え、
前記処理部は、前記検出部が前記電子機器の変位を検出した場合、前記撮像部から読み出された画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた顔方向検出を実行し、
前記機能実行部は、前記処理部により検出された顔の上下方向に応じて、前記電子機器の画面の表示方向を制御する
前記(1)又は(2)に記載の電子機器。
(4)
前記処理部は、同一フレームの前記画像データに基づくデータにおける最初に入力された単位領域のデータに対してCNN(Convolution Neural Network)を利用した処理を実行する前記(1)~(3)の何れか1項に記載の電子機器。
(5)
前記処理部は、前記最初に入力された単位領域のデータに対する前記CNNを利用した処理に失敗した場合、前記同一フレームの画像データに基づくデータにおける次に入力された単位領域のデータに対してRNN(Recurrent Neural Network)を利用した処理を実行する前記(4)に記載の電子機器。
(6)
前記撮像部からライン単位で画像データを読み出すコントロール部をさらに備え、
前記単位領域のデータは、前記画像データに基づくデータにおける前記ライン単位のデータであり、
前記処理部には、前記ライン単位で前記データが入力される
前記(4)又は(5)に記載の電子機器。
(7)
前記単位領域のデータは、前記画像データに基づくデータにおける所定ライン数分のデータである前記(4)又は(5)に記載の電子機器。
(8)
前記単位領域のデータは、前記画像データに基づくデータにおける矩形領域のデータである前記(4)又は(5)に記載の電子機器。
(9)
前記ニューラルネットワーク計算モデルのプログラムを記録するメモリをさらに備え、
前記処理部は、前記メモリから前記プログラムを読み出して実行することで、前記処理を実行する
前記(1)~(8)の何れか1項に記載の電子機器。
(10)
前記処理は、顔検出、顔認証、視線検出、表情認識、顔方向検出、物体検出、物体認識、動き検出、ペット検出、シーン認識、状態検出及び回避対象物認識のうちの少なくとも1つである前記(1)~(9)の何れか1項に記載の電子機器。
(11)
前記顔検出は、画像データに含まれる人物の顔を検出する処理であり、
前記顔認証は、画像データに含まれる人物の顔が予め登録された人物の顔と一致するか否かを認証する処理であり、
前記視線検出は、画像データに含まれる人物の視線の方向を検出する処理であり、
前記表情認識は、画像データに含まれる人物の表情を認識する処理であり、
前記顔方向検出は、画像データに含まれる人物の顔の上下方向を検出する処理であり、
前記物体検出は、画像データに含まれる物体を検出する処理であり、
前記物体認識は、画像データに含まれる物体を認識する処理であり、
前記動き検出は、画像データに含まれる動物体を検出する処理であり、
前記ペット検出は、画像データに含まれるペットを検出する処理であり、
前記シーン認識は、前記画像データを取得した際のシーンを認識する処理であり、
前記状態検出は、画像データに含まれる人物又は物体の状態を検出する処理であり、
前記回避対象物認識は、画像データに含まれる回避対象の物体を認識する処理である
前記(10)に記載の電子機器。
(12)
前記所定の機能は、オート露光機能、オートフォーカス機能、オートシャッタ機能、及び、オート色補正機能のうちの少なくとも1つである前記(1)~(11)の何れか1項に記載の電子機器。
(13)
前記機能実行部は、ユーザの評価を入力するためのソーシャルボタンが対応付けられたコンテンツを再生するアプリケーションソフトウエアを実行する機能を備え、
前記処理部は、前記アプリケーションソフトウエアがコンテンツを再生中に、前記撮像部から読み出された画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた表情認識を実行し、
前記機能実行部は、前記処理部により認識された表情に応じて、前記ソーシャルボタンを利用して前記コンテンツに対する評価を入力する
前記(1)~(11)の何れか1項に記載の電子機器。
(14)
前記顔認証に使用する生体情報を記憶する不揮発性メモリをさらに備え、
前記処理部は、前記不揮発性メモリから読み出した前記生体情報を用いて前記顔認証を実行する
前記(2)、(10)又は(11)に記載の電子機器。
(15)
前記処理部は、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた顔認証を実行し、
前記機能実行部は、前記処理部による顔認証に失敗した場合、前記画像データを含む1フレーム分の画像データと前記画像データの撮像時刻とを出力する
前記(1)~(14)の何れか1項に記載の電子機器。
(16)
前記撮像部の画角を変更する制御機構をさらに備え、
前記処理部は、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いたペット検出を実行し、
前記機能実行部は、前記処理部によるペット検出の結果に基づいて、前記制御機構を制御する
前記(1)~(15)の何れか1項に記載の電子機器。
(17)
前記処理部は、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた状態検出を実行し、
前記機能実行部は、前記処理部による状態検出により対象者の異常状態が検出された場合、予め登録された連絡先へ前記異常状態を通知する
前記(1)~(16)の何れか1項に記載の電子機器。
(18)
前記処理部は、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた第1の回避対象物認識を実行し、
前記機能実行部は、前記処理部による第1の回避対象物認識により進行方向前方に存在する回避対象物が認識された場合、前記撮像部から読み出された画像データに基づくデータに対して第2の回避対象物認識を実行し、前記第2の回避対象物認識により前記進行方向前方に存在する前記回避対象物が再認識された場合、前記回避対象物の回避動作を外部へ指示する
前記(1)~(17)の何れか1項に記載の電子機器。
(19)
画像データを生成する撮像部と、
前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルを用いた処理を実行する処理部と、
前記処理の結果を出力する出力部と、
を備える固体撮像装置。
1、3、4、5、6 電子機器
10 イメージセンサ
11 撮像部
101 画素アレイ部
104 光学系
12 コントロール部
13 信号処理部
14 DSP
15 メモリ
16 セレクタ
17 ディスプレイ
20 アプリケーションプロセッサ
21 制御機構
30 クラウドサーバ
31 CPU
32 IMU
40 ネットワーク
43 不揮発性メモリ

Claims (19)

  1. 画像データを生成する撮像部と、
    前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルに基づく処理を実行する処理部と、
    前記処理の結果に基づいて、所定の機能を実行する機能実行部と、
    変位を検出する検出部と、
    を備え、
    前記処理部は、
    前記検出部が変位を検出した場合、同一フレームの前記画像データに基づくデータにおける単位領域のデータに対してCNN(Convolution Neural Network)を利用した前記処理を実行し、
    前記CNNを利用した前記処理に失敗した場合、前記同一フレームの前記画像データに基づくデータにおける単位領域のデータに対してRNN(Recurrent Neural Network)を利用した処理を実行する
    電子機器。
  2. 前記処理部は、最初に入力された単位領域のデータに対して前記CNNを利用した前記処理を実行し、前記CNNを利用した前記処理に失敗した場合、次に入力された単位領域のデータに対して前記RNNを利用した処理を実行する
    請求項に記載の電子機器。
  3. 前記撮像部からライン単位で画像データを読み出すコントロール部をさらに備え、
    前記単位領域のデータは、前記画像データに基づくデータにおける前記ライン単位のデータであり、
    前記処理部には、前記ライン単位で前記データが入力される
    請求項に記載の電子機器。
  4. 前記単位領域のデータは、前記画像データに基づくデータにおける所定ライン数分のデータである請求項に記載の電子機器。
  5. 前記単位領域のデータは、前記画像データに基づくデータにおける矩形領域のデータである請求項に記載の電子機器。
  6. 画像データを生成する撮像部と、
    前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルに基づく処理を実行する処理部と、
    前記処理の結果に基づいて、所定の機能を実行する機能実行部と、
    変位を検出する検出部と、
    を備え、
    前記機能実行部は、ユーザの評価を入力するためのソーシャルボタンが対応付けられたコンテンツを再生するアプリケーションソフトウエアを実行する機能を備え、
    前記処理部は、前記アプリケーションソフトウエアがコンテンツを再生中に、前記検出部が変位を検出した場合、前記撮像部から読み出された画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた表情認識を実行し、
    前記機能実行部は、前記処理部により認識された表情に応じて、前記ソーシャルボタンを利用して前記コンテンツに対する評価を入力する
    電子機器。
  7. 画像データを生成する撮像部と、
    前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルに基づく処理を実行する処理部と、
    前記処理の結果に基づいて、所定の機能を実行する機能実行部と、
    変位を検出する検出部と、
    を備え、
    前記処理部は、前記検出部が変位を検出した場合、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた顔認証を実行し、
    前記機能実行部は、前記処理部による顔認証に失敗した場合、前記画像データを含む1フレーム分の画像データと前記画像データの撮像時刻とを出力する
    電子機器。
  8. 画像データを生成する撮像部と、
    前記撮像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルに基づく処理を実行する処理部と、
    前記処理の結果に基づいて、所定の機能を実行する機能実行部と、
    変位を検出する検出部と、
    を備え、
    前記処理部は、前記検出部が変位を検出した場合、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた第1の回避対象物認識を実行し、
    前記機能実行部は、前記処理部による第1の回避対象物認識により進行方向前方に存在する回避対象物が認識された場合、前記撮像部から読み出された画像データに基づくデータに対して第2の回避対象物認識を実行し、前記第2の回避対象物認識により前記進行方向前方に存在する前記回避対象物が再認識された場合、前記回避対象物の回避動作を外部へ指示する
    電子機器。
  9. 前記機能実行部は、前記電子機器の画面ロックを設定/解除する機能を備え、
    前記処理部は、前記電子機器の画面ロックが設定された状態で前記検出部が前記電子機器の変位を検出した場合、前記撮像部から読み出された画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた顔認証を実行し、
    前記機能実行部は、前記処理部による顔認証に成功した場合、前記電子機器の画面ロックを解除する
    請求項1から8のいずれか1項に記載の電子機器。
  10. 前記顔認証に使用する生体情報を記憶する不揮発性メモリをさらに備え、
    前記処理部は、前記不揮発性メモリから読み出した前記生体情報を用いて前記顔認証を実行する
    請求項に記載の電子機器。
  11. 前記検出部は、前記電子機器の変位を検出し、
    前記機能実行部は、前記所定の機能として前記画像データを加工する処理を実行する
    請求項1から8のいずれか1項に記載の電子機器。
  12. 前記機能実行部は、前記電子機器の画面の表示方向を回転させる機能を備え、
    前記処理部は、前記検出部が前記電子機器の変位を検出した場合、前記撮像部から読み出された画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた顔方向検出を実行し、
    前記機能実行部は、前記処理部により検出された顔の上下方向に応じて、前記電子機器の画面の表示方向を制御する
    請求項1から8のいずれか1項に記載の電子機器。
  13. 前記ニューラルネットワーク計算モデルのプログラムを記録するメモリをさらに備え、
    前記処理部は、前記メモリから前記プログラムを読み出して実行することで、前記処理を実行する
    請求項1から8のいずれか1項に記載の電子機器。
  14. 前記処理は、顔検出、顔認証、視線検出、表情認識、顔方向検出、物体検出、物体認識、動き検出、ペット検出、シーン認識、状態検出及び回避対象物認識のうちの少なくとも1つである請求項1から8のいずれか1項に記載の電子機器。
  15. 前記顔検出は、画像データに含まれる人物の顔を検出する処理であり、
    前記顔認証は、画像データに含まれる人物の顔が予め登録された人物の顔と一致するか否かを認証する処理であり、
    前記視線検出は、画像データに含まれる人物の視線の方向を検出する処理であり、
    前記表情認識は、画像データに含まれる人物の表情を認識する処理であり、
    前記顔方向検出は、画像データに含まれる人物の顔の上下方向を検出する処理であり、
    前記物体検出は、画像データに含まれる物体を検出する処理であり、
    前記物体認識は、画像データに含まれる物体を認識する処理であり、
    前記動き検出は、画像データに含まれる動物体を検出する処理であり、
    前記ペット検出は、画像データに含まれるペットを検出する処理であり、
    前記シーン認識は、前記画像データを取得した際のシーンを認識する処理であり、
    前記状態検出は、画像データに含まれる人物又は物体の状態を検出する処理であり、
    前記回避対象物認識は、画像データに含まれる回避対象の物体を認識する処理である
    請求項14に記載の電子機器。
  16. 前記所定の機能は、オート露光機能、オートフォーカス機能、オートシャッタ機能、及び、オート色補正機能のうちの少なくとも1つである請求項1から8のいずれか1項に記載の電子機器。
  17. 前記撮像部の画角を変更する制御機構をさらに備え、
    前記処理部は、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いたペット検出を実行し、
    前記機能実行部は、前記処理部によるペット検出の結果に基づいて、前記制御機構を制御する
    請求項1から8のいずれか1項に記載の電子機器。
  18. 前記処理部は、前記撮像部から読み出された前記画像データに基づくデータに対して前記ニューラルネットワーク計算モデルを用いた状態検出を実行し、
    前記機能実行部は、前記処理部による状態検出により対象者の異常状態が検出された場合、予め登録された連絡先へ前記異常状態を通知する
    請求項1から8のいずれか1項に記載の電子機器。
  19. 像部から読み出された画像データに基づくデータに対してニューラルネットワーク計算モデルを用いた処理を実行する処理部と、
    前記処理の結果を出力する出力部と、
    を備え、
    前記処理部は、
    同一フレームの前記画像データに基づくデータにおける単位領域のデータに対してCNN(Convolution Neural Network)を利用した前記処理を実行し、
    前記CNNを利用した前記処理に失敗した場合、前記同一フレームの前記画像データに基づくデータにおける単位領域のデータに対してRNN(Recurrent Neural Network)を利用した処理を実行する
    固体撮像装置。
JP2020539604A 2018-08-31 2019-08-29 電子機器及び固体撮像装置 Active JP7386792B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018163700 2018-08-31
JP2018163700 2018-08-31
JP2019152201 2019-08-22
JP2019152201 2019-08-22
PCT/JP2019/034022 WO2020045598A1 (ja) 2018-08-31 2019-08-29 電子機器及び固体撮像装置

Publications (2)

Publication Number Publication Date
JPWO2020045598A1 JPWO2020045598A1 (ja) 2021-09-24
JP7386792B2 true JP7386792B2 (ja) 2023-11-27

Family

ID=69642811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020539604A Active JP7386792B2 (ja) 2018-08-31 2019-08-29 電子機器及び固体撮像装置

Country Status (7)

Country Link
US (1) US11889177B2 (ja)
EP (1) EP3846442A4 (ja)
JP (1) JP7386792B2 (ja)
KR (1) KR20210052441A (ja)
CN (1) CN112585942B (ja)
TW (1) TWI820194B (ja)
WO (1) WO2020045598A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6638852B1 (ja) * 2018-08-31 2020-01-29 ソニー株式会社 撮像装置、撮像システム、撮像方法および撮像プログラム
US11375968B2 (en) 2020-04-06 2022-07-05 GE Precision Healthcare LLC Methods and systems for user and/or patient experience improvement in mammography
KR20220028928A (ko) * 2020-08-31 2022-03-08 삼성전자주식회사 부분 영상 기반의 영상 처리 방법 및 장치
JP7413481B1 (ja) 2022-10-21 2024-01-15 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法
WO2024150402A1 (ja) * 2023-01-13 2024-07-18 日本電気株式会社 情報処理システム、情報処理装置、情報処理方法及び記録媒体

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128967A (ja) 2003-10-27 2005-05-19 Sozo Gijutsu Kenkyusho:Kk 医療用動き検出装置、医療用動き検出方法、医療用動き検出プログラム並びにコンピュータで読取可能な記録媒体
WO2007119818A1 (ja) 2006-04-14 2007-10-25 Nec Corporation 機能ロック解除システム、機能ロック解除方法、および機能ロック解除用プログラム
JP2011035771A (ja) 2009-08-04 2011-02-17 Olympus Corp 撮像装置、編集装置および撮像システム
JP2011160044A (ja) 2010-01-29 2011-08-18 Sanyo Electric Co Ltd 撮像装置
JP2011203860A (ja) 2010-03-24 2011-10-13 Ntt Docomo Inc 情報端末及び表示切替方法
WO2012073421A1 (ja) 2010-11-29 2012-06-07 パナソニック株式会社 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
US20120235790A1 (en) 2011-03-16 2012-09-20 Apple Inc. Locking and unlocking a mobile device using facial recognition
JP2012252507A (ja) 2011-06-02 2012-12-20 Panasonic Corp 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
JP2013120949A (ja) 2011-12-06 2013-06-17 Sony Corp 画像処理装置、画像処理方法、プログラム
WO2018037521A1 (ja) 2016-08-25 2018-03-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
JP2018055138A (ja) 2016-09-26 2018-04-05 株式会社デンソーウェーブ 認証システム、認証データ管理装置、ゲート管理装置および認証方法
JP2018116589A (ja) 2017-01-20 2018-07-26 Kddi株式会社 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法
JP2018117309A (ja) 2017-01-20 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 撮像装置、画像処理方法および画像処理システム
JP2018133749A (ja) 2017-02-16 2018-08-23 オリンパス株式会社 被操縦体、移動装置、撮像装置、移動制御方法、移動補助方法、移動制御プログラムおよび移動補助プログラム
JP2018136767A (ja) 2017-02-22 2018-08-30 オムロン株式会社 光学センサ、学習装置、及び画像処理システム

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2910534B2 (ja) 1993-11-18 1999-06-23 ノーリツ鋼機株式会社 写真フィルム用コード情報読取装置
US6252975B1 (en) 1998-12-17 2001-06-26 Xerox Corporation Method and system for real time feature based motion analysis for key frame selection from a video
EP1354291B1 (en) 2001-01-22 2006-08-02 Hand Held Products, Inc. Optical reader having partial frame operating mode
US20040028137A1 (en) 2002-06-19 2004-02-12 Jeremy Wyn-Harris Motion detection camera
JP4130180B2 (ja) 2004-05-26 2008-08-06 株式会社リコー 画像読取装置、画像形成装置及び画像読取方法
JP4546157B2 (ja) 2004-06-03 2010-09-15 キヤノン株式会社 情報処理方法、情報処理装置、撮像装置
US20060242434A1 (en) * 2005-04-22 2006-10-26 Tsung-Jen Lee Portable device with motion sensor
JP2007201660A (ja) 2006-01-25 2007-08-09 Fuji Xerox Co Ltd 画像処理装置、画像形成装置、画像処理方法及びプログラム
JP5150067B2 (ja) 2006-07-05 2013-02-20 パナソニック株式会社 監視システム、監視装置及び監視方法
CN101205772B (zh) * 2006-12-18 2012-06-06 汉王科技股份有限公司 人脸识别无锁孔报警防盗门锁
JP4362537B2 (ja) 2007-06-06 2009-11-11 シャープ株式会社 画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
TWI359381B (en) * 2007-12-25 2012-03-01 Htc Corp Method for unlocking a locked computing device and
JP5288915B2 (ja) 2008-07-08 2013-09-11 キヤノン株式会社 文字認識装置、文字認識方法、コンピュータプログラム、記憶媒体
JP4816768B2 (ja) 2009-06-22 2011-11-16 ソニー株式会社 固体撮像装置とその製造方法、及び電子機器
KR20110056616A (ko) 2009-11-23 2011-05-31 한국전자통신연구원 객체 검출 유닛 및 이를 이용한 데이터 전송 방법
JP5505007B2 (ja) 2010-03-18 2014-05-28 富士通株式会社 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
GB2478911B (en) 2010-03-22 2014-01-08 Timocco Ltd Object locating and tracking in video frames using smoothness check along specified line sections
JP5761601B2 (ja) 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
JP5220828B2 (ja) 2010-11-11 2013-06-26 シャープ株式会社 画像処理装置、画像形成装置、画像読取装置、画像処理方法、プログラム及び記録媒体
JP5691736B2 (ja) 2011-03-29 2015-04-01 ブラザー工業株式会社 読取装置
KR101739380B1 (ko) * 2011-04-11 2017-06-08 삼성전자주식회사 디지털 영상 촬영 장치 및 방법
JP5979967B2 (ja) 2011-06-30 2016-08-31 キヤノン株式会社 被写体検出機能を備えた撮像装置、撮像装置の制御方法、及び、プログラム
JP5909147B2 (ja) 2012-05-08 2016-04-26 キヤノン株式会社 撮像装置、撮像装置の制御方法、およびプログラム
JP5955170B2 (ja) 2012-09-06 2016-07-20 キヤノン株式会社 表示制御装置、表示制御方法、及びプログラム
JP2014139732A (ja) 2013-01-21 2014-07-31 Sony Corp 画像処理装置、画像処理方法、プログラムおよび表示装置
CN103077407B (zh) 2013-01-21 2017-05-17 信帧电子技术(北京)有限公司 车标定位识别方法及系统
US9979904B2 (en) 2013-01-25 2018-05-22 Innovaciones Microelectrónicas S.L. (Anafocus) Advanced region of interest function for image sensors
JP6155786B2 (ja) 2013-04-15 2017-07-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体
CN103716661A (zh) * 2013-12-16 2014-04-09 乐视致新电子科技(天津)有限公司 一种视频打分上报方法及装置
JP6350863B2 (ja) 2013-12-20 2018-07-04 ソニー株式会社 撮像素子、撮像装置、および電子装置
JP6338436B2 (ja) 2014-04-25 2018-06-06 キヤノン株式会社 撮像装置及びその制御方法
KR102192088B1 (ko) 2014-07-18 2020-12-16 삼성전자주식회사 인지센서 및 이의 구동방법
US10277817B2 (en) 2014-07-23 2019-04-30 Sony Corporation Information processing apparatus and information processing method
US9418319B2 (en) 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
US10045726B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Selecting a stressor based on thermal measurements of the face
CN105373785B (zh) 2015-11-30 2019-08-02 北京地平线机器人技术研发有限公司 基于深度神经网络的手势识别检测方法与装置
US9773196B2 (en) 2016-01-25 2017-09-26 Adobe Systems Incorporated Utilizing deep learning for automatic digital image segmentation and stylization
JP2017183775A (ja) 2016-03-28 2017-10-05 ソニー株式会社 画像処理装置、画像処理方法および撮像素子
JP2017228975A (ja) 2016-06-23 2017-12-28 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、イメージセンサ、情報処理装置、並びにプログラム
JP2018005520A (ja) 2016-06-30 2018-01-11 クラリオン株式会社 物体検出装置及び物体検出方法
JP2018081545A (ja) * 2016-11-17 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像データ抽出装置及び画像データ抽出方法
JP6787102B2 (ja) 2016-12-14 2020-11-18 株式会社デンソー 物体検出装置、物体検出方法
AU2017279806B2 (en) * 2017-05-29 2023-10-12 Saltor Pty Ltd Method and system for abnormality detection
CN107563168A (zh) 2017-09-05 2018-01-09 广东欧珀移动通信有限公司 移动终端的解锁方法、装置及移动终端
CN107944351B (zh) 2017-11-07 2020-08-04 深圳市易成自动驾驶技术有限公司 图像识别方法、装置及计算机可读存储介质
US10275670B1 (en) * 2018-03-07 2019-04-30 State Farm Mutual Automobile Insurance Company Image analysis technologies for identifying abnormal vehicle conditions

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128967A (ja) 2003-10-27 2005-05-19 Sozo Gijutsu Kenkyusho:Kk 医療用動き検出装置、医療用動き検出方法、医療用動き検出プログラム並びにコンピュータで読取可能な記録媒体
WO2007119818A1 (ja) 2006-04-14 2007-10-25 Nec Corporation 機能ロック解除システム、機能ロック解除方法、および機能ロック解除用プログラム
JP2011035771A (ja) 2009-08-04 2011-02-17 Olympus Corp 撮像装置、編集装置および撮像システム
JP2011160044A (ja) 2010-01-29 2011-08-18 Sanyo Electric Co Ltd 撮像装置
JP2011203860A (ja) 2010-03-24 2011-10-13 Ntt Docomo Inc 情報端末及び表示切替方法
WO2012073421A1 (ja) 2010-11-29 2012-06-07 パナソニック株式会社 画像分類装置、画像分類方法、プログラム、記録媒体、集積回路、モデル作成装置
US20120235790A1 (en) 2011-03-16 2012-09-20 Apple Inc. Locking and unlocking a mobile device using facial recognition
JP2012252507A (ja) 2011-06-02 2012-12-20 Panasonic Corp 人物属性推定システム、人物属性推定装置、及び人物属性推定方法
JP2013120949A (ja) 2011-12-06 2013-06-17 Sony Corp 画像処理装置、画像処理方法、プログラム
WO2018037521A1 (ja) 2016-08-25 2018-03-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
JP2018055138A (ja) 2016-09-26 2018-04-05 株式会社デンソーウェーブ 認証システム、認証データ管理装置、ゲート管理装置および認証方法
JP2018116589A (ja) 2017-01-20 2018-07-26 Kddi株式会社 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法
JP2018117309A (ja) 2017-01-20 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 撮像装置、画像処理方法および画像処理システム
JP2018133749A (ja) 2017-02-16 2018-08-23 オリンパス株式会社 被操縦体、移動装置、撮像装置、移動制御方法、移動補助方法、移動制御プログラムおよび移動補助プログラム
JP2018136767A (ja) 2017-02-22 2018-08-30 オムロン株式会社 光学センサ、学習装置、及び画像処理システム

Also Published As

Publication number Publication date
CN112585942A (zh) 2021-03-30
JPWO2020045598A1 (ja) 2021-09-24
US11889177B2 (en) 2024-01-30
EP3846442A1 (en) 2021-07-07
TWI820194B (zh) 2023-11-01
WO2020045598A1 (ja) 2020-03-05
CN112585942B (zh) 2024-04-26
EP3846442A4 (en) 2021-09-15
US20210297585A1 (en) 2021-09-23
TW202032968A (zh) 2020-09-01
KR20210052441A (ko) 2021-05-10

Similar Documents

Publication Publication Date Title
JP6638851B1 (ja) 撮像装置、撮像システム、撮像方法および撮像プログラム
JP7386792B2 (ja) 電子機器及び固体撮像装置
TWI785049B (zh) 成像裝置、固態影像感測器及電子裝置
JP2021093759A (ja) 撮像装置及び撮像装置の制御方法
TWI759433B (zh) 成像設備及電子裝置
US12079712B2 (en) Solid state image capturing system, solid state image capturing device, information processing device, image processing method, information processing method
US12069386B2 (en) Solid-state imaging device and electronic device
CN110447221B (zh) 图像处理装置、图像处理方法和电子设备
JPWO2020170565A1 (ja) 信号処理方法および撮像装置
CN110169051B (zh) 固态摄像元件和电子设备
JP6646347B2 (ja) 固体撮像装置および電子機器
JP2020068302A (ja) 撮像装置
WO2024062813A1 (ja) 撮像装置および電子機器
WO2022196210A1 (ja) 撮像装置、撮像方法及び電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7386792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150