JP2016103708A - 撮像装置および撮像方法 - Google Patents

撮像装置および撮像方法 Download PDF

Info

Publication number
JP2016103708A
JP2016103708A JP2014240406A JP2014240406A JP2016103708A JP 2016103708 A JP2016103708 A JP 2016103708A JP 2014240406 A JP2014240406 A JP 2014240406A JP 2014240406 A JP2014240406 A JP 2014240406A JP 2016103708 A JP2016103708 A JP 2016103708A
Authority
JP
Japan
Prior art keywords
imaging
image
central portion
central
peripheral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014240406A
Other languages
English (en)
Inventor
創一 萩原
Soichi Hagiwara
創一 萩原
坂本 直樹
Naoki Sakamoto
直樹 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2014240406A priority Critical patent/JP2016103708A/ja
Priority to US14/877,633 priority patent/US20160156826A1/en
Publication of JP2016103708A publication Critical patent/JP2016103708A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N3/00Scanning details of television systems; Combination thereof with generation of supply voltages
    • H04N3/10Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical
    • H04N3/14Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices
    • H04N3/15Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices for picture signal generation
    • H04N3/155Control of the image-sensor operation, e.g. image processing within the image-sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

【課題】移動する物体を適切な撮像条件で撮像することができる撮像装置および撮像方法の提供を図る。【解決手段】第1フレームレートで撮像を行う中央部11、および、前記中央部11の周囲に設けられ、前記第1フレームレートよりも高い第2フレームレートで撮像を行う周辺部12を含むイメージセンサー1と、前記周辺部12により撮像された画像データに基づいて前記中央部11における撮像条件を算出する画像処理装置200と、を有する。【選択図】図8

Description

本明細書で言及する実施例は、撮像装置および撮像方法に関する。
近年、様々な装置に撮像機能(カメラ)が搭載されるようになって来ている。ところで、カメラを用いた物体検知および解析技術においては、物体を瞬時に検知および解析することが重要になると考えられる。
このような用途の先行技術として、例えば、イメージセンサーを画素密度の高い中央部と画素密度の低い周辺部に分け、処理データの少ない周辺部を高フレームレートで動作させ視野内への物体の侵入を早期に検知する技術が提案されている。
また、センサーの中央部には、小さくて高解像度の画素を配置し、周辺部には、大きくて低解像度の画素を配置し、センサーのフレームレートを向上させる技術も提案されている。
特開2010−183281号公報 米国特許第4554585号明細書 米国特許第6455831号明細書 米国特許第8169495号明細書 米国特許第4267573号明細書 特開2002−026304号公報 米国特許第5887078号明細書
小渡 悟 (Satoru ODA),「対数極座標空間の高次局所自己相関特徴を用いたポインティングデバイスの提案 ("Pointing Device Using Higher-Order Local Autocorrelation Feature in Log Polar Coordinates System")」,沖縄大学マルチメディア教育研究センター紀要第4号 ("The Bulletin of Multimedia Education and Research Center, University of Okinawa no.4),pp.57-70,March 2004
上述したような中央部には小さくて高解像度の画素を配置し、周辺部には大きくて低解像度の画素を配置したイメージセンサーにおいて、例えば、処理データの少ない周辺部を高フレームレートで動作させることが考えられる。
このとき、周辺部では、画素サイズが大きいため1回の撮像に要する露光時間が短くて済むが、物体の詳細を捉えることは難しい。また、中央部では、画素サイズが小さいため、露光時間が長くなり、撮像条件(例えば、撮像開始タイミング/露光時間/ISO感度等)が正確に合わないと、物体の詳細を捉えることは困難となる。
すなわち、中央部では、例えば、被写体(物体)の速度に対して、露光時間が長過ぎると、ボケてしまい、また、撮像開始タイミングが早すぎる、或いは、遅すぎると、被写体が視野外の時に撮像することになり、被写体を適切に撮像するのが困難となる。
一実施形態によれば、第1フレームレートで撮像を行う中央部、および、前記中央部の周囲に設けられ、前記第1フレームレートよりも高い第2フレームレートで撮像を行う周辺部を含むイメージセンサーと、画像処理装置と、を有する撮像装置が提供される。画像処理装置は、前記周辺部により撮像された画像データに基づいて前記中央部における撮像条件を算出する。
開示の撮像装置および撮像方法は、移動する物体を適切な撮像条件で撮像することができるという効果を奏する。
図1は、本実施例に係る撮像装置に適用されるイメージセンサーの一例を説明するための図である。 図2は、本実施例に係る撮像方法を概略的に説明するための図である。 図3は、本実施例に係る撮像装置における撮像処理の一例を説明するための図である。 図4は、本実施例に適用されるイメージセンサーが極座標系センサーの場合と直交座標系センサーの場合の処理を比較して説明するための図である。 図5は、本実施例に係る撮像装置における撮像条件の算出動作の例を説明するための図(その1)である。 図6は、本実施例に係る撮像装置における撮像条件の算出動作の例を説明するための図(その2)である。 図7は、本実施例に係る撮像装置における撮像条件の算出動作の例を説明するための図(その3)である。 図8は、第1実施例の撮像装置を示すブロック図である。 図9は、第2実施例の撮像装置を示すブロック図である。 図10は、本実施例に係る撮像装置における撮像処理の一例を説明するためのフローチャートである。 図11は、本実施例に係る撮像装置における撮像条件の算出処理の一例を説明するためのフローチャートである。 図12は、本実施例に係る撮像装置に適用されるイメージセンサーの他の例を説明するための図である。 図13は、第3実施例の撮像装置を示すブロック図である。 図14は、第4実施例の撮像装置を示すブロック図である。
以下、撮像装置および撮像方法の実施例を、添付図面を参照して詳述する。図1は、本実施例に係る撮像装置に適用されるイメージセンサーの一例を説明するための図であり、極座標系センサー1を示すものである。
図1に示されるように、本実施例に適用される極座標系センサー1は、例えば、画素サイズが小さくて画素密度の高い中央部11、並びに、画素サイズが大きくて画素密度の低い周辺部12を含む。
ここで、後に詳述するが、中央部11では、低フレームレート(例えば、60フレーム/秒(fps))で撮像(撮影)され、周辺部12では、高フレームレート(例えば、1000fps)で撮像される。
なお、本実施例に適用されるイメージセンサーは、極座標系センサー1に限定されるものではなく、後で詳述するように、一般的な直交座標系センサーでも、同様に適用することができる。さらに、極座標系および直交座標系センサー以外の画素形状であっても、例えば、画素補完技術(バイリニア等)を利用することにより中間画素を生成し、同等の画素配列とすることで、他の様々なイメージセンサーに対しても適用することができる。
また、本実施例の撮像装置は、例えば、動画を撮像するものであってもよいが、静止画を撮像するものであってもよい。さらに、撮像された動画および静止画は、そのままユーザに提供されてもよいが、例えば、物体の検知および解析を行う画像処理システムといった様々の画像データとして与えられてもよい。
図1に示す極座標系センサー(イメージセンサー)1では、同心円状に、中心に向かって画素サイズが小さく、周辺に向かって画素サイズが大きくなるが、例えば、センサー1の全ての画素を同じサイズとすることもできる。
この場合、例えば、中央部11では、それぞれの画素をそのまま処理し、周辺部12では、複数(例えば、4,8,16個等)の画素をまとめて1つの画素として処理することになる。
また、本明細書では、説明を簡略化するために、1つの極座標系センサー1を中央部11と周辺部12の2つの領域に分けた場合を説明するが、例えば、中央部11と周辺部12の間に中間部を設けるというように、3つ以上の領域に分割することもできる。
このとき、中間部の画素サイズは、例えば、中央部11の画素サイズと周辺部12の画素サイズの中間の大きさに設定し、中間部のフレームレートは、中央部11のフレームレートと周辺部12のフレームレートの中間の速度に設定する。
図2は、本実施例に係る撮像方法を概略的に説明するための図であり、犬(物体)5がイメージセンサー1の視野上を右から左方向へ移動するときの例を説明するためのものである。すなわち、図2(a)は、物体5がイメージセンサー1の周辺部12の視野に侵入してきた様子を示し、図2(b)は、図2(a)の状態から時間が経過して、物体5がイメージセンサー1の中央部11の視野に侵入してきた様子を示す。
上述したように、イメージセンサー1において、中央部11は、例えば、画素サイズが小さくて画素密度が高く、また、周辺部12は、画素サイズが大きくて画素密度が低い。さらに、中央部11では、物体5を低フレームレート(例えば、60fps)で撮像し、周辺部12では、物体5を高フレームレート(例えば、1000fps)で撮像するようになっている。
まず、図2(a)に示されるように、物体5がイメージセンサー1の周辺部12の視野に侵入すると、その周辺部12で撮像したデータから、物体5がイメージセンサー1の中央部11の視野に侵入する場合の最適な撮像条件を求める。
そして、図2(b)に示されるように、物体5がイメージセンサー1の中央部11の視野に侵入したときには、周辺部12の撮像データから求めた最適な撮像条件に基づいて物体5を撮像する。
ここで、周辺部12で高フレームレートにより撮像可能なのは、周辺部12の画素はサイズが大きいために、1回の撮像に要する露光時間が短くて済み、さらに、画素密度が低いために、処理する画素数が少なくて済むからである。
また、周辺部12からのデータは、画素密度が低いために、得られる画像の解像度は低くなるが、上述した中央部11の撮像条件(撮像開始タイミング/露光時間/ISO感度等)を算出するためのものとしては十分である。
このように、高フレームレートの周辺部12は、例えば、移動する動物や飛来する弾丸などの高速な物体を捉え、中央部11で撮像するための最適な撮像条件を算出し、中央部11は、その最適な撮像条件に基づいて、物体を適切に撮像することが可能になる。なお、低フレームレートで撮像を行う中央部11は、静止画を撮像してもよいのはもちろんである。
図3は、本実施例に係る撮像装置における撮像処理の一例を説明するための図である。図3では、上から下に向かって時間が経過し、イメージセンサー1および物体(イメージセンサー上の物体)5の関係は、時間の経過に伴って、図3(a)→図3(b)→図3(c)のように変化する。
ここで、図3(a)は、移動する物体(犬)5がイメージセンサー1の周辺部12の視野に侵入した様子を示し、図3(b)は、物体5が周辺部12の視野から中央部11の視野へ移動する様子を示し、そして、図3(c)は、物体5が中央部11を移動する様子を示す。
図3(a)および図3(b)において、イメージセンサー1の周辺部12は、例えば、1000fpsで撮像しながら変化を監視しており、周辺部12では、物体5を予め定められた撮像条件(露光)に基づいて第1フレーム,第2フレーム,…と撮像する。そして、例えば、第1フレームと第2フレームの差分から、物体5がセンサー1の中央部11に侵入するタイミング等を算出する。
すなわち、周辺部12は、画素サイズが大きいため、何が侵入してきたかまでの解析は困難であっても、露光時間が短くてフレームレートが高いため、瞬時に物体5の侵入を検知し、物体5の位置,速度および方向等の移動情報を求めることができる。
そして、周辺部12からの高フレームレートの撮像データから求めた物体5の移動情報に基づいて、その物体5が中央部11において、最適に撮像できる撮像条件(撮像タイミング/露光時間/ISO感度等)が算出される。
なお、周辺部12の撮像データから移動情報を算出し、また、移動情報からの中央部11における撮像条件の算出といった処理は、例えば、画像処理/画像解析デバイス(画像処理装置)200により行われる。
そして、図3(c)に示されるように、物体5が中央部11の視野を移動しているとき、予め定められた撮像条件(初期条件: 例えば、ISO感度200)は、周辺部12で撮像したデータから求めた最適な撮像条件(例えば、ISO感度800)に修正される。
これにより、イメージセンサー1の中央部11では、物体5を、最適な撮像条件(撮像タイミング/露光時間/ISO感度等)により撮像することができる。ここで、中央部11は、例えば、例えば、60fpsといった低フレームレートであっても、画素サイズが小さくて画素密度が高いため、最適な撮像条件で撮像することにより、物体5を適切に撮像することが可能となる。
侵入する物体5の位置/速度/加速度/移動方向(移動情報:位置,速度および移動方向等)の検知は、知られている技術をそのまま適用することができる。図4は、本実施例に適用されるイメージセンサーが極座標系センサーの場合と直交座標系センサーの場合の処理を比較して説明するための図であり、代表的な2種類のイメージセンサーを示すものである。
なお、本実施例は、極座標系および直交座標系センサー以外の画素形状であっても、例えば、画素補完技術(バイリニア等)を利用することにより中間画素を生成し、同等の画素配列とすることで、他の様々なイメージセンサーに対しても適用することができるのは前述した通りである。
図4(a)〜図4(c)は、極座標系センサー(極座標センサー)1を示し、図4(d)〜図4(f)は、直交座標系センサー(直交センサー)2を示す。なお、図4(a)および図4(d)は、過去の画(物体5の一部が周辺部12,22の視野に侵入したとき)を示し、図4(b)および図4(e)は、現在の画(物体5の全体が周辺部12,22の視野に含まれるとき)を示す。また、図4(c)および図4(f)は、推測される現在の物体の位置/速度/加速度/移動方向(移動情報)を示す。
まず、極座標系センサー1の場合、例えば、図4(a)および図4(b)に示されるような移動する物体5を捉えた複数枚のフレーム画像により、図4(c)に示されるような、現在の物体5の位置/速度/加速度/移動方向(移動情報)を算出することができる。例えば、時間差分,空間差分および色情報を用いた動体5の運動推定により、物体5の位置と運動の推定が可能となる。
なお、実装によっては、周辺部12はカラーフィルタを用いない輝度センサーとすることもできる。この場合、色情報は用いずに、時間および空間差分により動体5を算出することになる。
次に、図4(d)〜図4(f)に示されるように、直交座標系センサー2の場合、例えば、オプティカルフローなどの既存技術を適用することにより、現在の物体5の移動情報を推測することが可能である。
このように、極座標系センサー1の周辺部12、並びに、直交座標系センサー2の周辺部22における侵入物(物体)5の位置/速度/加速度/移動方向(移動情報:位置,速度および移動方向等)の検知は、知られている技術をそのまま適用することができる。
以下、直交座標系センサー2を例として、露光開始可能タイミング範囲の取得、並びに、検知した動体の移動情報に基づいて中央部21の撮像条件(撮像開始タイミング/露光時間/ISO等)の決定を説明する。
図5〜図7は、本実施例に係る撮像装置における撮像条件の算出動作の例を説明するための図であり、イメージセンサーが直交座標系センサー2の場合における露光開始タイミングの算出動作を説明するためのものである。
まず、図5および図6を参照して、露光開始可能タイミング範囲の取得について説明する。図5に示されるように、例えば、イメージセンサー2の周辺部22において、物体5の専有する範囲等を規定する。
すなわち、物体5の存在する画素の中心を通り物体の移動方向に垂直な線分の内、最も移動方向の前方に位置する線分を、物体の最前面Ofとし、最も移動方向の後方に位置する線分を、物体の再背面Orとする。
さらに、物体5の存在する画素中心を通り物体の移動方向に平行である線分の内、最も外側同士の線分で囲まれた領域を、物体の移動範囲Oaと呼び、その領域の広さを、物体の幅Owと呼び、物体の移動方向に平行でOaの中間位置を通る直線を物体軌道Ocとする。また、物体の最前面Of,物体の再背面Orおよび物体の移動範囲Oaで囲まれた領域を、物体領域Oa(図5中のハッチング領域:物体5の領域も含む)とする。
なお、上述した物体の最前面Of,再背面Or,移動範囲Om,幅Ow,物体軌道Ocおよび物体領域Oaは、例えば、図4(d)〜図4(f)のように、例えば、オプティカルフローなどの既存技術を適用して物体5の移動情報を算出するときに、同時に求めることができる。
次に、露光開始が可能なタイミングの範囲を取得する。ここでは、図6(a)に示されるように、最も簡単な直線運動(速度と加速度のベクトルが平行)の場合を説明する。なお、直線運動以外の場合でも、例えば、加速度を一定等と仮定することにより、物体5の位置/速度/加速度に基づいて、露光開始可能タイミング範囲を容易に算出することが可能である。
すなわち、現時点での物体5の位置からの距離をx、物体5の現在の速度の大きさをv、物体5の現在の加速度の大きさをa、そして、現在からの時間をtとすると、xは、次の式(1)により求めることができる。
x=vt+(1/2)×at2 (1)
ここで、物体領域Oaが初めて中央領域(イメージセンサー2の中央部21の領域)の視野に全て含まれる位置が、最も早く撮像画可能となるタイミング(以下、『最早タイミング』とも呼ぶ)となり、また、物体領域Oaが最後に中央領域の視野に全て含まれる位置が最も遅く撮像画可能となるタイミング(以下、『最遅タイミング』とも呼ぶ)となる。
従って、上記の式(1)に対して、各位置までの距離を代入することにより、それぞれの位置での露光タイミングを得ることができる。すなわち、撮像可能な最早タイミングと最遅タイミングの間に中央部21(中央領域)における撮像開始タイミングを設定することになる。ここで、撮像開始タイミングを確定させるのはこの時点でなくてもよく、例えば、次に説明する撮像条件の決定処理と調整しながら決めることもできる。
なお、物体5の一部が視野外で全長が分からない場合、或いは、物体5の全長が長すぎて中央領域の視野に収まらない場合には、複数枚に分けて撮像を行う。ここで、図6(b)〜図6(d)は、物体5の全長が長すぎて、中央部21の視野に収まらない場合を示す。
すなわち、図6(b)に示されるように、周辺部22による物体5の移動情報により、中央部21の1枚の撮像では、物体5の全体を捉えることができないと判断した場合、まず、図6(c)に示されるように、物体の最前面Ofが中央部21の視野から出る直前に撮像する。
さらに、図6(d)に示されるように、物体の最背面Orが中央部21の視野に入った直後に撮像する。このように、最前面Ofが中央部21の視野から出るタイミング、並びに、最背面Orが中央部21の視野に入るタイミングに注目して、中央部21で撮像することにより、1回に撮像する物体5の面積を大きくすることが可能となる。
なお、物体5の長さ(イメージセンサー2上の視野の長さ)と、イメージセンサー2の中央部21の大きさの関係により、物体5の全体を捉えるのに3枚以上の撮像を行うこともあるのはいうまでもない。
最後に、図7を参照して、検知した動体の移動情報に基づいて中央部21の撮像条件の決定を説明する。ここで、図7(a)は、中央部21による1枚目の撮像、図7(b)は、中央部21による2枚目の撮像、そして、図7(c)は、中央部21による3枚目の撮像の様子を示す。
ところで、動体5が中央領域(中央部21)の視野内に収まる場合、許容される露光時間の範囲(設定可能露光時間)Tcaは、ISO感度および被写体の明るさによって物体5を適正な明るさで撮像できる範囲に制約される。
さらに、設定可能露光時間Tcaは、動体(物体5)の速度vによって撮像した物体5に動きボケが起きない範囲に制約される。ここで、動きボケは、露光期間中に物体5が何ピクセル分移動するかによって決まるため、画素の大きさにも依存する。
以上のことから、設定可能露光時間Tcaは、次の式(2)で表すことができる。
ρ=(Wmin×Amin)/(v×Lm×ISOa)≧Tca≧(Wmin×Amax)/(v×Lm×ISOa) (2)
上記式(2)において、ρは定数、Aminは許容可能最低露光量、Amaxは許容可能最大露光量、ISOaはISO感度(中央部21のISO感度)、Wminは中央部最小画素短辺長、Lmは動体平均輝度、そして、vは物体5(動体)の速度を示す。なお、動体平均輝度Lmは、輝度センサーが受光した輝度を示し、動体速度vは、撮像タイミングにより変化する。
ここで、図5および図6を参照して説明したようにして求めた露光開始可能タイミング範囲内のいずれかのタイミングから設定した、ISOaおよびTcaの範囲内のいずれかの露光時間で露光および撮像することで、被写体を適切に撮像することができる。
次に、動体(物体5)が中央領域の視野よりも大きい、或いは、動体の全体が視野外の場合を説明する。例えば、物体5が大きくて、物体5の一部がまだ周辺部22の視野外にあるような場合、一度の撮像によって、物体5の全体を捉えることは困難となる。そのような場合には、複数枚の撮像(撮影)によって物体5の全体像を捉えるように制御する。
すなわち、まず、図7(a)に示されるように、露光可能最早タイミング(物体5の最前面Ofが中央部21の視野から出るタイミング)から露光時間を差し引いたタイミングで、中央部21に含まれる物体5の領域51を、最初の1枚目として撮像する。
次に、図7(b)に示されるように、1枚目で撮像できなかった領域の最前面Of'を、1枚目の撮像における物体5の最前面(Of)に設定し直す。さらに、その最前面Of'の露光可能最早タイミングから露光時間を差し引いたタイミングで、中央部21の視野に含まれる物体5の領域52を、2枚目として撮像する。
そして、図7(c)に示されるように、2枚目で撮像できなかった領域の最前面Of"を、1枚目の撮像における物体5の最前面(Of)に設定し直す。さらに、その最前面Of'の露光可能最早タイミングから露光時間を差し引いたタイミングで、中央部21の視野に含まれる物体5の領域53を、3枚目として撮像する。
なお、図7(a)〜図7(c)の例では、3枚目として撮像した画像に物体5の最背面Orが含まれているので、3枚目の撮像で終了するが、3枚目として撮像した画像に物体5の最背面Orが含まれていなければ、同様の処理を繰り返す。
これにより、物体5の長さが中央部21の視野よりも長い場合でも、複数枚撮像することにより、物体5の全体を捉えることができる。なお、上述したのは、単なる例であり、他の様々な手法を適用してもよいのはいうまでもない。また、中央部21における撮像条件は、前述したように、あくまで予測なので、一度、撮像条件が決まっても、周辺部22の次以降の撮像データに基づいて、常に更新し続けるのが好ましい。
図8は、第1実施例の撮像装置を示すブロック図であり、例えば、監視カメラや車載ケメラ等の画像処理システムに適用される撮像装置の例を示すものである。
図8に示されるように、第1実施例の撮像装置は、撮像デバイス100,画像処理/画像解析デバイス(画像処理装置)200およびレンズ等の光学系300を含む。なお、図8では、イメージセンサーとして、極座標系センサー1が適用されているが、それに限定されるものではない。
撮像デバイス100は、極座標系センサー(イメージセンサー)1およびカメラ制御部101を含む。センサー1は、前述したように、中央部11および周辺部12を含み、光学系300からの入射光を受け取って電気信号に変換し、撮像データを画像処理装置200に出力する。
カメラ制御部101は、画像処理装置200(物体検知部204)からのセンサー制御情報に基づいてセンサー1の制御を行うと共に、レンズ制御情報に基づいて光学系300の制御を行う。また、カメラ制御部101は、センサー1および光学系300に関する様々な情報を物体検知部204に出力している。
ここで、カメラ制御部101は、センター1の中央部11に対しては、低フレームレート(例えば、60fps)で撮像を行うように制御し、センサー1の周辺部12に対しては、高フレームレート(例えば、1000fps)で撮像を行うように制御する。
画像処理装置200は、SDRAM(メモリ)205、画像処理部203および物体検知部204を含む。SDRAM205は、センサー1からの撮像データを受け取り、周辺部12で撮像された画像は、周辺部撮像画像251として、また、中央部11で撮像された画像は、中央部撮像画像253として格納する。
画像処理部203は、SDRAM205に格納された周辺部撮像画像251および中央部撮像画像253を受け取って処理し、処理した画像を、SDRAM205に対して画像処理後周辺部画像252および画像処理後中央部画像254として格納する。
物体検知部204は、SDRAM205に格納された画像処理後周辺部画像252および画像処理後中央部画像254を受け取って処理し、カメラ制御部101に対してセンサー制御情報およびレンズ制御情報を出力する。なお、物体検知部204は、例えば、図示しない画像解析部等に対して物体5の検知情報を出力する。
また、画像解析部は、例えば、SDRAM205に格納された周辺部撮像画像251および中央部撮像画像253等も受け取って解析処理を行い、例えば、自動車における各種自動処理およびアラームの発生等を行うことになる。なお、本実施例の撮像装置は、様々な分野に適用することが可能なのはいうまでもない。
図9は、第2実施例の撮像装置を示すブロック図であり、図8の第1実施例と同様に、例えば、監視カメラや車載ケメラ等の画像処理システムに適用される撮像装置の例を示すものである。
図9と上述した図8の比較から明らかなように、第1実施例における画像処理装置200のSDRAM205は、周辺部用の第1SDRAM(第1メモリ)201と、中央部用の第2SDRAM(第2メモリ)202に分割されている。
すなわち、センサー1の周辺部12からの周辺部撮像データは、第1SDRAM201に対して、周辺部撮像画像211として格納され、また、中央部11からの中央部撮像データは、第2SDRAM202に対して、中央部撮像画像221として格納される。
画像処理部203は、第1SDRAM201に格納された周辺部撮像画像211および第2SDRAM202に格納された中央部撮像画像221を受け取って処理する。そして、画像処理部203は、処理した画像を、第1SDRAM201に対して画像処理後周辺部画像212として格納し、第2SDRAM202に対して画像処理後中央部画像222として格納する。なお、他の構成は、第1実施例と同様であり、その説明は省略する。
図10は、本実施例に係る撮像装置における撮像処理の一例を説明するためのフローチャートであり、以下に、図8に示す第1実施例の撮像装置を参照して説明する。図10において、パラメタTnowは、現在時間を示し、Toは、周辺領域(周辺部)露光時間を示し、Tsaは、中央領域(中央部)露光開始タイミングを示し、Taは、中央領域露光時間を示し、そして、ISOaは、中央領域ISO感度を示す。
図10に示されるように、本実施例の撮像処理が開始すると、ステップST1において、撮像装置の電源をオンして撮影を開始する。次に、ステップST2に進んで、カメラ制御部101は、撮像環境に基づいてTsa(中央領域露光開始タイミング),Ta(中央領域露光時間)およびISOa(中央領域ISO感度)を初期化して露光を開始する。
ここで、イメージセンサー1の周辺部12では、これ以降、周囲の撮像環境に基づいて、例えば、フレームレート,To(周辺領域露光時間)およびISO感度を更新しながら撮像処理を繰り返す。さらに、ステップST3に進んで、Tnow(現在時間)とTo(周辺領域露光時間)を加算してTsaよりも小さいかどうか、すなわち、「Tnow+To<Tsa」が成立するか否かを判定する。
ステップST3において、Tnow+To<Tsaが成立する(Yes)と判定すると、ステップST4に進んで、センサー1から周辺部12における全画素のデータ(撮像データ)を読み込んでSDRAM205(周辺部撮像画像251)に格納する。なお、周辺部12における各領域の画素読み出し順序は、任意である。
次に、ステップST5に進んで、画像処理部203により撮像画を画像処理して、再びSDRAM205(画像処理後周辺部画像252)に格納して、ステップST6に進む。ステップST6では、物体検知部204により物体5の領域ja(k)の撮像画および過去の画像を使用して、侵入物体の有無,位置および方向等を検出および更新し、その検出結果を、例えば、画像解析部等へ出力する。
そして、ステップST7に進んで、中央部11で使用する撮像条件の算出、すなわち、周辺部12による検出情報に基づいて、中央部(中央領域)で最適な撮像を行うための撮像条件(更新撮像条件)を算出する。
なお、センサー1における物体5の領域ja(k)の位置によっては、中央部11で撮像するための撮像条件の算出を行わない場合もあり得る。また、ステップST7による撮像条件の算出処理は、画像処理/画像解析デバイス200における物体検知部204で行ってもよいが、撮像デバイス100におけるカメラ制御部101で行うこともできる。
次に、ステップST8に進んで、算出した撮像条件をカメラ制御部101に出力し、さらに、ステップST9に進む。ステップST9において、カメラ制御部101は、受け取った撮像条件に基づいて、対象領域の撮像条件および領域jdを更新する。
そして、ステップST10に進んで、撮像を停止するかどうかを判定し、撮像を停止すると判定すると処理を終了し、撮像を停止しないと判定するとステップST3に戻って、撮像停止と判定するまで同様の処理を繰り返す。
一方、ステップST3において、Tnow+To<Tsaが成立しない(No)と判定すると、ステップST11に進んで、Tsaのタイミングから、中央部をTaだけ露光し、ISOaのISO感度で撮像し、中央部の全画素データをSDRAMに格納する。
さらに、ステップST12に進んで、上述したステップST5と同様に、画像処理部により撮像画を画像処理し、再びSDRAMに格納して、ステップST13に進む。ステップST13においては、Tsaを更新して、ステップST10に進む。なお、ステップST10の処理は、上述した通りである。
図11は、本実施例に係る撮像装置における撮像条件の算出処理の一例を説明するためのフローチャートであり、上述した図10におけるステップST7の撮像条件算出処理の一例を説明するためのものである。
図11において、パラメタpfは物体最前面(図5におけるOfに相当)を示し、prは物体最背面(図5におけるOrに相当)を示し、wは物体幅(図5におけるOwに相当)を示し、そして、pcは物体軌道(図5におけるOcに相当)を示す。さらに、Tsminは露光可能最早タイミングを示し、Tsmaxは露光可能最遅タイミングを示し、そして、Tcaは設定可能露光時間を示す。
ここで、pf(物体最前面)は、未だ撮像されていない物体5の領域における最も先端の面に対応する。また、pr(物体最背面)は、物体5の後ろが画像端まである場合(物体5が全て見えていない場合)、物体5の領域における最も後端の面が含まれる画像における後端の面に対応する。なお、pfおよびprは、物体5の進行方向を軸とした一次元空間上における座標(原点は任意)で表すことができる。
図11に示されるように、本実施例の撮像条件算出処理(ステップST7の処理)が開始すると、ステップST71において、画面内に侵入物体が含まれるか否か、すなわち、物体5がイメージセンサー1に侵入(の視野に侵入)したかどうかを判定する。
ステップST71において、画面内に侵入物体が含まれる(Yes)と判定すると、ステップST72に進んで、pf,pr,wおよびpcの算出を行う。なお、pf,pr,wおよびpcの算出は、例えば、図10におけるステップST6において、物体5の位置/速度/方向等と共に算出しておいてもよい。
さらに、ステップST73に進んで、撮像画において、物体5の移動範囲が通る中央部11の領域の長さが物体5の領域の長さ以上あるかどうか、すなわち、「物体移動範囲が通る中央部の領域の長さ≧物体領域の長さ」が成立するか否かを判定する。
ステップST73において、「物体移動範囲が通る中央部の領域の長さ≧物体領域の長さ」が成立する(Yes)と判定すると、ステップST74に進み、物体領域が初めて中央領域に完全に含まれる位置をTsmin(露光可能最早タイミング)に設定する。さらに、物体領域が最後に中央部の領域に完全に含まれる位置をTsmax(露光可能最遅タイミング)に設定する。
次に、ステップST75に進んで、Tca(設定可能露光時間)の算出、並びに、ISOa(中央領域ISO感度)およびTa(中央領域露光時間)を決定し、ステップST76に進んで、Tsa(中央領域露光開始タイミング)を決定し、処理を終了する。
一方、ステップST73において、「物体移動範囲が通る中央領域の長さ≧物体領域の長さ」が成立しない(No)と判定すると、ステップST77に進み、物体5の最全面が中央部11から出るタイミングをTsminに設定する。さらに、物体5の最背面が初めて中央部11に含まれるタイミングをTsmaxに設定する。そして、上述したステップST75およびST76を経由して処理を終了する。
なお、ステップST71において、画面内に侵入物体が含まれない(No)と判定すると、イメージセンサー1の中央部11における撮像条件の算出処理は不要なため、そのまま処理を終了する。
以上において、図10および図11を参照して説明下処理は、単なる例であり、物体5の全体を撮像可能な制御方法であれば、様々な手法を適用することが可能なのはいうまでもない。また、イメージセンサー1は、中央部11と周辺部12の2つの領域に分けるものに限定されず、例えば、中央部と周辺部の間に中間部を設けるというように、3つ以上の領域に分割してもよい。
また、本実施例の適用は、動画を撮像するものであってもよいが、静止画を撮像するものであってもよく、撮像された動画および静止画は、そのままユーザに提供されてもよいが、物体の検知および解析を行う画像処理システムに画像データとして与えてもよい。
さらに、センサー1から読み出す領域の順序は、例えば、キュー等により管理することができる。また、センサー1の中央部11における撮像条件は、周辺部12における物体5の移動情報に基づいて調整することができる。
また、上述した説明では、領域ごとの撮像条件が一定の場合を考えたが、例えば、同一領域でサイズが異なる画素が混在する場合には、その異なる画素のサイズごとに撮像条件を変化させて送ることもできる。さらに、全ての画素サイズの撮像条件を送るのではなく、画素サイズに応じてセンサー1の制御部側で撮像条件が算出できるための情報を送ることも可能である。
図12は、本実施例に係る撮像装置に適用されるイメージセンサーの他の例を説明するための図である。図12に示すイメージセンサー3は、図4(d)〜図4(f)を参照して説明した直交座標系センサー2と実質的に同様のものである。
すなわち、センサー3の中央部31では、画素サイズが小さくて画素密度が高く、低フレームレートで撮像が行われ、センサー3の周辺部32では、画素サイズが大きくて画素密度が低く、高フレームレートで撮像が行われる。
ただし、ここで想定しているのは、例えば、現在、デジタルカメラ,スマートホンおよびカムコーダ、或いは、車載されたカメラ等に使用されているイメージセンサー(中央部)31の周囲に対して、新たなセンサー領域(周辺部)32を設けたセンサーである。
さらに、周辺部32による被写体(例えば、移動する物体5)の移動情報を利用して、中央部31により、その物体5を撮像するのに最適な撮像条件(撮像タイミング/露光時間/ISO感度等)を算出する。そして、中央部31(現在、使用されているイメージセンサ)は、算出された最適な撮像条件に基づいて、移動する物体5を撮像する。
なお、周辺部32としては、例えば、現在、使用されているイメージセンサーの周辺領域を、複数(例えば、4,8,16個等)の画素をまとめて1つの画素とし、その周辺部のフレームレートを高くするといった改良を行って適用することもできる。
図13は、第3実施例の撮像装置を示すブロック図であり、例えば、デジタルカメラ,スマートホンおよびカムコーダ等に適用した場合の撮像装置の例を示すものである。図13に示されるように、第3実施例の撮像装置400は、撮像デバイス30,SDRAM401,CPU(Central Processing Unit)402,バス403,画像処理/解析デバイス404,表示デバイス405および光学系(レンズ)300を含む。なお、CPU402は、AP(Application Processor)であってもよい。
ここで、撮像デバイス30,画像処理/解析デバイス(画像処理装置)404および光学系300は、例えば、前述した図8における撮像デバイス100,画像処理装置200および光学系300に対応する。なお、図13では、図8におけるカメラ制御部101は、センサー3に含まれている。
まず、例えば、スポーツ観戦等において、図13に示す第3実施例の撮像装置400により、そのスポーツの様子を撮像する場合を考える。このとき、例えば、動体(物体5)の色や大きさ等の情報に基づいて、センサー3の周辺部32により、動体解析時点における物体5の種類(例えば、ボールなのかプレイヤーなのか等)を判断することができる。そして、周辺部32による情報から、中央部31で撮像する前に最適な構図となる中央部31の撮像条件を算出することが可能となる。
また、例えば、どのような物体5が入り込むか分からないスポーツ以外の一般的な環境においても、周辺部32により物体5の動きと大きさは検知できるため、同様に簡易なアルゴリズムにはなるものの最適な構図のタイミングでの撮像が可能となる。
なお、この場合の処理としては、例えば、センサー3の周辺部32により周辺部の画像を撮像して、SDRAM401に周辺部撮像画像として格納する。画像処理装置404では、例えば、図8を参照して説明した、画像処理装置404に設けられた画像処理部(203)および物体検知部(204)により処理が行われ、画像解析部に送られる。
そして、画像解析部では、例えば、物体5の解析を行って、中央部31により最適な構図での撮像条件が算出され、その撮像条件がセンサー3に対して制御データとして与えられる。なお、上述した最適な構図等の解析処理は、例えば、画像処理装置404の画像解析部、或いは、CPU(AP)402等により実行される。
次に、図13に示す第3実施例の撮像装置400により、撮像環境の変化が急峻な状況下で撮像する場合を考える。このとき、本実施例によれば、例えば、光源の種類や明るさが変化した際に、周辺部32において、その辺かを即座に検知することができるため、自動露出(AE:Automatic Exposure)および自動ホワイトバランス(AWB:Automatic White Balance)の性能を向上することができる。
なお、この場合の処理としては、AEおよびAWBの処理は、一般的に、画像処理として行うため、例えば、画像解析部を使用することなく、センサー3の周辺部32により周辺部の画像を撮像して、SDRAM401に周辺部撮像画像として格納する。画像処理装置404では、例えば、周辺部撮像画像の処理を行って、中央部31におけるAEおよびAWBの処理を行い、そのAEおよびAWBの結果に基づいて中央部31による撮像を行う。
図14は、第4実施例の撮像装置を示すブロック図であり、車載カメラにより自動車の制御を行う場合の撮像装置の例を示すものである。図14に示されるように、第4実施例の撮像装置500は、撮像デバイス30,SDRAM501,CPU502,バス503,画像処理/解析デバイス504,各種駆動制御部505,各種駆動部506および光学系(レンズ)300を含む。
ここで、撮像デバイス30,画像処理/解析デバイス(画像処理装置)504および光学系300は、例えば、前述した図8における撮像デバイス100,画像処理装置200および光学系300に対応する。なお、図14でも、図8におけるカメラ制御部101は、センサー3に含まれている。
本第4実施例の撮像装置の適用としては、例えば、接近する物体5を即座に検知し、事故被害を回避または低減するために、車両を制御するものが考えられる。この場合の処理としては、例えば、センサー3の周辺部32により周辺部の画像を撮像して、SDRAM501に周辺部撮像画像として格納する。
画像処理装置504では、画像処理部(203)および物体検知部(204)により処理が行われ、画像解析部に送られる。画像解析部では、例えば、物体5の解析を行って、中央部31により最適な構図での撮像条件が算出され、その撮像条件がセンサー3に対して制御データとして与えられる。
これにより、センサー3の中央部31により撮像された画像は、例えば、接近する物体5を撮像するのに最適な撮像条件で撮像することができ、その中央部31により撮像された画像は、SDRAM501に中央部撮像画像として格納される。
さらに、画像処理装置504では、画像処理部(203)および物体検知部(204)により処理が行われ、画像解析部に送られて物体5の詳細な解析が行われ、その解析結果に基づいて、各種駆動制御部505に制御情報が送られる。
そして、各種駆動制御部505は、各種駆動部506を制御して、第4実施例の撮像装置が搭載された車両の制御が行われることになる。なお、各種駆動部506としては、例えば、エンジンのスロットルを駆動するアクチュエータやブレーキ、或いは、エアバック等がある。このように、本実施例の撮像装置および撮像方法は、画像を扱う様々な分野で幅広く適用することが可能である。
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではない。また、明細書のそのような記載は、発明の利点および欠点を示すものでもない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。
以上の実施例を含む実施形態に関し、さらに、以下の付記を開示する。
(付記1)
第1フレームレートで撮像を行う中央部、および、前記中央部の周囲に設けられ、前記第1フレームレートよりも高い第2フレームレートで撮像を行う周辺部を含むイメージセンサーと、
前記周辺部により撮像された画像データに基づいて前記中央部における撮像条件を算出する画像処理装置と、を有する、
ことを特徴とする撮像装置。
(付記2)
前記画像処理装置は、
前記画像データに物体が含まれる場合に前記物体の移動情報を算出し、
前記算出された移動情報から、前記物体を前記中央部により撮像する場合の撮像条件を算出する、
ことを特徴とする付記1に記載の撮像装置。
(付記3)
前記移動情報は、前記画像データにおける前記物体の位置,速度および移動方向の情報を含む、
ことを特徴とする付記2に記載の撮像装置。
(付記4)
前記移動情報は、さらに、前記画像データにおける前記物体の加速度の情報を含む、
ことを特徴とする付記3に記載の撮像装置。
(付記5)
前記撮像条件は、前記中央部における前記物体の撮像タイミング,露光時間およびISO感度を含む、
ことを特徴とする付記1乃至付記4のいずれか1項に記載の撮像装置。
(付記6)
前記周辺部の画素のサイズは、前記中央部の画素のサイズよりも大きく、前記周辺部の画素密度は、前記中央部の画素密度よりも低い、
ことを特徴とする付記1乃至付記5のいずれか1項に記載の撮像装置。
(付記7)
前記中央部および前記周辺部の画素のサイズは同一とされ、
前記周辺部では、複数の画素をまとめて1つの画素として処理する、
ことを特徴とする付記1乃至付記5のいずれか1項に記載の撮像装置。
(付記8)
前記イメージセンサーは、極座標系センサーまたは直交座標系センサーである、
ことを特徴とする付記1乃至付記7のいずれか1項に記載の撮像装置。
(付記9)
第1フレームレートで撮像を行う中央部、および、前記中央部の周囲に設けられ、前記第1フレームレートよりも高い第2フレームレートで撮像を行う周辺部を含むイメージセンサーにより、前記イメージセンサーの視野に侵入する物体を撮像する撮像方法であって、
前記周辺部により撮像された画像データに基づいて前記中央部における撮像条件を算出し、
算出された前記撮像条件に基づいて、前記物体を、前記中央部で撮像する、
ことを特徴とする撮像方法。
(付記10)
前記撮像条件算出は、
前記画像データに物体が含まれる場合に前記物体の移動情報を算出し、
前記算出された移動情報から、前記物体が前記中央部により撮像する場合の撮像条件を算出する、
ことを特徴とする付記9に記載の撮像方法。
(付記11)
前記移動情報は、前記画像データにおける前記物体の位置,速度および移動方向の情報を含む、
ことを特徴とする付記10に記載の撮像方法。
(付記12)
前記移動情報は、さらに、前記画像データにおける前記物体の加速度の情報を含む、
ことを特徴とする付記11に記載の撮像方法。
(付記13)
前記撮像条件は、前記中央部における前記物体の撮像タイミング,露光時間およびISO感度を含む、
ことを特徴とする付記9乃至付記12のいずれか1項に記載の撮像方法。
(付記14)
前記周辺部の画素のサイズは、前記中央部の画素のサイズよりも大きく、前記周辺部の画素密度は、前記中央部の画素密度よりも低い、
ことを特徴とする付記9乃至付記13のいずれか1項に記載の撮像方法。
(付記15)
前記中央部および前記周辺部の画素のサイズは同一とされ、
前記周辺部では、複数の画素をまとめて1つの画素として処理する、
ことを特徴とする付記9乃至付記13のいずれか1項に記載の撮像方法。
1 極座標系センサー(極座標センサー,イメージセンサー)
2,3 直交座標系センサー(直交センサー,イメージセンサー)
5 物体(犬,動体)
11 極座標系センサーの中央部
12 極座標系センサーの周辺部
21,31 直交座標系センサーの中央部
22,32 直交座標系センサーの周辺部
100 撮像デバイス
101 カメラ制御部
200 画像処理/画像解析デバイス(画像処理装置)
201 第1SDRAM(第1メモリ)
202 第2SDRAM(第2メモリ)
203 画像処理部
204 物体検知部
205 SDRAM(メモリ)
300 レンズ(光学系)

Claims (9)

  1. 第1フレームレートで撮像を行う中央部、および、前記中央部の周囲に設けられ、前記第1フレームレートよりも高い第2フレームレートで撮像を行う周辺部を含むイメージセンサーと、
    前記周辺部により撮像された画像データに基づいて前記中央部における撮像条件を算出する画像処理装置と、を有する、
    ことを特徴とする撮像装置。
  2. 前記画像処理装置は、
    前記画像データに物体が含まれる場合に前記物体の移動情報を算出し、
    前記算出された移動情報から、前記物体を前記中央部により撮像する場合の撮像条件を算出する、
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記移動情報は、前記画像データにおける前記物体の位置,速度および移動方向の情報を含む、
    ことを特徴とする請求項2に記載の撮像装置。
  4. 前記撮像条件は、前記中央部における前記物体の撮像タイミング,露光時間およびISO感度を含む、
    ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の撮像装置。
  5. 前記周辺部の画素のサイズは、前記中央部の画素のサイズよりも大きく、前記周辺部の画素密度は、前記中央部の画素密度よりも低い、
    ことを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像装置。
  6. 前記中央部および前記周辺部の画素のサイズは同一とされ、
    前記周辺部では、複数の画素をまとめて1つの画素として処理する、
    ことを特徴とする請求項1乃至請求項4のいずれか1項に記載の撮像装置。
  7. 前記イメージセンサーは、極座標系センサーまたは直交座標系センサーである、
    ことを特徴とする請求項1乃至請求項6のいずれか1項に記載の撮像装置。
  8. 第1フレームレートで撮像を行う中央部、および、前記中央部の周囲に設けられ、前記第1フレームレートよりも高い第2フレームレートで撮像を行う周辺部を含むイメージセンサーにより、前記イメージセンサーの視野に侵入する物体を撮像する撮像方法であって、
    前記周辺部により撮像された画像データに基づいて前記中央部における撮像条件を算出し、
    算出された前記撮像条件に基づいて、前記物体を、前記中央部で撮像する、
    ことを特徴とする撮像方法。
  9. 前記撮像条件算出は、
    前記画像データに物体が含まれる場合に前記物体の移動情報を算出し、
    前記算出された移動情報から、前記物体が前記中央部により撮像する場合の撮像条件を算出する、
    ことを特徴とする請求項8に記載の撮像方法。
JP2014240406A 2014-11-27 2014-11-27 撮像装置および撮像方法 Pending JP2016103708A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014240406A JP2016103708A (ja) 2014-11-27 2014-11-27 撮像装置および撮像方法
US14/877,633 US20160156826A1 (en) 2014-11-27 2015-10-07 Image-capturing device and image-capturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014240406A JP2016103708A (ja) 2014-11-27 2014-11-27 撮像装置および撮像方法

Publications (1)

Publication Number Publication Date
JP2016103708A true JP2016103708A (ja) 2016-06-02

Family

ID=56079985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014240406A Pending JP2016103708A (ja) 2014-11-27 2014-11-27 撮像装置および撮像方法

Country Status (2)

Country Link
US (1) US20160156826A1 (ja)
JP (1) JP2016103708A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017187811A1 (ja) * 2016-04-27 2019-03-07 ソニー株式会社 撮像制御装置及び撮像制御方法、並びに撮像装置
JP2019190892A (ja) * 2018-04-20 2019-10-31 ソニーセミコンダクタソリューションズ株式会社 受光装置及び測距装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10097775B2 (en) * 2016-09-15 2018-10-09 Sensors Unlimited, Inc. Digital output binning
US10540812B1 (en) * 2019-01-09 2020-01-21 Dell Products, L.P. Handling real-world light sources in virtual, augmented, and mixed reality (xR) applications

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112010005786B4 (de) * 2010-07-30 2023-03-02 Toyota Jidosha Kabushiki Kaisha Vorrichtung und Verfahren zum Messen eines Spektrums eines bewegbaren Körpers

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017187811A1 (ja) * 2016-04-27 2019-03-07 ソニー株式会社 撮像制御装置及び撮像制御方法、並びに撮像装置
JP2019190892A (ja) * 2018-04-20 2019-10-31 ソニーセミコンダクタソリューションズ株式会社 受光装置及び測距装置
US11714172B2 (en) 2018-04-20 2023-08-01 Sony Semiconductor Solutions Corporation Light reception device and distance measurement device

Also Published As

Publication number Publication date
US20160156826A1 (en) 2016-06-02

Similar Documents

Publication Publication Date Title
US10650255B2 (en) Vehicular vision system with object detection
KR101953813B1 (ko) 통합 메모리 및 프로세서를 갖는 스마트 이미지 센서
US9143671B2 (en) Photographing apparatus, and method for photographing moving object with the same
CN108347563B (zh) 视频处理方法和装置、电子设备、计算机可读存储介质
JP5622648B2 (ja) 画像処理装置
CN108226562B (zh) 测量飞行物体的飞行数据的装置和方法及记录介质
JP5472506B2 (ja) 複数の移動対象物の追跡撮影システム及び撮影制御方法
EP3363191B1 (en) Omnidirectional camera with movement detection
JP2007257449A (ja) 道路区画線検出装置
JP2016103708A (ja) 撮像装置および撮像方法
WO2017001189A1 (en) Detection of lens contamination using expected edge trajectories
WO2020117285A9 (en) A multicamera system for autonamous driving vehicles
JP6759089B2 (ja) 画像処理装置、撮像装置、制御方法
JP2017072986A (ja) 自律飛行装置、自律飛行装置の制御方法及びプログラム
JP2006186592A5 (ja)
US20110149045A1 (en) Camera and method for controlling a camera
CN106415662A (zh) 车辆周围监视装置
JP2010273183A5 (ja)
JP6311875B2 (ja) 間歇的トラッキング撮影装置
JP2013122624A (ja) 車両火災検出装置
EP3435286B1 (en) Imaging control device and imaging control method
CN103491286A (zh) 成像装置及其图像显示方法
JP2001116527A (ja) 立体物検出方法及び装置
JP2010249794A (ja) 被写体距離計測装置
CN109923586A (zh) 停车框识别装置