JP7091326B2 - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JP7091326B2
JP7091326B2 JP2019523441A JP2019523441A JP7091326B2 JP 7091326 B2 JP7091326 B2 JP 7091326B2 JP 2019523441 A JP2019523441 A JP 2019523441A JP 2019523441 A JP2019523441 A JP 2019523441A JP 7091326 B2 JP7091326 B2 JP 7091326B2
Authority
JP
Japan
Prior art keywords
image
imaging
unit
projection
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019523441A
Other languages
English (en)
Other versions
JPWO2018225517A1 (ja
Inventor
宏彰 高橋
紀光 沖山
広之 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2018225517A1 publication Critical patent/JPWO2018225517A1/ja
Application granted granted Critical
Publication of JP7091326B2 publication Critical patent/JP7091326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2509Color coding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

本開示は、情報処理装置および方法に関し、特に、フレームメモリを必要とせずにより多くの情報を得ることができるようにした情報処理装置および方法に関する。
従来、測距技術として、所定のパタン画像を被写体に投影し、そのパタン画像が投影された被写体を撮像することにより、三角測量等により被写体までの距離を求めるストラクチャードライト(Structured Light)という方法があった。
このストラクチャードライトにおいて、投影は面全体を投影する面方式で行う方法が一般的であった。しかしながら、面方式で投影を行う場合、1回の投影に対して複数回撮像を行うためには、撮像面全体の画素値を、A/D(Analog / Digital)変換するまでの間、保持するフレームメモリが必要であった。
これに対して、投影および撮像を互いに同期させて1ラインずつ(ラインスキャン方式で)行う方法も考えられた(例えば、非特許文献1参照)。
Matthew O’Toole, Supreeth Achar, Srinivasa G. Narasimhan, Kiriakos N. Kutulakos, "Homogeneous Codes for Energy-Efficient Illumination and Imaging", ACM SIGGRAPH, 2015.http://www.dgp.toronto.edu/~motoole/energyefficientimaging.html
しかしながら、非特許文献1に記載の方法の場合、1回の投影に対して1回の撮像しか行われず、より多くの情報を得ることが困難であった。
本開示は、このような状況に鑑みてなされたものであり、フレームメモリを必要とせずにより多くの情報を得ることができるようにするものである。
本技術の一側面の情報処理装置は、投影部を制御し、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、撮像部を制御し、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせる制御部を備える情報処理装置である。
本技術の一側面の情報処理方法は、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせる情報処理方法である。
本技術の他の側面の情報処理装置は、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行い、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、前記パタン画像の投影としての前記スキャンおよび前記被写体の撮像としての前記ラインスキャンを、隣接する他の画像処理装置と異なる方向に行わせる制御部を備える情報処理装置である。
本技術の他の側面の情報処理方法は、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行い、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、前記パタン画像の投影としての前記スキャンおよび前記被写体の撮像としての前記ラインスキャンを、隣接する他の画像処理装置と異なる方向に行わせる情報処理方法である。
本技術の一側面の情報処理装置および方法においては、パタン画像を被写体に投影する点光源またはライン光源のスキャンが行われ、そのパタン画像の投影としてのスキャンの1周期の間に、被写体を撮像する露光およびラインスキャンによる読み出しが複数回行われる。
本技術の他の側面の情報処理装置および方法においては、パタン画像を被写体に投影する点光源またはライン光源のスキャンが行われ、そのパタン画像の投影としてのスキャンの1周期の間に、被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、パタン画像の投影としてのスキャンおよび被写体の撮像としてのラインスキャンが、隣接する他の画像処理装置と異なる方向に行われる。
本開示によれば、情報を処理することができる。特に、フレームメモリを必要とせずにより多くの情報を得ることができる。
投影および撮像の様子の例を説明する図である。 画像処理装置の主な構成例を示すブロック図である。 投影および撮像の様子の例を説明する図である。 投影および撮像を行う波長域の例を説明する図である。 撮像部のカラーフィルタの例を説明する図である。 撮像の様子の例を説明する図である。 信号処理の様子の例を説明する図である。 パタン画像の例を説明する図である。 パタン画像の例を説明する図である。 動体検出の方法の例を説明する図である。 動体検出の方法の例を説明する図である。 画像処理の流れの例を説明するフローチャートである。 画像処理装置の主な構成例を示すブロック図である。 投影および撮像の様子の例を説明する図である。 投影および撮像の様子の例を説明する図である。 投影および撮像の様子の例を説明する図である。 投影および撮像の様子の例を説明する図である。 画像処理の流れの例を説明するフローチャートである。 画像処理装置の主な構成例を示すブロック図である。 投影および撮像の様子の例を説明する図である。 投影および撮像の様子の例を説明する図である。 画像処理の流れの例を説明するフローチャートである。 画像処理装置の主な構成例を示すブロック図である。 投影および撮像の様子の例を説明する図である。 画像処理の流れの例を説明するフローチャートである。 画像処理装置の主な構成例を示すブロック図である。 投影および撮像の様子の例を説明する図である。 画像処理の流れの例を説明するフローチャートである。 画像処理システムの主な構成例を示すブロック図である。 投影および撮像の様子の例を説明する図である。 投影および撮像の様子の例を説明する図である。 画像処理の流れの例を説明するフローチャートである。 コンピュータの主な構成例を示すブロック図である。
以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
1.測距技術
2.第1の実施の形態(画像処理装置・投影単スキャン撮像単スキャン)
3.第2の実施の形態(画像処理装置・投影単スキャン撮像複スキャン)
4.第3の実施の形態(画像処理装置・投影複スキャン撮像複スキャン)
5.第4の実施の形態(画像処理装置・投影複スキャン撮像多複スキャン)
6.第5の実施の形態(画像処理装置・投影単スキャン撮像複装置)
7.第6の実施の形態(画像処理システム)
8.その他
<1.測距技術>
<従来の測距技術>
コンピュータビジョン(Computer Vision)の分野では古くから様々な測距技術が検討されてきた。もっとも一般的な手法としては、パッシブステレオ(Passive Stereo)と呼ばれる人間の目と同様に2台のカメラの間の視差を利用した三角測量技術が知られている。パッシブステレオでは、視差推定の精度が奥行推定の精度に直結する。平坦部や、繰り返しパタンでは正確な対応関係が取れず、視差が求まらない。そのために、測距精度が落ちる問題がある。
近年、照射光を利用することでこの問題を解決した、アクティブ(Active)な測距技術が注目されている。主なアクティブ測距技術としては、アクティブステレオ(Active Stereo)、TOF(Time Of Flight)、ストラクチャードライト(Structured Light)などが知られている。
アクティブステレオとストラクチャードライトは、ともに三角測量を用いたアクティブな測距技術であるが、一般的に、アクティブステレオが2台のカメラと1台のプロジェクタ構成なのに対し、ストラクチャードライトでは1台のカメラと1台のプロジェクタ構成である。
三角測量では、2つの視点からの視差によって距離を求める。パッシブステレオではブロックマッチングなどで、2つの視点間の対応をとることで視差を求める。ストラクチャードライトでは、グレイコードと呼ばれるパタン画像を用いる空間符号化法が用いられることが多い。つまり、プロジェクタからパタン画像を投影し、カメラによりその投影されたパタン画像を撮像することにより、パタン画像に基づいてプロジェクタとカメラとの画素位置関係を求め、その画素位置関係に基づいて三角測量によりパタン画像が投影された物体までの距離を測定する。複数のパタン画像からなるグレイコードを用いれば、パタンの変化によって所定の方向(例えば水平方向)の画素位置関係を容易に求めることができる。
ところで、近年、このような測距結果を撮像画像と組み合わせて用いることが考えられている。例えば、被写体を撮像するとともに、被写体までの距離を上述のようなストラクチャードライトにより計測し(測距し)、その測距結果(つまり被写体までの距離)をデプス情報として、撮像画像のデータと組み合わせて利用することが考えられている。例えば、撮像画像とデプス情報とを組み合わせて用いることにより、撮像画像に写る被写体の奥行きを設定することができるので、撮像画像の3次元空間化(仮想空間の形成)、立体視画像の生成(奥行きに応じた視差の形成)、奥行きに応じた画像処理(例えば遠くの被写体程ぼかしたり暗くしたりする)等を行うことができる。このように撮像画像とデプス情報とを組み合わせることにより、例えばゲームやシミュレーション等、より多様な用途に利用することができるようになる。
例えば、このようにデプス情報を得るための撮像(センシング用途の撮像)と、撮像画像(輝度や色の情報)を得るための撮像(イメージング用途の撮像)とを互いに異なるカメラで行うようにすると、両者の撮像位置が異なるので、カメラ同士のマッチング(位置合わせ)が必要になる。そのため、処理の負荷が増大し、コストが増大するおそれがある。このセンシング用途の撮像とイメージング用途の撮像とを同一のカメラで行うようにすれば、処理の負荷の増大を抑制することができるだけでなく、デバイス(カメラ)の数も低減させることができるので、コストの増大を抑制することができる。また、カメラ同士のマッチングの精度が悪い場合には立体にずれたテクスチャが張られるが、この問題を容易に、回避できる。また、視点が異なる場合には、原理的に、遮蔽物により片方の視点からしか計測できない領域(オクルージョン)が発生し、対応関係が取れない問題が発生するが、この問題も抑制することができる。
ところで、プロジェクタによる画像の投影の方式として、例えば、画像(面)全体を一斉に投影する面方式、1ラインずつ画像を投影するラインスキャン方式、1画素ずつ光の点を走査するラスタスキャン方式等が存在する。例えば、面方式で画像を投影するプロジェクタには、LCD(Liquid Crystal Display)を用いるものがある。また、例えば、ラインスキャン方式やラスタスキャン方式で画像を投影するプロジェクタには、レーザ光を用いるものがある。
また、カメラによる撮像の方式として、例えば、全画素(面)の画素値を一斉に読み出す面方式や、1ラインずつ画素値を読み出すラインスキャン方式が存在する。例えば、CCD(Charge Coupled Device)イメージセンサやグローバルシャッタ方式のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサの場合、面方式で撮像を行う。また、例えば、ローリングシャッタ方式のCMOSイメージセンサの場合、ラインスキャン方式で撮像を行う。
例えば、面方式の投影および面方式の撮像の様子の例を図1に示す。面方式の投影の場合、プロジェクタは、図1の最上段に示されるように、投影期間11-1および投影期間11-2において、センシング用途の所定の画像(パタン画像)を投影する。
また、図1の上から2段目に示されるように、カメラは、この投影期間11-1に対して露光期間12-1および露光期間13-1の期間露光を行い、投影期間11-2に対して露光期間12-2および露光期間13-2の期間露光を行うものとする。
露光期間12-1により得られる画素値を読み出すことにより、投影期間11-1においてパタン画像が投影された被写体の撮像画像が得られる。また、露光期間13-1により得られる画素値を読み出すことにより、パタン画像が投影されていない環境光下の被写体の撮像画像が得られる。同様に、露光期間12-2により得られる画素値を読み出すことにより、投影期間11-2においてパタン画像が投影された被写体の撮像画像が得られる。また、露光期間13-2により得られる画素値を読み出すことにより、パタン画像が投影されていない環境光下の被写体の撮像画像が得られる。
一般的な安価なイメージセンサの場合、画素値のA/D変換は、図1の上から3段目および4段目に示されるように、1ラインずつしか行うことができない。つまり、露光期間12-1により得られる画素値は、ラインスキャン14-1のように1ラインずつA/D変換され、露光期間13-1により得られる画素値は、ラインスキャン15-1のように1ラインずつA/D変換され、露光期間12-2により得られる画素値は、ラインスキャン14-2のように1ラインずつA/D変換される。同様に、露光期間13-2により得られる画素値も1ラインずつA/D変換される(図示せず)。
つまり、図1の場合、少なくとも、ラインスキャン14-1が行われる間、露光期間12-1により得られる画素値を画素以外の場所に保持し、ラインスキャン14-2が行われる間、露光期間12-2により得られる画素値を画素以外の場所に保持する必要がある。つまり、少なくとも1フレーム分の画素値を保持するフレームメモリが必要になる。そのため、このような処理は一般のローリングシャッタ方式のCMOSイメージセンサでは実現することが困難であり、CCDイメージセンサやグローバルシャッタ方式のCMOSイメージセンサが必要となる。その結果、コストが増大するおそれがあった。
なお、面方式の投影に対してラインスキャン方式で撮像を行う場合、露光期間が投影期間に対して短いと、その露光期間が、画像の投影期間の終了後になってしまい、パタン画像が投影された状態で撮像を行うことができないラインが生じるおそれがあった。
そこで、例えば非特許文献1に記載のように、ラインスキャン方式で投影と撮像とを行う方法が考えられた。しかしながら、非特許文献1に記載の方法の場合、1回の投影に対して1回の撮像しか行われず、より多くの情報を得ることが困難であった。
<2.第1の実施の形態>
<1ラインスキャン投影に対して複数ラインスキャン撮像を同期>
そこで、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、そのパタン画像の投影としてのスキャンの1周期の間に、被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせるようにする。このようにすることにより、フレームメモリを必要とせずにより多くの情報を得ることができる。したがって、コストの増大を抑制しながらより安価により多くの情報を得ることができる。なお、付言するに、面方式の投影を撮像のラインスキャンの期間中継続すると投影による消費電力が不要に増大してしまうが、上述のように点光源またはライン光源のスキャンによって投影を行うようにすることで、その消費電力の増大を抑制することができる。
<画像処理装置>
図2は、本技術を適用した情報処理装置の一実施の形態である画像処理装置の主な構成例を示すブロック図である。図1において、画像処理装置100は、被写体までの距離の計測(測距)に関する処理を行う装置である。例えば、画像処理装置100は、被写体を撮像するとともに、被写体までの距離を上述のようなストラクチャードライトにより計測し(測距し)、その測距結果(つまり被写体までの距離)をデプス情報として、撮像画像のデータと組み合わせて出力する。
図2に示されるように、画像処理装置100は、制御部101、投影部111、撮像部112、および信号処理部113を有する。制御部101は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成され、CPUがROMに記憶されているプログラム等や、RAMにロードされたプログラム等を実行する等して任意の処理を実行することができる。例えば、制御部101は、画像処理装置100の各部(投影部111乃至信号処理部113)の制御に関する処理を行う。
投影部111は、制御部101により制御されて、画像の投影に関する処理を行う。例えば、投影部111は、センシング用途の撮像に用いられる所定の絵柄の画像であるパタン画像を投影する。
投影部111は、例えば画素毎のラスタスキャンや画像投影を1ラインずつ行うラインスキャンにより画像を投影する。例えば、投影部111は、レーザ光を走査することにより画像を1ラインずつ投影する。また、例えば、投影部111が、複数のレーザ光源からのビーム同士の干渉を利用して所望のラインの照射を増大させるフェーズドアレイ(phased array)を利用して、投影としてのスキャンを行うようにしてもよい。さらに、例えば、互いに異なる1ラインの絵柄を表示し、その他のラインの絵柄を非表示(例えば黒)とするパタン画像をライン数分用意し、投影部111が、そのパタン画像群を1枚ずつ、画像全体(面)を一斉に投影する面方式で投影するようにしてもよい。例えば、垂直共振器面発光レーザ(VCSEL(Vertical Cavity Surface Emitting LASER))を用いて、このような投影を実現するようにしてもよい。以下においては、一例としてラスタスキャンによる投影を例に説明を行うが、上述のように、本技術の投影方法はラスタスキャンに限定されない。
撮像部112は、制御部101により制御されて、撮像に関する処理を行う。例えば、撮像部112は、センシング用途の撮像(デプス情報を得るための撮像)やイメージング用途の撮像(撮像画像(輝度や色の情報)を得るための撮像)を行う。撮像部112は、例えば、受光部121およびADコンバータ(ADC(Analog Digital Converter))122を有する。受光部121は、複数の画素を有し、各画素において、外部からの入射光を光電変換し、その入射光の光量に応じた電荷量の電荷を蓄積する。受光部121は、各画素の電荷量に応じた電気信号を画素値としてADコンバータ122に供給する。ADコンバータ122は、受光部121から供給される各画素の画素値(電気信号)をA/D変換し、デジタルデータとして信号処理部113に供給する。
撮像部112(受光部121)は、例えば1ラインずつ撮像を行うラインスキャンにより被写体を撮像する。例えば、受光部121は、グローバルシャッタ方式のCMOSイメージセンサよりも安価なローリングシャッタ方式のCMOSイメージセンサにより構成される。受光部121は、フレームメモリを有しておらず、画素アレイの各画素に蓄積された電荷に相当する電気信号を画素値として1ライン(行)ずつ読み出し、順次ADコンバータ122に供給する。
ADコンバータ122は、受光部121から(1ラインずつ)供給される各画素の画素値(電気信号)を1ラインずつA/D変換する。ADコンバータ122は、例えば読み出された1ライン分の画素値を1画素ずつA/D変換する1入力1出力の1つのADコンバータにより構成されるようにしてもよいし、受光部121の画素アレイのカラム(列)毎に設けられたADコンバータ(カラムA/D)により構成されるようにしてもよい。この場合(カラムA/Dの場合)、ADコンバータ122は、読み出された1ライン分の各画素値を同時にA/D変換することができる。ADコンバータ122は、A/D変換されたデジタルデータの画素値を1ラインずつ信号処理部113に供給する。
信号処理部113は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成され、CPUがROMに記憶されているプログラム等や、RAMにロードされたプログラム等を実行する等して任意の処理を実行することができる。例えば、信号処理部113は、制御部101により制御されて、撮像部112(ADコンバータ122)より供給される画素値(デジタルデータ)に対する処理に関する処理を行う。例えば、信号処理部113は、撮像部112より供給されるデジタルデータに基づいて、デプス情報を生成したり、輝度や色の情報の取得を目的とした撮像画像のデータを生成したりする。信号処理部113は、信号処理結果(例えば、生成されたデプス情報や撮像画像のデータ等)を画像処理装置100の外部に出力する。
なお、信号処理部113は、適宜、信号処理結果や信号処理に用いた情報等、任意の情報を制御部101に供給することができる。制御部101は、その信号処理部113より供給される情報に基づいて、各処理部の制御を行うことができる。
<投影と撮像の制御>
制御部101は、投影部111を制御し、被写体の画像をラスタスキャン方式で投影させ、撮像部112を制御し、その画像の投影の1周期の間に被写体をラインスキャン方式で複数回撮像させる。
この投影と撮像の様子の例を図3に示す。制御部101は、図3に示されるように投影と撮像が行われるように、各処理部を制御する。つまり、制御部101は、図3の最上段に示されるように、1つの投影部111に対して、ラスタスキャン131-1、ラスタスキャン131-2のように、ラスタスキャンにより所定の絵柄のパタン画像を被写体に投影させる。
そして、制御部101は、画素値を1ラインずつ読み出し可能な単数の撮像部112に対して、その投影の1周期の間に、その被写体をラインスキャン方式で複数回(例えば2回)撮像させる。例えば、制御部101は、撮像部112に、パタン画像の投影としてのラスタスキャンの1周期の間に、イメージング用の撮像としての露光および読み出しと、センシング用の撮像としての露光および読み出しとを行わせる。
より具体的には、制御部101は、撮像部112に、上述の投影のラスタスキャンの間に、図3の上から2段目と3段目に示されるように、イメージング用途の撮像としての露光(例えば露光期間133-1および露光期間133-2)および読み出し(例えばラインスキャン135-1)と、センシング用途の撮像としての露光(例えば、露光期間132-1および露光期間132-2)および読み出し(例えばラインスキャン134-1およびラインスキャン134-2)とを行わせる。
その際、パタン画像が投影された被写体の撮像画像(センシング結果)が得られるようなタイミングにおいてセンシング用途の撮像としての読み出し(例えばラインスキャン134-1やラインスキャン134-2)が行われるようにする。つまり、制御部101は、センシング用途としての露光期間(例えば露光期間132-1や露光期間132-2)中に、投影のラスタスキャン(例えばラスタスキャン131-1やラスタスキャン131-2)が行われるように投影や撮像を制御する。制御部101がこのように制御することにより、撮像部112は、ラスタスキャンにより投影される各ラインのパタン画像を露光期間を不要に増大させずに撮像することができる。したがって、撮像部112は、センシング用途の撮像に対する環境光等の他の影響を抑制することができ、より正確なデプス情報を得ることができる。
なお、センシング用途の撮像としての露光(例えば露光期間132-1や露光期間132-2)における各ラインの露光期間は、ラスタスキャン131-1の対応するラインを含んでいればよく、その限りにおいてはできるだけ短くするようにしてもよい。つまり、ラインスキャン134-1やラインスキャン134-2のタイミングを、できるだけラスタスキャン131-1やラスタスキャン131-2のタイミングに近づけるようにしてもよい。この露光期間が短くなる程、撮像部112は、センシング用途の撮像に対する環境光等の他の影響を抑制することができ、より正確なデプス情報を得ることができる。例えば、センシング用途の撮像としての読み出しのスキャン(例えばラインスキャン134-1やラインスキャン134-2)において、投影としてのスキャン(例えばラスタスキャン131-1やラスタスキャン131-2)の各ラインと同じライン(行)を処理対象とするようにしてもよい。
また、制御部101は、このセンシング用途の撮像としてのラインスキャン(例えばラインスキャン134-1やラインスキャン134-2)を、イメージング用途の撮像としてのラインスキャン(例えばラインスキャン135-1)と重ならないようなタイミングにおいて行わせる。このように制御することにより、ラインスキャン方式で撮像を行う単数の撮像部112により、センシング用途の撮像とイメージング用途の撮像との両方を行うことができる。
例えば、制御部101は、撮像部112に対して、ラインスキャンを繰り返し行わせ、各ラインスキャンによりイメージング用途の撮像としての読み出しとセンシング用途の撮像としての読み出しを交互に行わせる。そして、制御部101は、投影部111に対して、上述したような、センシング用途の撮像としての読み出しのラインスキャンに応じたタイミングにおいて、パタン画像の投影としてのラスタスキャンを行わせる。このように制御することにより、制御部101は、撮像部112に、上述したようなタイミングにおいて、センシング用の撮像としての露光および読み出しを行わせることができる。つまり、単数の撮像部112により、センシング用途の撮像とイメージング用途の撮像との両方を行うことができる。なお、制御部101は、撮像としての各回のラインスキャンを連続して行うように制御することにより、投影の周期をより短くすることができる。つまり、より高速な画像の投影に対応することができる。
なお、イメージング用途の撮像としての各ラインの露光期間は、そのラインのセンシング用途の撮像としての露光期間と重ならない範囲であれば任意に設定することができる。例えば、各ラインにおいて、1つ前のセンシング用途の撮像としての読み出しが終了した直後から(すなわち、1つ前のセンシング用途の撮像としての露光に連続して)イメージング用途の撮像としての露光を開始するようにしてもよい。また、各ラインにおいて、1つ前のセンシング用途の撮像としての読み出し終了後、所定の期間をおいて(すなわち、1つ前のセンシング用途の撮像としての露光に連続しないようにして)、イメージング用途の撮像としての露光を開始するようにしてもよい。イメージング用途の撮像の場合、一般的に、露光期間を長くするほど、より高画質な撮像画像を得ることができる。
以上のように、制御部101が、投影と撮像のラインスキャンを制御することにより、投影の1回のラインスキャンに対して、センシング用途の情報とイメージング用途の情報とを得ることができる。また、投影と撮像とがともにラインスキャン方式であるので、1フレーム分以上の画素値を保持する必要がなく、余計なフレームメモリが不要である。つまり、フレームメモリを必要とせずにより多くの情報を得ることができる。なお、フレームメモリが不要であるので、コストの増大を抑制することができる。
<投影と撮像の波長域>
なお、投影部111が投影するパタン画像の波長域は任意である。また、撮像部112による撮像の波長域も任意である。これらの投影および撮像は、それぞれ、単色で行われるようにしてもよいし、複数色で行われるようにしてもよい。
例えば、図4のAの左に示されるように、投影部111が赤外光(IR)でパタン画像を投影し、図4のAの右に示されるように、撮像部112が、赤外光(IR)、赤色光(R)、緑色光(G)、および青色光(B)により撮像を行うようにしてもよい。
また例えば、図4のBの左に示されるように、投影部111が赤外光(IR)でパタン画像を投影し、図4のBの右に示されるように、撮像部112が、赤外光(IR)により撮像を行うようにしてもよい。
さらに例えば、図4のCの左に示されるように、投影部111が緑色光(G)でパタン画像を投影し、図4のCの右に示されるように、撮像部112が、赤色光(R)、緑色光(G)、および青色光(B)により撮像を行うようにしてもよい。
また例えば、図4のDの左に示されるように、投影部111が白色光(W)(すなわち輝度値)でパタン画像を投影し、図4のDの右に示されるように、撮像部112が、赤色光(R)、緑色光(G)、および青色光(B)により撮像を行うようにしてもよい。
さらに例えば、図4のEの左に示されるように、投影部111が赤色光(R)、緑色光(G)、および青色光(B)のそれぞれの色でパタン画像を投影し、図4のEの右に示されるように、撮像部112が、赤色光(R)、緑色光(G)、および青色光(B)により撮像を行うようにしてもよい。
また、このような投影や撮像の波長域を可変としてもよい。例えば、被写体や環境光等に応じて適応的に投影や撮像の波長域を設定することができるようにしてもよい。
<カラーフィルタ>
また、撮像部112(受光部121)の各画素のカラーフィルタの配列は任意である。例えば、図5のAに示されるように、赤外光(IR)を透過するフィルタ、赤色光(R)を透過するフィルタ、緑色光(G)を透過するフィルタ、および青色光(B)を透過するフィルタが、イメージング用途の撮像における解像度を優先させるような配列で撮像部112(受光部121)の画素に設けられるようにしてもよい。
また、例えば、図5のBに示されるように、赤外光(IR)を透過するフィルタ、赤色光(R)を透過するフィルタ、緑色光(G)を透過するフィルタ、および青色光(B)を透過するフィルタが、イメージング用途の撮像における色再現を優先させるような配列で撮像部112(受光部121)の画素に設けられるようにしてもよい。さらに、例えば、図5のCに示されるように、赤外光(IR)を透過するフィルタ、赤色光(R)を透過するフィルタ、緑色光(G)を透過するフィルタ、および青色光(B)を透過するフィルタが、センシング用途の撮像を優先させるような配列で撮像部112(受光部121)の画素に設けられるようにしてもよい。
また、撮像部112(受光部121)が撮像する(受光する)波長域を、イメージング用途の撮像とセンシング用途の撮像とで切り替えることができるようにしてもよい。例えば、制御部101が、図6に示されるように、イメージング用途の撮像においては、撮像部112(受光部121)の赤色光(R)を受光する画素、緑色光(G)を受光する画素、および青色光(B)を受光する画素を駆動させ、その他の画素の駆動を停止させ、センシング用途の撮像においては、撮像部112(受光部121)の赤外光を受光する画素を駆動させ、その他の画素の駆動を停止させるように制御するようにしてもよい。このようにすることにより、撮像部112(受光部121)は、より多様な波長域で撮像をイメージング用途の撮像とセンシング用途の撮像とを行うことができる。また、このように制御部101が、撮像部112(受光部121)の画素駆動を制御し、撮像に必要な画素のみを駆動させることにより、撮像に不要な画素の駆動を停止させることができるので、不要な消費電力の増大を抑制することができる。
<信号処理>
信号処理部113による信号処理の内容は任意である。例えば、信号処理部113が、イメージング用途の撮像により得られた情報(画素値等)に基づいて、被写体の撮像画像を生成するようにしてもよい。例えば、信号処理部113が、撮像部112によるイメージング用途の撮像により得られた被写体のRAW画像(画素値)に対して、画素位置毎に複数波長域の画素値を生成し、波長域毎の撮像画像を生成するデモザイク処理や、画素位置毎に単数波長域の画素値を生成し、複数波長域の画素値が混在する単数の撮像画像を生成するリモザイク処理等を行うようにしてもよい。
また、例えば、信号処理部113が、センシング用途の撮像により得られた情報(画素値等)に基づいて、被写体までの距離(被写体の奥行き)を示すデプス情報を生成するようにしてもよい。例えば、信号処理部113が、撮像部112によるセンシング用途の撮像により得られた、投影部111により所定のパタン画像が投影された被写体のRAW画像(画素値)、または、そのRAW画像に対してデモザイク処理やリモザイク処理等の所定の画像処理を施して得られたセンシング結果に基づいて、三角測量等によって被写体の奥行きを求めるようにしてもよい。
なお、これらの処理の順序は任意である。例えば、図7のAに示されるように、信号処理部113が、RAW画像(赤色成分、緑色成分、青色成分、および赤外成分とが混在するRGBIR画像)からデプス情報を算出して、赤色成分、緑色成分、青色成分、およびデプス情報とが混在するRGBD画像を生成し、そのRGBD画像に対してデモザイク処理を行い、デプス情報、赤色成分からなるR画像、緑色成分からなるG画像、および青色成分からなるB画像を生成するようにしてもよい。
また、例えば、図7のBに示されるように、信号処理部113が、RGBIR画像からデプス情報を算出してRGBD画像を生成し、そのRGBD画像に対してリモザイク処理を行い、赤色成分、緑色成分、および青色成分がベイヤ配列に並ぶRGB画像と、デプス情報とを生成し、そのRGB画像に対してデモザイク処理を行い、R画像、G画像、およびB画像を生成し、さらにデプス情報に対して相関処理によるアップサンプリングを行うようにしてもよい。
また、例えば、図7のCに示されるように、信号処理部113が、RGBIR画像に対してデモザイク処理を行い、赤外成分からなるIR画像、R画像、G画像、およびB画像を生成し、IR画像からデプス情報を算出するようにしてもよい。
<パタン画像>
なお、センシング用途の撮像のために投影部111が投影するパタン画像はどのような画像であってもよい。例えば、制御部101が、投影部111に、単数の所定のパタン画像を投影させるようにしてもよい。例えば、図8のAに示されるような、チェッカーフラグ模様の格子点に白または黒のパタンを埋め込んだパタン画像であってもよい。このパタン画像は、チェッカーフラグの模様が注目するパタンの位置(格子点)を示しており、その格子点に埋め込まれたパタン(白または黒)により、画素位置を特定することができるパタン画像である。
また、制御部101が、投影部111に、複数の所定のパタン画像を順次投影させるようにしてもよい。例えば、制御部101が、投影部111に、図8のBに示されるような複数のパタン画像よりなるグレイコードを投影させるようにしてもよい。グレイコードは、各パタン画像の白または黒の組み合わせにより画素位置を特定することができるパタン画像である。
また、例えば、制御部101が、投影部111に、図8のCに示されるような、互いに同じ模様であり、かつ、白黒が反転した(ネガポジ反転した)2枚1組のパタン画像を順次投影させるようにしてもよい。このようなネガポジ反転したパタン画像2枚により画素位置を特定することができる。したがって、グレイコードを用いる場合よりも高速にデプス情報を求めることができる。つまり、デプス情報の時間解像度を向上させることができる。なお、このようなネガポジ反転したパタン画像を投影して測距を行うことにより、被写体のテクスチャ(模様等)によるパタン画像への影響を抑制することができる。つまり、より正確にデプス情報を求めることができる。
また、例えば、制御部101が、投影部111に、図8のDに示されるように、画素位置に応じて正弦波状に輝度値が変化するパタンの位相を変えながら(フェイズシフト)順次投影させるようにしてもよい。例えば正弦波を用いた場合、3枚の画像により画素位置を特定することができる。したがって、グレイコードを用いる場合よりも高速にデプス情報を求めることができる。つまり、デプス情報の時間解像度を向上させることができる。
なお、複数のパタン画像を投影する場合、それらの各パタン画像の模様のサイズが互いに異なるようにしてもよい。例えば、制御部101が、投影部111に、図9のAに示されるような、画素位置に応じて正弦波状に輝度値が変化するパタンであって、かつ、その正弦波の周期が互いに異なる2枚1組のパタン画像を順次投影させるようにしてもよい。このようなパタン画像2枚により画素位置をより正確に特定することができる。つまり、デプス情報の空間解像度を向上させることができる。
また、複数のパタン画像を投影する場合、それらの各パタン画像の絵柄(模様)が互いに全く異なるようにしてもよい。例えば、制御部101が、投影部111に、図9のBに示されるような、絵柄(模様)が全く異なる2枚1組のパタン画像を順次投影させるようにしてもよい。このようなパタン画像2枚を用いることにより、複数の方法に依って画素位置を特定することができる。したがって、より正確に画素位置を特定することができる。つまり、デプス情報の空間解像度を向上させることができる。
また、複数のパタン画像を投影する場合、それらの各パタン画像の絵柄(模様)の位置が互いにずれているようにしてもよい。例えば、制御部101が、投影部111に、図9のCに示されるような、画素位置に応じて正弦波状に輝度値が変化するパタンであって、かつ、その正弦波の位相が互いに異なる2枚1組のパタン画像を順次投影させるようにしてもよい。このようなパタン画像2枚により画素位置をより正確に特定することができる。つまり、デプス情報の空間解像度を向上させることができる。
また、複数のパタン画像を投影する場合、投影部111の、各パタン画像を投影する際の光源の強度が互いに異なるようにしてもよい。例えば、図9のDに示されるように、投影部111が、1回目の投影においては、光源の光強度を弱くしてパタン画像を投影し(図9のD左)、2回目の投影においては、光源の光強度を強くしてパタン画像を投影する(図9のD右)ようにしてもよい。
パタン画像の輝度値が大きすぎると、センシング用途の撮像により得られる画素値が飽和するおそれがある。また、パタン画像の輝度値が小さすぎると、センシング用途の撮像により得られる画素値が小さ過ぎてパタンを誤判定するおそれがある。したがって、パタン画像投影時の光源の光強度を可変とすることにより、センシング用途の撮像により得られる画素値を適切なレベルに制御することができ、デプス情報をより正確に求めることができる。
例えば、被写体の奥行き方向の位置が撮像部112から近い場合、パタン画像の投影光は被写体においてより多く反射し、撮像部112に届きやすい。したがって、被写体が近い場合、センシング用途の撮像により得られる画素値が飽和しやすい。逆に、被写体の奥行き方向の位置が撮像部112から遠い場合、パタン画像の投影光は被写体における反射も少なくなり、撮像部112に届きにくくなる。つまり、被写体が遠い場合、センシング用途の撮像により得られる画素値が小さくなりやすく、パタンの誤判定が発生しやすい。
そこで、遠い被写体の奥行きは、光源の光強度を強くして投影したパタン画像を用いて求めるようにし、近い被写体の奥行きは、光源の光強度を弱くして投影したパタン画像を用いて求めるようにしてもよい。換言するに、上述したように、光源の光強度を変えて、パタン画像を投影することにより、測距の可能範囲を可変とすることができる。つまり、このようにすることにより、より広範囲の被写体をより正確に測距することができる。
特に、パタンの輝度値(アナログ値)を用いて測距を行うようなパタン画像の場合、画素値が飽和しやすいので、上述のように光源の光強度を可変とすることにより、より正確に測距を行うことができるようになる。
また、パタン画像の投影および撮像は、環境光(外光)の影響を受けやすい。したがって、例えば周辺の明るさに応じて、パタン画像を投影する際の光源の光強度を制御するようにしてもよい。このようにすることにより、環境光(外光)に対する耐性をより強くし、より正確に測距を行うことができるようになる。
なお、測距の可能範囲をより広くするために、パタン画像を投影する際のスキャンの同期タイミングを可変としてもよい。製造誤差の結果、被写体距離に応じて最適なスキャンのタイミングがずれる可能性がある。フォーカス位置(奥行)に応じてスキャンの同期タイミングのオフセット値を設定することができるようにしてもよい。このようにすることにより、より正確に測距を行うことができる。
また、被写体から互いに異なる経路を経て届く光を受光することによる、パタン判定への影響(マルチパスによる影響)を抑制するために、位相が互いに異なる高周波画像をパタン画像として投影して測距を行うようにしてもよい。
<動体判定>
複数枚のパタン画像を照射する場合、測距に時間を要することになる。したがって被写体に動体が含まれる場合、測距を正しく行うことができない可能性がある。そこで、そのような(動体の)被写体を測距の対象から除外することができるように、どの被写体が動体であるかを判定するようにしてもよい。
互いに異なる模様の複数枚のパタン画像を投影する場合、すなわち、パタンの内容が変化すると、それらの撮像画像を比較して動体判定を行うことは困難である。例えば、図10の例のように、ネガポジ反転したパタン画像を投影する場合、それらの撮像画像を比較しても、ネガポジの差分と動体の差分との区別がつかないため動体判定を正しく行うことができない。
そこで、図10に示されるように、信号処理部113が、環境光下の被写体の画像、すなわち、イメージング用途の撮像により得られる撮像画像に基づいて動体判定を行い、その動体判定結果に基づいて被写体のデプス情報を生成するようにしてもよい。
また、例えば、図11に示される例のように、一部の領域において絵柄が同一の複数の所定のパタン画像が順次投影されるようにしてもよい。つまり、上述したように順次投影される複数枚のパタン画像が、一部の領域の絵柄が互いに同一であるようにしてもよい。そして、信号処理部113が、その絵柄が互いに同一な一部の領域について撮像画像を比較することにより動体判定を行い、その動体判定結果に基づいて被写体のデプス情報を生成するようにしてもよい。
例えば、図11の例の場合、投影される2枚1組のパタン画像において、チェッカーフラグの模様は白黒反転させずに互いに同一であり、そのチェッカーフラグの模様の格子点に配置される白または黒のパタンのみ白黒が反転されている。このようなパタン画像を順次投影し、センシング用途の撮像を行うようにする。この場合、信号処理部113は、チェッカーフラグの模様については互いに同一であるので、それらの撮像画像を比較することにより、そのチェッカーフラグの模様の領域において動体判定を行うことができる。
以上のように動体判定を用いることにより、信号処理部113は、より正確にデプス情報を求めることができる。
<画像処理の流れ>
次に、以上のような画像処理装置100により実行される画像処理の流れの例を、図12のフローチャートを参照して説明する。
画像処理が開始されると、制御部101は、ステップS101において、撮像部112を制御し、他のラインのセンシング向けの読み出しと重ならないタイミングのラインスキャン読み出しにより、環境光下の被写体の撮像を行わせる。撮像部112は、その制御部101の制御に従って、イメージング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。
ステップS102において、投影部111を制御し、センシング用画像であるパタン画像をラスタスキャンにより投影させる。投影部111は、その制御部101の制御に従って、所定のパタン画像をラスタスキャンにより被写体に投影する。
ステップS103において、制御部101は、撮像部112を制御し、ステップS102の投影(のラスタスキャン)を含む、ラインスキャン的に設定された露光期間の露光と読み出しにより、上述のパタン画像が投影された被写体の撮像を行わせる。撮像部112は、その制御部101の制御に従って、センシング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。なお、その露光は、露光期間内において被写体にパタン画像が投影されるタイミングで行われる。また、その読み出しのラインスキャンは、イメージング用途の撮像としての読み出しのラインスキャンと重ならないようなタイミングにおいて行われる。
ステップS104において、制御部101は、信号処理部113を制御し、ステップS103のセンシング用途の撮像により得られたセンシング用RAW画像からデプス情報を生成する。つまり、信号処理部113は、そのような制御部101の制御に従って、パタン画像が投影された被写体を撮像して得られた画素値からデプス情報を生成する。
ステップS105において、制御部101は、信号処理部113を制御し、ステップS102のイメージング用途の撮像により得られたイメージング用RAW画像から撮像画像を生成する。つまり、信号処理部113は、そのような制御部101の制御に従って、デモザイク処理等を行って、環境光下の被写体を撮像して得られた画素値から撮像画像を生成する。
ステップS106において、制御部101は、信号処理部113を制御し、ステップS104において生成したデプス情報と、ステップS105において生成した撮像画像とを紐づけて出力する。つまり、信号処理部113は、そのような制御部101の制御に従って、デプス情報と撮像画像のデータとを関連付けて出力する。なお、ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、互いに関連付けられたデータは、1つのデータとしてまとめられてもよいし、それぞれ個別のデータとしてもよい。例えば、画像データに関連付けられた情報は、その画像データとは別の伝送路上で伝送されるようにしてもよい。また、例えば、画像データに関連付けられた情報は、その画像データとは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。なお、この「関連付け」は、データ全体でなく、データの一部であってもよい。例えば、画像とその画像に対応する情報とが、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられるようにしてもよい。
ステップS107において、制御部101は、画像処理を終了するか否かを判定する。測距を継続し、画像処理を終了しないと判定された場合、処理はステップS101に戻り、それ以降の処理を実行させる。つまり、制御部101は、上述したステップS101乃至ステップS107の処理を繰り返すことにより、新たなパタン画像または同じパタン画像を再度投影させ、その投影画像を用いて測距を行わせるように各処理部を制御する。
制御部101は、このように、必要なだけステップS101乃至ステップS107の処理を繰り返し実行する。そして、ステップS107において、測距を終了し、画像処理を終了すると判定された場合、画像処理が終了する。
以上のように画像処理を行うことにより、被写体に画像をラインスキャン方式で投影させ、その画像の投影の1周期の間にその被写体をラインスキャン方式で複数回撮像させることができる。したがって、フレームメモリを必要とせずにより多くの情報を得ることができる。
<3.第2の実施の形態>
<単数投影、単数撮像、複数ライン読み出し>
本技術を適用した情報処理装置は、第1の実施の形態において説明した例に限定されない。例えば、制御部101が、複数ラインの画素値を並列に読み出し可能な単数の撮像部に被写体を撮像させるようにしてもよい。その際、制御部101が、単数の投影部111に対して、被写体に画像をラスタスキャン方式で投影させるようにしてもよい。
このようにすることにより、第1の実施の形態の場合よりも投影の周期をより短くすることができる。つまり、より高速な画像の投影に対応することができる。
<画像処理装置>
図13は、この場合の画像処理装置100の主な構成例を示すブロック図である。図13に示される例の場合の画像処理装置100は、基本的に図2の場合と同様の構成を有するが、図2の撮像部112の代わりに撮像部212を有する。
撮像部212は、撮像部112と同様に、制御部101により制御されて、撮像に関する処理を行う。撮像部212は、例えば、受光部221、ADコンバータ222-1、およびADコンバータ222-2を有する。ADコンバータ222-1およびADコンバータ222-2を互いに区別して説明する必要がない場合、ADコンバータ222と称する。
受光部221は、フレームメモリを有しておらず、画素アレイの各画素に蓄積された電荷に相当する電気信号を画素値として2ライン(行)ずつ読み出し、1ラインずつADコンバータ222-1とADコンバータ222-2とに供給する。
ADコンバータ222-1およびADコンバータ222-2は、それぞれ、ADコンバータ122と同様の処理部である。ADコンバータ222-1およびADコンバータ222-2は、それぞれ、受光部221から1ラインずつ供給される各画素の画素値(電気信号)をA/D変換し、デジタルデータとして信号処理部113に供給する。
つまり、撮像部212は、受光部221において受光して得られた画素値を2ラインずつ読み出すことができる(2ラインの画素値の読み出しを互いに並行して行うことができる)。読み出し可能なライン数が2ラインに増えたこと以外、受光部221は受光部121と同様のデバイスである。
この場合、信号処理部113は、ADコンバータ222-1から供給される画素値のデジタルデータと、ADコンバータ222-2から供給される画素値のデジタルデータとを互いに並行して処理することができる。各デジタルデータに対する処理は、基本的に第1の実施の形態の場合と同様である。
<投影と撮像の制御>
この場合の投影と撮像の様子の例を図14に示す。制御部101は、図14に示されるように投影と撮像が行われるように、各処理部を制御する。つまり、制御部101は、図14の最上段に示されるように、1つの投影部111に対して、ラスタスキャン231-1、ラスタスキャン231-2、ラスタスキャン231-3のように、ラスタスキャンにより所定の絵柄のパタン画像を被写体に投影させる。
そして、制御部101は、複数ラインの画素値を並列に読み出し可能な単数の撮像部212に対して、その投影の1周期の間に、その被写体をラインスキャン方式で複数回(例えば2回)撮像させる。例えば、制御部101は、撮像部212に、パタン画像の投影としてのラスタスキャンの1周期の間に、イメージング用の撮像としての露光および読み出しと、センシング用の撮像としての露光および読み出しとを行わせる。
より具体的には、制御部101は、撮像部212に、上述の投影のラスタスキャンの間に、図14の上から2段目と3段目に示されるように、イメージング用途の撮像としての露光(例えば露光期間233-1乃至露光期間233-4)および読み出し(例えばラインスキャン235-1乃至ラインスキャン235-3)と、センシング用途の撮像としての露光(例えば、露光期間232-1乃至露光期間232-3)および読み出し(例えばラインスキャン234-1乃至ラインスキャン234-3)とを行わせる。
その際、パタン画像が投影された被写体の撮像画像(センシング結果)が得られるようなタイミングにおいてセンシング用途の撮像としての読み出し(例えばラインスキャン234-1乃至ラインスキャン234-3)が行われるようにする。つまり、制御部101は、センシング用途としての露光期間(例えば露光期間232-1乃至露光期間232-3)中に、投影のラスタスキャン(例えばラスタスキャン231-1乃至ラスタスキャン231-3)が行われるように投影や撮像を制御する。制御部101がこのように制御することにより、撮像部212は、ラスタスキャンにより投影される各ラインのパタン画像を露光期間を不要に増大させずに撮像することができる。したがって、撮像部212は、センシング用途の撮像に対する環境光等の他の影響を抑制することができ、より正確なデプス情報を得ることができる。
なお、センシング用途の撮像としての露光(例えば露光期間232-1乃至露光期間232-3)における各ラインの露光期間は、それぞれに対応するラスタスキャン(例えばラスタスキャン231-1乃至ラスタスキャン231-3)の対応するラインを含んでいればよく、その限りにおいてはできるだけ短くするようにしてもよい。つまり、例えば、ラインスキャン234-1乃至ラインスキャン234-3のそれぞれのタイミングを、できるだけラスタスキャン231-1乃至ラスタスキャン231-3のそれぞれのタイミングに近づけるようにしてもよい。この露光期間が短くなる程、撮像部212は、センシング用途の撮像に対する環境光等の他の影響を抑制することができ、より正確なデプス情報を得ることができる。例えば、センシング用途の撮像としての読み出しのスキャン(例えばラインスキャン234-1乃至ラインスキャン234-3)において、投影としてのスキャン(例えばラスタスキャン231-1乃至ラスタスキャン231-3)の各ラインと同じライン(行)を処理対象とするようにしてもよい。
また、制御部101は、このセンシング用途の撮像としてのラインスキャン(例えばラインスキャン234-1乃至ラインスキャン234-3)を、イメージング用途の撮像としてのラインスキャン(例えばラインスキャン235-1乃至ラインスキャン235-3)と重なるようなタイミングにおいて行わせる。このように制御することにより、複数ラインの画素値を並列に読み出し可能な単数の撮像部212により、センシング用途の撮像とイメージング用途の撮像との両方を行うことができる。
例えば、制御部101は、撮像部212に対して、2ラインのスキャンを並列に実行させる。そして、その2ラインのスキャンのうちの一方をイメージング用途の撮像の読み出しとして行わせ、他方をセンシング用途の撮像の読み出しとして行わせる。そして、制御部101は、投影部111に対して、上述したような、センシング用途の撮像としての読み出しのラインスキャンに応じたタイミングにおいて、パタン画像の投影としてのラスタスキャンを行わせる。
このように制御することにより、制御部101は、撮像部112に、上述したようなタイミングにおいて、センシング用途の撮像としての露光および読み出しを行わせることができる。つまり、複数ラインの画素値を並列に読み出し可能な単数の撮像部212により、イメージング用途の撮像とセンシング用途の撮像との両方を行うことができる。また、イメージング用途の撮像の読み出しとしてのラインスキャンとセンシング用途の撮像の読み出しとしてのラインスキャンとを並行して行うことができるので、第1の実施の形態の場合よりも、より短期間に、イメージング用途の撮像とセンシング用途の撮像とを行うことができる。つまり、投影の周期をより短くすることができ、より高速な画像の投影に対応することができる。
なお、撮像部212により並列に実行される2ラインのスキャンのうちの先行する方をイメージング用途の撮像の読み出しとしてのラインスキャンとし、他方をセンシング用途の撮像の読み出しとしてのラインスキャンとし、これらの2ラインの間隔をより狭くするのが望ましい。このようにすることにより、イメージング用途の撮像の露光期間をより長くすることができ、センシング用途の撮像の露光期間をより短くすることができる。第1の実施の形態においても説明したように、イメージング用途の撮像の露光期間をより長くすることにより、その撮像により得られる環境光下の被写体の撮像画像の画質を向上させることができる。また、センシング用の撮像の露光期間をより短くすることにより、環境光等の他の影響を抑制することができ、より正確なデプス情報を得ることができる。さらに、画素値の保持に必要なメモリ(ラインバッファ)の容量の増大を抑制することができる。
なお、2ラインのスキャンの内の先行する方をセンシング用途の撮像の読み出しとしてのラインスキャンとし、他方をイメージング用途の撮像の読み出しとしてのラインスキャンとし、これらの2ラインの間隔をより広くすることにより、同様の制御を実現することができるが、この方法の場合、制御がより複雑になるおそれがあるだけでなく、画素値の保持に必要なメモリ(ラインバッファ)の容量が増大してしまうおそれもある。
イメージング用途の撮像としての各ラインの露光期間とセンシング用途の撮像としての各ラインの露光期間は、第1の実施の形態の場合と同様に、互いに重ならない範囲であれば任意に設定することができる。1つ前の露光期間と連続するようにしてもよいし、連続していなくてもよい。
画像投影が面方式の場合、図15のAに示されるように、1フレーム分以上の画像を保持する必要があるが、上述のように投影部111はラスタスキャン方式により画像投影および撮像を行うので、図15のBに示されるように、1フレーム分以上の画像を保持する必要がなく、ラインバッファがあればよく、フレームメモリを必要としない。例えば、上述のようにセンシング用途の撮像の露光期間をより短くすることにより、保持する必要がある画素値のライン数をより低減させることができる。例えば、イメージング用途の撮像の読み出しとしてのラインスキャンとセンシング用途の撮像の読み出しとしてのラインスキャンとが、互いに同一のラインを処理対象として行われるようにすることにより、1ライン分の画素値を保持することができるラインバッファがあればよい。
<イメージング用途の撮像の露光期間の分割>
なお、上述した撮像において、イメージング用途の撮像の露光期間を複数に分割し、更にA/Dコンバータの数を増やすことで複数回イメージング用途の撮像を行うようにしてもよい。つまり、例えば図16に示されるように、制御部101が、撮像部212に、イメージング用の撮像としての露光および読み出しを複数回行わせ、さらに、露光期間内に被写体にパタン画像が投影され、かつ、読み出しのラインスキャンがイメージング用の撮像としての複数回の読み出しのうちの少なくとも最後の読み出しのラインスキャンと重なるようなタイミングにおいて、センシング用の撮像としての露光と画素値の読み出しを行わせるようにしてもよい。
図16の例の場合、図14の例と比較して、イメージング用途の撮像(ラインスキャン的な露光とラインスキャンによる読み出し)が複数回行われるように制御されている。このように、イメージング用途の撮像の露光期間を複数に分割し、イメージング用途の撮像を複数回行うようにすることにより、図17に示されるように、マルチパスの影響が大きい画像と、マルチパスの影響が小さい画像とを分けることができる。したがって、信号処理部113が、その複数の画像の中から、マルチパスの影響の少ない画像を選択することにより、マルチパスの影響の少ない撮像画像を得ることができる。これにより、マルチパスの影響による画質の低減を抑制することができる。
なおマルチパスの影響が最も小さい画像の選択方法は任意である。例えば、信号処理部113が、2D画像上の近傍領域の画素値の総和や平均値等を複数の撮像画像間で比較し最も画素値が小さい画像を、マルチパスの影響が最も小さい画像として選択するようにしてもよい。また、例えば、信号処理部113が、その複数の撮像画像間で比較した際に他と比べて値が大きく外れた外れ値の画素値を除去した後、画素値の総和や平均値等を計算しマルチパスの影響を低減した画像として出力するようにしてもよい。さらに、信号処理部113が、複数の画像等を用いて、マルチパスの影響が最小となる画像を推定するようにしてもよい。
<画像処理の流れ>
次に、図18のフローチャートを参照してこの場合の画像処理装置100が実行する画像処理の流れの例を説明する。
画像処理が開始されると、制御部101は、ステップS201において、撮像部212を制御し、センシング用のラインスキャン読み出しと重なるタイミングのラインスキャン読み出しにより環境光下の被写体の撮像を行わせる。撮像部212は、その制御部101の制御に従って、イメージング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。
ステップS202において、制御部101は、投影部111を制御し、センシング用画像であるパタン画像をラスタスキャンにより投影させる。投影部111は、その制御部101の制御に従って、所定のパタン画像をラスタスキャンにより被写体に投影する。
ステップS203において、制御部101は、撮像部212を制御し、ステップS202の投影(のラスタスキャン)を含む、ラインスキャン的に設定された露光期間の露光と読み出しにより、上述のパタン画像が投影された被写体の撮像を行わせる。撮像部212は、その制御部101の制御に従って、センシング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。なお、その露光は、露光期間内において被写体にパタン画像が投影されるタイミングで行われる。また、その読み出しのラインスキャンは、イメージング用途の撮像としての読み出しのラインスキャンと重なるようなタイミングにおいて行われる。
ステップS204乃至ステップS207の各処理は、図12のステップS104乃至ステップS107の各処理と同様に実行される。
制御部101は、必要なだけステップS201乃至ステップS207の処理を繰り返し実行する。そして、ステップS207において、測距を終了し、画像処理を終了すると判定された場合、画像処理が終了する。
以上のように画像処理を行うことにより、フレームメモリを必要とせずにより多くの情報を得ることができる。また、第1の実施の形態の場合よりも効率よく露光を行うことができ、第1の実施の形態の場合よりも、より高速な画像の投影に対応することができる。
<4.第3の実施の形態>
<複数投影、単数撮像、複数ライン読み出し>
また第2の実施の形態において、制御部101が、複数の投影部に対して、被写体に画像をラスタスキャンにより投影させるようにしてもよい。このようにすることにより、例えば、複数の測距を行うことができる。つまり、第1の実施の形態や第2の実施の形態の場合と同様、フレームメモリを必要とせずにより多くの情報を得ることができる。
<画像処理装置>
図19は、この場合の画像処理装置100の主な構成例を示すブロック図である。図13に示される例の場合の画像処理装置100は、基本的に図13の場合と同様の構成を有するが、図13の投影部111の代わりに投影部311-1および投影部311-2を有する。以下において、投影部311-1および投影部311-2を互いに区別して説明する必要がない場合、投影部311と称する。
投影部311-1および投影部311-2は、それぞれ、投影部111と同様の処理部であり、ラインスキャンやラスタスキャン等により1ラインずつ画像を投影する。つまり、この場合、画像処理装置100は、2ライン分の画像を並行して投影することができる。以下においては、一例としてラスタスキャンによる投影を例に説明を行うが、上述のように、本技術の投影方法はラスタスキャンに限定されない。
<投影と撮像の制御>
この場合の投影と撮像の様子の例を図20に示す。制御部101は、図20に示されるように投影と撮像が行われるように、各処理部を制御する。つまり、制御部101は、図20の最上段と上から2段目に示されるように、2つの投影部311のそれぞれに対して、ラスタスキャン331-1乃至ラスタスキャン331-3、または、ラスタスキャン332-1乃至ラスタスキャン332-3のように、ラスタスキャン方式で所定の絵柄のパタン画像を被写体に投影させる。
つまり、上述したように、この場合の2つの投影部311は、制御部101の制御に従って、それぞれ、他の投影部311と異なるタイミング、かつ、他の投影部311のラスタスキャンと並行して行われるように(他の投影部311のラスタスキャンと重なるようなタイミングにおいて)、パタン画像の投影としてのラスタスキャンを行う。なお、各投影部311が投影するパタン画像の内容(絵柄等)は、互いに異なるようにしてもよいし、互いに同一であってもよい。例えば、これらの投影部311を用いて、第1の実施の形態において説明したような複数種類のパタン画像が投影されるようにしてもよい。
また、制御部101は、撮像部212に、各投影部311によるパタン画像の投影に対して、露光期間内において被写体にパタン画像が投影されるようなタイミングにおいて、センシング用の撮像としての露光および読み出しを行わせる。
つまり、受光部221は、投影部311-1によるラスタスキャン(例えば、ラスタスキャン331-1乃至ラスタスキャン331-3)を含む露光期間(例えば露光期間333-1乃至露光期間333-3)の終了タイミングにおいて、センシング用途の撮像の画素値を読み出すラインスキャン(例えば、ラインスキャン335-1乃至ラインスキャン335-3)を行う。また、受光部221は、投影部311-2によるラスタスキャン(ラスタスキャン332-1乃至ラスタスキャン332-3)を含む露光期間(露光期間334-1乃至露光期間334-3)の終了タイミングにおいて、センシング用途の撮像の画素値を読み出すラインスキャン(ラインスキャン336-1乃至ラインスキャン336-3)を行う。
このようにすることにより、上述のように、1回の投影に対して、センシング用途の撮像を複数回(例えば2回)行うことができる。つまり、第1の実施の形態の場合と同様にフレームメモリを必要とせずにより多くの情報を得ることができる。
<複数ラインの投影>
なお、以上においては、複数の投影部311を用いて、互いにタイミングが重なる複数のラスタスキャンを実現するように説明したが、このようなラスタスキャンの実現方法は任意である。例えば、同時に複数のラインを走査することができる投影部を用いて実現するようにしてもよい。
例えば、MEMS(Micro Electro Mechanical Systems)に複数のレーザを別角度から照射することにより、複数のレーザ光を互いに異なる位置に照射し、それらのレーザ光を同時に走査する投影部を用いて実現するようにしてもよい。また、例えば、フェーズドアレイ(phased array)を利用して、複数のレーザ光を同時に走査する投影部を用いて実現するようにしてもよい。さらに、例えば、複数ラインの絵柄を表示し、その他のラインの絵柄を非表示(例えば黒)とするパタン画像を用意し、そのパタン画像群を1枚ずつ、画像全体(面)を一斉に投影する面方式で投影する投影部を用いて実現するようにしてもよい。また、例えば、垂直共振器面発光レーザ(VCSEL(Vertical Cavity Surface Emitting LASER))を用いて、このような投影を実現するようにしてもよい。
<パタン画像>
なお、センシング用途の撮像のために投影部111が投影するパタン画像は、第1の実施の形態において説明したように(図8、図9)、どのような画像であってもよい。ただし、本実施の形態の場合、1台の投影部311の1周期内において複数のパタン画像を投影することができる。したがって、第1の実施の形態の場合よりも高速に測距を行うことができる。
<動体判定>
また、本実施の形態の場合も、第1の実施の形態の場合と同様に、動体判定を行うことができる。ただし、本実施の形態の場合、イメージング用途の撮像が行われないので、環境光下の被写体の撮像画像を用いて動体判定を行うことはできない(図10)。ただし、本実施の形態の場合も、第1の実施の形態の場合と同様に、順次投影される、絵柄が互いに同一の一部の領域を有する複数枚のパタン画像のそれぞれの撮像画像を用いて動体判定を行うことができる(図11)。このようにすることにより、1台の投影部311の1周期内において複数のパタン画像を投影することができる。したがって、第1の実施の形態の場合よりも高速に測距を行うことができる。
さらに、各投影周期の複数のパタン画像のそれぞれの撮像画像を足し合わせてSNR(Signal to Noise ratio)を向上させた合成画像同士を周期間で比較することにより、動体判定を行うようにしてもよい。このようにすることにより、より正確に動体判定を行うことができる。
<担当領域分割>
なお、各投影部311が投影するラインが互いに異なるようにしてもよい。例えば、図21のAに示されるように、投影部311-1および投影部311-2が、それぞれ、パタン画像の互いに異なる領域のラインを投影し、受光部221がそれぞれの領域をラインスキャン方式により撮像するようにしてもよい。このようにすることにより、1画面全体の露光時間を短くすることができる。また、領域を分割する際、図21のBに示されるように、スキャン方向を領域毎に変えるようにしてもよい。領域ごとのスキャンの方向を変えることで、領域の境界での投影タイミングをそろえ、画面内の測距情報の時間的連続性を保つことができる。
<画像処理の流れ>
次に、以上のような画像処理装置100により実行される画像処理の流れの例を、図22のフローチャートを参照して説明する。
画像処理が開始されると、制御部101は、ステップS301において、1台の投影部311(例えば投影部311-1)を制御し、第1のラスタスキャンにより第1のセンシング用画像であるパタン画像を投影させる。投影部311-1は、その制御部101の制御に従って、そのパタン画像をラスタスキャンにより投影する。
ステップS302において、制御部101は、撮像部212を制御し、ラインスキャン的に設定された露光期間の露光と読み出しのラインスキャンにより、上述のパタン画像(第1のセンシング用画像)が投影された被写体の撮像を行わせる。撮像部212は、その制御部101の制御に従って、センシング用途の撮像として、このパタン画像が投影された被写体をラインスキャン方式により撮像する。
ステップS303において、制御部101は、1台の投影部311(例えば投影部311-2)を制御し、第1のラスタスキャンと重なるタイミングにおける第2のラスタスキャンにより第2のセンシング用画像であるパタン画像を投影させる。投影部311-2は、その制御部101の制御に従って、そのパタン画像をラスタスキャンにより投影する。
ステップS304において、制御部101は、撮像部212を制御し、ラインスキャン的に設定された露光期間の露光と読み出しのラインスキャンにより、上述のパタン画像(第2のセンシング用画像)が投影された被写体の撮像を行わせる。撮像部212は、その制御部101の制御に従って、センシング用途の撮像として、このパタン画像が投影された被写体をラインスキャン方式により撮像する。
ステップS305において、制御部101は、信号処理部113を制御し、ステップS302およびステップS304のそれぞれのセンシング用途の撮像により得られたセンシング用RAW画像(すなわち複数のRAW画像)からデプス情報を生成する。つまり、信号処理部113は、そのような制御部101の制御に従って、パタン画像が投影された被写体を撮像して得られた画素値からデプス情報を生成する。例えば、各投影部311から互いに異なるパタン画像が投影されるようにすることにより、互いに異なるパタン画像に基づいてデプス情報を求めることができる。また、例えば、各投影部311から互いに同一のパタン画像が投影されるようにすることにより、複数のRAW画像を合成してS/N比を向上させることができる。つまり、単数のRAW画像からデプス情報を生成する場合に比べて、より高精度なデプス情報を生成することができる。
ステップS306において、制御部101は、信号処理部113を制御し、ステップS305において生成したデプス情報を出力する。
ステップS307において、制御部101は、画像処理を終了するか否かを判定する。測距を継続し、画像処理を終了しないと判定された場合、処理はステップS301に戻り、それ以降の処理を実行させる。つまり、制御部101は、上述したステップS301乃至ステップS307の処理を繰り返すことにより、新たなパタン画像または同じパタン画像を再度投影させ、その投影画像を用いて測距を行わせるように各処理部を制御する。
制御部101は、このように、必要なだけステップS301乃至ステップS307の処理を繰り返し実行する。そして、ステップS307において、測距を終了し、画像処理を終了すると判定された場合、画像処理が終了する。
以上のように画像処理を行うことにより、1台の投影部による画像の投影の1周期の間に、センシング用途の撮像を複数回(例えば2回)行うことができる。つまり、第1の実施の形態の場合と同様にフレームメモリを必要とせずにより多くの情報を得ることができる。
<5.第4の実施の形態>
<複数投影、単数撮像、複数ライン読み出し>
第2の実施の形態及び第3の実施の形態においては、撮像部212が2ラインの画素値を並行して読み出すことができるように説明したが、撮像部がさらに多くのラインの画素値を並行して読み出す(複数のラインスキャンを並行して行う)ことができるようにしてもよい。つまり、撮像部が、投影部において並行して行われる投影のラスタスキャンの数よりも多くのラインスキャンを並行して行うことができるようにしてもよい。例えば、第3の実施の形態の画像処理装置100において、撮像部が3ラインの画素値を並行して読み出すことができるようにしてもよい。
このようにすることにより、撮像部は、投影部が並行して行うラスタスキャン方式による複数のパタン画像の投影のそれぞれに対応するセンシング用途の撮像のラインスキャンだけでなく、イメージング用途の撮像のラインスキャンも行うことができる。つまり、フレームメモリを必要とせずに、さらに多くの情報を得ることができる。
<画像処理装置>
図23にこの場合の画像処理装置100の主な構成例を示す。図23に示されるように、この場合の画像処理装置100は、図19の場合と基本的に同様の構成を有するが、図19の撮像部212の代わりに撮像部412を有する。撮像部412は、図19の撮像部212と基本的に同様の処理部であるが、受光部421、ADコンバータ(ADC)422-1、ADコンバータ422-2、およびADコンバータ422-3を有する。以下において、ADコンバータ422-1乃至ADコンバータ422-3を互いに区別して説明する必要がない場合、ADコンバータ422と称する。
受光部421は、基本的に受光部221と同様のデバイスであり、フレームメモリを有しておらず、画素アレイの各画素に蓄積された電荷に相当する電気信号を画素値として3ライン(行)ずつ読み出し、1ラインずつADコンバータ422-1乃至ADコンバータ422-3に供給する。読み出し可能なライン数が3ラインに増えたこと以外、受光部421は受光部221と同様のデバイスである。
ADコンバータ422-1乃至ADコンバータ422-3は、それぞれ、ADコンバータ122と同様の処理部である。ADコンバータ422-1乃至ADコンバータ422-3は、それぞれ、受光部421から1ラインずつ供給される各画素の画素値(電気信号)をA/D変換し、デジタルデータとして信号処理部113に供給する。
つまり、撮像部412は、受光部421において受光して得られた画素値を3ラインずつ読み出すことができる(3ラインの画素値の読み出しを互いに並行して行うことができる)。つまり、撮像部412は、投影部311の数(2)よりも多くのライン数の画素値を並行して読み出すことができる。
<投影と撮像の制御>
この場合の投影と撮像の様子の例を図24に示す。制御部101は、図24に示されるように投影と撮像が行われるように、各処理部を制御する。つまり、制御部101は、図24の最上段に示されるように、一方の投影部311(例えば投影部311-1)に対して、ラスタスキャン430-1乃至ラスタスキャン430-3のように、所定の絵柄のパタン画像をラスタスキャンにより被写体に投影させる。そのラスタスキャンのタイミングから少し遅れたタイミングにおいて、制御部101は、他方の投影部311(例えば投影部311-2)に対して、ラスタスキャン431-1乃至ラスタスキャン431-3のように、所定の絵柄のパタン画像をラスタスキャンにより被写体に投影させる。なお、図24の最上段に示されるように、このような投影部311-1によるラスタスキャンは、投影部311-2によるラスタスキャンと重なるタイミングにおいて行われる。つまり、これらのラスタスキャンは互いに並行に実行することができる。
そして、制御部101は、複数ラインの画素値を並列に読み出し可能な単数の撮像部412に対して、1つの投影部311による投影の1周期の間に、イメージング用途の撮像と複数回のセンシング用途の撮像を行わせる。複数回のセンシング用途の撮像の各回においては、互いに異なる投影部311によりパタン画像が投影された被写体が撮像される。
より具体的には、制御部101は、撮像部412に、上述の投影のラスタスキャンの間に、図24の上から2段目と3段目に示されるように、イメージング用途の撮像としての露光(例えば露光期間434-1乃至露光期間434-4)および読み出し(例えばラインスキャン437-1乃至ラインスキャン437-3)と、1回目のセンシング用途の撮像としての露光(例えば、露光期間432-1乃至露光期間432-3)および読み出し(例えばラインスキャン435-1乃至ラインスキャン435-3)と、2回目のセンシング用途の撮像としての露光(例えば、露光期間433-1乃至露光期間433-3)および読み出し(例えばラインスキャン436-1乃至ラインスキャン436-3)とを行わせる。
このような1回目のセンシング用途の撮像は、1回目の投影が行われた被写体(例えば投影部311-1によりパタン画像が投影された被写体)が撮像されるようなタイミングで行われる。また、2回目のセンシング用途の撮像は、2回目の投影が行われた被写体(例えば投影部311-2によりパタン画像が投影された被写体)が撮像されるようなタイミングで行わせる。さらに、イメージング用途の撮像は、空いている期間(センシング用途の撮像が行われていない期間)を利用して行われる。
以上のように、本実施の形態の場合、フレームメモリを必要とせずに第3の実施の形態の場合よりもさらに多くの情報を得ることができる。
<動体判定1>
この場合も信号処理部113により動体判定を行うことができる。その場合、第1の実施の形態の場合と同様に、イメージング用途の撮像により得られる環境光下の被写体の撮像画像を用いて動体判定を行うようにしてもよいし、順次投影される、絵柄が互いに同一の一部の領域を有する複数枚のパタン画像のそれぞれの撮像画像を用いて動体判定を行うようにしてもよい(図11)。
さらに、複数(例えば「3」枚)のパタン画像のそれぞれの撮像画像を2枚ずつ以上足し合わせてSNR(Signal to Noise ratio)を稼いだ合成画像同士を比較することにより、動体判定を行うようにしてもよい。このようにすることにより、より正確に動体判定を行うことができる。
<動体判定2>
また、ネガポジ反転したパタン画像と、環境光下の被写体の撮像画像とを用いて、以下のような演算を行い、動体判定を行うようにしてもよい。
例えば、投影するパタン画像の1枚であるポジ画像をEpos[x]とし、投影するパタン画像の1枚であるネガ画像をEneg[x]とし、環境光下の被写体の画像をEambient[x]とし、投影されたポジ画像を含む撮像画像をIpos[x]とし、投影されたネガ画像を含む撮像画像をIneg[x]とし、環境光下の被写体の撮像画像をIoff[x]とし、分光反射率をR[x]とする。
この場合、以下の式(1)が成り立つ。
Ipos[x]=(Epos[x]+Eambient[x])・R[x]
Ineg[x]=(Eneg[x]+Eambient[x])・R[x]
Ioff[x]=(Eambient[x]+Eambient[x])・R[x]
・・・(1)
式(1)から環境光成分を除去すると以下の式(2)のようになる。
Ipos[x]-Ioff[x]=Epos[x]・R[x]
Ineg[x]-Ioff[x]=Eneg[x]・R[x]
・・・(2)
式(2)から分光反射率を除去すると以下の式(3)のようになる。
Epos[x]/Eneg[x]=(Ipos[x]-Ioff[x])/(Ineg[x]-Ioff[x])
・・・(3)
式(3)の値が1より大きければPosで白、小さければ黒と判定することができる。このようにすることにより、被写体のテクスチャ(分光反射率)によらず2値の投影画像を求めることができる。
また、式(2)を変化させて、以下の式(4)のようにしてもよい。
Ipos[x]-Ineg[x]=(Epos[x]-Eneg[x])R[x]
・・・(4)
式(4)において、分光反射率は正であるから、Epos[x]-Eneg[x]の符号に基づいてより正確に白黒判定(パタンの判定)を行うことができる。以上のように、これらのような演算に基づいてパタンの判定を行い、その判定結果に基づいて動体判定を行うことにより、より正確に動体判定を行うことができる。
<画像処理の流れ>
次に、以上のような画像処理装置100により実行される画像処理の流れの例を、図25のフローチャートを参照して説明する。
画像処理が開始されると、制御部101は、ステップS401において、撮像部412を制御し、センシング用のラインスキャン読み出しと重なるタイミングのラインスキャン読み出しにより環境光下の被写体の撮像を行わせる。撮像部412は、その制御部101の制御に従って、イメージング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。
ステップS402乃至ステップS406の各処理は、図22のステップS301乃至ステップS305の各処理と同様に実行される。つまり、複数回のセンシング用途の撮像が行われ、得られた複数のセンシング用RAW画像を用いてデプス情報が生成される。
ステップS407乃至ステップS409の各処理は、図12のステップS105乃至ステップS107の各処理と同様に実行される。制御部101は、必要なだけステップS401乃至ステップS409の処理を繰り返し実行する。そして、ステップS409において、測距を終了し、画像処理を終了すると判定された場合、画像処理が終了する。
以上のように画像処理を行うことにより、1台の投影部による画像の投影の1周期の間に、センシング用途の撮像を複数回(例えば2回)行い、さらに、イメージング用途の撮像を行うことができる。つまり、第1の実施の形態の場合と同様にフレームメモリを必要とせずにより多くの情報を得ることができる。
<6.第5の実施の形態>
<単数投影、複数撮像>
また、画像処理装置100が撮像部を複数備えるようにしてもよい。また、その場合、各撮像部の構成が互いに異なるようにしてもよい。例えば、制御部101が、センシング用途の撮像とイメージング用途の撮像を行う撮像部と異なる他の撮像部に、その撮像部のイメージング用途の撮像に同期して、イメージング用途の撮像としての露光および読み出しを行わせるようにしてもよい。このようにすることにより、フレームメモリを必要とせずに、さらに多くの情報を得ることができる。
<画像処理装置>
図26にこの場合の画像処理装置100の主な構成例を示す。図26に示されるように、この場合の画像処理装置100は、図13の場合の構成に加え、さらに、撮像部112を有する。撮像部112は、制御部101に制御されて撮像に関する処理を行う。
<投影と撮像の制御>
この場合の投影と撮像の様子の例を図27に示す。制御部101は、図27に示されるように投影と撮像が行われるように、各処理部を制御する。つまり、制御部101は、図27の最上段に示されるように、投影部111に対して、ラスタスキャン531-1乃至ラスタスキャン531-3のように、ラスタスキャン方式で所定の絵柄のパタン画像を被写体に投影させる。
そして、制御部101は、複数ラインの画素値を並列に読み出し可能な単数の撮像部212を制御し、図27の上から2段目と3段目に示されるように、投影部111による投影の1周期の間に、イメージング用途の撮像と、センシング用途の撮像を行わせる。ここまでは、第2の実施の形態において説明した場合(図14)と同様である。
本実施の形態の場合、さらに、制御部101は、1ラインずつ画素値の読み出しが可能な単数の撮像部112を制御し、図27の上から4段目と5段目に示されるように、撮像部212によるイメージング用途の撮像と同期して(同タイミングにおいて)、イメージング用途の撮像を行わせる。撮像部112は、1ラインずつしか画素値の読み出しができないが、センシング用途の撮像は行われないので、撮像部212と同期してイメージング用途の撮像を行うことができる。
つまり、撮像部212は、制御部101に制御されて、イメージング用途の撮像として、露光期間533-1乃至露光期間533-3において露光し、ラインスキャン535-1乃至ラインスキャン535-3のように画素値を読み出す。
これに同期して、撮像部112は、制御部101に制御されて、イメージング用途の撮像として、露光期間536-1乃至露光期間536-3において露光し、ラインスキャン537-1乃至ラインスキャン537-3のように画素値を読み出す。
さらに、撮像部212は、制御部101に制御されて、センシング用途の撮像として、露光期間532-1乃至露光期間532-3において露光し、ラインスキャン534-1乃至ラインスキャン534-3のように画素値を読み出す。
このようにすることにより、フレームメモリを必要とせずにより多くの情報を得ることができる。
なお、この場合、複数の撮像部において被写体の撮像画像が得られるので、撮像部同士の間の視差を利用して測距を行うこともできる。例えば、遠い被写体は、撮像画像間の視差を利用して測距を行い、近い被写体は、パタン画像を用いて測距を行うようにしてもよい。
なお、以上においては、撮像部112が、イメージング用途の撮像を行うように説明したが、これに限らず、どのような撮像を行うようにしてもよい。
例えば、撮像部112が、可視光(RGB)だけでなく、赤外光(IR)も撮像するようにしてもよい。また、撮像部112が赤外光(IR)のみを撮像するようにしてもよい。
<画像処理の流れ>
次に、以上のような画像処理装置100により実行される画像処理の流れの例を、図28のフローチャートを参照して説明する。
画像処理が開始されると、制御部101は、ステップS501において、撮像部212を制御し、センシング用のラインスキャン読み出しと重なるタイミングのラインスキャン読み出しにより環境光下の被写体の撮像を行わせる。撮像部212は、その制御部101の制御に従って、イメージング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。
ステップS502において、制御部101は、撮像部112を制御し、ステップS501のイメージング用途の撮像のラインスキャンと同じタイミングで環境光下の被写体の撮像を行わせる。撮像部112は、その制御部101の制御に従って、イメージング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。
ステップS503において、制御部101は、投影部111を制御し、センシング用画像であるパタン画像をラスタスキャンにより投影させる。投影部111は、その制御部101の制御に従って、所定のパタン画像をラスタスキャンにより被写体に投影する。
ステップS504において、制御部101は、撮像部212を制御し、ステップS503の投影(のラスタスキャン)を含む、ラインスキャン的に設定された露光期間の露光と読み出しにより、上述のパタン画像が投影された被写体の撮像を行わせる。撮像部212は、その制御部101の制御に従って、センシング用途の撮像としての、ラインスキャン的な露光とラインスキャンの読み出しとを行う。なお、その露光は、露光期間内において被写体にパタン画像が投影されるタイミングで行われる。また、その読み出しのラインスキャンは、イメージング用途の撮像としての読み出しのラインスキャンと重なるようなタイミングにおいて行われる。
ステップS505において、制御部101は、信号処理部113を制御し、ステップS504のセンシング用途の撮像により得られたセンシング用RAW画像と、ステップS501およびステップS502のイメージング用途の撮像により得られた複数のイメージング用RAW画像とから、デプス情報を生成する。デプス情報生成法としては、たとえばステレオマッチングを用いた三角測量などを用いればよい。最終的にはS505ではセンシング用、イメージング用を組み合わせて求めたデプス画像を統合したデプス画像を生成する。
ステップS506において、制御部101は、信号処理部113を制御し、ステップS501やステップS502において得られたイメージング用RAW画像から撮像画像を生成する。例えば、信号処理部113は、そのような制御部101の制御に従って、デモザイク処理等を行って、環境光下の被写体を撮像して得られた画素値から撮像画像を生成する。また、例えば、信号処理部113が、ステップS505のデプス情報を用いて撮像画像を生成するようにしてもよい。このようにすることにより、撮像部212および撮像部112から得られたイメージング用RAW画像の各点の対応関係を求めることができる。また、この対応する2点の画素値を活用し、例えばSNRの向上や、HDR(HighDynamicRange)合成、超解像処理などの処理が行われるようにしてもよい。
ステップS507において、制御部101は、信号処理部113を制御し、ステップS505において生成したデプス情報と、ステップS506において生成した撮像画像とを紐づけて出力する。
ステップS508において、制御部101は、画像処理を終了するか否かを判定する。測距を継続し、画像処理を終了しないと判定された場合、処理はステップS501に戻り、それ以降の処理を実行させる。つまり、制御部101は、上述したステップS501乃至ステップS508の処理を繰り返すことにより、新たなパタン画像または同じパタン画像を再度投影させ、その投影画像を用いて測距を行わせるように各処理部を制御する。
制御部101は、このように、必要なだけステップS501乃至ステップS508の処理を繰り返し実行する。そして、ステップS508において、画像処理を終了すると判定された場合、画像処理が終了する。
以上のように画像処理を行うことにより、1台の投影部111による画像の投影の1周期の間に、撮像部212は、センシング用途の撮像とイメージング用途の撮像とを1回ずつ行い、さらに、撮像部112は、イメージング用途の撮像を行うことができる。つまり、フレームメモリを必要とせずにより多くの情報を得ることができる。
<7.第6の実施の形態>
<画像処理システム>
以上に説明したような画像処理装置100を複数組み合わせて用いるようにしてもよい。例えば、複数の画像処理装置100を制御して、より広範囲を測距および撮像するようにしてもよい。
図29は、本技術を適用した情報処理システムの一実施の形態である画像処理システムの主な構成例を示すブロック図である。図29に示される画像処理システム600は、複数の画像処理装置を用いて、より広範囲を測距するシステムである。図29に示されるように、画像処理システム600は、制御装置601と、画像処理装置602-1乃至画像処理装置602-4とを有する。画像処理装置602-1乃至画像処理装置602-4を互いに区別して説明する必要がない場合、画像処理装置602と称する。
制御装置601は、各画像処理装置602の動作を制御する。画像処理装置602は、上述した画像処理装置100と同様の装置であり、同様の構成を有し、同様の処理を行う。すなわち、画像処理装置602は、イメージング用途の撮像とセンシング用途の撮像とを行い、被写体の撮像画像とその被写体のデプス情報を生成し、それらを紐づけて出力する。
図29に示されるように、制御装置601は、制御部611および通信部612を有する。制御部611は、例えば、CPU、ROM、RAM等により構成され、プログラム等を実行することにより、画像処理装置602の制御に関する処理を行う。制御部611は、通信部612を介して画像処理装置602と通信を行い、それらの制御を行う。通信部612は、各画像処理装置602と有線または無線により通信を行う。
画像処理装置602は、画像処理装置100と同様に処理を行う。つまり、画像処理装置602は、ラスタスキャン方式によりパタン画像を投影したり、ラインスキャン方式により被写体を撮像したりする。制御装置601は、各画像処理装置602のスキャンの方向(投影としてのラスタスキャンや、撮像の読み出しとしてのラインスキャンの方向)を制御する。つまり、制御装置601は、図30に示されるように、画像処理装置602のそれぞれに対して、投影および撮像としてのスキャンを、隣接する他の画像処理装置602と異なる方向に行わせる。
図30において、各四角は、画像処理装置602によるパタン画像の投影の様子の例を示しており、各四角内の矢印は、その投影および撮像のスキャンの方向を示している。つまり、画像処理装置602-1乃至画像処理装置602-4は、スキャンの方向が交互に反転している。
隣接する画像処理装置602同士で、投影のラスタスキャンや撮像のラインスキャンの方向が同一であると、図31の上段に示されるように、それぞれの露光時間が長く重畳してしまうおそれがある。つまり、他の(隣の)画像処理装置602から投影されたパタン画像をより多くのラインで撮像してしまうおそれがある。すなわち、他のパタン画像の影響をより強く受けてしまうおそれがある。
そこで、上述したように、隣接する画像処理装置602同士でスキャン方向を反転させることにより、図31の下段に示されるように、重複する露光期間を短くすることができる。つまり、他の画像処理装置602から投影されたパタン画像による影響を抑制することができ、より正確に測距を行うことができる。
<制御処理の流れ>
このような画像処理システムにおいて制御装置601が実行する制御処理の流れの例を、図32のフローチャートを参照して説明する。
制御処理が開始されると、制御装置601の制御部611は、ステップS601において、各画像処理装置602のスキャン方向を制御し、センシング用画像であるパタン画像の投影位置が隣接する画像処理装置同士でスキャンの向きを反転させる。
ステップS602において、制御部611は、各画像処理装置602に画像処理を行わせ、デプス情報や撮像画像を生成させる。
ステップS603において、制御部611は、通信部612を介して、各画像処理装置602より、デプス情報および撮像画像を取得する。
ステップS603の処理が終了すると制御処理が終了する。
以上のように制御処理を実行することにより、制御装置601は、各画像処理装置602により正確な測距を行わせることができる。すなわち、制御装置601は、より正確なデプス情報を取得することができる。
なお、画像処理システム600を構成する各装置(制御装置601や画像処理装置602)の数は任意であり、図29の例に限定されない。
勿論、画像処理システム600の各装置は、上述した例に限定されず、任意の組み合わせで一体化して1つの装置とすることができる。
<8.その他>
<本技術の適用分野>
本技術は、測距を行うものであれば、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用されるシステム、装置、処理部等に適用することができる。
例えば、本技術は、画像鑑賞やゲーム等の娯楽の用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、交通管理の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、農業の用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、畜産業の用に供されるシステムやデバイスにも適用することができる。さらに、本技術は、例えば火山、森林、海洋等の自然の状態を監視するシステムやデバイスにも適用することができる。また、本技術は、例えば天気、気温、湿度、風速、日照時間等を観測する気象観測システムや気象観測装置に適用することができる。さらに、本技術は、例えば鳥類、魚類、ハ虫類、両生類、哺乳類、昆虫、植物等の野生生物の生態を観測するシステムやデバイス等にも適用することができる。
<ソフトウエア>
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。また、一部の処理をハードウエアにより実行させ、他の処理をソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
図33は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
図33に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
<補足>
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、上述した処理部は、その処理部について説明した機能を有するようにすれば、どのような構成により実現するようにしてもよい。例えば、処理部が、任意の回路、LSI、システムLSI、プロセッサ、モジュール、ユニット、セット、デバイス、装置、またはシステム等により構成されるようにしてもよい。また、それらを複数組み合わせるようにしてもよい。例えば、複数の回路、複数のプロセッサ等のように同じ種類の構成を組み合わせるようにしてもよいし、回路とLSI等のように異なる種類の構成を組み合わせるようにしてもよい。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
なお、本技術は以下のような構成も取ることができる。
(1) 投影部を制御し、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、撮像部を制御し、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせる制御部
を備える情報処理装置。
(2) 前記制御部は、画素値を1ラインずつ読み出し可能な単数の撮像部に前記被写体を撮像させる
(1)に記載の情報処理装置。
(3) 前記制御部は、前記撮像部に、前記パタン画像の投影としての前記スキャンの1周期の間に、イメージング用の撮像としての露光および読み出しと、センシング用の撮像としての露光および読み出しとを行わせる
(2)に記載の情報処理装置。
(4) 前記制御部は、前記撮像部に、露光期間内において前記被写体に前記パタン画像が投影され、かつ、読み出しのラインスキャンが前記イメージング用の撮像としての読み出しのラインスキャンと重ならないようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
(3)に記載の情報処理装置。
(5) 前記イメージング用の撮像により得られた情報に基づいて前記被写体の画像情報を生成し、前記センシング用の撮像により得られた情報に基づいて前記被写体のデプス情報を生成する画像処理部をさらに備える
(4)に記載の情報処理装置。
(6) 前記画像処理部は、前記被写体の画像に基づいて動体判定を行い、前記動体判定結果に基づいて前記被写体のデプス情報を生成する
(5)に記載の情報処理装置。
(7) 前記制御部は、前記投影部に、一部の領域において絵柄が同一の複数の所定のパタン画像を順次投影させ、
前記画像処理部は、前記絵柄が同一の領域に基づいて動体判定を行い、前記動体判定結果に基づいて前記被写体のデプス情報を生成する
(5)に記載の情報処理装置。
(8) 前記制御部は、複数ラインの画素値を並列に読み出し可能な単数の撮像部に前記被写体を撮像させる
(1)乃至(7)のいずれかに記載の情報処理装置。
(9) 前記制御部は、単数の投影部に、前記パタン画像を投影させる
(8)に記載の情報処理装置。
(10) 前記制御部は、前記撮像部に、前記パタン画像の投影としての前記スキャンの1周期の間に、イメージング用の撮像としての露光および読み出しと、センシング用の撮像としての露光および読み出しを行わせる
(9)に記載の情報処理装置。
(11) 前記制御部は、前記撮像部に、露光期間内において前記被写体に前記パタン画像が投影され、かつ、読み出しのラインスキャンが前記イメージング用の撮像としての読み出しのラインスキャンと重なるようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
(10)に記載の情報処理装置。
(12) 前記制御部は、さらに、前記撮像部と異なる他の撮像部に、前記撮像部による前記イメージング用の撮像に同期して、イメージング用の撮像としての露光および読み出しを行わせる
(11)に記載の情報処理装置。
(13) 前記制御部は、前記撮像部に、
前記イメージング用の撮像としての露光および読み出しを複数回行わせ、
露光期間内に前記被写体に前記パタン画像が投影され、かつ、読み出しのラインスキャンが前記イメージング用の撮像としての複数回の読み出しのうちの少なくとも最後の読み出しのラインスキャンと重なるようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
(10)乃至(12)のいずれかに記載の情報処理装置。
(14) 前記制御部は、複数の投影部に、前記パタン画像の投影としての点光源またはライン光源のスキャンを、他の投影部による前記パタン画像の投影としての前記スキャンと重なるようなタイミングにおいて行わせる
(8)乃至(13)のいずれかに記載の情報処理装置。
(15) 前記制御部は、前記撮像部に、各投影部による前記パタン画像の投影に対して、露光期間内において前記被写体に前記パタン画像が投影されるようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
(14)に記載の情報処理装置。
(16) 前記制御部は、さらに、前記撮像部に、イメージング用の撮像としての露光および読み出しを行わせる
(15)に記載の情報処理装置。
(17) 前記投影部および前記撮像部をさらに備える
(1)乃至(16)のいずれかに記載の情報処理装置。
(18) パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせる
情報処理方法。
(19) パタン画像を被写体に投影する点光源またはライン光源のスキャンを行い、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、前記パタン画像の投影としての前記スキャンおよび前記被写体の撮像としての前記ラインスキャンを、隣接する他の画像処理装置と異なる方向に行わせる制御部
を備える情報処理装置。
(20) パタン画像を被写体に投影する点光源またはライン光源のスキャンを行い、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、前記パタン画像の投影としての前記スキャンおよび前記被写体の撮像としての前記ラインスキャンを、隣接する他の画像処理装置と異なる方向に行わせる
情報処理方法。
100 画像処理装置, 101 制御部, 111 投影部, 112 撮像部, 113 信号処理部, 121 受光部, 122 ADコンバータ, 212 撮像部, 222 ADコンバータ, 311 投影部, 412 撮像部, 422 ADコンバータ, 600 画像処理システム, 601 制御装置, 602 画像処理装置, 611 制御部, 612 通信部, 900 コンピュータ

Claims (20)

  1. 投影部を制御し、パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、撮像部を制御し、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせる制御部 を備える情報処理装置。
  2. 前記制御部は、画素値を1ラインずつ読み出し可能な単数の撮像部に前記被写体を撮像させる
    請求項1に記載の情報処理装置。
  3. 前記制御部は、前記撮像部に、前記パタン画像の投影としての前記スキャンの1周期の間に、イメージング用の撮像としての露光および読み出しと、センシング用の撮像としての露光および読み出しとを行わせる
    請求項2に記載の情報処理装置。
  4. 前記制御部は、前記撮像部に、露光期間内において前記被写体に前記パタン画像が投影され、かつ、読み出しのラインスキャンが前記イメージング用の撮像としての読み出しのラインスキャンと重ならないようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
    請求項3に記載の情報処理装置。
  5. 前記イメージング用の撮像により得られた情報に基づいて前記被写体の画像情報を生成し、前記センシング用の撮像により得られた情報に基づいて前記被写体のデプス情報を生成する画像処理部をさらに備える
    請求項4に記載の情報処理装置。
  6. 前記画像処理部は、前記被写体の画像に基づいて動体判定を行い、前記動体判定結果に基づいて前記被写体のデプス情報を生成する
    請求項5に記載の情報処理装置。
  7. 前記制御部は、前記投影部に、一部の領域において絵柄が同一の複数の所定のパタン画像を順次投影させ、
    前記画像処理部は、前記絵柄が同一の領域に基づいて動体判定を行い、前記動体判定結果に基づいて前記被写体のデプス情報を生成する
    請求項5に記載の情報処理装置。
  8. 前記制御部は、複数ラインの画素値を並列に読み出し可能な単数の撮像部に前記被写体を撮像させる
    請求項1に記載の情報処理装置。
  9. 前記制御部は、単数の投影部に、前記パタン画像を投影させる
    請求項8に記載の情報処理装置。
  10. 前記制御部は、前記撮像部に、前記パタン画像の投影としての前記スキャンの1周期の間に、イメージング用の撮像としての露光および読み出しと、センシング用の撮像としての露光および読み出しを行わせる
    請求項9に記載の情報処理装置。
  11. 前記制御部は、前記撮像部に、露光期間内において前記被写体に前記パタン画像が投影され、かつ、読み出しのラインスキャンが前記イメージング用の撮像としての読み出しのラインスキャンと重なるようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
    請求項10に記載の情報処理装置。
  12. 前記制御部は、さらに、前記撮像部と異なる他の撮像部に、前記撮像部による前記イメージング用の撮像に同期して、イメージング用の撮像としての露光および読み出しを行わせる
    請求項11に記載の情報処理装置。
  13. 前記制御部は、前記撮像部に、
    前記イメージング用の撮像としての露光および読み出しを複数回行わせ、
    露光期間内に前記被写体に前記パタン画像が投影され、かつ、読み出しのラインスキャンが前記イメージング用の撮像としての複数回の読み出しのうちの少なくとも最後の読み出しのラインスキャンと重なるようなタイミングにおいて、前記センシング用の撮像としての露光および読み出しを行わせる
    請求項10に記載の情報処理装置。
  14. 前記制御部は、複数の投影部に、前記パタン画像の投影としての点光源またはライン光源のスキャンを、他の投影部による前記パタン画像の投影としての前記スキャンと重なるようなタイミングにおいて行わせる
    請求項8に記載の情報処理装置。
  15. 前記制御部は、前記撮像部に、各投影部による前記パタン画像の投影に対して、露光期間内において前記被写体に前記パタン画像が投影されるようなタイミングにおいて、センシング用の撮像としての露光および読み出しを行わせる
    請求項14に記載の情報処理装置。
  16. 前記制御部は、さらに、前記撮像部に、イメージング用の撮像としての露光および読み出しを行わせる
    請求項15に記載の情報処理装置。
  17. 前記投影部および前記撮像部をさらに備える
    請求項1に記載の情報処理装置。
  18. パタン画像を被写体に投影する点光源またはライン光源のスキャンを行わせ、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行わせる
    情報処理方法。
  19. パタン画像を被写体に投影する点光源またはライン光源のスキャンを行い、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、前記パタン画像の投影としての前記スキャンおよび前記被写体の撮像としての前記ラインスキャンを、隣接する他の画像処理装置と異なる方向に行わせる制御部
    を備える情報処理装置。
  20. パタン画像を被写体に投影する点光源またはライン光源のスキャンを行い、前記パタン画像の投影としての前記スキャンの1周期の間に、前記被写体を撮像する露光およびラインスキャンによる読み出しを複数回行う複数の画像処理装置のそれぞれに対して、前記パタン画像の投影としての前記スキャンおよび前記被写体の撮像としての前記ラインスキャンを、隣接する他の画像処理装置と異なる方向に行わせる
    情報処理方法。
JP2019523441A 2017-06-07 2018-05-24 情報処理装置および方法 Active JP7091326B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017112303 2017-06-07
JP2017112303 2017-06-07
PCT/JP2018/019951 WO2018225517A1 (ja) 2017-06-07 2018-05-24 情報処理装置および方法

Publications (2)

Publication Number Publication Date
JPWO2018225517A1 JPWO2018225517A1 (ja) 2020-04-09
JP7091326B2 true JP7091326B2 (ja) 2022-06-27

Family

ID=64566290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019523441A Active JP7091326B2 (ja) 2017-06-07 2018-05-24 情報処理装置および方法

Country Status (5)

Country Link
US (1) US10863165B2 (ja)
EP (1) EP3637045B1 (ja)
JP (1) JP7091326B2 (ja)
CN (1) CN110709669B (ja)
WO (1) WO2018225517A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021016900A1 (zh) * 2019-07-31 2021-02-04 华为技术有限公司 一种图像传感器和图像感光的方法
JPWO2021193238A1 (ja) * 2020-03-27 2021-09-30
US20230296372A1 (en) * 2020-07-22 2023-09-21 Shanghai Percipio Technology Limited Depth data measuring device and structured light projection unit
CN113916156B (zh) * 2021-12-13 2022-06-24 英特维科技(深圳)有限公司 一种高速高精度三维检测系统及方法
US20240040268A1 (en) * 2022-07-29 2024-02-01 Texas Instruments Incorporated Rgb-ir pixel pattern conversion via conversion engine
JP2024075323A (ja) * 2022-11-22 2024-06-03 オムロン株式会社 計測装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249430A (ja) 2007-03-29 2008-10-16 Nippon Hoso Kyokai <Nhk> 3次元情報検出方法及びその装置
JP2014509730A (ja) 2011-04-01 2014-04-21 株式会社ニコン 形状測定装置、形状測定方法、及び構造物の製造方法
US20140240492A1 (en) 2013-02-28 2014-08-28 Google Inc. Depth sensor using modulated light projector and image sensor with color and ir sensing
JP2017015872A (ja) 2015-06-30 2017-01-19 パナソニックIpマネジメント株式会社 リアルタイム計測投影装置及び三次元投影計測装置
JP2017086485A (ja) 2015-11-10 2017-05-25 キヤノン株式会社 撮像装置及び撮像装置の制御方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0961132A (ja) * 1995-08-28 1997-03-07 Olympus Optical Co Ltd 3次元形状計測装置
JP3867512B2 (ja) * 2000-06-29 2007-01-10 富士ゼロックス株式会社 画像処理装置および画像処理方法、並びにプログラム
US7490774B2 (en) * 2003-11-13 2009-02-17 Metrologic Instruments, Inc. Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein
US20040041996A1 (en) * 2002-08-28 2004-03-04 Fuji Xerox Co., Ltd. Range finder and method
EP1625350A1 (en) * 2003-03-18 2006-02-15 Alexander Thomas Hermary Coded-light dual-view profile scanner
CN101156434B (zh) * 2004-05-01 2010-06-02 雅各布·伊莱泽 具有非均匀图像分辨率的数码相机
US8355581B2 (en) * 2007-03-06 2013-01-15 Advanced Vision Technology (Avt) Ltd. System and method for detecting the contour of an object on a moving conveyor belt
DE102012104282A1 (de) * 2012-05-16 2013-11-21 Isra Vision Ag Verfahren und Vorrichtung zur Inspektion von Oberflächen eines untersuchten Objekts
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US9398287B2 (en) 2013-02-28 2016-07-19 Google Technology Holdings LLC Context-based depth sensor control
CN103438832B (zh) * 2013-08-30 2016-01-20 解则晓 基于线结构光的三维影像测量方法
CA2889281A1 (en) * 2013-09-30 2015-04-02 Vysoka Skola Banska - Technicka Univerzita Ostrava A method of non-contact measuring of outer dimensions of cross sections of metallurgical rod material and a modular frame for performing thereof
JP6618249B2 (ja) * 2014-02-18 2019-12-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 投影システムおよび半導体集積回路
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
US9694498B2 (en) * 2015-03-30 2017-07-04 X Development Llc Imager for detecting visual light and projected patterns
US9909855B2 (en) * 2015-12-30 2018-03-06 Faro Technologies, Inc. Registration of three-dimensional coordinates measured on interior and exterior portions of an object
JP2017215374A (ja) * 2016-05-30 2017-12-07 パナソニックIpマネジメント株式会社 画像投影システムおよび画像投影方法
CN106534632B (zh) * 2016-11-03 2019-03-29 桂林电子科技大学 同步扫描成像系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008249430A (ja) 2007-03-29 2008-10-16 Nippon Hoso Kyokai <Nhk> 3次元情報検出方法及びその装置
JP2014509730A (ja) 2011-04-01 2014-04-21 株式会社ニコン 形状測定装置、形状測定方法、及び構造物の製造方法
US20140240492A1 (en) 2013-02-28 2014-08-28 Google Inc. Depth sensor using modulated light projector and image sensor with color and ir sensing
JP2017015872A (ja) 2015-06-30 2017-01-19 パナソニックIpマネジメント株式会社 リアルタイム計測投影装置及び三次元投影計測装置
JP2017086485A (ja) 2015-11-10 2017-05-25 キヤノン株式会社 撮像装置及び撮像装置の制御方法

Also Published As

Publication number Publication date
EP3637045B1 (en) 2023-05-24
CN110709669A (zh) 2020-01-17
WO2018225517A1 (ja) 2018-12-13
US10863165B2 (en) 2020-12-08
US20200145641A1 (en) 2020-05-07
EP3637045A4 (en) 2021-03-17
JPWO2018225517A1 (ja) 2020-04-09
EP3637045A1 (en) 2020-04-15
CN110709669B (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
JP7091326B2 (ja) 情報処理装置および方法
JP6884741B2 (ja) パルスカラー撮像システムにおける超解像度及び色運動アーチファクト補正
JP6601790B2 (ja) リアルタイム計測投影装置及び三次元投影計測装置
KR20200003858A (ko) 픽셀 단위 이미징을 위한 방법 및 시스템
JP2012215785A5 (ja)
JP7074052B2 (ja) 画像処理装置および方法
JP2006026234A (ja) 生体内撮像装置および生体内撮像システム
WO2017183181A1 (ja) 三次元形状測定装置
US20130258112A1 (en) Visible light and ir hybrid digital camera
JP5096645B1 (ja) 画像生成装置、画像生成システム、方法、およびプログラム
JP6821028B2 (ja) 撮像装置および画像データ読み出し方法
JP2011004068A (ja) 撮像装置
US11074715B2 (en) Image processing apparatus and method
US20130155275A1 (en) Image capturing apparatus, image capturing method, and computer-readable recording medium storing image capturing program
US11109006B2 (en) Image processing apparatus and method
JP2009156704A (ja) 表示パネルの輝度測定装置および輝度測定方法並びに表示装置
JP5520562B2 (ja) 立体形状測定システム及び立体形状測定方法
JP2017138199A (ja) 画像処理装置、撮像装置、および画像処理方法
US20190324261A1 (en) Endoscope device
JP2012198337A (ja) 撮像装置
JP2021127998A (ja) 距離情報取得装置および距離情報取得方法
US9294686B2 (en) Image capture apparatus and image capture method
JP5772251B2 (ja) カメラシステムおよび画像生成方法
JP4764295B2 (ja) 赤外線計測表示装置
JP2017083817A (ja) ズレ量取得装置、撮像装置、およびズレ量取得方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220615

R150 Certificate of patent or registration of utility model

Ref document number: 7091326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150