JP6860433B2 - 処理装置、処理システム、方法及びプログラム - Google Patents

処理装置、処理システム、方法及びプログラム Download PDF

Info

Publication number
JP6860433B2
JP6860433B2 JP2017119800A JP2017119800A JP6860433B2 JP 6860433 B2 JP6860433 B2 JP 6860433B2 JP 2017119800 A JP2017119800 A JP 2017119800A JP 2017119800 A JP2017119800 A JP 2017119800A JP 6860433 B2 JP6860433 B2 JP 6860433B2
Authority
JP
Japan
Prior art keywords
image
blur
color component
filter
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017119800A
Other languages
English (en)
Other versions
JP2019004424A (ja
Inventor
安則 田口
安則 田口
三島 直
直 三島
泰子 山中
泰子 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017119800A priority Critical patent/JP6860433B2/ja
Priority to US15/904,282 priority patent/US20180365849A1/en
Priority to CN201810163791.8A priority patent/CN109151411A/zh
Publication of JP2019004424A publication Critical patent/JP2019004424A/ja
Application granted granted Critical
Publication of JP6860433B2 publication Critical patent/JP6860433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、処理装置、処理システム、方法及びプログラムに関する。
一般的に、撮像装置(カメラ)によって撮像された画像に基づいて、当該撮像装置によって画像が撮像される範囲(以下、撮像範囲と表記)内に存在する被写体までの距離を示す距離情報を取得する技術が知られている。
このような撮像装置によれば、例えばある物体が存在していないときに撮像された画像の距離情報と、その物体が存在して他の物体の位置が変化していない画像の距離情報との差分を利用することによって、撮像範囲内におけるその物体の有無を検出することができる。このため、上記した撮像装置は、例えば監視カメラ等として利用することが可能である。
特開2017−040642号公報 特開2016−042276号公報
しかしながら、上記したように物体の有無を検出する際には、画像から距離情報を計算(取得)する必要がある。そのための計算コストが高い。
そこで、本発明が解決しようとする課題は、物体の有無を検出するための計算コストを低減することが可能な処理装置、処理システム、方法及びプログラムを提供することにある。
実施形態に係る処理装置は記憶部と評価部とを備える。記憶部は、第1画像に含まれる第1色成分の画像のぼけ形状を前記第1画像に含まれる第2色成分の画像のぼけ形状に近づけるように変更する第1ぼけ変更フィルタを第2画像に含まれる前記第1色成分の画像に適用した第3画像と、第4画像と、を記憶する。評価部は、第3画像と第4画像とに基づいて、評価値を算出する。前記第4画像は、前記第1画像に含まれる前記第2色成分の画像、前記第2画像に含まれる前記第2色成分の画像、前記第1画像に含まれる第3色成分の画像のぼけ形状を前記第1画像に含まれる前記第2色成分の画像のぼけ形状に近づけるように変更する第2ぼけ変更フィルタを前記第1画像に含まれる当該第3色成分の画像に適用した画像、または、前記第1ぼけ変更フィルタを前記第1画像に含まれる前記第1色成分の画像に適用した画像のいずれかである
第1の実施形態に係る撮像装置のハードウェア構成の一例を示すブロック図。 フィルタの一例について説明するための図。 第1フィルタ領域及び第2フィルタ領域の透過率特性の一例を表す図。 撮像装置の機能構成の一例を示す図。 前処理の処理手順の一例を示すフローチャート。 R画像について概念的に説明するための図。 B画像について概念的に説明するための図。 R画像のぼけ形状の大きさが距離に応じて変化することを示す図。 G画像のぼけ形状の大きさが距離に応じて変化することを示す図。 B画像のぼけ形状の大きさが距離に応じて変化することを示す図。 画像中のエッジ領域におけるぼけ形状について説明するための図。 R画像のぼけ形状にぼけ変更フィルタを適用する場合について説明するための図。 R画像のぼけ形状及びG画像のぼけ形状を表すぼけ関数の一例を表す図。 距離d1に対応するぼけ変更フィルタの一例を表す図。 距離d2に対応するぼけ変更フィルタの一例を表す図。 距離d3に対応するぼけ変更フィルタの一例を表す図。 評価処理の処理手順の一例を示すフローチャート。 撮像装置が適用される監視システムの機能構成の一例を示すブロック図。 撮像装置が適用される自動ドアシステムの機能構成の一例を示すブロック図。 撮像装置が適用される自動車制御システムの機能構成の一例を示すブロック図。 撮像装置が自動車に設置された状態の一例を示す図。 監視領域について説明するための図。 監視領域について説明するための図。 3D点群に対して監視領域が設定される場合について説明するための図。 3D点群に対して監視領域が設定される場合について説明するための図。 第2の実施形態に係る撮像装置の動作について概念的に説明するための図。 評価処理の処理手順の一例を示すフローチャート。
以下、図面を参照して、各実施形態について説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。図1は、本実施形態に係る撮像装置のハードウェア構成の一例を示すブロック図である。本実施形態に係る撮像装置は、例えばカメラ、カメラ機能を有する携帯電話機、スマートフォン及びPDA(Personal Digital Assistant, Personal Data Assistant)のような携帯情報端末、カメラ機能を有するパーソナルコンピュータ、または各種電子機器に内蔵される組み込みシステムとして実現され得る。
図1に示すように、撮像装置100は、フィルタ10、レンズ20、イメージセンサ30、画像処理部及び記憶部を備える。フィルタ10と、レンズ20と、イメージセンサ30とは、撮像部を構成する。画像処理部は、例えばCPU40等の回路で構成される。記憶部は、例えば不揮発性メモリ50及び主メモリ60で構成される。撮像装置100は、通信I/F70、ディスプレイ80及びメモリカードスロット90等を更に備えていてもよい。例えば、イメージセンサ30、CPU40、不揮発性メモリ50、主メモリ60、通信I/F70、ディスプレイ80及びメモリカードスロット90は、バスを介して相互に接続され得る。
フィルタ10は、例えば撮像装置100の開口部に設けられ、図1において矢印によって表される被写体を撮像するために入射した光(被写体で反射した光)を透過する。
フィルタ10が撮像装置100の開口部に設けられている場合、レンズ20は、当該フィルタ10を透過した光を集光する。
フィルタ10及びレンズ20を透過した光は、イメージセンサ30に到達し、イメージセンサ30によって受光される。イメージセンサ30は、受光した光を電気信号に変換(光電変換)することによって、複数の画素から構成される画像を生成する。以下の説明においては、イメージセンサ30によって生成される画像を便宜的に撮像画像と称する。
なお、イメージセンサ30は、例えばCCD(Charge Coupled Device)イメージセンサ及びCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等により実現される。イメージセンサ30は、例えば赤色(R)の波長領域の光を検出するセンサ(Rセンサ)、緑色(G)の波長領域の光を検出するセンサ(Gセンサ)及び青色(B)の波長領域の光を検出するセンサ(Bセンサ)を有し、それぞれのセンサにより対応する波長領域の光を受光して、各波長領域(色成分)に対応する画像(R画像、G画像及びB画像)を生成する。すなわち、上記した撮像画像には、R画像、G画像及びB画像が含まれる。
CPU40は、撮像装置100の動作を統括的に制御するハードウェアプロセッサである。具体的には、CPU40は、不揮発性メモリ50から主メモリ60にロードされる各種プログラム(ソフトウェア)を実行する。なお、不揮発性メモリ50としては、例えばHDD(Hard Disk Drive)及びNAND型フラッシュメモリ等の書き換え可能な記憶デバイスを用いることができる。また、主メモリ60としては、例えばRAM(Random Access Memory)等が用いられる。
通信I/F70は、例えば外部機器との通信等を制御するインタフェースである。ディスプレイ80は、液晶ディスプレイ及びタッチスクリーンディスプレイ等を含む。メモリカードスロット90は、例えばSDメモリカード及びSDHCメモリカード等の可搬記憶媒体を挿入して利用することができるように構成されている。メモリカードスロット90に記憶媒体が挿入された場合、当該記憶媒体に対するデータの書き込み及び読み出しが実行され得る。
なお、画像処理部と記憶部と、は処理装置を構成する。通信I/F70、ディスプレイ80及びメモリカードスロット90は、処理装置に含まれてもよい。
また、例えばフィルタ10と、レンズ20と、イメージセンサ30と、画像処理部と、記憶部と、が処理システムを構成してもよい。処理システムを構成する一部は、他の部分と無線通信により接続されていてもよい。通信I/F70、ディスプレイ80及びメモリカードスロット90は、処理システムに含まれてもよい。
次に、図2を参照して、フィルタ10の一例について説明する。フィルタ10は、カラーフィルタであり、特定の波長帯の光を透過する。図2に示す例では、フィルタ10は、第1フィルタ領域11及び第2フィルタ領域12を含む。
フィルタ10の中心は、撮像装置100の光学中心13と一致している。第1フィルタ領域11及び第2フィルタ領域12は、それぞれ光学中心13に対して非点対称である形状を有している。第1フィルタ領域11及び第2フィルタ領域12は、重複せず、かつ、フィルタ10の全領域を構成している。
図2に示す例では、第1フィルタ領域11及び第2フィルタ領域12は、それぞれ円形のフィルタ10が光学中心13を通る線分で分割された半円の形状を有している。また、第1フィルタ領域11は、例えばイエロー(Y)のフィルタ領域であり、第2フィルタ領域12は、例えばシアン(C)のフィルタ領域である。この場合、第1フィルタ領域11は、赤色の波長領域の光と緑色の波長領域の光とを透過し、青色の波長領域の光を透過しない。また、第2フィルタ領域12は、緑色の波長領域の光と青色の波長領域の光とを透過し、赤色の波長領域の光を透過しない。
上記したようにフィルタ10は、2以上のカラーフィルタ領域を有する。カラーフィルタ領域の各々は、撮像装置100の光学中心に対して非点対称な形状である。1のカラーフィルタ領域を透過する光の波長領域の一部と、他のカラーフィルタ領域を透過する光の波長領域の一部は、例えば重複する。1のカラーフィルタ領域を透過する光の波長領域は、例えば他のカラーフィルタ領域が透過する光の波長領域を含んでいてもよい。
なお、第1フィルタ領域11と第2フィルタ領域12とは、任意の波長領域の透過率を変更するフィルタ、任意方向の偏光光を通過させる偏光フィルタまたは任意の波長領域の集光パワーを変更するマイクロレンズであってもよい。
以下では、上記した図2に示す第1フィルタ領域11がイエロー(Y)のフィルタ領域であり、第2フィルタ領域12がシアン(C)のフィルタ領域である場合について主に説明する。
ここで、図3は、上記した第1フィルタ領域11及び第2フィルタ領域12の透過率特性の一例を表す。図3においては、可視光の波長領域のうち700nmより長い波長の光に対する透過率は、図示されていないが700nmの場合に近い。図3に示すイエローの第1フィルタ領域11の透過率特性21が示すように、第1フィルタ領域11により、波長領域620nmから750nm程度の赤色及び波長領域が495nmから570nm程度の緑色に対応する光が高い透過率で透過され、波長領域が450nmから495nm程度の青色に対応する光がほとんど透過されない。また、シアンの第2フィルタ領域12の透過率特性22が示すように、第2フィルタ領域12
により、青色及び緑色に対応する波長領域の光が高い透過率で透過され、赤色に対応する波長領域の光がほとんど透過されない。
したがって、赤色の光はイエローの第1フィルタ領域11のみを透過し、青色の光はシアンの第2フィルタ領域12のみを透過する。また、緑色の光は第1フィルタ領域11及び第2フィルタ領域12の両方を透過する。
なお、本実施形態において、「透過する」とは、対応する波長領域の光を高い透過率で透過し、当該波長領域の光の減衰(すなわち、光量の低下)が極めて小さいことを意味する。すなわち、「透過する」とは、対応する波長領域の光の全てを透過する場合のみではなく、当該波長領域を主として透過するような場合をも含むものとする。
また、「透過しない」とは、対応する波長領域の光を遮蔽することであり、例えば当該波長領域の光を低い透過率で透過し、当該フィルタ領域による当該波長領域の光の減衰が極めて大きいことを意味する。すなわち、「透過しない」とは、対応する波長領域の光の全てを透過しない場合のみではなく、当該波長領域を主として透過しないような場合をも含むものとする。
具体的には、第1フィルタ領域11は、赤色及び緑色の波長領域の光を透過し、青色の波長領域の光を透過しないように構成されているが、赤色及び緑色の波長領域の光の全てを透過するものでなくてもよいし、青色の波長領域の光の全てを透過しないものでなくてもよい。同様に、第2フィルタ領域12は、緑色及び青色の波長領域の光を透過し、赤色の波長領域の光を透過しないように構成されているが、緑色及び青色の波長領域の光の全てを透過するものでなくてもよいし、赤色の波長領域の光の全てを透過しないものでなくてもよい。換言すれば、第1フィルタ領域11及び第2フィルタ領域12の透過率特性は、例えば、第1の波長領域の光は主に第1フィルタ領域11を透過し第2フィルタ領域12を透過せず、第2の波長領域の光は主に第1フィルタ領域11を透過せず第2フィルタ領域12を透過し、第3の波長領域の光は第1フィルタ領域11と第2ふぉるた領域12の両方を透過する。
本実施形態に係る撮像装置100は、上記したようなフィルタ10を介して任意の被写体を撮像することによって得られる画像に基づいて、当該撮像装置100から被写体までの距離(デプス)を示す情報(以下、距離情報と表記)を取得することができる。
ここで、撮像装置100が例えば監視カメラ等として利用される場合、撮像装置100においては、当該撮像装置100によって画像が撮像される範囲(以下、撮像範囲と表記)内に不審者等が侵入したことを検出するようなことが求められる。この場合、例えば不審者等の物体が存在していないときに撮像された画像(以下、参照画像と表記)から取得された距離情報と、不審者等の検出対象の物体の有無を検出するために撮像された画像(以下、対象画像と表記)から取得された距離情報とを比較することによって、撮像範囲内における不審者等の物体の有無を検出することができる。
しかしながら、この場合には参照画像及び対象画像の各々から距離情報を計算する必要があり、計算コストが高い。監視カメラでは対象画像が時々刻々と撮像され、ある物体(例えば侵入者)の有無を実時間で検出しなければならない場合が多い。そのため、時々刻々と撮像される対象画像から距離情報を計算するコストが高いのは好ましくない。
それに対し、本実施形態に係る撮像装置100は、撮像範囲内における物体の有無に関する評価値を算出するので、当該物体の有無を検出するための計算コストを低減することができる。
なお、本実施形態において、検出対象の物体は、参照画像にはない物体や参照画像の撮像時から移動した物体であり、人物や動物や車などの乗り物であってもよい。
図4は、本実施形態に係る撮像装置100の機能構成の一例を示す。図4に示すように、撮像装置100は、上述したフィルタ10、レンズ20及びイメージセンサ30に加えて、機能構成部としての画像処理部110を含む。本実施形態において、画像処理部110の一部または全ては、CPU40等のコンピュータにプログラムを実行させること、すなわち、ソフトウェアによって実現されるものとする。コンピュータに実行させるプログラムは、コンピュータ読み取り可能な記憶媒体に格納して頒布されてもよいし、ネットワークを通じて撮像装置100にダウンロードされてもよい。なお、画像処理部110の一部または全ては、IC(Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェア及びハードウェアの組み合わせ構成として実現されてもよい。
イメージセンサ30は、フィルタ10とレンズ20を透過した光を光電変換し、電気信号を画像処理部110に送る。図4においてはフィルタ10とイメージセンサ30の間にレンズ20が設けられる構成が示されているが、レンズ20とイメージセンサ30の間にフィルタ10が設けられてもよいし、レンズ20が複数ある場合には、2つのレンズの間にフィルタ10が設けられてもよい。また、フィルタ10は、レンズ20の内部に設けられていてもよいし、レンズ20の面上に設けられてもよい。すなわち、フィルタ10は、イメージセンサ30がフィルタ10を透過した光を受光して画像を生成することが可能な位置に設けられていればよい。
イメージセンサ30は、第1センサ31、第2センサ32及び第3センサ33を含む。例えば、第1センサ31は赤色の波長領域(色成分)の光を検出するRセンサであり、第2センサ32は緑色の波長領域(色成分)の光を検出するGセンサであり、第3センサ33は青色の波長領域(色成分)の光を検出するBセンサである。
第1センサ31は、検出された赤色の波長領域の光に基づいてR画像を生成する。第2センサ32は、検出された緑色の波長両機の光に基づいてG画像を生成する。第3センサ33は、検出された青色の波長領域の光に基づいてB画像を生成する。
ここで、第2センサ32は、上記したように第1フィルタ領域11及び第2フィルタ領域12の両方を透過した緑色の波長領域の光を検出するため、G画像は、他の画像(R画像及びB画像)より明るく、ノイズの少ない画像となり得る。また、G画像は、フィルタ10が設けられたことにより影響が少ない画像であるといえる。一方、第1センサ31によって生成されるR画像及び第2センサ33によって生成されるB画像は、第1フィルタ領域11及び第2フィルタ領域12の一方のフィルタ領域を透過した光から生成される画像であるため、G画像と異なる。このR画像及びB画像の詳細については後述する。
上記したように第1センサ31、第2センサ32及び第3センサ33によって生成されたR画像、G画像及びB画像を含む撮像画像(撮像装置100によって撮像された画像)は、イメージセンサ30から画像処理部110に対して出力される。
なお、イメージセンサ30から画像処理部110に対して出力される撮像画像には、上記した物体が存在していないときに撮像された画像(参照画像)及びその物体の有無を検出するために撮像された画像(対象画像)が含まれる。参照画像と対象画像の撮像範囲は、少なくとも一部が重複する。参照画像と対象画像の撮像範囲は、例えば、同じである。
図4に示すように、画像処理部110は、取得部111、前処理部112及び評価部113を含む。
取得部111は、上記した参照画像及び対象画像を取得する。参照画像中の物体便宜的に背景と称する。参照画像には、背景のみが写っている。背景には、例えば壁面や、床面や、検出対象でない物体が含まれる。対象画像には、背景のみが写っている場合もあれば、背景に加えて検出対象の物体が写っている場合もある。
前処理部112は、取得部111によって取得された参照画像に含まれるR画像、G画像及びB画像に基づいて、撮像装置100から背景までの距離(以下、背景距離と表記)を算出する。例えば、前処理部112は、参照画像の画素毎に背景距離を算出する。なお、前処理部112による背景距離の算出処理については後述する。
評価部113は、取得部111によって取得された対象画像に含まれるR画像、G画像及びB画像のうちの少なくとも1つの画像及び前処理部112によって算出された背景距離に基づいて、撮像範囲内における物体の有無に関する評価値を算出する。なお、評価部113による評価値の算出処理については後述する。
次に、本実施形態に係る撮像装置100によって実行される処理について説明する。本実施形態に係る撮像装置100によって実行される処理は、主として前処理部112によって実行される前処理と、主として評価部113によって実行される評価処理とを含む。
まず、図5のフローチャートを参照して、上記した前処理の処理手順の一例について説明する。前処理は、上記した物体が存在していないときに撮像された参照画像に対して実行される処理である。
前処理において、前処理部112は、取得部111から参照画像を受け取る(ステップS1)。参照画像は、例えば、R画像、G画像及びB画像を含む。
ここで、図6を参照して、R画像について概念的に説明する。図6の右列と中列はそれぞれ、点光源を被写体として撮像したときにイメージセンサ30上に形成されるG画像、R画像のぼけ形状を表し、左列は、それぞれ撮像装置100を上方向(つまり、フィルタ10の分割方向に平行なY軸の正方向)から見た場合におけるレンズ20及びフィルタ10の組み合わせとイメージセンサ30と被写体の位置関係を示している。
なお、以下の説明においては、撮像装置100においてピントが合う位置(以下、ピント位置と表記)から被写体(背景)までの距離を距離dと称する。なお、距離dは、ピント位置を基準(0)として、被写体の位置がピント位置よりも遠い場合には正の値となり、被写体の位置がピント位置よりも近い場合には負の値となるものとする。
まず、被写体の位置がピント位置よりも遠い、つまり、距離d>0の場合を想定する。この場合、被写体にはピントが合っていないため、図6の上段に示すように、R画像においてもG画像においても、ぼけが生じる。
また、距離d>0の場合のR画像のぼけの形状(以下、単にぼけ形状と表記)201aは、例えば点対称なG画像のぼけ形状202aと比較して右側に偏った非対称な形状となる。G画像のぼけ形状202aが点対称形状なのは、フィルタ10の第1フィルタ領域11と第2フィルタ領域12がほぼ均等に緑(G)色の光を透過させるためである。R画像のぼけ形状201aが非点対称形状(右側に偏った形状)なのは、フィルタ10の第1フィルタ領域11が赤(R)色の光を透過させ、第2フィルタ領域12が赤(R)色の光を透過させないためである。
本実施形態において説明するぼけ形状とは、特定の画素を含む所定の範囲において生じている。以下の説明においても同様である。
なお、ぼけ形状201a及び202aのような点光源を被写体として撮像した像のぼけの形状を表す関数は、点拡がり関数(PSF:Point Spread Function)と称される。ここでは、点拡がり関数をぼけ関数、あるいは、ぼけ形状と表記する。
次に、被写体の位置がピント位置に一致する、つまり、距離d=0の場合を想定する。図6の中段に示すように、この場合のR画像においてもG画像においても、ぼけは生じない。
更に、被写体の位置がピント位置よりも近い、つまり、距離d<0の場合を想定する。この場合、図6の下段に示すように、被写体にはピントが合っていないため、R画像においてもG画像においても、ぼけが生じる。
また、上記したようにR画像は第1フィルタ領域11を主に透過した光に基づいて生成される画像であるが、距離d<0の場合のR画像のぼけ形状201bは、図6の下段に示すように、例えばG画像のぼけ形状202bと比較して左側に偏った形状となる。
すなわち、ぼけ形状201bは、上記したぼけ形状201aと同様に非点対称形状であり、当該ぼけ形状201aをY軸方向に平行な直線を軸にして反転した形状となる。
一方、この場合におけるG画像のぼけ形状202bは、上記したG画像のぼけ形状202aと同様の点対称形状となる。
次に、図7を参照して、B画像について概念的に説明する。図7の右列と中列はそれぞれ、点光源を被写体として撮像したときにイメージセンサ30上に形成されるG画像、B画像のぼけ形状を表し、左列は、それぞれ撮像装置100の上方向(つまり、Y軸の正方向)から見た場合におけるレンズ20及びフィルタ10の組み合わせとイメージセンサ30と被写体の位置関係を示している。なお、図7に示すG画像のぼけ形状については、図6において説明した通りであるため、その詳しい説明を省略する。
まず、被写体の位置がピント位置よりも遠い、つまり、距離d>0の場合を想定する。この場合、被写体にはピントが合っていないため、図7の上段に示すように、B画像においてもG画像においても、ぼけが生じる。
また、上記したようにB画像は、主に第2フィルタ領域12を透過した光に基づいて生成される画像である。このため、距離d>0の場合のB画像のぼけ形状203aは、例えば点対称なG画像のぼけ形状202aと比較して左側に偏った非対称な形状となる。B画像のぼけ形状203aが非点対称形状(左側に偏った形状)なのは、フィルタ10の第1フィルタ領域11のイエロー(Y)が青(B)をほとんど透過させず、第2フィルタ領域12のシアン(C)が青(B)を透過させるためである。
次に、被写体の位置がピント位置に一致する、つまり、距離d=0の場合を想定する。図7の中段に示すように、この場合のB画像においてもG画像においても、ぼけは生じない。
更に、被写体の位置がピント位置よりも近い、つまり、距離d<0の場合を想定する。この場合、図7の下段に示すように、被写体にはピントが合っていないため、B画像においてもG画像においても、ぼけが生じる。
また、距離d<0の場合のB画像のぼけ形状203bは、図7の下段に示すように、例えばG画像のぼけ形状202bと比較して右側に偏った形状となる。
すなわち、ぼけ形状203bは、上記したぼけ形状203aと同様に非点対称形状であり、当該ぼけ形状203aをY軸方向に平行な直線を軸にして反転した形状となる。
上記したようにR画像及びB画像においては、距離dに応じてぼけ形状が変化する。具体的には、R画像のぼけ形状は、距離d>0であればG画像のぼけ形状の左側が欠けた半円形状のような形状(非点対称形状)に変化し、距離d<0であればG画像のぼけ形状の右側が欠けた半円形状のような形状に変化する。一方、B画像のぼけ形状は、距離d>0であればG画像のぼけ形状の右側が欠けた半円形状のような形状(非点対称形状)に変化し、距離d<0であればG画像のぼけ形状の右側が欠けた半円形状のような形状(非点対称形状)に変化する。すなわち、R画像のぼけ形状は、B画像のぼけ形状をY軸方向に平行な直線を軸にして反転した形状となる。
また、図6及び図7においては示されていないが、R画像、G画像及びB画像におけるぼけ形状の大きさ(幅)は、距離|d|に依存する。なお、図8は、R画像のぼけ形状の大きさが距離|d|に応じて変化することを示している。図9は、G画像のぼけ形状の大きさが距離|d|に応じて変化することを示している。図10は、B画像のぼけ形状の大きさが距離|d|に応じて変化することを示している。すなわち、ぼけ形状の大きさは、距離|d|が大きいほど大きく(幅が広く)なる。
なお、上記したぼけ形状は主に画像中のエッジ領域(エッジ部分)に表れる。以下、図11を参照して、画像中のエッジ領域におけるぼけ形状について説明する。
図11においては、画像中の暗色(例えば、黒)と明色(例えば、白)との境界であるエッジ領域210内の画素について説明する。なお、ここでは、撮像装置100(イメージセンサ30)から画像中に含まれる被写体(背景)15までの距離dがピント位置よりも遠い場合(つまり、距離d>0)を想定している。
ここで、エッジ領域210は、左側の暗色の領域210Lと右側の明色の領域210Rとで構成されているものとする。これら暗色の領域210Lと明色の領域210Rとの境界が、エッジ210Eである。もし、フィルタ10が配置されておらずかつピントが合っていてぼけがなかった場合には、R画像、G画像及びB画像中のこれらの領域210L及び210Rにおける画素の位置と画素値との関係220はいずれも先鋭なエッジの形状となる。
しかしながら、実際にはエッジ領域210はフィルタ10の影響を受け、かつ、ピントが合っていないため、ぼけを含む。
例えば、距離dにある被写体のR画像のぼけ関数は、ぼけ関数201aである。距離dにある被写体のR画像には、左側に偏った非点対称なぼけが発生する。領域210L及び210Rにおける画素値にぼけ関数201aを畳み込むとわかる通り、R画像上のエッジ領域210における画素の位置と画素値との関係220Rは、エッジ210Eの左側の第1領域221で大きなぼけが発生し、右側の第2領域222で小さなぼけが発生する。
距離dにある被写体のG画像のぼけ関数は、ぼけ関数202aである。距離dにある被写体のG画像には、点対称なぼけが発生する。領域210L及び210Rにおける画素値にぼけ関数202aを畳み込むとわかる通り、G画像上のエッジ領域210における画素の位置と画素値との関係220Gは、エッジ210Eの左側の第1領域221と右側の第2領域222との両方で大きなぼけが発生する。
距離dにある被写体のB画像のぼけ関数は、ぼけ関数203aである。距離dにある被写体のB画像には、右側に偏った非点対称なぼけが発生する。領域210L及び210Rにおける画素値にぼけ関数203aを畳み込むとわかる通り、B画像上のエッジ領域210における画素の位置と画素値との関係220Bは、エッジ210Eの左側の第1領域221で小さなぼけが発生し、右側の第2領域222で大きなぼけが発生する。
上記したように本実施形態に係る撮像装置100において撮像された画像においては、当該画像中のエッジ領域において、R、G、B画像に応じたぼけ形状が観察される。換言すれば、撮像装置100によれば、ぼけ関数が対称な色成分とぼけ関数が非対称な色成分を含む画像が生成可能である。
再び図5に戻ると、前処理部112は、上記した参照画像(R画像及びG画像)を構成する画素毎に以下のステップS2〜S4の処理を実行する。以下、ステップS2〜S4の処理において対象とされる画素を対象画素と称する。
前処理部112は、上記したステップS1において取得された参照画像に含まれるR画像中の対象画素を含む所定の範囲の画素値を取得する(ステップS2)。
また、前処理部112は、ステップS1において取得された参照画像に含まれるG画像中の対象画素を含む所定の範囲の画素値を取得する(ステップS3)。
なお、ステップS2とステップS3は逆の順番でも良いし、同時でも良い。ステップS2においては、R画像に変えてB画像を使用してもよい。
ステップS2で取得したR画像の所定の範囲に対し、予め用意されている複数の距離dに対応する複数のぼけ変更フィルタをそれぞれ適用し、適用結果がステップS3で取得したG画像の所定の範囲と最も近いぼけ変更フィルタを特定する(ステップS4)。
ステップS4において、図12を参照して、点光源を被写体として撮像したR画像のぼけ形状、すなわち、ぼけ関数にぼけ変更フィルタを適用する場合について説明する。ここでは、図12に示すように、距離d>0の場合のR画像のぼけ関数201aについて説明する。
図12に示すぼけ変更フィルタ301は、上記した第1フィルタ領域11と第2フィルタ領域12とを分割する線の中心点を通り、かつ、当該線に対して垂直なX軸の負方向の直線上(直線付近)にぼけが分布するぼけ関数に相当する。
このようなぼけ変更フィルタ301がR画像のぼけ形状201aに適用された場合には、図12に示すように、R画像のぼけ形状201aがぼけ形状401に変更される。
なお、図12においては1つのぼけ変更フィルタのみについて説明したが、本実施形態においては、上記したように異なる複数の距離dの各々に対応する複数のぼけ変更フィルタが用意されている。
なお、ステップS4において特定されたぼけ変更フィルタに対応する距離dは、撮像装置100から対象画素を含む領域内に存在する背景(例えば、壁面等)までの距離(背景距離)に相当する。
ここで、図13〜図16を参照して、異なる複数の距離dの各々に対応する複数のぼけ変更フィルタについて、点光源を被写体として撮像した場合を例にとって概念的に説明する。
図13のように、R、G画像中の対象画素を含む所定の範囲は、ぼけ関数201a、202aと一致する。そこでこの例では、R、G画像中の対象画素を含む所定の範囲を、ぼけ関数201a、202a、あるいは、ぼけ形状201a、202aと表記する。
図14は、例えば距離d1に対応するぼけ変更フィルタ301aを表す。図15は、例えば距離d2に対応するぼけ変更フィルタ301bを表す。図16は、例えば距離d3に対応するぼけ変更フィルタ301cを表す。なお、ぼけ変更フィルタ301a〜301cは、R画像のぼけ形状201aに適用されるぼけ変更フィルタとして予め用意されている。なお、距離d1、d2及びd3は、d1<d2<d3の関係にあるものとする。
この場合、図13に示すR画像のぼけ関数201aに対して、図13、14、15のぼけ変更フィルタ301a〜301cをそれぞれ適用する、すなわち、畳み込むことにより、3つの変更されたぼけ関数が得られる。これら3つの変更されたぼけ関数のうち、どれが最もG画像のぼけ関数202aに近いかが判定される。近さの評価には、誤差や相関を用いる。誤差の値は、小さいほど近いことを意味する。相関の値は、大きいほど近いことを意味する。誤差の評価手法としては、例えば、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、Color Alignment Measure等が利用される。相関の評価手法としては、例えば、NCC(Nomalized Cross-Correlation)、ZNCC(Zero-mean Nomalized Cross-Correlation)等が利用される。
例えば、図13のぼけ形状201aに図14のぼけ変更フィルタ301aを適用したとしても、変更後のぼけ形状は、G画像のぼけ形状202aとは近くない。
例えば、図13のぼけ形状201aに図15のぼけ変更フィルタ301bを適用した場合、変更後のぼけ形状は、G画像のぼけ形状202aに近い。
例えば、図13のぼけ形状201aに図16のぼけ変更フィルタ301cを適用したとしても、変更後のぼけ形状は、G画像のぼけ形状202aとは近くない。
これによれば、図5に示すステップS4においてはぼけ変更フィルタ301bが特定される。換言すれば、撮像装置100から対象画素を含む領域に存在する被写体までの距離として、ぼけ変更フィルタ301bに対応する距離d2が特定される。
前処理部112は、上記したような処理を実行することにより、撮像装置100から背景(対象画素を含む領域に存在する背景)までの距離dを算出することが可能となる。
上記したような処理が実行されることによって、R画像の対象画素のぼけ関数を、G画像の当該対象画素のぼけ関数に近づけるぼけ変更フィルタ(つまり、対象画素に対応するぼけ変更フィルタ)を特定することができる。換言すれば、参照画像のR画像(第1色成分画像)にここで特定されたぼけ変更フィルタを適用して得られる画像(第4画像)のぼけ形状は、当該R画像のぼけ形状よりも参照画像のG画像(第3色成分画像)のぼけ形状に近くなる。なお、対象画素に対応するぼけ変更フィルタを示す情報は、例えば画像処理部110内において保持される。
再び図5に戻ると、ステップS4の処理が実行された場合、全ての画素について上記したステップS2〜S4の処理が実行されたか否かが判定される(ステップS5)。
全ての画素について処理が実行されていないと判定された場合(ステップS5のNO)、上記したステップS2に戻って処理が繰り返される。この場合、ステップS2〜S4の処理が実行されていない(つまり、ぼけ変更フィルタが特定されていない)画素を対象画素として処理が繰り返される。
一方、全ての画素について処理が実行されたと判定された場合(ステップS5のYES)、図5に示す前処理は終了される。このように前処理が終了されると、画像処理部110内には、R画像を構成する画素の各々について、当該画素に対応するぼけ変更フィルタを示す情報が保持される。
なお、ステップS5においては、全ての画素について処理が実行されたかどうか判定する代わりに、画像の一部について処理が実行されたかどうか判定してもよい。画像の一部は、例えば、ステップS2およびステップS3に用いられた対象画素を含む領域を含む。
なお、図5に示す前処理は、例えば定期的に実行される(つまり、定期的に参照画像が撮像される)ようにしてもよいし、撮像範囲内の環境の変化(例えば、撮像装置100の設置位置が変更される)等に応じて実行されるようにしてもよい。
次に、図17のフローチャートを参照して、上記した評価処理の処理手順の一例について説明する。評価処理は、物体の有無を検出するために撮像された対象画像に対して実行される処理である。
評価処理において、取得部111は、イメージセンサ30によって出力された対象画像を取得する(ステップS11)。ステップS11において取得された対象画像は、R画像、G画像及びB画像を含み、記憶部に記憶される。
次に、評価部113は、上記した対象画像(R画像)を構成する画素毎に以下のステップS12〜S15及びS16〜S19の処理を実行する。以下、ステップS12〜S15、S16〜19の処理において対象とされる画素を対象画素と称する。
上記したように図5に示す処理がR画像(及びG画像)を対象として実行されているため、ここではR画像を対象として処理が実行されるが、この処理の対象となる画像の色成分(第2色成分)の波長範囲は、当該図5に示す処理が実行された画像の色成分(第1色成分)の波長範囲と少なくとも一部が重なっていればよい。
評価部113は、上記したステップS11において取得された対象画像に含まれるR画像中の対象画素を含む所定の範囲を取得する(ステップS12)。
評価部113は、上記した前処理において画像処理部110内において保持された情報(各画素に対応するぼけ変更フィルタを示す情報)に基づいて、対象画素に対応するぼけ変更フィルタを取得する(ステップS13)。
評価部113は、ステップS12において取得されたR画像の所定の範囲に対してステップS13において取得されたぼけ変更フィルタを畳み込む(適用する)(ステップS14)。なお、ぼけ変更フィルタの適用処理については上記した通りであるため、その詳しい説明を省略する。
全ての画素について処理が実行されていないと判定された場合(ステップS15のNO)、上記したステップS12に戻って処理が繰り返される。この場合、ステップS12〜S14の処理が実行されていない画素を対象画素として処理が繰り返される。一方、全ての画素について処理が実行されたと判定された場合(ステップS15のYES)、ステップS16に進む。この場合、R画像の全画素にぼけ変更フィルタが適用された結果の画像が生成されている。このぼけ変更フィルタが適用された結果の画像は記憶部に記憶される。なお、ぼけ変更フィルタが適用された結果の画像とは、上記した参照画像(第1画像)に含まれるR画像(第1色成分画像)のぼけ形状を変更するぼけ変更フィルタ(すなわち、ステップS13において取得されたぼけ変更フィルタ)を対象画像(第2画像)に含まれるR画像(第2色成分画像)に適用した画像(第3画像)である。
評価部113は、R画像の全画素にぼけ変更フィルタが適用された結果の画像中の対象画素を含む所定の範囲を取得する(ステップS16)。所定の範囲は、対象画素のみでも、対象画素を含む複数の画素でも構わない。
評価部113は、対象画像のG画像中の当該対象画素を含む所定の範囲を取得する(ステップS17)。ここで、所定の範囲は、ステップS16と同じ範囲である。
評価部113は、ステップS16で取得した所定の範囲と、ステップS17で取得した所定の範囲とから、評価値を算出する(ステップS18)。ステップS18に示す評価値は、対象画像内に参照画像にはない物体あるいは当該参照画像と異なる位置にある物体があるか否かを示す値である。
全ての画素について処理が実行されていないと判定された場合(ステップS19のNO)、上記したステップS16に戻って処理が繰り返される。この場合、ステップS16〜S18の処理が実行されていない画素を対象画素として処理が繰り返される。一方、全ての画素について処理が実行されたと判定された場合(ステップS19のYES)、評価処理を終了する。このように評価処理が終了されると、対象画像を構成する画素の各々について評価値が算出された状態となる。
なお、ステップS15及びステップS19においては、全ての画素について処理が実行されたかどうか判定する代わりに、画像の一部の領域について処理が実行されたかどうか判定してもよい。画像の一部は、例えば、ステップS12に用いられた所定の範囲を含む。なお、処理が実行される画像の一部の領域は、例えばユーザ等によって指定されてもよいし、他の手法によって指定されてもよい。
ステップS11において取得された対象画像に検出対象の物体が存在していない場合には、対象画像に含まれるR画像及びG画像は、参照画像に含まれるR画像及びG画像と略同一の画像となる。この場合、ステップS16で取得されるぼけ変更フィルタの適用結果である画像の所定の範囲はステップS17において取得されるG画像の所定の範囲と近くなる。
一方、ステップS11において取得された対象画像に検出対象の物体が存在している場合には、参照画像中の対象画素に対して算出される距離は、対象画像中の対象画素に対して算出される距離と異なる場合が多い。この場合、ステップS16で取得されるぼけ変更フィルタの適用結果の所定の範囲はステップS17において取得されるG画像の所定の範囲に近くない場合が多い。
ステップS18で算出される評価値としては、ステップS16で取得されるぼけ変更フィルタの適用結果の所定の範囲とステップS17において取得されるG画像の所定の範囲の近さを評価するものを利用する。具体的には、上述の誤差や相関を利用する。評価値は、デプス変化の評価値であるともいえる。
ここではステップS17において対象画像のG画像が取得され、ステップS18での評価値の算出に利用されるものとして説明したが、参照画像のG画像が取得されてステップS18での評価値の算出に利用されても構わない。この場合においても同様に評価値を算出することが可能である。
算出した評価値が、ステップS16で取得されるぼけ変更フィルタの適用結果の所定の範囲とステップS17において取得されるG画像の所定の範囲とが近くないことを表す画素には、検出対象の物体が存在するとして検出できる。具体的には、評価値が誤差の場合、対象画像を構成する画素の各々について算出された評価値のうち、例えば予め定められた値(以下、閾値と表記)以上の評価値が算出された画素に、検出対象の物体が存在すると判断できる。評価値が相関の場合、閾値以下の評価値が算出された画素に検出対象の物体が存在すると判断できる。なお、検出対象の物体が存在すると判断できた場合には、当該物体が存在する対象画像内の範囲を検出(特定)するようにしてもよい。
このような評価処理は、例えば撮像装置100内の評価部113において実行されてもよいし、撮像装置100外部の機器等において実行されてもよい。検出結果(検出対象の物体が存在するか否か)は、他の機器を制御するために利用されても構わない。また、評価処理において用いられる閾値は、制御対象となる機器に応じて適宜変更(設定)されるようにしてもよい。
図5及び図17に示す処理においては、前処理において参照画像に含まれるR画像の所定の範囲をG画像の所定の範囲に近づけるぼけ変更フィルタを特定し、評価処理において対象画像に含まれるR画像の所定の範囲に当該ぼけ変更フィルタを適用した結果とG画像の所定の範囲とを比較することによって検出対象の物体の有無に関する評価値を算出する。
本実施形態においては、ぼけ変更フィルタが、R画像のぼけ関数をG画像のぼけ関数に近づけるものである例を説明したが、その逆に、G画像のぼけ関数をR画像のぼけ関数に近づけるものが用意されていても構わない。この場合、ぼけ変更フィルタはR画像の所定の範囲にではなく、G画像の所定の範囲に適用する必要がある。また、評価値は、G画像に対するぼけ変更フィルタの結果とR画像の所定の範囲とから計算する必要がある。ぼけ変更フィルタは、少なくとも2の色成分の画像を基に算出されることができる。2の色成分のうちの少なくとも一方の画像のぼけ関数は、例えば非点対称である。他方は点対称であってもよいし、非点対称であってもよい。
本実施形態においては、R、G画像から評価値を算出する例を説明したが、評価値は、G、B画像から算出しても構わない。この場合、それに合わせて取得する画像やぼけ変更フィルタも合わせて変更する必要がある。ぼけ変更フィルタは、B画像のぼけ関数をG画像のぼけ関数に近づけるものでも構わないし、G画像のぼけ関数をB画像のぼけ関数に近づけるものでも構わない。また、評価値は、R、B画像から算出しても構わない。この場合、それに合わせて取得する画像やぼけ変更フィルタも合わせて変更する必要がある。ぼけ変更フィルタは、R画像のぼけ関数をB画像のぼけ関数に近づけるものでも構わないし、B画像のぼけ関数をR画像のぼけ関数に近づけるものでも構わない。すなわち、少なくとも2の色成分の画像を基に評価値は算出されることができる。評価値を算出するのに用いる画像の色成分と、ぼけ変更フィルタを算出するのに用いる画像の色成分とは、同じでなくてもよい。
本実施形態においては、ぼけ変更フィルタが、R画像のぼけ関数をG画像のぼけ関数に近づけるものである例を説明したが、R画像のぼけ関数を距離に応じて変化する所定のぼけ関数に近づけるものと、G画像のぼけ関数を距離に応じて変化するその所定のぼけ関数に近づけるものを利用しても構わない。所定のぼけ関数は、例えば、B画像のぼけ関数、あるいは、シミュレーションで算出した架空の色成分のぼけ関数、フィルタ10を別のものに変更した場合の別の色成分のぼけ関数等である。この場合、例えば、R、G画像のそれぞれに対応するぼけ変更フィルタを適用し、それぞれの適用結果から評価値を算出すると良い。
本実施形態においては、R、G画像の2つの色成分画像を利用する例を説明したが、3つの色成分画像、すなわち、R、G、B画像を利用しても構わない。この場合、R、G、B画像を取得し、例えば、R画像のぼけ関数をG画像のぼけ関数に、G画像のぼけ関数をB画像のぼけ関数に、B画像のぼけ関数をR画像のぼけ関数にそれぞれ近づけるぼけ変更フィルタを用意しておく。評価値としては、R画像に対するぼけ変更結果とG画像から算出した評価値と、G画像に対するぼけ変更結果とB画像から算出した評価値と、B画像に対するぼけ変更結果とR画像から算出した評価値の平均値を利用する。
本実施形態においては、背景距離に対応するぼけ変更フィルタに基づいて評価値を算出することができる。
なお、上記したようにG画像のぼけ関数は点対称形状であるため、前処理において参照画像に含まれるR画像のぼけ関数をG画像のぼけ関数に近づけるぼけ変更フィルタを特定した場合、評価処理においては、対象画像に含まれるR画像の所定の範囲に当該ぼけ変更フィルタを適用した結果が対称性(点対称性または線対称性)を有するか否かに基づいて評価値が算出されるようにしてもよい。前処理においてB画像のぼけ関数をG画像のぼけ関数に近づけるぼけ変更フィルタが特定された場合についても同様である。
ここでは、複数の評価値の算出処理について説明したが、これらの算出処理のうちの少なくとも1つが実行されればよい。また、上記した複数の評価値の算出処理のうちのいくつかの処理を組み合わせて実行しても構わない。
また、本実施形態においては検出対象の物体が存在しない状態で参照画像を予め撮像して前処理を実行するものとして説明したが、当該参照画像は、対象画像よりも前の時刻に撮像した画像、例えば、対象画像の1フレーム前の画像であっても構わない。このような場合であっても、撮像範囲内における検出対象の物体の有無に関する評価値(つまり、デプスの変化の評価値)を算出することができる。
上記したように本実施形態においては、対象画像に含まれる例えばR画像(第1色成分の画像)を取得し、撮像装置100から対象画像中の背景までの距離(背景距離)に対応するぼけ変更フィルタを当該R画像に対して適用した結果に基づいて、撮像範囲における検出対象の物体の有無に関する評価値を算出する。
本実施形態においては、このような構成により、対象画像から検出対象の物体の有無を検出する際に、当該対象画像に基づいて距離情報を計算する処理を実行する必要がないため、計算コストを低減することが可能となる。
なお、本実施形態に係る撮像装置100は、上記したように参照画像に含まれるR画像とG画像またはB画像とに基づいて背景距離を算出することが可能な一種の距離センサとして動作するが、当該背景距離は、例えば他の距離センサ(デプスセンサ)または撮像範囲(背景)内に存在する物体の設計データ等から取得される構成であっても構わない。他の距離センサには、例えばToF(Time of Flight)方式の距離センサ等が含まれる。また、撮像範囲内に存在する物体の設計データには、例えば撮像装置100が設置されるビル(建物)等の設計データ等が含まれる。このような設計データによれば、撮像装置100が設置される位置から撮像範囲内に存在するビルの壁面までの距離等を取得することが可能となる。
また、上記した距離センサまたは撮像範囲内に存在する物体の設計データ等により複数の背景距離を取得することが可能な構成の場合には、当該複数の背景距離の平均値や中央値(メジアン)、最頻値等の代表値に対応するぼけ変更フィルタが取得(特定)される構成とすることも可能である。このような構成によれば、例えば取得された複数の背景距離に含まれるノイズを除去することが可能となる。ノイズとしては、例えば上記した距離センサの測定誤差及び外乱等の影響によるものが想定される。具体的には、例えば図5に示す前処理が10回実行された場合において、当該10回実行された前処理のうちの1の前処理が実行される際に予期しない物体が撮像範囲に存在していた場合には、当該前処理においては適切な背景距離を算出することができず、実際の背景距離に対応するぼけ変更フィルタを特定することができない。しかしながら、このような場合であっても、他の9回の前処理において算出される背景距離により、適切なぼけ変更フィルタを特定することが可能となる。
評価値が誤差に基づいている場合は、評価値が予め定められた値(閾値)以上となる領域内に検出対象の物体が存在することを検出できる。評価値が相関に基づいている場合は、評価値が予め定められた値(閾値)以下となる領域内に検出対象の物体が存在することを検出できる。
この評価処理に用いられる閾値は、画像処理部110に予め保持されている値であってもよいし、ユーザの操作に応じて入力され設定された値であってもよい。閾値は、例えば画像処理部110に接続された表示装置に表示されるスライドバーや入力キーの操作により、画像処理部110の評価部113に入力されることができる。また、この閾値は、検出される物体の種類(人物または物体)等に応じて変更されるものであってもよい。
なお、本実施形態においては、上記したように対象画像における距離(デプス)の変化に応じた評価値を算出することができるため、例えば背景及び検出対象の物体が同系色であり、当該色彩の変化等から検出対象の物体の有無を検出することが困難な場合であっても、当該色彩に影響されることなく検出対象の物体を検出する(精度の高い評価値を算出する)ことが可能となる。
ここで、本実施形態においては、第1フィルタ領域11がイエローのフィルタ領域であり、第2フィルタ領域12がシアンのフィルタ領域であるものとして説明したが、第1フィルタ領域11と第2フィルタ領域12は、例えばイエロー、マゼンタ、シアンのうちの異なる2つの色とすることができる。例えば、第1フィルタ領域11をイエローのフィルタ領域とし、第2フィルタ領域12をマゼンタ(M)のフィルタ領域としてもよい。なお、マゼンタのフィルタ領域は、R画像に対応する赤色の波長領域の光及びB画像に対応する青色の波長領域の光を高い透過率で透過する透過率特性を有する。この場合には、例えば第1フィルタ領域11のみを透過する緑色の波長領域の光から生成されるG画像と、第1フィルタ領域11及び第2フィルタ領域12の双方を透過する赤色の波長領域の光から生成されるR画像とを、上述した図5及び図17等において説明したR画像及びG画像として処理を実行することによって、評価値を算出することができる。
同様に、第1フィルタ領域11をマゼンタのフィルタ領域とし、第2フィルタ領域12をシアンのフィルタ領域としてもよい。この場合には、例えば第1フィルタ領域11のみを透過する赤色の波長領域の光から生成されるR画像と、第1フィルタ領域11及び第2フィルタ領域12の双方を透過する青色の波長領域の光から生成されるB画像とを、上述した図5及び図17等において説明したR画像及びG画像として処理を実行することによって、評価値を算出することができる。
なお、本実施形態においては第1フィルタ領域11及び第2フィルタ領域12の色彩の様々な組み合わせについて説明したが、当該各組み合わせにおいて、第1フィルタ領域11及び第2フィルタ領域12の色彩は入れ替えられても構わない。
また、本実施形態においては、説明の便宜上、フィルタ10が円形状であるものとして説明したが、当該フィルタ10は、撮像装置100の開口部の形状に応じた形状であっても構わない。具体的には、フィルタ10の外周が撮像装置100の絞り羽形状に形成されていてもよいし、フィルタ10が多角形(例えば、六角形及び八角形等)の形状を有していてもよい。
本実施形態に係る撮像装置100は、例えば所定のエリア(監視エリア)を監視する監視システム、自動ドアの開閉を制御する自動ドアシステム、及び自動車の駆動(動作)を制御する自動車制御システム等に適用することができる。
撮像装置100が適用されたシステムにおいて、撮像範囲内における検出対象の物体の有無に関する評価値、または検出対象の物体が存在するか否かの検出結果に基づいて、機器が制御されることができる。
ここで、図18は、本実施形態に係る撮像装置100が適用される監視システム1000の機能構成の一例を示すブロック図である。ここでは、監視システム1000が、例えば監視エリアへの人物の侵入を監視するためのシステムであることを想定する。なお、監視エリアは、通常、人物の侵入が禁止されているエリアであるものとする。
図18に示すように、監視システム1000は、撮像装置100、制御部1001及びユーザインタフェース部1002を有する。撮像装置100及び制御部1001は、例えば有線または無線のネットワーク経由で接続される。
制御部1001は、撮像装置100によって連続的に撮像された監視エリア内の画像を、ユーザインタフェース部1002に表示させる。ユーザインタフェース部1002は、例えばディスプレイ装置等への表示処理を行う。ユーザインタフェース部1002はさらに、キーボードやポインティングデバイス等の入力装置からの入力処理を実行する。ディスプレイ装置と入力装置とは、例えばタッチスクリーンディスプレイ等の一体型のデバイスであってもよい。
ここで、画像処理部110は、算出した評価値に関する信号または検出対象の物体が存在するか否かの検出結果に関する信号を制御部1001に送信する。制御部1001は、信号に基づいてユーザインタフェース部1002を制御するための制御信号をユーザインタフェース部1002へ送信する。これによれば、制御部1001は、例えばユーザインタフェース部1002等を介して監視エリアに人物が侵入したことを監視者に通知する(例えば、警報を発する)処理等を実行することができる。
また、撮像装置100は、評価値が閾値以上の場合、あるいは検出対象の物体が存在することが検出された場合、検出対象の物体(監視エリアに侵入した人物)を精度良く表示するために高い画質で画像を撮像するようにしてもよい。高い画質とは、例えば、画像の解像度が高いこと、あるいは、画像のフレームレートが高いこと、画像圧縮の圧縮率が低いこと等である。また、この場合には、監視者等が後に画像を確認することが想定されるため、検出対象の物体が存在することが検出された画像の位置(フレーム番号)等を記録しておくような構成としてもよい。
図19は、本実施形態に係る撮像装置100が適用される自動ドアシステム1100の機能構成の一例を示すブロック図である。図19に示すように、自動ドアシステム1100は、撮像装置100、制御部1101、駆動機構1102及びドア部1103を有する。
自動ドアシステム1100に適用される撮像装置100は、例えば自動ドアを通過しようとする人物を撮像可能な位置に設置される。評価値または検出結果に関する信号を制御部1101に対して送信する。
制御部1101は、撮像装置100の信号に基づいて、駆動機構1102を制御する。駆動機構1102は、例えばモータを有し、当該モータの駆動をドア部1103に伝達することによって、ドア部1103を開閉したり、開いた状態を維持したり、閉じた状態を維持したりする。
このような自動ドアシステム1100によれば、ドア部1103の近傍に物体(例えば、人物)が存在することが検出された場合にはドア部1103が閉じた状態から開いた状態となるようにドア部1103を駆動することが可能となる。または、ドア部1103の近傍に物体が存在することが検出された場合にはドア部1103が開いた状態のままとなるようにドア部1103を駆動することが可能となる。または、ドア部1103の近傍に物体が存在しないことが検出された場合にはドア部1103が開いた状態から閉じた状態となるようにドア部1103を駆動することが可能となる。または、ドア部1103の近傍に物体が存在しないことが検出された場合にはドア部1103が閉じた状態のままとなるようにドア部1103を駆動することが可能となる。
図20は、本実施形態に係る撮像装置100が適用される自動車制御システム1200の機能構成の一例を示すブロック図である。図20に示すように、自動車制御システム1200は、撮像装置100、制御部1201及び駆動機構1202を有する。図21に示すように、撮像装置100は、例えば自動車の進行方向の物体を撮像するように当該自動車に設置される。なお、自動車の進行方向の物体を撮像するように設置される形態としては、前方を撮像するいわゆるフロントカメラとして設置されるほか、後方を撮像するいわゆるリアカメラとして設置されてもよい。また、撮像装置100は、フロントカメラ及びリアカメラとして2台設置されても構わない。また、撮像装置100は、いわゆるドライブレコーダとしての機能を兼ねて設置されるものであってもよい。すなわち、撮像装置100は、録画機器であってもよい。
この場合、撮像装置100は、評価値に基づいて自動車の前方または後方に人物が存在することが検出された場合、制御部1201に対して評価値または検出結果に関する信号を送信する。
制御部1201は、撮像装置100から出力される信号に基づいて、自動車を動作させる駆動機構1202を制御する。例えば自動車の前方(進行方向)に物体(例えば、人物)が存在する場合には、制御部1201は、例えば自動車を前進させないように駆動機構1202を制御することができる。同様に、例えば自動車の後方に物体(例えば、人物)が存在する場合には、制御部1201は、例えば自動車を後退させないように駆動機構1202を制御することができる。制御部1201は、走行中の自動車の進行方向を変更するように駆動機構1202を制御してもよい。
上記したように撮像装置100が自動車制御システム1200に適用される場合には、例えば自動車が停止した際に参照画像を撮像して前処理を実行しておき、当該自動車が発進するためにエンジンがかけられた際に評価処理が実行されるような構成とすることで、当該自動車の発進時に人物等の物体に衝突してしまうような事態を回避することが可能となる。
なお、撮像装置100が録画機器として利用される場合には、上記した監視システム1000の場合と同様に、撮像装置100は、評価値に基づいて、撮像装置100によって撮像される画像の質を高くするような構成としてもよいし、物体が存在することを検出した画像の位置(フレーム番号)等を記録しておくような構成としてもよい。
ここで、上記した監視システム1000、自動ドアシステム1100及び自動車制御システム1200等においては、撮像装置100において撮像される画像の全ての範囲ではなく、所定の範囲内についてのみ評価値を算出する(物体の有無を判別する)してもよい。この場合には、図22及び図23に示すように、例えば撮像装置100によって撮像された画像1300を表示して、当該画像1300に対して評価値を算出する対象となる領域(以下、監視領域と表記)1301をユーザが入力装置を使って指定(設定)することができるものとする。なお、この監視領域1301の設定は、例えばタブレットコンピュータ等の機器を用いて行うことができるものとする。
この場合、例えば図22に示すように画像1300中には人物が存在しているものの当該人物1302が監視領域1301内に存在しない場合、撮像装置100においては、物体は検出されない。一方、図23に示すように監視領域1301内に人物1302が侵入した場合、撮像装置100においては、物体が検出される。
このような構成によれば、評価値を算出する範囲が限定されるため、当該評価値を算出するための処理量(計算コスト)をさらに低減することが可能となる。
なお、上記した監視領域の設定は、例えば距離センサから取得されるデータ(距離情報)及びRGB画像に対して変換処理を実行することによって得られる3次元(3D)点群(ポイントクラウド)に対して実行されても構わない。この3次元点群は、例えば、撮像装置100によって撮像された画像を回転させて表示することが可能となる。
これにより、ユーザは、例えば図24に示す画像1400上で監視領域1401(基準面)を指定するとともに、当該画像1400とは異なる視点の図25に示す画像1402上で監視領域1403(基準面)を指定することができる。これによれば、ユーザによって指定された監視領域1401及び1403によって特定される三次元領域(範囲)を特定することができる。監視領域1401及び1403は、例えば三次元領域を撮像装置100によって撮像される2次元画像面に投影した領域である。3次元点群に対して監視領域の設定は自由度が高いため、上記した図22及び図23において説明した監視領域1301の設定と比較して、よりユーザの意図する監視領域を設定することが可能となる。なお、監視領域の設定においては、ボクセルが利用されても構わない。
なお、上記したように監視領域を設定することが可能な場合、当該監視領域外に存在する被写体(例えば、人物)に対するプライバシー保護のため、当該監視領域以外の領域(範囲)の少なくとも一部にはプライバシー保護モードが設定される(つまり、監視領域内はプライバシー保護モードが解除される)構成としてもよい。プライバシー保護モードが設定された場合、監視領域以外の領域には、例えば黒色等でマスク処理が施される、または画質を低下させる処理が実行される。
本実施形態に係る撮像装置100は、上述したように画像を撮像する撮像装置と、撮像装置によって撮像された画像に対して上記した図5及び図17に示す処理等を実行する処理装置とを備える処理システムとして実現されても構わない。なお、本実施形態における処理システムは、上記した監視システム、自動ドアシステム及び自動車制御システム等の各種システムを含む。この場合、本実施形態に係る処理システムが監視システムである場合、当該処理システムは、上記した撮像装置と、処理装置と、図18に示す制御部1001及びユーザインタフェース部1002を含む制御装置との3つの装置から構成されても構わない。また、処理システムにおいては、処理装置と制御装置とが一体の装置として構成されていてもよい。他の処理システムについても同様である。
なお、本実施形態においては監視システム、自動ドアシステム及び自動車制御システムについて主に説明したが、本実施形態に係る撮像装置100は、例えばドローン及び各種ロボット等を制御するためのシステムに適用されても構わない。
(第2の実施形態)
次に、第2の実施形態について説明する。本実施形態においては、画像処理部110は、取得部111と前処理部112と評価部113に加えて、第1ぼけ変更部2603と第2ぼけ変更部2604とを備える。なお、本実施形態に係る撮像装置のハードウェア構成、フィルタ及び機能構成は、前述した第1の実施形態と同様であるため、適宜、図1、図2及び図4等を用いて説明する。また、以下の説明においては、前述した第1の実施形態と同様の部分についてはその詳しい説明を省略し、当該第1の実施形態と異なる部分について主に述べる。
本実施形態においては、物体の有無を検出するために撮像された画像に対して実行される評価処理が、前述した第1の実施形態とは異なる。
まず、図26を参照して、本実施形態に係る撮像装置100の動作について概念的に説明する。
本実施形態において、撮像装置100の画像処理部110に含まれる取得部111によって参照画像(検出対象の物体が存在していないときに撮像された画像)1501が取得された場合、前処理部112は、前述した第1の実施形態において説明した前処理を実行する。この前処理が実行されることにより、参照画像に含まれる例えばR画像のぼけ関数をG画像のぼけ関数に近づけるぼけ変更フィルタ2602が各画素で特定される。第1ぼけ変更部2603には参照画像1501とぼけ変更フィルタ2602が入力され、参照画像(第1画像)1501のR画像(第1色成分画像)の各画素にぼけ変更フィルタ2602を適用した適用結果(第4画像)2605が出力される。なお、この適用結果2605は記憶部に記憶される。
一方、取得部111によって対象画像(被写体の有無を検出するために撮像された画像)1502が取得された場合、第2ぼけ変更部2604は、例えば対象画像(第2画像)1502のR画像(第2色成分画像)の各画素にぼけ変更フィルタ2602が適用された適用結果(第3画像)2606を出力する。なお、この適用結果2606は記憶部に記憶される。評価部113には、適用結果2605と適用結果2606が入力され、評価値2608が出力される。評価値2608は、適用結果2605と適用結果2606の誤差や相関に基づく値である。誤差や相関の評価手法としては、上述のものが用いられる。
前述した第1の実施形態においては、例えば対象画像のR画像へのぼけ変更フィルタの適用結果と、参照画像のG画像とから評価値を算出するのに対し、本実施形態において、評価部113は、例えは参照画像のR画像へのぼけ変更フィルタの適用結果2605と、対象画像のR画像へのぼけ変更フィルタの適用結果2606とから評価値2608を算出する。
次に、図27のフローチャートを参照して、本実施形態における評価処理の処理手順の一例について説明する。ここでは、図26を参照した説明と同様にして、適用結果2605が算出済みだとする。
まず、前述した図17に示すステップS11の処理に相当するステップS31の処理が実行される。
次に、第2ぼけ変更部2604は、対象画像(例えばR画像)を構成する画素毎に以下のステップS32〜S34の処理を実行する。なお、ステップS32〜S34の処理は、図17に示すステップS12〜S14の処理に相当する処理である。
ステップS34の処理が実行されると、全ての画素について上記したステップS32〜S34の処理が実行されたか否かが判定される(ステップS35)。
全ての画素について処理が実行されていないと判定された場合(ステップS35のNO)、上記したステップS32に戻って処理が繰り返される。この場合、ステップS32〜S34の処理が実行されていない画素について当該処理が実行される。
一方、全ての画素について処理が実行されたと判定された場合(ステップS35のYES)、ぼけ変更部2604は、R画像を構成する画素の各々を含む所定の範囲にぼけ変更フィルタが適用された適用結果2606が算出される。
次に、評価部113は、適用結果2605と適用結果2606から、前述の評価値を算出する(ステップS36)。
ここで、参照画像1501及び対象画像1502は、フィルタ10を介して撮像された画像であり、上述したように当該画像中のエッジ領域においてぼけが観測される。検出対象の物体が撮像範囲内に存在している状態で対象画像1502が撮像されているものとすると、適用結果2605と適用結果2606とから算出した評価値2608には、当該物体と背景との境界部分(つまり、エッジ領域)の距離(デプス)の違いと、色彩(この例ではR成分)の差分(背景差分)が反映される。第1の実施形態においては距離(デプス)の変化の評価値を算出しているのに対して、本実施形態においては、ぼけ変更フィルタ適用後の参照画像と、ぼけ変更フィルタ適用後の参照画像と同じ色成分の対象画像との色彩における差分をも反映した評価値を算出することができる。
すなわち、前述した第1の実施形態においては背景及び背景にない物体が同系色であるような場合であっても精度の高い評価値を算出することが可能であるが、本実施形態においては、背景及び背景にない物体の色彩に差異があるような場合に精度の高い評価値を算出することが可能となる。
本実施形態においては参照画像のR画像へのぼけ変更フィルタ適用結果と、対象画像のR画像へのぼけ変更フィルタ適用結果とから評価値を算出するものとして説明したが、例えば参照画像のB画像へのぼけ変更フィルタ適用結果と、対象画像のB画像へのぼけ変更フィルタ適用結果とから評価値を算出する構成としてもよい。また、参照画像のG画像へのぼけ変更フィルタ適用結果と、対象画像のG画像へのぼけ変更フィルタ適用結果とから評価値を算出する構成としてもよい。ここで、ぼけ変更フィルタは、例えば、参照画像の当該色成分のぼけ関数を、参照画像の別の色成分のぼけ関数に近づけるものである。すなわち、本実施形態においては、参照画像及び対象画像に含まれる共通の1つの色成分へのぼけ変更フィルタ適用結果同士を比較する構成であってもよい。
また、例えば参照画像に含まれるR画像に対するぼけ変更フィルタの適用結果と、対象画像のG画像に対するぼけ変更フィルタの適用結果とから評価値を算出する構成であってもよい。また、参照画像に含まれるR画像に対するぼけ変更フィルタの適用結果と、対象画像のB画像に対するぼけ変更フィルタの適用結果とから評価値を算出する構成であってもよい。また、参照画像に含まれるG画像に対するぼけ変更フィルタの適用結果と、対象画像のR画像に対するぼけ変更フィルタの適用結果とから評価値を算出する構成であってもよい。また、参照画像に含まれるG画像に対するぼけ変更フィルタの適用結果と、対象画像のB画像に対するぼけ変更フィルタの適用結果とから評価値を算出する構成であってもよい。また、参照画像に含まれるB画像に対するぼけ変更フィルタの適用結果と、対象画像のR画像に対するぼけ変更フィルタの適用結果とから評価値を算出する構成であってもよい。また、参照画像に含まれるB画像に対するぼけ変更フィルタの適用結果と、対象画像のG画像に対するぼけ変更フィルタの適用結果とから評価値を算出する構成であってもよい。ここで、ぼけ変更フィルタは、例えば、参照画像の当該色成分のぼけ関数を、参照画像の別の色成分のぼけ関数に近づけるものである。
また、図27に示す処理においては、R画像に対してのみぼけ変更フィルタが適用されるものとして説明したが、B画像のぼけ関数をG画像のぼけ関数に近づけるぼけ変更フィルタをも特定しておくことで、R画像及びB画像のそれぞれにぼけ変更フィルタを適用して2つの評価値を算出し、その平均値を新たな評価値とする構成とすることも可能である。このような構成によれば、R画像のぼけ形状に対してのみぼけ変更フィルタを適用する場合と比較して、精度の高い評価値を算出することが可能となる。また、G画像のぼけ関数を別の色成分のぼけ関数に近づけるぼけ変更フィルタをも特定しておくことで、R、G、B画像のそれぞれにぼけ変更フィルタを適用して3つの評価値を算出し、その平均値を新たな評価値とする構成とすることも可能である。また、G画像のみはぼけ変更フィルタを適用せずに、R、G、B画像から3つの評価値を算出し、その平均値を新たな評価値とする構成とすることも可能である。
以上述べた少なくとも1つの実施形態によれば、物体の有無を検出するための計算コストを低減することが可能な処理装置、処理システム、方法及びプログラムを提供することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…フィルタ、20…レンズ、30…イメージセンサ、40…CPU、50…不揮発性メモリ、60…主メモリ、70…通信I/F、80…ディスプレイ、90…メモリカードスロット、100…撮像装置(処理装置)、110…画像処理部、111…取得部、112…前処理部、113…評価部、1000…監視システム、1001…制御部、1002…ユーザインタフェース部、1100…自動ドアシステム、1101…制御部、1102…駆動機構、1103…ドア部、1200…自動車制御システム、1201…制御部、1202…駆動機構。

Claims (12)

  1. 第1画像に含まれる第1色成分の画像のぼけ形状を前記第1画像に含まれる第2色成分の画像のぼけ形状に近づけるように変更する第1ぼけ変更フィルタを第2画像に含まれる前記第1色成分の画像に適用した第3画像と、第4画像と、を記憶する記憶部と、
    前記第3画像と前記第4画像とに基づいて、評価値を算出する評価部と、
    を備え、
    前記第4画像は、
    前記第1画像に含まれる前記第2色成分の画像、
    前記第2画像に含まれる前記第2色成分の画像、
    前記第1画像に含まれる第3色成分の画像のぼけ形状を前記第1画像に含まれる前記第2色成分の画像のぼけ形状に近づけるように変更する第2ぼけ変更フィルタを前記第1画像に含まれる当該第3色成分の画像に適用した画像、
    または、前記第1ぼけ変更フィルタを前記第1画像に含まれる前記第1色成分の画像に適用した画像のいずれかである
    処理装置。
  2. 前記第1色成分の画像のぼけ形状と前記第3色成分の画像のぼけ形状のすくなくともいずれかは非点対称である、請求項1に記載の処理装置。
  3. 前記第1画像と前記第2画像は、ぼけ関数が対称な色成分とぼけ関数が非対称な色成分を含む画像を生成可能な撮像部により撮像された、請求項1または2に記載の処理装置。
  4. 前記第1色成分の波長範囲と前記第2色成分の波長範囲は少なくとも一部が重なる、請求項1乃至3のいずれかに記載の処理装置。
  5. 前記評価部は、前記評価値に基づいて、前記第2画像内に、前記第1画像にはない物体あるいは前記第1画像と異なる位置にある物体を検出する請求項1乃至4のいずれかに記載の処理装置。
  6. 前記評価部は、前記第2画像内の指定された領域において前記第1画像にはない物体あるいは前記第1画像と異なる位置にある物体を検出する請求項1乃至5のいずれかに記載の処理装置。
  7. 前記評価部は、前記評価値と閾値とから前記第2画像内の前記第1画像にはない物体あるいは前記第1画像と異なる位置にある物体が存在する範囲を検出する請求項1乃至6のいずれかに記載の処理装置。
  8. 撮像装置と、
    前記撮像装置と接続される処理装置と
    を具備し、
    前記処理装置は、
    第1画像に含まれる第1色成分の画像のぼけ形状を前記第1画像に含まれる第2色成分の画像のぼけ形状に近づけるように変更する第1ぼけ変更フィルタを第2画像に含まれる前記第1色成分の画像に適用した第3画像と、第4画像と、を記憶する記憶部と、
    前記第3画像と前記第4画像とに基づいて、評価値を算出する評価部と、
    を含み、
    前記第4画像は、
    前記第1画像に含まれる前記第2色成分の画像、
    前記第2画像に含まれる前記第2色成分の画像、
    前記第1画像に含まれる第3色成分の画像のぼけ形状を前記第1画像に含まれる前記第2色成分の画像のぼけ形状に近づけるように変更する第2ぼけ変更フィルタを前記第1画像に含まれる当該第3色成分の画像に適用した画像、
    または、前記第1ぼけ変更フィルタを前記第1画像に含まれる前記第1色成分の画像に適用した画像のいずれかである
    処理システム。
  9. 前記評価値に基づいて駆動機構を制御する制御信号を出力する制御部をさらに備える、請求項8に記載の処理システム。
  10. 前記駆動機構は自動車に備えられ、
    前記制御部は、前記自動車を前進させない、後退させないまたは前記自動車の進行方向を変更するように前記駆動機構を制御する、請求項9に記載の処理システム。
  11. 第1画像に含まれる第1色成分の画像のぼけ形状を前記第1画像に含まれる第2色成分の画像のぼけ形状に近づけるように変更する第1け変更フィルタを第2画像に含まれる前記第1色成分の画像に適用した第3画像と、第4画像と、を記憶部に記憶するステップと、
    前記第3画像と前記第4画像とに基づいて、評価値を算出するステップと、
    を備え、
    前記第4画像は、
    前記第1画像に含まれる前記第2色成分の画像、
    前記第2画像に含まれる前記第2色成分の画像、
    前記第1画像に含まれる第3色成分の画像のぼけ形状を前記第1画像に含まれる前記第2色成分の画像のぼけ形状に近づけるように変更する第2ぼけ変更フィルタを前記第1画像に含まれる当該第3色成分の画像に適用した画像、
    または、前記第1ぼけ変更フィルタを前記第1画像に含まれる前記第1色成分の画像に適用した画像のいずれかである
    方法。
  12. 記憶部を備える処理装置のコンピュータによって実行されるプログラムであって、
    前記コンピュータに、
    第1画像に含まれる第1色成分の画像のぼけ形状を前記第1画像に含まれる第2色成分の画像のぼけ形状に近づけるように変更する第1ぼけ変更フィルタを第2画像に含まれる前記第1色成分の画像に適用した第3画像と、第4画像と、を前記記憶部に記憶するステップと、
    前記第3画像と前記第4画像とに基づいて、評価値を算出するステップと、
    を実行させ、
    前記第4画像は、
    前記第1画像に含まれる前記第2色成分の画像、
    前記第2画像に含まれる前記第2色成分の画像、
    前記第1画像に含まれる第3色成分の画像のぼけ形状を前記第1画像に含まれる前記第2色成分の画像のぼけ形状に近づけるように変更する第2ぼけ変更フィルタを前記第1画像に含まれる当該第3色成分の画像に適用した画像、
    または、前記第1ぼけ変更フィルタを前記第1画像に含まれる前記第1色成分の画像に適用した画像のいずれかである
    プログラム。
JP2017119800A 2017-06-19 2017-06-19 処理装置、処理システム、方法及びプログラム Active JP6860433B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017119800A JP6860433B2 (ja) 2017-06-19 2017-06-19 処理装置、処理システム、方法及びプログラム
US15/904,282 US20180365849A1 (en) 2017-06-19 2018-02-23 Processing device and processing system
CN201810163791.8A CN109151411A (zh) 2017-06-19 2018-02-27 处理装置以及处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017119800A JP6860433B2 (ja) 2017-06-19 2017-06-19 処理装置、処理システム、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019004424A JP2019004424A (ja) 2019-01-10
JP6860433B2 true JP6860433B2 (ja) 2021-04-14

Family

ID=64658267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017119800A Active JP6860433B2 (ja) 2017-06-19 2017-06-19 処理装置、処理システム、方法及びプログラム

Country Status (3)

Country Link
US (1) US20180365849A1 (ja)
JP (1) JP6860433B2 (ja)
CN (1) CN109151411A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019015575A (ja) 2017-07-05 2019-01-31 株式会社東芝 画像処理装置、測距装置および処理システム
WO2019031291A1 (ja) * 2017-08-10 2019-02-14 日本精機株式会社 車両用表示装置
KR102423295B1 (ko) * 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법
JP6878219B2 (ja) 2017-09-08 2021-05-26 株式会社東芝 画像処理装置および測距装置
JP6859907B2 (ja) 2017-09-08 2021-04-14 トヨタ自動車株式会社 車両制御装置
EP3803773B1 (en) * 2018-05-24 2024-09-04 International Electronic Machines Corp. Sensitive area management
CN110286975B (zh) * 2019-05-23 2021-02-23 华为技术有限公司 一种前景元素的显示方法和电子设备
WO2021112179A1 (ja) * 2019-12-04 2021-06-10 パイオニア株式会社 記憶制御装置、制御方法、プログラム及び記憶媒体
JP7528438B2 (ja) * 2019-12-26 2024-08-06 日本電気株式会社 データ圧縮装置、モデル生成装置、データ圧縮方法、モデル生成方法及びコンピュータプログラム
EP4068170A1 (en) * 2021-03-29 2022-10-05 Nokia Technologies Oy Apparatus, methods and computer programs for calibrating machine learning systems

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4453734B2 (ja) * 2007-09-21 2010-04-21 ソニー株式会社 画像処理装置、画像処理方法、及び画像処理プログラム、並びに撮像装置
JP5357668B2 (ja) * 2009-08-26 2013-12-04 パナソニック株式会社 侵入者検知装置
EP2748797B1 (en) * 2011-09-28 2015-03-04 Koninklijke Philips N.V. Object distance determination from image
JP6608763B2 (ja) * 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置
JP6699897B2 (ja) * 2016-11-11 2020-05-27 株式会社東芝 撮像装置、自動制御システム及びシステム

Also Published As

Publication number Publication date
US20180365849A1 (en) 2018-12-20
CN109151411A (zh) 2019-01-04
JP2019004424A (ja) 2019-01-10

Similar Documents

Publication Publication Date Title
JP6860433B2 (ja) 処理装置、処理システム、方法及びプログラム
KR102010228B1 (ko) 화상처리장치, 화상처리방법, 및 프로그램
US9918065B2 (en) Depth-assisted focus in multi-camera systems
US10145994B2 (en) Lens device and image capturing device for acquiring distance information at high accuracy
JP6699898B2 (ja) 処理装置、撮像装置、及び自動制御システム
JP5450380B2 (ja) 画像処理装置、集積回路、および画像処理方法
CN109194877B (zh) 图像补偿方法和装置、计算机可读存储介质和电子设备
JP6699897B2 (ja) 撮像装置、自動制御システム及びシステム
JP5843454B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2018077190A (ja) 撮像装置及び自動制御システム
US20170111557A1 (en) Camera assembly with filter providing different effective entrance pupil sizes based on light type
US20180137607A1 (en) Processing apparatus, imaging apparatus and automatic control system
US10984550B2 (en) Image processing device, image processing method, recording medium storing image processing program and image pickup apparatus
US10277888B2 (en) Depth triggered event feature
EP3654236A2 (en) Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
JP2015072324A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2019015575A (ja) 画像処理装置、測距装置および処理システム
US8929685B2 (en) Device having image reconstructing function, method, and recording medium
CN108259722A (zh) 成像方法、装置及电子设备
JP2016019155A5 (ja) 通信装置およびその制御方法、並びにプログラム
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
JP7021036B2 (ja) 電子機器及び通知方法
JP2012107943A (ja) 対象識別装置及び対象識別方法
JP7263493B2 (ja) 電子機器及び通知方法
KR20140091117A (ko) 촬영 장치 및 촬영 장치의 라이브 뷰 표시 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210326

R151 Written notification of patent or utility model registration

Ref document number: 6860433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151