JP6371553B2 - 映像表示装置および映像表示システム - Google Patents

映像表示装置および映像表示システム Download PDF

Info

Publication number
JP6371553B2
JP6371553B2 JP2014066268A JP2014066268A JP6371553B2 JP 6371553 B2 JP6371553 B2 JP 6371553B2 JP 2014066268 A JP2014066268 A JP 2014066268A JP 2014066268 A JP2014066268 A JP 2014066268A JP 6371553 B2 JP6371553 B2 JP 6371553B2
Authority
JP
Japan
Prior art keywords
image
feature amount
video display
overhead
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014066268A
Other languages
English (en)
Other versions
JP2015192198A (ja
Inventor
樋口 晴彦
樋口  晴彦
中嶋 満雄
満雄 中嶋
吉孝 内田
吉孝 内田
中村 浩之
浩之 中村
勝夫 小野崎
勝夫 小野崎
崇之 塩屋
崇之 塩屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2014066268A priority Critical patent/JP6371553B2/ja
Priority to US15/125,719 priority patent/US20170006234A1/en
Priority to EP15769792.1A priority patent/EP3125544A4/en
Priority to PCT/JP2015/050892 priority patent/WO2015146230A1/ja
Priority to CN201580006815.3A priority patent/CN105960800A/zh
Publication of JP2015192198A publication Critical patent/JP2015192198A/ja
Application granted granted Critical
Publication of JP6371553B2 publication Critical patent/JP6371553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Description

本発明は、映像表示装置の技術に関する。
本技術分野の背景技術として、特開2009−289185号公報(特許文献1)がある。この公報には、「共通視野を各々が部分的に有するK個(K:2以上の整数)のカメラを指定する指定手段、前記指定手段によって指定されたK個のカメラからそれぞれ出力されたK個の被写界像を前記K個のカメラの各々に割り当てられた重みを参照して合成する合成手段、動的立体物が前記共通視野に存在する否かを前記指定手段の指定処理に関連して判別する判別手段、前記判別手段の判別結果が否定的であるとき前記K個のカメラの重みを既定要領で制御する第1制御手段、前記判別手段の判別結果が肯定的であるとき前記動的立体物までの距離の縮小量を前記K個のカメラの各々について算出する算出手段、および前記算出手段によって算出された縮小量に基づいて前記K個のカメラの重みを制御する第2制御手段を備える、画像処理装置」と記載されている。
特開2009−289185号公報
上記技術に係る重み付けの合成手法では、障害物の画像部分については、一方のカメラの画像の重み付けを0か1かの2値で選択する手法のみしか開示されていない。この手法では、障害物の画像と背景画像の分離処理を失敗すると、非常に不自然な合成画像が生成されることとなるため、障害物の画像と背景画像を非常に高い精度で分離する必要があり、処理量の要求やハードウェア能力の要求が高い。
本発明は、立体物の存在を容易に、かつ精度よく検出し、俯瞰画像に反映させることを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明に係る映像表示装置は、少なくとも2つの異なる視点から共通領域を撮影した画像の俯瞰画像について上記俯瞰画像上での立体物の存在に関する所定の特徴量を上記視点の位置と上記共通領域との位置関係に基づき検出する条件を特定する特徴量検出条件特定部と、特定された上記特徴量検出条件を用いて、上記共通領域を撮影した画像の各俯瞰画像について上記特徴量を検出する特徴量検出部と、上記特徴量検出部により検出される特徴量に応じて、上記異なる視点から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、上記ブレンド率特定部により特定されたブレンド率に応じて上記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、を備えることを特徴とする。
本発明によると、立体物の存在を容易に、かつ精度よく検出し、俯瞰画像に反映させることができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施形態に係る映像表示装置の構成例を示す図である。 映像表示装置のハードウェア構成例を示す図である。 映像表示装置の使用状況の例を示す図である。 映像表示装置による出力例を示す図である。 映像表示装置による特徴量の検出処理の概要を示す図である。 特徴量検出条件記憶部に格納されるデータ構造を示す図である。 ブレンド情報記憶部に格納されるデータ構造を示す図である。 特徴量の走査方向と画像の回転量の関係を示す図である。 同心円上の特徴量の走査方向とその実現手段の例を示す図である。 ブレンド率決定処理の処理フローを示す図である。 特徴量を基準にブレンドして俯瞰画像を合成する画面例を示す図である。 画像を選択して俯瞰画像を合成する画面例を示す図である。 経時に伴う立体物の変化に応じたブレンド率の変化の例を示す図である。 映像表示装置による撮影対象の領域の設定例を示す図である。
以下に、本発明に係る実施形態を適用した映像表示装置100およびこれを含む映像表示システム1の例について、図面を参照して説明する。
図1は、本発明に係る第一の実施形態を適用した映像表示装置100の構成例を示す図である。映像表示装置100は、制御部110と、記憶部120と、カメラ制御部130と、を含んで構成される。映像表示装置100は、利用者に対して、俯瞰画像を提示する端末である。例えば、映像表示装置100は、典型的にはナビゲーション装置や車両制御装置等であって、車両の周囲を撮影した画像を用いて、上空から見下ろしたような俯瞰画像を提示する装置である。しかし、これに限らず、パーソナルコンピューター装置、携帯電話端末、タブレット端末、PDA(Personal Digital Assistant)等の電子情報端末であってもよい。
制御部110は、映像表示装置100の基本的な制御を行う。例えば、制御部110は、映像表示装置100全体の電源管理、オペレーティングシステムによる各種装置の制御やタスク管理等のスーパーバイザ機能等を担う。さらに、制御部110には、特徴量検出条件特定部111と、特徴量検出部112と、ブレンド率特定部113と、俯瞰画像合成部114と、が含まれる。特徴量検出条件特定部111は、画像の特徴量を検出するために適切な条件を特定する。なお、後述するが、特徴量検出条件には、例えば、特徴量をより精度高く検出するために画像の走査方向を詳細に特定する情報等が含まれる。
特徴量検出部112は、画像に関して、所定の特徴量を検出する。具体的には、特徴量には、立体物が画面上に占める面積の割合等が含まれる。
ブレンド率特定部113は、共通する領域を異なる視点位置から撮影した複数の画像を合成して俯瞰画像を生成する際に用いる各画像間のデータの重み付けを特定する。具体的には、ブレンド率特定部113は、各画像間の特徴量に相関がみられるか否か、各画像間の特徴量がみられる領域が共通する領域内の同位置を含むか否か、等に応じてブレンド率を特定する。
俯瞰画像合成部114は、共通する領域を撮影した複数の画像を、ブレンド率特定部113が特定したブレンド率に応じて画素をブレンドすることで、俯瞰画像を合成出力する。
記憶部120には、特徴量検出条件記憶部121と、ブレンド情報記憶部122と、が含まれる。
特徴量検出条件記憶部121には、撮影される領域を特定する情報と、該領域を撮影する視点位置と、の組み合わせに応じて、特徴量を検出する際に適用する条件が格納されている。特徴量検出条件記憶部121の詳細な説明は、後述する図7の説明において行う。
ブレンド情報記憶部122には、撮影される領域を特定する情報と、該領域を撮影する視点位置間のブレンド率の情報と、が格納されている。ブレンド情報記憶部122の詳細な説明は、後述する図8の説明において行う。
カメラ制御部130は、映像表示装置100に画像を提供可能なカメラに対して、撮影の開始および終了を含む各種制御を指示し、カメラから出力される画像を取得する。以上が、映像表示装置100の構成の概要である。
図2は、本発明に係る第一の実施形態を適用した映像表示装置100およびこれを含む映像表示システム1のハードウェア構成例を示す図である。
映像表示システム1には、映像表示装置100と、カメラ群101と、ディスプレイ108と、が含まれる。カメラ群101には、第1カメラから第n(nは整数)カメラまで、複数のカメラが含まれる。映像表示システム1は、典型的には、車両に搭載された複数(n個)のカメラで車両周囲の画像を撮影し、映像表示装置100により各カメラの撮影画像を合成し、ディスプレイ108により車両の周囲の俯瞰画像を表示する。なお、カメラ群101には、可視光を中心に撮像可能なカメラに限らず、例えば赤外線に感度領域を有し、画像として出力する暗視カメラ等のカメラが含まれるものであってもよい。
映像表示装置100は、一つ又は複数のデコード部を含むデコード部群102と、CPU(Central Processing Unit)104と、メモリ105と、補助記憶装置106と、エンコード部107と、を備える。カメラ群101を構成する各カメラから送信された画像は、それぞれ対応するデコード部を有するデコード部群102にてデコード処理され、バス103を介してメモリ105に蓄積される構成を備える。また、メモリ105に蓄積された各カメラからの撮影画像は、CPU104により合成処理が行われ、車両の周囲の俯瞰画像を生成するのに用いられる。そして、合成された俯瞰画像は、エンコード部107によりエンコードされてディスプレイ108にて再生処理される。
また、上述した特徴量検出条件特定部111と、特徴量検出部112と、ブレンド率特定部113と、俯瞰画像合成部114と、カメラ制御部130とは、CPU104により実現される。また、特徴量検出条件記憶部121と、ブレンド情報記憶部122とは、補助記憶装置106およびメモリ105により実現される。
その他にも、CPU104は、例えば、視野角が所定以上広い広角のカメラにより得た画像に対して、光学系により発生する歪の補正処理および透視変換処理を行い、カメラ毎の画像を用いて俯瞰画像の一部を構成する元となる画像を作成する。また、CPU104は、それらの俯瞰画像の切り出し、合成、アルファブレンド処理等の処理を行い、車両の周囲全体の俯瞰画像を生成する処理を担う。
また、CPU104はさらに、撮影画像データに対し、エッジ抽出、輪郭抽出、ガウシアン処理、ノイズ除去処理、閾値処理などの各種画像処理を行い、道路に描かれた白線、障害物、歩行者等の有無と、それらの写っている面積の大きさの検出処理をも行う。
エンコード部107は、生成された俯瞰画像のエンコード処理を行う。ディスプレイ108は、映像表示装置100から出力された俯瞰画像を表示させる。ディスプレイ108は、例えばLCD(Liquid Crystal Display)等であるが、種類をこれに限定するものではなく、CRT(Cathode Ray Tube)、LCOS(Liquid Crystal On Silicon)、OLED(Organic light−emitting diode)、ホログラフィック光学素子やプロジェクタ装置など任意である。また、平面型のモニタのみでなく、HUD(Head−Up Display)、HMD(Head Mounted Display)などであっても良い。
図3は、映像表示装置の使用状況の例を示す図である。当該使用状況においては、車両200に設置された複数のカメラで同一の被写体205を撮影した画像の例が示されている。また、本例は、車両200には、前方カメラ201、左サイドカメラ202、後方カメラ203、右サイドカメラ204が設置されており、車両200の左斜め前方に歩行者(被写体205)が歩いて来た状況を示している。
この状況において、車両200に進行方向前方に向けて取り付けられた前方カメラ201で撮影され俯瞰画像に変換された画像が正面画像206であり、左サイドカメラ202で撮影され俯瞰画像に変換された画像が左側面画像207である。前方カメラ201および左サイドカメラ202は、鉛直下向き方向に所定の角度だけ傾けることで、斜め下(地面方向)の視野角を確保するように取り付けられている。なお、図示していないが、後方カメラ203で撮影され俯瞰画像に変換された画像は、背面画像として、また、右サイドカメラ204で撮影され俯瞰画像に変換された画像は、右側面画像として生成されることは、言うまでもない。
この例においては、被写体(歩行者)205の足部分が、それぞれ正面画像206においては正面足画像205aとして、左側面画像207においては左側面足画像205bとして、含まれている。
一般に、俯瞰画像を生成する処理においては、カメラで撮影される画像に対し、画像端部に生じるレンズ歪の補正処理と、奥行きの距離に応じて拡大率を変化させる透視変換を行う。そのため、俯瞰画像において立体物は伸びたように歪んで写ってしまい、前方カメラ201で撮影された正面画像206においては、正面足画像205aのように前方カメラ201から出ている矢印の方向に伸びて表示される。同様に、左サイドカメラ202で撮影された左側面画像207においては、左側面足画像205bのように左サイドカメラ202から出ている矢印の方向に伸びて表示される。つまり、本来は同一の被写体である被写体(歩行者)205は、俯瞰画像においてはカメラの視点位置の違いにより異なる向きに伸びる正面足画像205a、左側面足画像205bとして表示されてしまう。これは、被写体である被写体(歩行者)205が立体物であるために生じる現象である。被写体が立体物でない場合、例えば白線208のように道路上に描かれた平面状の絵柄の場合には、俯瞰画像中の白線208a、白線208bのように、俯瞰画像においても形状に差がなく撮影され、位置を合わせれば重ねることも可能となる。
すなわち、異なる方向から同一の被写体を撮影し俯瞰画像に変換すると、2つの画像を比較して異なる方向に形状が伸びるという特徴が検出される場合には、立体物が存在すると考えられ、2つの画像内において形状に差がない特徴が検出される場合には路面上に略平面の物体が存在すると判定できる。さらに、俯瞰画像において立体物の形状が伸びる方向は、前方カメラ201、左サイドカメラ202から出ている矢印の方向が示すように、カメラと立体物との位置関係により定まるものであるため、検出される画像から、立体物の有無を判定する有力な判定条件となりうるといえる。本実施形態においては、この性質に基づいて、カメラすなわち視点位置と立体物の位置関係に応じて、特徴を検出する際の処理条件を決定する。これにより、立体物の抽出精度を向上させ、複数のカメラ画像の重なる部分をより見易くなるようブレンド処理することが可能といえる。
図4は、映像表示装置100による俯瞰画像の出力例を示す図である。俯瞰画像においては、撮影領域は所定の領域に分割されるとともに、重畳して他のカメラにより撮影される領域の画像は、何らかの画像合成がなされて表示される。図4においては、車両200の周囲は、8つのエリア(左前エリア300、正面エリア301、右前エリア302、左エリア303、右エリア304、左後エリア305、背面エリア306、右後エリア307)に分割するものとする。この場合においては、前方カメラ201で撮影されるエリアは左前エリア300、正面エリア301、右前エリア302である。(また、左サイドカメラ202で撮影されるエリアは左前エリア300、左エリア303、左後エリア305である。他のエリアについても、後方カメラ203、右サイドカメラ204の視点位置および向き、画角を基準にして同様に定められる。
この場合、左前エリア300は、前方カメラ201と左サイドカメラ202により得られる画像が重なるエリアである(以後の記載においては、このように複数のカメラにより共通して撮影される領域を、「重畳エリア」と称呼する)。同様に、右前エリア302、左後エリア305、右後エリア307についても、複数のカメラにより共通して撮影される重畳エリアであるといえる。なお、図4においては、右前エリア302、左後エリア305、右後エリア307は斜線で表示されているが、実際には、撮影された対象が表示される。
俯瞰画像においては、上述のように立体物が視点位置を基準とする方向に延伸して表現される点を考慮すると、地面に突起物(立体物)がなく平面である場合には、共通するエリアの画像は基本的に同一となり、重ね合わせることができるといえる。
図3における俯瞰画像中の白線208a、208bは平面であるため、俯瞰画像においては、白線308は、同一の場所に重ねて表示されうる。他方で、重畳エリアである左前エリア300に立体物(例えば、歩行者)が存在する場合には、立体物である歩行者の正面足画像205a、左側面足画像205bを所定のブレンド率によりブレンド処理を行って表示することで、立体物の存在が欠落しないようにしている。これにより、立体物の画像の一部が消失してしまうことを回避する。
図5は、映像表示装置100による特徴量の検出処理の概要を示す図である。重畳エリアにおいて画像から立体物を抽出する際に、特徴量検出条件特定部111および特徴量検出部112は当該特徴量の検出処理を行う。正面画像400aは、前方カメラ201にて撮影され俯瞰画像に変換された画像であり、左側面画像400bは、左サイドカメラ202で撮影され俯瞰画像に変換された画像である。俯瞰変換された正面画像400aと差側面画像400bにおいては、前述のとおり、視点位置の違いから立体物は異なる方向に伸びて表示され、路面上のものは重なる場所に表示される。したがって、俯瞰画像合成部114は、共通する領域である重畳エリアを撮影した互いの画像について、それぞれの画像から共通物を除去する処理を行うと、共通物(平面物)を除去した正面立体物画像401a、左側面立体物画像401bをそれぞれ得ることができる。これは、俯瞰画像合成部114が、各画像から他の画像の対応する範囲に関して共通部分の情報を除去することで実現される。
具体的には、正面立体物画像401a、左側面立体物画像401bにおいては、それぞれの画像に写り込んでいる立体物(正面足画像205a、左側面足画像205b)は差分として残すことができ、路面上のもの208a、208bは共通部分として除去することができている。
そして、立体物を精度よく抽出するために、特徴量検出条件特定部111は、適切な検出条件を特定する。補足すると、上記のような特性から、立体物の輪郭が延伸する方向は重畳エリアからみた視点位置の方向に応じるものであるため、抽出精度を効率的に高める検出条件は、適切な輪郭走査方向を特定することにあるといえる。そこで、特徴量検出条件特定部111は、視点位置と、共通する領域との幾何的関係に応じて、特徴量検出条件を特定する。具体的には、特徴量検出条件特定部111は、視点位置と、共通する領域からみた視点位置の方向と、に応じて、特徴量検出に用いる輪郭走査の方向を特定する。
なお、一般的に、輪郭の抽出処理は、画像上の所定の方向(通常は、水平画素方向)に、輝度あるいはRGB、CMYの値等の画像を構成する要素の変化量を走査することで行われ、走査方向と検出対象が直交する状態にあれば高い検出精度を得られることが多い。これを踏まえ、特徴量検出条件特定部111は、立体物の輪郭の延伸方向に直交するよう走査するために、検出条件を設定する。
そして、特徴量検出条件特定部111は、正面立体物画像401a、左側面立体物画像401bのそれぞれに対して、輪郭走査方向402a、輪郭走査方向402bを特定する。
そして、特徴量検出部112は、特定された輪郭走査方向402a、輪郭走査方向402bに応じてそれぞれ正面立体物画像401a、左側面立体物画像401bを走査し、輪郭403a、403bを検出する。以上が、特徴量の検出処理の概要である。
図6は、特徴量検出条件記憶部121に格納されるデータ構造を示す図である。特徴量検出条件記憶部121には、領域特定情報121Aと、代表点121Bと、視点位置特定情報121Cと、特徴量検出条件121Dと、が対応づけられて格納される。領域特定情報121Aは、複数の画像間で共通して撮影される領域を特定する情報である。代表点121Bは、領域特定情報121Aにより特定される領域を代表する点である。代表点121Bにより特定される位置は、例えば領域の重心であってもよいし、中心であってもよいし、領域のいずれかの頂点であってもよい。例えば、撮影エリアの重心に限らず、撮影エリア内で、カメラから最も遠い点や最も近い点、または、撮影エリア内で検出した物体上の点などを代表点とするものであってもよい。
視点位置特定情報121Cは、視点位置すなわちカメラの位置を特定する情報である。特徴量検出条件121Dは、特徴量を検出するために用いるべき条件である。例えば、特徴量検出条件121Dには、画像回転角をθ(θは、視点位置から領域の代表点へ至る線分と直交する直線の延伸方向と、輪郭の抽出処理において輝度の変化量を走査する方向との角度の差分)として適用すべき旨の条件が予め格納される。
図7は、ブレンド情報記憶部122に格納されるデータ構造を示す図である。ブレンド情報記憶部122には、領域特定情報122Aと、ブレンド率122Bと、が対応づけられて格納される。領域特定情報121Aは、複数の画像間で共通して撮影される領域を特定する情報である。ブレンド率122Bは、領域特定情報121Aにより特定される領域を複数の画像を用いて合成出力する際に、画像間の重みを特定する情報である。例えば、「カメラ001」により撮影された画像と、「カメラ002」により撮影された画像と、の重み付けを、「p:(1−p)」(pは、0から1までの数)の比で重みづけてブレンドするよう指定する情報である。
正面画像400aにおいて立体物が伸びたように撮影される際の画像上の方向は、厳密にはエリア内の位置によっても異なるが、これを同一方向とみなして輪郭走査方向を同一に設定することにより演算処理の負荷を低減することができる。
図8は、特徴量の走査方向と画像の回転量の関係を示す図である。すなわち、図8は、輪郭走査方向501に応じて正面立体物画像401aを走査して輪郭を検出する処理における、具体的な方法のイメージを示す。ここで、正面立体物画像401aは、前方カメラ(視点位置)201から水平方向にx、垂直方向にy離れた重心500を備えている。そのため、特徴量検出条件特定部111は、前方カメラ(視点位置)201と重心500とを結ぶ線分に直交する方向に輪郭走査方向501を設定する。
当該処理においては、特徴量検出条件特定部111は、正面立体物画像401aの代表点である重心500を回転の中心として、特徴量検出条件121Dに示された画像回転角θだけ正面立体物画像401aを回転させる。これに限られず、特徴量検出条件特定部111は、処理画像自体をカメラ位置と撮影エリアの位置関係に応じて決定される角度で回転させた後、共通のエッジ検出を施すものでも良い。
なお、画像回転角θは上述のとおり、視点位置から領域の代表点へ至る線分と直交する直線の延伸方向と、輪郭の抽出処理において輝度の変化量を走査する方向との角度の差分である。これにより、輝度の変化量を走査する方向(水平または垂直方向)と、輪郭走査方向501とを並行にすることが可能となり、輪郭抽出の高い精度を得られる。なお、この回転量は、カメラごとに、あるいは撮影方向ごとに、最適な角度とすることも可能である。例えば、後方カメラの場合には垂直方向の走査が適している場合(例えば、車庫入れの際の位置決め用等)には、画像回転角θは輪郭走査方向が垂直方向となるように定められるものであってもよい。
図9は、同心円上の特徴量の走査方向とその実現手段の例を示す図である。すなわち、上述の輪郭を検出する処理において、さらに精度の高い検出を可能とするための抽出方向の設定例である。図9では、正面立体物画像401aから輪郭を抽出する場合に、前方カメラ(視点位置)201を中心とする同心円の接線方向になるべく近くなるよう走査方向を設定する方法の例を挙げている。このように一つの領域を細かく分割して走査することで、立体物の輪郭の延伸方向と略直交する方向に走査して輪郭を検出することが可能となる。
具体的には、前方カメラ201が重畳エリアを撮影し俯瞰変換した正面立体物画像401aで設定する場合を想定する。図9では、正面立体物画像401aに対しては、前方カメラ(視点位置)201からの同心円の接線方向に輪郭走査方向502を設定する。その方法として、正面立体物画像401aをさらに視点位置に近い頂点を通る直線に沿って細分化した領域410〜440を予め設定しておけば、特徴量検出条件特定部111は、領域ごとに重心と前方カメラ(視点位置)201との間を結ぶ線分に直交する方向の走査方向503A〜503Dを特定して設定することが可能となり、精度良く輪郭を検出することが可能となる。
立体物が伸びる方向は、基本的には、カメラと、立体物の地上と接触する位置と、を結ぶ線分の延長方向であり、図9の方法では、正面立体物画像401aの面内で輪郭走査方向が異なるため、画像内の探索領域によって輪郭抽出フィルタなどの映像表示方法を変更する必要があり演算処理の負荷が高くなる。しかし、立体物の伸びる方向と略直交して輪郭抽出処理を行うことができるため、立体物の高い抽出精度を得られる。
なお、輪郭走査方向の設定方法は、図8、図9に示した例に限定されず、例えばラプラシアンフィルタやソーベルフィルタなどのエッジ検出フィルタのフィルタ係数を、前方カメラ201の視点位置と重畳エリアの位置関係に応じて決定するものでも良い。このようにすることで、より精度の高い輪郭抽出が可能となる。
図10は、重畳エリアにおける画像合成の動作シーケンスのうち、ブレンド率を決定する処理の例である。本例においては、「カメラ1」である前方カメラ201と、「カメラ2」である左サイドカメラ202と、を用いて撮影される領域のうち共通して撮影される領域である左前エリア300に関し、「カメラ1」に基づき得た俯瞰画像と、「カメラ2」に基づき得た俯瞰画像と、を合成するものとする。
まず、特徴量検出条件特定部111は、カメラ1と重畳エリアの位置関係より、カメラ1に基づき得た俯瞰画像の処理条件C1を決定する(ステップS001)。具体的には、特徴量検出条件特定部111は、特徴量検出条件記憶部121を参照して、重畳エリアに相当する領域特定情報121Aと、カメラ1の配置位置に相当する視点位置特定情報121Cと、の組み合わせに応じた特徴量検出条件121Dを読み出す。
そして、特徴量検出条件特定部111は、カメラ2と重畳エリアの位置関係より、カメラ2に基づき得た俯瞰画像の処理条件C2を決定する(ステップS002)。具体的には、特徴量検出条件特定部111は、特徴量検出条件記憶部121を参照して、重畳エリアに相当する領域特定情報121Aと、カメラ2の配置位置に相当する視点位置特定情報121Cと、の組み合わせに応じた特徴量検出条件121Dを読み出す。
そして、特徴量検出部112は、カメラ1に基づき得た俯瞰画像の重畳エリアに存在する立体物を、処理条件C1を用いて検出する(ステップS003)。なお、検出した立体物は、画像特徴量Q1を持つものとする。具体的には、特徴量検出部112は、カメラ1に基づき得た俯瞰画像について、処理条件C1を適用し、処理条件C1を満たす状態で輪郭走査方向に走査して立体物の輪郭を特定する。その際、特徴量検出部112は、エッジなどが多い部分やラプラシアンフィルタやソーベルフィルタによる輪郭抽出、二値化処理、色情報、ヒストグラム情報や各種パターン認識処理などにより画像特徴量を抽出する。そして、特徴量検出部112は、エッジや輪郭が抽出できた画素の位置やそのエッジの輝度の高さなどの画像特徴量Q1を特定する。
そして、特徴量検出部112は、カメラ2に基づき得た俯瞰画像の重畳エリアに存在する立体物を、処理条件C2を用いて検出する(ステップS004)。なお、検出した立体物は、画像特徴量Q2を持つものとする。具体的には、特徴量検出部112は、カメラ2に基づき得た俯瞰画像について、処理条件C2を適用し、処理条件C2を満たす状態で輪郭走査方向に走査して立体物の輪郭を特定する。その際、特徴量検出部112は、エッジなどが多い部分やラプラシアンフィルタやソーベルフィルタによる輪郭抽出、二値化処理、色情報、ヒストグラム情報や各種パターン認識処理などにより画像特徴量を抽出する。そして、特徴量検出部112は、エッジや輪郭が抽出できた画素の位置やそのエッジの輝度の高さなどの画像特徴量Q2を特定する。
なお、画像特徴量Q1、Q2のいずれについても、SIFT(Scale−Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)などによる画像の特徴量を利用しても良い。また、HOG特徴量と歩行者の形の特徴量を組合せて、抽出できた特徴情報が歩行者等の人であるか物であるかを選別しても良い。このように、歩行者であるか物であるかに応じて、コントラスト強調処理や危険度表示などの出力内容を切り換えれば、運転者に対しより使い勝手の良い情報を提供することができる。
そして、ブレンド率特定部113は、画像特徴量Q1とQ2は所定以上強く相関するか否かを判定する(ステップS005)。具体的には、ブレンド率特定部113は、検出した物体の画素位置が一致またはある範囲内に集まっているか、特徴量の差分が所定の範囲内であるか否かを判定する。これは、従来から存在する統計的な処理やクラスタリング処理を行うことで、空間的な距離関係や意味的な距離関係の相関を判定するものであってよい。
そして、相関が所定以上に強い場合(ステップS005にて「Yes」の場合)には、ブレンド率特定部113は、立体物は重畳エリアには存在しないものとして、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像とを用いて所定のブレンド率で重畳エリアの俯瞰画像を合成することを決定し、俯瞰画像合成部114に合成を実施させる(ステップS006)。この場合、いずれかの俯瞰画像のブレンド率が「0」となるように合成する場合には、実質的にカメラ1またはカメラ2のいずれかにより得られた俯瞰画像を選択して利用することも可能となる。しかし、俯瞰画像同士の繋ぎ目付近に立体物があった場合には、その画像が消失してしまうおそれがある。そのため、いずれかの俯瞰画像を選択的に利用して俯瞰画像を生成するよりも、所定の「0以外の」ブレンド率によりブレンド合成するのが好ましいといえる。
そして、俯瞰画像合成部114は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像との対応する位置にある画素情報(例えば、輝度情報、あるいはRGB情報)に対してブレンド率に応じた重み付けを行って一つの俯瞰画像に合成する。俯瞰画像合成部114は、俯瞰画像を合成すると、ブレンド率決定処理を終了させる。なお、合成された俯瞰画像は、その後、エンコード部107、ディスプレイ108に送られ、出力される。
相関が所定以上に強くない場合(ステップS005にて「No」の場合)には、ブレンド率特定部113は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像とにそれぞれ含まれる立体物が重畳エリア内のどの位置にあるか特定し、所定以上共通する位置にあるか否かを判定する(ステップS007)。すなわち、ブレンド率特定部113は、共通する領域上において、各カメラから得た画像の特徴量に関し所定以上の度合いで重複する領域があるか否かを判定する。
立体物が共通する位置にある場合(ステップS007にて「Yes」の場合)には、ブレンド率特定部113は、画像特徴量Q1とQ2とに応じてブレンド率を決定する(ステップS008)。具体的には、ブレンド率特定部113は、まず、カメラ1に基づき得た画像特徴量Q1に所定の演算を行い、結果をF(Q1)とする。同様に、カメラ2に基づき得た画像特徴量Q2に所定の演算を行なった結果をF(Q2)とする。そして、ブレンド率特定部113は、カメラ1に基づき得た画像特徴量Q1に基づく合成の重み付けの割合を、下式(1)により特定する。
合成重み付けP1=F(Q1)/(F(Q1)+F(Q2))・・・式(1)
同様に、カメラ2に基づき得た画像特徴量Q2に基づく合成の重み付けの割合を下式(2)により特定する。
合成重み付けP2=F(Q2)/(F(Q1)+F(Q2))・・・式(2)
なお、上記所定の演算Fは、重畳エリア内で、所定の閾値以上の特徴量を有する画像の画素数を抽出しカウントするという演算が考えられる。この場合は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像のそれぞれの重畳エリア内における立体物の画像が占める大きさを、ブレンド率を可変させる要素とすることができる。
また、上記所定の演算Fは、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像の重畳エリア内の画素の画像特徴量の総和、平均、加重平均、重心、中心値を算出するなどの各種演算も考えられる。この場合は、重畳エリア内における立体物の画像が占める大きさのみならず、特徴量の値の大きさもブレンド率を可変する要素とすることができる。
または、ブレンド率を画素毎に決定することもできる。この場合は、F(Q1)として対象の画素における特徴量そのものを用い、F(Q2)として対象の画素における特徴量そのものを用いてもよい。画素ごとにF(Q1)とF(Q2)を比較して値の大きい方の画像のブレンド率を大きく設定するものであってもよい。
また例えば、カメラ1に基づき得た俯瞰画像のブレンド率特徴量の割合を連続的に変化させるものであっても、「特徴量の割合」が0.5により近い部分で、ブレンド率の変化の勾配を大きく設定するものであってもよい。このようなブレンド率の算出方法により、「特徴量の割合」が変化する際にブレンド率が穏やかに切り替わりながらも、より特徴がある画像(立体物がある可能性の高い画像)のコントラストを強調することが可能となる。これにより、立体物がある可能性が比較的高い画像を、よりユーザーが認識しやすくなるという効果がある。
また例えば、カメラ1に基づき得た俯瞰画像のブレンド率特徴量の割合を連続的に変化させるものであっても、特徴量の割合が所定の大きさ以上あるいは所定の大きさ以下になった場合は、特徴量の大きい俯瞰画像のブレンド率を1とし、他方の俯瞰画像のブレンド率を0とすることも可能である。このようなブレンド率の算出方法により、特徴量の割合が変化する際にブレンド率が穏やかに切り替わりながらも、より特徴がある画像(立体物がある可能性の高い画像)のコントラストをさらに強調することが可能となる。立体物がある可能性が比較的高い画像を、ユーザーがさらに認識しやすくなるという効果がある。
また例えば、特徴量の割合が変化する際に、ブレンド率が段階的に切り替わるように設定してもよい。この場合、切り替え段階の数が多いほどブレンド率の切り替えがより穏やかとなる。このように、特徴量の割合の変化に応じてブレンド率を段階的に切り替えるような、特徴量の割合の変化に対するブレンド率の変化が不連続であっても、本発明の一実施の態様となりうる。
なお、演算Fについては、立体物が存在する可能性の高い画像について、演算結果の値が大きくなる場合を想定して説明したが、逆すなわち立体物がある可能性の高い画像ほど演算結果の値が小さくなるような演算Fとしてもよい。
このように、立体物の部分の画像についても、ブレンド率として多値の値をとることができる。これにより、立体物の部分も、立体物がある可能性の高さに応じてより自然に合成することが可能となるといえる。
また、ブレンド率は、重畳エリア全体または画素単位で算出し、重畳エリア全体または画素単位での合成処理に用いることが可能であるため、重畳エリア内において、境界線のような不自然な画像の接合部分が生じることを防ぐことも可能となり、より自然な合成画像を生成することが可能となる。
また、他のブレンド率の決定法として、左前エリア300内のある画素位置から、「カメラ1」である前方カメラ201と「カメラ2」である左サイドカメラ202までの距離をそれぞれd1、d2として、距離d1とd2の比に応じて固定のブレンド率を設定するものであってもよい。すなわち、「カメラ1」である前方カメラ201に近い距離にある画素位置(つまりd1<d2)では、前方カメラ201の画像のブレンド率を高く設定するものであってもよい。例えば、前方カメラ201の画像のブレンド率を式「P1=d2/(d1+d2)」で与え、左サイドカメラ202の画像のブレンド率を式「P2=d1/(d1+d2)」で与えるものとしてもよい。
しかし、この場合においては、カメラに近すぎる画素位置ではピントずれや歪が大きくなっている可能性が高いので、所定以上に近すぎる画素位置については、距離が遠い方のカメラによる俯瞰画像の重み付けを重くするようブレンド率を修正するのが好ましい。すなわち、接近限界閾値をdth(ただし、d1最小値≦dth≦d1最大値)としたとき、d1<d2かつd1<dthとなる位置では、近い前方カメラ201による俯瞰画像のブレンド率P1が低くなるように修正するようにしてもよい。例えば、上記設定したブレンド率P1、P2を入れ替えて、前方カメラ201の画像のブレンド率を式「P1=d1/(d1+d2)」で与え、左サイドカメラ202の画像のブレンド率を式「P2=d2/(d1+d2)」で与えるようにしてもよい。これにより、カメラから近過ぎる位置で発生するピントずれや歪を軽減して表示することができる。
そして、俯瞰画像合成部114は、ブレンド率を用いて、立体物の存在をハイライトする等、強調する表現を含む俯瞰画像合成を行う(ステップS009)。具体的には、俯瞰画像合成部114は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像との対応する位置にある画素情報(例えば、輝度情報、あるいはRGB情報)に対して、決定されたブレンド率に応じた重み付けを行って一つの俯瞰画像に合成する。俯瞰画像合成部114は、俯瞰画像を合成すると、ブレンド率決定処理を終了させる。なお、合成された俯瞰画像は、その後、ディスプレイ108に送られ、出力される。
図11は、特徴量を基準にブレンドして俯瞰画像を合成する画面例を示す図である。この例は、ブレンド率決定処理のステップS005において特徴量が相関しないと判定され、ステップS007において物体が共通する位置にあると判定された場合、すなわちステップS008において決定されたブレンド率を用いて俯瞰画像を合成する処理の例である。カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像の重畳エリアにおいて、カメラ1に基づき得た俯瞰画像1101には、カメラ1により撮影された歩行者の足1103が写っている。カメラ2に基づき得た俯瞰画像1102には、カメラ2により撮影された歩行者の足1104が写っている。同一の重畳エリアを撮影しており、立体物である歩行者がそのエリア内に存在するため、歩行者の足1103、1104はそれぞれ異なる方向に伸びている。
この例においては、歩行者の足1103と歩行者の足1104とは、いずれも共通する位置1108に特徴量を有するため、カメラ1による俯瞰画像1101とカメラ2による俯瞰画像1102のブレンド率「p:(1−p)」を算出し、そのブレンド率に応じて俯瞰画像合成部114は俯瞰合成画像1105を合成する。その結果、カメラ1により撮影された歩行者の足1106と、カメラ2により撮影された歩行者の足1107と、がそれぞれのブレンド率に従って合成され、俯瞰合成画像1105に含まれる。
フローの説明に戻る。立体物が共通する位置にない場合(ステップS007にて「No」の場合)には、ブレンド率特定部113は、画像特徴量Q1とQ2とのいずれか特徴量が大きい方の画像を俯瞰画像に採用することを決定する(ステップS010)。
そして、俯瞰画像合成部114は、採用した俯瞰画像を用いて俯瞰画像合成を行う(ステップS010)。具体的には、俯瞰画像合成部114は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像とのうち、重畳エリアの特徴量が大きい方の画像を採用して、俯瞰画像を合成する。俯瞰画像合成部114は、俯瞰画像を合成すると、ブレンド率決定処理を終了させる。なお、合成された俯瞰画像は、その後、ディスプレイ108に送られ、出力される。なお、誤検出による繋ぎ目付近での画像の消失を回避するために、特徴が抽出できたカメラ画像のブレンド率を優先してブレンド処理を行い、俯瞰画像を合成するようにしても良い。
図12は、画像を選択して俯瞰画像を合成する画面例を示す図である。この例は、ブレンド率決定処理のステップS005において相関しないと判定され、ステップS007において物体が共通する位置にないと判定された場合、すなわちステップS010において俯瞰画像を選択的に採用して合成する処理の例である。カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像の重畳エリアにおいて、カメラ1に基づき得た俯瞰画像1201には、カメラ1により撮影された歩行者の足1203が写っている。カメラ2に基づき得た俯瞰画像1202には、カメラ2により撮影された画像が写っているが、歩行者の足に相当するものは存在しない。これは、重畳エリア内には何も存在しないが、カメラ1の近くには歩行者(立体物)が存在して、それがカメラ1の俯瞰画像1201に物体として写り出されたものである。一方、カメラ2の俯瞰画像1202の付近には何も存在しないため、何も写っていない。
この例においては、俯瞰画像合成部114は、カメラ1により撮影された俯瞰画像1201を採用して俯瞰合成画像1205を合成する。その結果、カメラ1により撮影された歩行者の足1203が俯瞰合成画像1205に含まれる。
以上が、ブレンド率決定処理の処理内容である。ブレンド率決定処理によれば、共通する領域を異なる視点位置から撮影した画像を各々が部分的に有する複数の画像情報に対して特徴量検出条件を適用して共通する領域の特徴量を検出し、画像ごとの共通する領域の特徴量を用いて、共通する領域が含まれる画像をブレンドする重み付けを特定し、共通する領域を含む俯瞰画像を合成することができる。すなわち、複数のカメラで撮影された重畳エリアにおいて、異なる方向から撮影されたカメラ画像の画像特徴量を抽出しこれらの相関性を判定することで、道路に描かれた平面状の模様と立体物とを区別できる。また立体物が存在する場合は、特徴量の位置的な重なりを判定し、立体物が重畳エリア内に存在するのか、重畳エリア外に存在するのかを判別できる。そして、それぞれの状態に合わせて、俯瞰画像の合成時のブレンド率を変化させることが可能となり、良好な俯瞰画像が得られる。
以上、第一の実施形態について、図面を用いて説明した。第一の実施形態によれば、映像表示装置100は、複数のカメラで撮影した画像を利用して、障害物や歩行者を検出し、検出結果に従って、画像に写っている障害物や歩行者が見易いように各カメラ画像の俯瞰画像を合成し、車両の全周囲の俯瞰画像を生成することができるものであるといえる。言い換えると、映像表示システム1は、共通する領域を異なる視点位置から撮影する画像を部分的に含む画像情報を得る複数の撮像装置と、映像表示装置と、を含む。
そして、映像表示装置は、画像情報に関する所定の特徴量を検出する条件となる特徴量検出条件を特定する特徴量検出条件特定部と、複数の画像情報に対して特徴量検出条件を適用し、共通する領域の特徴量を検出する特徴量検出部と、画像ごとの共通する領域の特徴量を用いて、共通する領域が含まれる画像をブレンドする重み付けを特定するブレンド率特定部と、ブレンド率を用いて共通する領域を含む俯瞰画像を合成する俯瞰画像合成部と、を備えるものであるともいえる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
なお、本実施形態に係る映像表示システム1は、映像表示装置100と、カメラ群101と、ディスプレイ108と、を含む構成としているが、カメラ群101とディスプレイ108のいずれかまたは両方が映像表示システム1に直接的に管理されるものでなくともよい。例えば、車両に限らない場所(例えば、美術館の展示等)に設置された複数の監視カメラで取得され送信される画像を合成して、監視対象領域の俯瞰画像を作成する場合にも適用できる。
上述した第一の実施形態においては、共通する領域を撮影した複数の画像について、特徴量を互いに比較してブレンド率を求めて合成するものとしたが、これに限られない。例えば、経時に伴うヒステリシスを考慮して、前後の時刻におけるブレンド率を考慮して大きく変化しないよう、経時に応じて徐々にブレンド率を変更するようにしても良い。
図13は、経時に伴う立体物の変化に応じたブレンド率の変化の例を示す図である。例えば、重畳エリア内を立体物である歩行者が移動した場合の合成画像の例を示す図である。図13では、歩行者がカメラ1とカメラ2により両カメラが共通して撮影する領域である重畳エリア1300内を左側から右方向に歩いて行く場合の重畳エリア1300における、歩行者の合成画像を時系列に並べている。
時刻t1時点では、カメラ1により撮影された歩行者の足1301とカメラ2により撮影された歩行者の足1302は、それらのブレンド率を画像特徴量(例えば足の写っている面積)に応じて決定し、カメラ1により撮影された歩行者の側をP1=0.9、カメラ2側をP2=0.1等として合成する。このようにブレンド率を設定することで、歩行者の足の面積が大きく写っている側、すなわちカメラ1で撮影された足1301がくっきりと表示される。
時刻t2時点では、カメラ1により撮影された歩行者の足1303とカメラ2により撮影された歩行者の足1304の画像特徴量(面積)は同程度となり、ブレンド率は共に等しくP1=P2=0.5またはP1=0.6、P2=0.4等として合成する。
時刻t3時点では、カメラ1により撮影された歩行者の足1305よりもカメラ2により撮影された歩行者の足1306の画像特徴量の方がやや大きくなり、ブレンド率はカメラ1側をP1=0.3、カメラ2側をP2=0.7として合成する。
時刻t4時点では、カメラ1により撮影された歩行者の足1307よりもカメラ2で撮影された足1308の画像特徴量の方がはるかに大きくなり、ブレンド率はカメラ1側をP1=0.1、カメラ2側をP2=0.9で合成する。その結果、足の面積が大きく写っているカメラ2で撮影された足1308がくっきり表示される。
このように、第一の実施形態に係る発明によれば、複数のカメラで同一の物体が撮影されている場合において、画像特徴量の相対的な比率に応じてブレンド率を設定することにより、面積がより大きく写っている方の画像のコントラストを大きくした画像を生成できる。これに対してさらに、ブレンド率を求める処理において、ブレンド率特定部113は、下式(3)を適用してブレンド率を求めるようにしてもよい。
ブレンド率p1(t)=p1(t−1)+k(p1_calc(t)−p1(t−1))・・・式(3)
すなわち、時刻tにおけるカメラ1のブレンド率p1(t)は、時刻(t−1)におけるブレンド率との差のk倍(kは0から1までの数)を時刻(t−1)におけるブレンド率に足したものとすることができる。ただし、式(3)においては、p1_calc(t)の値は、特徴量に基づき算出されたt時刻における補正前のブレンド率とする。つまり、所定の期間毎にブレンドの重み付けを特定し、当該所定の期間ごとのブレンドの重み付けに際しては、所定の期間の前または後あるいは前後の期間のブレンドの重み付けとの間の変化量が所定以下となるよう重み付けをすることができる。
あるいは、将来の時刻における輝度の予測を行い、該予測される輝度までをスムーズにつなげるようブレンド率を設定するものであってもよい。
なお、上述の第一の実施形態においては、時刻t2において、画像特徴量が画像間で同程度になる場合には、ブレンド率を等しくP1=P2=0.5とすべきところ、その場合には両画像を合成した画像の輝度が高くなってしまい視認しにくくなる可能性がある。そこで、ヒステリシスを考慮して、一時刻前にブレンド率が高かった画像を優先して表示する処理を行ってもよい。具体的には、図13の例では、時刻t2の一時刻前の時刻t1では、P1の方がブレンド率が高い。そこで、画像特徴量が同程度である時刻t2の処理では、P1を優先して、検出した画像特徴量に対して、所定の割合または値を加える、または乗ずる処理を行う。これにより、例えば、ブレンド率をP1=0.6、P2=0.4などとして、カメラ1の映像を見易くさせても良い。なお、このとき、前の動きから次の時刻の動きを予測して、P1=0.4、P2=0.6としても良い。この手法のように、カメラ1とカメラ2で同程度の画像特徴量が検出される場合には、時系列的な特徴量の変化に応じて、二つの映像のブレンド率が等しくなる状況(P1=P2=0.5)を避けるようにブレンドすることで、両方の画像が薄くなり視認しづらくなる現象を低減できる。
その他、画像情報が所定の期間において撮影された動画像である場合には、動きベクトル情報を用いてブレンド率を算出する方法についても採用しうる。すなわち、画像特徴量の検出のためにオプティカルフローの動きベクトル情報を利用し、これから重畳エリアのブレンド率を算出し画像を合成する。画像特徴量として複数フレームの動きベクトルを利用し、動きベクトルの総和の比からブレンド率を算出する。具体的には、カメラ1の画像内の動きベクトルの総和 ΣCam1と、カメラ2の画像内の動きベクトル1404の総和 ΣCam2を計算する。これから、カメラ1のブレンド率P1とカメラ2のブレンド率P2を、下式(4)、(5)として算出する。
P1= ΣCam1/( ΣCam1+ ΣCam2)・・・式(4)
P2= ΣCam2/( ΣCam1+ ΣCam2)・・・式(5)
つまり、動きの大きい映像を備えるカメラ画像のブレンド率を大きく設定する。これらのブレンド率で動き物体を含む合成画像1405を生成する。この手法によれば、重畳エリア内で動きが大きいものほどくっきりとコントラストを向上させた画像が生成可能となる。
図14は、映像表示装置100による撮影対象の領域の設定例を示す図である。輪郭の検出について、さらに精度の高い立体物の輪郭検出を可能にする仕組みを適用する変形例であるといえる。図14においては、図4に示したエリアのうち、重畳エリアをさらに細分化して、延伸方向と走査方向とのずれを減らすことで立体物の検出精度を高める仕組みが示されている。
図14においては、基本的に第一の実施形態と同様の構成を備えるものであるが、左前エリア300をさらに扇状に分割し、第1の領域300A、第2の領域300B、第3の領域300C、第4の領域300D、第5の領域300E、第6の領域300F、第7の領域300Gを設けている。また、各領域にはブレンド率を固定で設定する。
例えば、第1の領域300Aでは、その重心位置は前方カメラ201側が近いため、前方カメラ201の画像のブレンド率をP1=0.9、左サイドカメラ202の画像のブレンド率をP2=0.1とする。これに対して、隣接する第2の領域300Bについては、前方カメラ201から少し遠ざかるため、P1=0.8、P2=0.2とする。同様に、前方カメラ201からの距離と、左サイドカメラ202からの距離と、に応じて、第3から第6までの領域についてもブレンド率を設定する。第7の領域300Gでは、左サイドカメラ202に近いので、P1=0.1、P2=0.9とする。このように、前方カメラ201に近いほど前方カメラ201の画像を優先し、左サイドカメラ202に近いほど左サイドカメラ202の画像を優先してブレンド率を設定する。これにより、それぞれの分割された領域では近い方のカメラからの画像が強調されてブレンドされるので、より見易い画像が作成できる。さらに各分割領域において、各カメラ画像の特徴量に応じて、ブレンド率を調整しても良い。
また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリやハードディスク、SSDなどの記録装置、または、ICカード、SDカード、DVDなどの記憶媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えても良い。
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。
以上、本発明について、実施形態を中心に説明した。
1・・・映像表示システム、100・・・映像表示装置、110・・・制御部、111・・・特徴量検出条件特定部、112・・・特徴量検出部、113・・・ブレンド率特定部、114・・・俯瞰画像合成部、120・・・記憶部、121・・・特徴量検出条件記憶部、122・・・ブレンド情報記憶部、130・・・カメラ制御部

Claims (11)

  1. 少なくとも2つの異なる視点から共通領域を撮影した画像の俯瞰画像について前記俯瞰画像上での立体物の存在に関する所定の特徴量を前記視点の位置と前記共通領域との位置関係に基づき検出する条件を特定する特徴量検出条件特定部と、
    特定された前記特徴量検出条件を用いて、前記共通領域を撮影した画像の各俯瞰画像について前記特徴量を検出する特徴量検出部と、
    前記特徴量検出部により検出される特徴量に応じて、前記異なる視点から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、
    前記ブレンド率特定部により特定されたブレンド率に応じて前記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、
    を備えることを特徴とする映像表示装置。
  2. 請求項1に記載の映像表示装置であって、
    前記特徴量検出条件特定部は、前記共通領域と、前記視点のある位置と、に応じて前記特徴量検出条件を特定する、
    ことを特徴とする映像表示装置。
  3. 請求項1に記載の映像表示装置であって、
    前記特徴量検出条件特定部は、前記共通領域の所定の代表点から前記視点のある位置へ向かう方向に直交する方向に走査して前記共通領域を撮影した画像の俯瞰画像の特徴量を抽出することを処理条件として特定する、
    ことを特徴とする映像表示装置。
  4. 請求項1に記載の映像表示装置であって、
    前記特徴量検出条件特定部は、前記視点のある位置を中心とする同心円の接線方向に走査して前記共通領域を撮影した画像の俯瞰画像の特徴量を抽出することを処理条件として特定する、
    ことを特徴とする映像表示装置。
  5. 請求項1に記載の映像表示装置であって、
    前記特徴量検出条件特定部は、前記共通領域の代表点から前記視点のある位置へ向かう方向が水平方向または垂直方向となるよう前記共通領域を撮影した画像の俯瞰画像を回転させて走査して画像の特徴量を抽出することを処理条件として特定する、
    ことを特徴とする映像表示装置。
  6. 請求項1に記載の映像表示装置であって、
    前記ブレンド率特定部は、前記共通領域を撮影した画像の各俯瞰画像の特徴量について、複数の前記俯瞰画像の間の相関の強弱を判定し、相関が所定より弱いと判定された場合には、前記共通領域上において、前記共通する領域を撮影した画像の各俯瞰画像の特徴量に関し所定以上の度合いで重複する領域があるか否かを判定し、該領域の有無に応じてブレンドの方法を切り替える、
    ことを特徴とする映像表示装置。
  7. 請求項6に記載の映像表示装置であって、
    前記俯瞰画像合成部は、前記ブレンド率特定部により前記共通する領域を撮影した画像の各俯瞰画像の特徴量に関し所定以上の度合いで重複する領域があると判定された場合、前記共通する領域を撮影した画像の俯瞰画像の特徴量が大きい画像のブレンド率を大きく設定して前記俯瞰画像の画素をブレンドして合成出力する、
    ことを特徴とする映像表示装置。
  8. 請求項6に記載の映像表示装置であって、
    前記俯瞰画像合成部は、前記ブレンド率特定部により前記共通する領域を撮影した画像の各俯瞰画像の特徴量に関し所定以上の度合いで重複する領域がないと判定された場合、前記共通する領域を撮影した画像の俯瞰画像の特徴量が大きい画像を採用して前記俯瞰画像を合成出力する、
    ことを特徴とする映像表示装置。
  9. 請求項1に記載の映像表示装置であって、
    前記俯瞰画像合成部は、前記共通領域の画像について、前記共通領域と隣接する領域に向けて前記ブレンド率に傾斜を付けて変化するよう前記俯瞰画像を合成出力する、
    ことを特徴とする映像表示装置。
  10. 請求項1に記載の映像表示装置であって、
    前記俯瞰画像合成部は、所定の期間毎に前記ブレンド率を特定し、当該所定の期間ごとのブレンド率の特定に際しては、前記所定の期間の前または後あるいは前後の期間のブレンド率との間の変化量が所定以下となるよう特定する、
    ことを特徴とする映像表示装置。
  11. 共通領域を互いに異なる視点から撮影する画像の俯瞰画像を得る複数の撮像装置と、映像表示装置と、を含み、
    前記映像表示装置は、
    前記俯瞰画像について前記俯瞰画像上での立体物の存在に関する所定の特徴量を前記視点の位置と前記共通領域との位置関係に基づき検出する条件となる特徴量検出条件を特定する特徴量検出条件特定部と、
    前記共通領域を撮影した画像の各俯瞰画像に対して、特定された前記特徴量検出条件を用いて、特徴量を検出する特徴量検出部と、
    前記特徴量検出部により検出される特徴量に応じて、前記異なる視点の位置から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、
    前記ブレンド率特定部により特定されたブレンド率に応じて前記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、
    を備える、
    ことを特徴とする映像表示システム。
JP2014066268A 2014-03-27 2014-03-27 映像表示装置および映像表示システム Active JP6371553B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014066268A JP6371553B2 (ja) 2014-03-27 2014-03-27 映像表示装置および映像表示システム
US15/125,719 US20170006234A1 (en) 2014-03-27 2015-01-15 Image display device and image display system
EP15769792.1A EP3125544A4 (en) 2014-03-27 2015-01-15 Image display device and image display system
PCT/JP2015/050892 WO2015146230A1 (ja) 2014-03-27 2015-01-15 映像表示装置および映像表示システム
CN201580006815.3A CN105960800A (zh) 2014-03-27 2015-01-15 影像显示装置及影像显示系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014066268A JP6371553B2 (ja) 2014-03-27 2014-03-27 映像表示装置および映像表示システム

Publications (2)

Publication Number Publication Date
JP2015192198A JP2015192198A (ja) 2015-11-02
JP6371553B2 true JP6371553B2 (ja) 2018-08-08

Family

ID=54194772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014066268A Active JP6371553B2 (ja) 2014-03-27 2014-03-27 映像表示装置および映像表示システム

Country Status (5)

Country Link
US (1) US20170006234A1 (ja)
EP (1) EP3125544A4 (ja)
JP (1) JP6371553B2 (ja)
CN (1) CN105960800A (ja)
WO (1) WO2015146230A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160217333A1 (en) * 2015-01-26 2016-07-28 Ricoh Company, Ltd. Information processing apparatus and information processing system
US20170270378A1 (en) * 2016-03-16 2017-09-21 Haike Guan Recognition device, recognition method of object, and computer-readable recording medium
JP6669569B2 (ja) * 2016-04-04 2020-03-18 アルパイン株式会社 車両用周辺監視装置
EP3944202A3 (en) * 2016-05-02 2022-02-09 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
JP6586051B2 (ja) * 2016-06-30 2019-10-02 株式会社 日立産業制御ソリューションズ 画像処理装置および画像処理方法
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控系统
DE102016225073A1 (de) * 2016-12-15 2018-06-21 Conti Temic Microelectronic Gmbh Vorrichtung zur bereitstellung einer verbesserten hinderniserkennung
US11158060B2 (en) * 2017-02-01 2021-10-26 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
US11176675B2 (en) 2017-02-01 2021-11-16 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
WO2018146997A1 (ja) * 2017-02-07 2018-08-16 日本電気株式会社 立体物検出装置
JP6861599B2 (ja) * 2017-08-31 2021-04-21 フォルシアクラリオン・エレクトロニクス株式会社 周辺監視装置
JP2019185381A (ja) * 2018-04-10 2019-10-24 クラリオン株式会社 車両周囲画像生成装置
US11846514B1 (en) * 2018-05-03 2023-12-19 Zoox, Inc. User interface and augmented reality for representing vehicles and persons
US10837788B1 (en) 2018-05-03 2020-11-17 Zoox, Inc. Techniques for identifying vehicles and persons
US10809081B1 (en) 2018-05-03 2020-10-20 Zoox, Inc. User interface and augmented reality for identifying vehicles and persons
JP2021144257A (ja) * 2018-06-06 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
GB2582262B (en) * 2019-03-02 2022-09-28 Jaguar Land Rover Ltd Imaging system and method
US11216920B2 (en) * 2019-05-31 2022-01-04 Apple Inc. Enhanced local contrast
JP7314680B2 (ja) * 2019-07-23 2023-07-26 東洋製罐株式会社 画像データ処理システム、無人航空機、画像データ処理方法、及びプログラム
KR20210030523A (ko) * 2019-09-09 2021-03-18 현대자동차주식회사 차량 및 그 제어 방법
JP7367776B2 (ja) * 2019-12-27 2023-10-24 株式会社ソシオネクスト 画像処理装置、画像処理方法、および画像処理プログラム
CN113496601B (zh) * 2020-03-20 2022-05-24 宇通客车股份有限公司 一种车辆辅助驾驶方法、装置和系统
JP7038935B2 (ja) * 2020-03-25 2022-03-18 三菱電機株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
DE102020109997A1 (de) 2020-04-09 2021-10-14 Connaught Electronics Ltd. System und Verfahren, um zuverlässige gestitchte Bilder zu machen

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8136354B2 (en) * 2008-03-14 2012-03-20 Energy Compression Inc. Adsorption-enhanced compressed air energy storage
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP4876118B2 (ja) * 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
JP5212651B2 (ja) * 2009-03-27 2013-06-19 株式会社デンソー 車外撮影画像表示システム。
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
JP5548002B2 (ja) * 2010-03-25 2014-07-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP5483120B2 (ja) * 2011-07-26 2014-05-07 アイシン精機株式会社 車両周辺監視システム
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
KR101371458B1 (ko) * 2012-07-16 2014-03-10 현대자동차주식회사 오픈카의 배플구조
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
EP3085074B1 (en) * 2013-12-19 2020-02-26 Intel Corporation Bowl-shaped imaging system

Also Published As

Publication number Publication date
CN105960800A (zh) 2016-09-21
US20170006234A1 (en) 2017-01-05
EP3125544A4 (en) 2017-09-20
WO2015146230A1 (ja) 2015-10-01
EP3125544A1 (en) 2017-02-01
JP2015192198A (ja) 2015-11-02

Similar Documents

Publication Publication Date Title
JP6371553B2 (ja) 映像表示装置および映像表示システム
JP6084434B2 (ja) 画像処理システム及び画像処理方法
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
KR101643607B1 (ko) 영상 데이터 생성 방법 및 장치
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
KR102342668B1 (ko) 화상 처리장치, 화상 처리방법 및 기억매체
US9214013B2 (en) Systems and methods for correcting user identified artifacts in light field images
CN109565551B (zh) 对齐于参考帧合成图像
KR101984496B1 (ko) 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법
CN114245905A (zh) 深度感知照片编辑
US20130335535A1 (en) Digital 3d camera using periodic illumination
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017502404A (ja) ボウル形状イメージングシステム
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2018129692A1 (en) Image refocusing
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR102262671B1 (ko) 비디오 영상에 보케 효과를 적용하는 방법 및 기록매체
JP6429483B2 (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法およびプログラム
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
KR102587298B1 (ko) 멀티뷰 어안 렌즈들을 이용한 실시간 전방위 스테레오 매칭 방법 및 그 시스템
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP6579764B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR101718309B1 (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
JP5891751B2 (ja) 画像間差分装置および画像間差分方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150