JPWO2017002209A1 - 表示制御装置及び表示制御方法及び表示制御プログラム - Google Patents

表示制御装置及び表示制御方法及び表示制御プログラム Download PDF

Info

Publication number
JPWO2017002209A1
JPWO2017002209A1 JP2017503645A JP2017503645A JPWO2017002209A1 JP WO2017002209 A1 JPWO2017002209 A1 JP WO2017002209A1 JP 2017503645 A JP2017503645 A JP 2017503645A JP 2017503645 A JP2017503645 A JP 2017503645A JP WO2017002209 A1 JPWO2017002209 A1 JP WO2017002209A1
Authority
JP
Japan
Prior art keywords
object image
display
image
tangent
space coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017503645A
Other languages
English (en)
Other versions
JP6239186B2 (ja
Inventor
悠介 中田
悠介 中田
道学 吉田
道学 吉田
雅浩 虻川
雅浩 虻川
久美子 池田
久美子 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2017002209A1 publication Critical patent/JPWO2017002209A1/ja
Application granted granted Critical
Publication of JP6239186B2 publication Critical patent/JP6239186B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Navigation (AREA)

Abstract

物体画像抽出部(110)は、車両前方の撮影画像から、複数の物体画像のうち抽出条件に合致する抽出物体画像を抽出する。表示割当て領域指定部(130)は、撮影画像内で、いずれの抽出物体画像とも重ならない、いずれかの抽出物体画像と接する領域を、案内情報の表示割当て領域として指定し、表示割当て領域と接する隣接抽出物体画像と、隣接抽出物体画像の表示割当て領域との接線とを特定する。物体空間座標算出部(140)は、隣接抽出物体画像の物体の三次元空間座標を物体空間座標として算出する。接線空間座標算出部(160)は、接線が三次元空間に存在すると仮定した場合の接線の三次元空間座標を、接線空間座標として、物体空間座標に基づき算出する。表示領域決定部(170)は、接線空間座標と、運転者の目の位置とウインドシールドの位置の三次元空間座標とに基づき、ウインドシールドでの案内情報の表示領域を決定する。

Description

本発明は、車両のウインドシールドに案内情報を表示するHUD(Head Up Display)技術に関する。
HUDでは、ウインドシールドに案内情報を表示するため、前方視野の一部が案内情報により遮蔽される。
他の車両、歩行者、道路標示、道路標識、信号機等は車両を運転する上で見落としてはならない物体であるが、案内情報の表示により、運転者がこれらの物体が視認できない場合は、運転に支障が生じる。
特許文献1〜5では、運転に支障がでない案内情報の表示領域を計算により決定し、決定した表示領域に案内情報を表示する技術が開示されている。
しかしながら、運転者ごとに身長が異なり、目の位置が異なるため、運転者ごとに案内情報の適切な表示領域は異なる。
また、同じ運転者でも運転時の姿勢または着座位置が異なれば目の位置は異なるため、運転時の姿勢ごと、また、着座位置ごとに案内情報の適切な表示領域は異なる。
この点に関し、特許文献6では、運転者の目の位置に対応させて案内情報をウインドシールド上に表示する技術が開示されている。
特開2006−162442号公報 特開2014−37172号公報 特開2014−181927号公報 特開2010−234959号公報 特開2013−203374号公報 特開2008−280026号公報
運転者から見て車両前方の物体に重ならないようにウインドシールドに案内情報を表示させる方法として、特許文献1の方法と特許文献6の方法を組み合わせる方法が考えられる。
具体的には、特許文献6の方法に従い、運転者から見える車両前方の全ての物体、すなわち、撮影画像に表される全ての物体の三次元空間座標をHUDの投影面(ウインドシールド)に射影し、投影面を一枚の画像とみなして、車両前方の物体と重ならない案内情報の表示位置を特許文献1の方式で求める方法が考えられる。
しかし、この方法では、撮影画像に表される全ての物体に対する射影計算が必要であり、計算量が多いという課題がある。
本発明は、上記のような課題を解決することを主な目的の一つとしており、少ない計算量で案内情報の適切な表示領域を決定することを主な目的とする。
本発明に係る表示制御装置は、
ウインドシールドに案内情報が表示される車両に搭載され、
前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する物体画像抽出部と、
前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定する表示割当て領域指定部と、
前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する物体空間座標算出部と、
前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出する接線空間座標算出部と、
前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示領域決定部とを有する。
本発明では、隣接抽出物体画像に対してのみ計算が発生するため、撮影画像の全ての物体画像に対して計算を行う場合に比べて少ない計算量で案内情報の適切な表示領域を決定することができる。
実施の形態1に係る表示制御装置の機能構成例を示す図。 実施の形態1に係る撮影画像での抽出物体画像の例を示す図。 実施の形態1に係る案内情報の例を示す図。 実施の形態1に係る表示割当て領域の例を示す図。 実施の形態1に係る表示制御装置の動作例を示すフローチャート図。 実施の形態3に係る表示制御装置の機能構成例を示す図。 実施の形態3に係る表示制御装置の動作例を示すフローチャート図。 実施の形態4に係る表示制御装置の機能構成例を示す図。 実施の形態4に係る表示制御装置の動作例を示すフローチャート図。 実施の形態4に係る表示制御装置の動作例を示すフローチャート図。 実施の形態1に係る表示割当て領域の例を示す図。 実施の形態1に係る表示割当て領域の例を示す図。 実施の形態1に係る表示領域の決定方法の概要を示す図。 実施の形態1〜4に係る表示制御装置のハードウェア構成例を示す図。
実施の形態1.
***構成の説明***
図1は、本実施の形態1に係る表示制御装置100の機能構成例を示す。
表示制御装置100は、HUDに対応した車両、すなわち、ウインドシールドに案内情報が表示される車両に搭載される。
図1に基づき表示制御装置100の機能構成を説明する。
図1に示すように、表示制御装置100は、撮影装置210、距離計測装置220、眼球位置検出装置230及びHUD310に接続されている。
また、表示制御装置100は、物体画像抽出部110、案内情報取得部120、表示割当て領域指定部130、物体空間座標算出部140、眼球位置検出部150、接線空間座標算出部160及び表示領域決定部170を含む。
撮影装置210は、運転者の頭部付近に設置され、車両の前方の景色を撮影する。
撮影装置210には、物体画像抽出部110で物体画像が抽出可能な撮影画像を撮影可能であれば、可視光カメラ、赤外線カメラなど任意の撮影装置を用いることができる。
物体画像抽出部110は、撮影装置210により撮影された撮影画像から、車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する。
物体画像抽出部110は、抽出条件に従って、運転者が見落とすべきでない物体、運転にとって有用な情報を提供する物体の画像を抽出する。
より具体的には、物体画像抽出部110は、他の車両、歩行者、道路標示、道路標識、信号機等の画像を抽出物体画像として抽出する。
例えば、物体画像抽出部110は、図2の撮影画像211から、歩行者画像1110、道路標識画像1120、車両画像1130、車両画像1140、道路標示画像1150を抽出物体画像として抽出する。
歩行者画像1110には、歩行者111が表されている。
道路標識画像1120には、道路標識112が表されている。
車両画像1130には、車両113が表されている。
車両画像1140には、車両114が表されている。
道路標示画像1150には、道路標示115が表されている。
図2の1110〜1150で示すように、物体画像は物体を四角形の輪郭線で包囲した領域である。
なお、撮影画像から特定の物体の物体画像を検出する技術として、公知の手法がいくつか存在する。
物体画像抽出部110は、任意の公知の手法を用いて抽出条件に合致する物体画像を抽出することができる。
案内情報取得部120は、ウインドシールドに表示する案内情報を取得する。
例えば、地図情報等の経路案内に関する案内情報がウインドシールドに表示される場合は、案内情報取得部120は、ナビゲーション機器から案内情報を取得する。
また、車両に関する案内情報がウインドシールドに表示される場合は、案内情報取得部120は、ECU(Engine Control Unit)から案内情報を取得する。
本実施の形態では、案内情報取得部120は、図3の案内情報121で示すように、四角形の案内情報を取得する。
表示割当て領域指定部130は、撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、案内情報の表示に割当てる表示割当て領域として指定する。
更に、表示割当て領域指定部130は、表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、隣接抽出物体画像の表示割当て領域との接線を特定する。
表示割当て領域指定部130は、例えば、案内情報を撮影画像上で走査して表示割当て領域を探索することができる。
表示割当て領域指定部130は、任意の手法を用いて、表示割当て領域を探索することが可能である。
図4は、表示割当て領域指定部130が指定した表示割当て領域の例を示す。
図4において、破線で囲んだ表示割当て領域131は、撮影画像211上で、案内情報121を表示可能な領域である。
図4の表示割当て領域131は、いずれの物体画像とも重なっておらず、また、道路標識画像1120と車両画像1130とに接する。
表示割当て領域指定部130は、道路標識画像1120と車両画像1130を隣接抽出物体画像として特定する。
また、表示割当て領域指定部130は、道路標識画像1120の表示割当て領域131との接線132と、車両画像1130の表示割当て領域131との接線133を特定する。
図4の表示割当て領域131は、道路標識画像1120と車両画像1130と接しており、接線132と接線133が特定される。
撮影画像211における抽出物体画像の位置によっては、図11又は図12のような表示割当て領域が指定される。
図11の表示割当て領域134は、道路標識画像1120と車両画像1130と信号機画像1160と接しており、接線132と接線133と接線135が特定される。
信号機画像1160は、信号機116を撮影した画像である。
また、図12の表示割当て領域136は、道路標識画像1120と車両画像1130と信号機画像1160と道路標識画像1170と接しており、接線132と接線133と接線135と接線137が特定される。
道路標識画像1170は、道路標識117を撮影した画像である。
なお、図示を省略しているが、1つの抽出物体画像とのみ接する表示割当て領域が指定される場合もある。
例えば、図2の撮影画像211に歩行者画像1110と道路標識画像1120が含まれていない場合には、車両画像1130のみと接している表示割当て領域が指定される。
この場合には、接線133のみが特定される。
距離計測装置220は、車両前方の物体と距離計測装置220の距離を計測する。
距離計測装置220は、一つの物体に対して、その物体上の多くの点との距離を計測することが望ましい。
距離計測装置220は、ステレオカメラ、レーザースキャナー等である。
距離計測装置220は、物体までの距離と物体のおおまかな形状を特定できるものであれば、任意の装置を用いることができる。
物体空間座標算出部140は、表示割当て領域指定部130で特定された隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する。
図4の例では、物体空間座標算出部140は、道路標識画像1120に表される道路標識112の三次元空間座標と、車両画像1130に表される車両113の三次元空間座標を算出する。
物体空間座標算出部140は、距離計測装置220が計測した隣接抽出物体画像に表される物体(道路標識112、車両113)までの距離を用いて、三次元空間座標を算出し、三次元空間座標が撮影画像のどのピクセルに相当するかを決定するキャリブレーションを行う。
眼球位置検出装置230は、運転者の眼球と眼球位置検出装置230との間の距離を検出する。
眼球位置検出装置230は、例えば、運転者の前方に設置した運転者の頭部を撮影するカメラである。
なお、運転者の眼球までの距離を測定できれば、眼球位置検出装置230として、任意の装置を用いることができる。
眼球位置検出部150は、眼球位置検出装置230が検出した運転者の眼球と眼球位置検出装置230との間の距離から、運転者の眼球位置の三次元空間座標を算出する。
接線空間座標算出部160は、表示割当て領域と隣接抽出物体画像との接線が三次元空間に存在すると仮定した場合の接線の三次元空間座標を、接線空間座標として、物体空間座標算出部140が算出した物体空間座標に基づき算出する。
図4の例では、眼球位置検出部150は、接線132が三次元空間に存在すると仮定した場合の接線132の三次元空間座標を道路標識画像1120の物体空間座標に基づき算出する。
また、眼球位置検出部150は、接線133が三次元空間に存在すると仮定した場合の接線133の三次元空間座標を車両画像1130の物体空間座標に基づき算出する。
接線空間座標算出部160は、接線の三次元空間における方程式を決定して、接線の三次元空間座標を算出する。
以下、三次元空間における方程式で表現する隣接抽出物体画像の表示割当て領域との接線を、実空間接線という。
実空間接線は、接線空間座標に沿った仮想線である。
実空間接線は、水平もしくは垂直な直線であり、車両の進行方向と垂直な面上にある。
実空間接線が撮影画像に垂直な線(図4の接線132に対応する実空間接線)の場合、実空間接線が通過する水平方向の座標は、隣接抽出物体画像に表される物体の物体空間座標のうち、最も水平方向で表示割当て領域に近い点の座標である。
実空間接線が撮影画像に水平な線(図4の接線133に対応する実空間接線)の場合、実空間接線が通過する垂直方向の座標は、隣接抽出物体画に表される物体の物体空間座標のうち、最も垂直方向で表示割当て領域に近い点の座標である。
表示領域決定部170は、接線空間座標と、車両の運転者の目の位置の三次元空間座標と、ウインドシールドの位置の三次元空間座標とに基づき、ウインドシールドでの案内情報の表示領域を決定する。
より具体的には、表示領域決定部170は、車両の運転者の目の位置に向けて、接線空間座標に沿った仮想線である実空間接線をウインドシールドに射影させて得られる射影線のウインドシールド内の位置を、接線空間座標と、車両の運転者の目の位置の三次元空間座標と、ウインドシールドの位置の三次元空間座標とに基づき算出する。
そして、表示領域決定部170は、撮影画像で隣接抽出物体画像が1つである場合、すなわち撮影画像の接線が1つである場合は、射影線とウインドシールドの縁によって囲まれる領域をウインドシールド上の案内情報の表示領域として決定する。
また、撮影画像で隣接抽出物体画像が複数ある場合、すなわち撮影画像の接線が複数である場合は、表示領域決定部170は、各接線に対応する実空間接線ごとに射影線のウインドシールド内の位置を算出する。
そして、表示領域決定部170は、複数の射影線とウインドシールドの縁によって囲まれる領域をウインドシールド上の案内情報の表示領域として決定する。
決定された表示領域の内であれば、案内情報をどこに表示してもよい。
表示領域決定部170は、表示領域内で案内情報の表示位置を決定する。
表示領域決定部170は、例えば、案内情報との輝度又は色相の差が大きい位置を表示位置として決定する。
このようにして表示位置を決定することにより、案内表示が背景に紛れて見えなくなることがなくなる。
また、この方法は、表示割当て領域指定部130で探索する表示割当て領域に対して適用してもよい。
ここで、表示領域決定部170による表示領域の決定方法の概要を図13に示す。
図13は、三次元の座標空間を表しており、X軸は水平方向(車両の車幅方向)、Y軸は垂直方向(車両の車高方向)、Z軸は奥行き方向(車両の進行方向)に対応する。
図13の座標の原点(基準点)は、車両内の特定の位置であり、例えば、距離計測装置220が配置されている位置である。
実空間接線1320は、図2の道路標識画像1120の表示割当て領域131との接線132に対応する三次元空間での仮想線である。
面1121は、道路標識画像1120に表される道路標識112の物体空間座標を表す。
面1121のX軸上の位置及びZ軸上の位置は、距離計測装置220により測定された距離計測装置220と道路標識112との間の距離に相当する。
接線132は道路標識画像1120の右端の接線であるため、二次元画像である撮影画像121を三次元空間に展開すると、実空間接線1320は、面1121の右端に配置される。
なお、実空間接線1320の軌道上の三次元空間座標が接線空間座標である。
ウインドシールド仮想面400は、ウインドシールドの形状及び位置に対応する仮想面である。
眼球位置仮想点560は、眼球位置検出部150により検出された運転者の眼球位置に対応する仮想点である。
射影線401は、眼球位置仮想点560に向けて、実空間接線1320を、ウインドシールド仮想面400に射影させた結果である射影線である。
表示領域決定部170は、眼球位置仮想点560に向けて、実空間接線1320を、ウインドシールド仮想面400に射影させて、射影線401のウインドシールド仮想面400の位置を演算により取得する。
つまり、表示領域決定部170は、実空間接線1320内の点と眼球位置仮想点560とを結ぶ線のウインドシールド仮想面400との交点をプロットして射影線401を得る演算を行い、射影線401のウインドシールド仮想面400の位置を算出する。
***動作の説明***
次に、図5を参照して、本実施の形態に係る表示制御装置100、撮影装置210、距離計測装置220、眼球位置検出装置230及びHUD310の動作例を説明する。
なお、図5に示す動作手順のうち表示制御装置100により行われる動作は、表示制御方法及び表示制御プログラムの例に相当する。
S1の案内情報取得処理では、案内情報取得部120が、案内情報を取得し、取得した案内情報を表示割当て領域指定部130に出力する。
また、S2の撮影画像取得処理では、撮影装置210が、車両前方を撮影して、撮影画像を得る。
また、S3の距離取得処理では、距離計測装置220が、車両前方に存在する物体と距離計測装置220との距離を計測する。
また、S4の眼球位置取得処理では、眼球位置検出装置230が、運転者の眼球と眼球位置検出装置230との間の距離を取得する。
なお、S1〜S4は並行して行われてもよいし、順次行われてもよい。
S5の物体画像抽出処理では、物体画像抽出部110が、撮影装置210により撮影された撮影画像から、抽出条件に合致する物体画像を抽出物体画像として抽出する。
S6の眼球位置検出処理では、眼球位置検出部150が、S4の眼球位置取得処理で取得された運転者の眼球と眼球位置検出装置230との間の距離から、運転者の眼球位置の三次元空間座標を算出する。
次に、S7の表示割当て領域指定処理では、表示割当て領域指定部130が、撮影画像内で表示割当て領域を指定し、隣接抽出物体画像と接線とを特定する。
S8の物体空間座標算出処理では、物体空間座標算出部140が、隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する。
なお、S7の表示割当て領域指定処理で複数の隣接抽出物体画像が特定された場合は、物体空間座標算出部140は、隣接抽出物体画像ごとに物体空間座標を算出する。
S9の接線空間座標算出処理では、接線空間座標算出部160が、物体空間座標に基づき、接線空間座標を算出する。
なお、S7の表示割当て領域指定処理で複数の隣接抽出物体画像が特定された場合は、接線空間座標算出部160は、隣接抽出物体画像ごとに接線空間座標を算出する。
次に、S10の表示領域決定処理では、表示領域決定部170が、接線空間座標と、車両の運転者の目の位置の三次元空間座標と、ウインドシールドの位置の三次元空間座標とに基づき、ウインドシールドでの案内情報の表示領域を決定する。
また、表示領域決定部170は、表示領域内で、案内情報の表示位置も決定する。
S11の表示処理では、HUD310が、表示領域決定部170により決定された表示位置に案内情報を表示する。
そして、終了指示、すなわち、HUD310の電源オフの指示があるまで、S1〜S11の処理が繰り返される。
***実施の形態の効果***
以上のように、本実施の形態では、表示制御装置100は、HUD310の投影面(ウインドシールド)上で案内情報を表示可能な領域(表示割当て領域)を囲む物体画像(隣接抽出物体画像)を、撮影装置210で撮影された撮影画像において指定する。
このため、表示制御装置100は、表示割当て領域を囲む隣接抽出物体画像のみを射影するだけで、案内情報の表示位置を決定できる。
従って、特許文献1の方法と特許文献6の方法とを組み合わせる方法よりも少ない射影処理の計算量で案内情報を表示することができる。
実施の形態2.
実施の形態1では、案内情報と抽出物体画像と表示割当て領域の形状を長方形としている。
実施の形態2では、案内情報と抽出物体画像と表示割当て領域の形状を多角形やポリゴン(同一形状の多角形の組み合わせ)で表現する。
つまり、本実施の形態では、案内情報取得部120は、p角形(pは3又は5以上)の案内情報を取得する。
また、物体画像抽出部110は、抽出条件に合致する物体画像をn角形(nは3又は5以上)の輪郭線で包囲して抽出物体画像として抽出する。
また、表示割当て領域指定部130は、撮影画像内で、m角形(mは3又は5以上)の領域を、表示割当て領域として指定する。
なお、本実施の形態では、1つの隣接抽出物体画像に対する実空間接線の数は、隣接抽出物体画像の形状や案内情報の形状によって決まる。
実空間接線は、表示割当て領域と隣接抽出物体画像が接している線分の頂点のピクセルに最も近い隣接抽出物体画像内のピクセルに相当する三次元空間座標を通る直線である。
本実施の形態によれば、より細かく案内情報の形状及び抽出物体画像の形状を表現でき、表示割当て領域の候補を増やすことができる。
ただし、抽出物体画像を多角形で表現する場合、距離計測装置220で物体上の多くの点について距離を検出する必要がある。
実施の形態3.
実施の形態1では、案内情報の形状は固定されている。
実施の形態3では、案内情報の形状に適合する表示割当て領域が見つからない場合に案内情報の形状を変形する。
図6は、本実施の形態に係る表示制御装置100の機能構成例を示す。
図6において、図1との違いは、案内情報変形部180が追加されている点である。
案内情報変形部180は、案内情報の形状に適合する表示割当て領域が存在しない場合に、案内情報の形状を変形させる。
案内情報変形部180以外の要素は、図1と同じである。
図7は、本実施の形態に係る動作例を示す。
図7において、S1〜S4は、図5に示したものと同じであるため、説明を省略する。
S12の変形方法/変形量指定処理では、案内情報変形部180による案内情報の変形方法及び変形量が指定される。
例えば、案内情報変形部180が、既定の記憶領域から、案内情報の変形方法及び変形量が定義されたデータを読み出すことにより、案内情報変形部180による案内情報の変形方法及び変形量が指定される。
なお、変形方法は、案内情報の形状の縮小又は圧縮である。
縮小は、案内情報の要素間の比率を維持したまま案内情報のサイズを縮めることであり、案内情報が四角形であれば、四角形の縦横の比率は維持したまま案内情報のサイズを縮めることである。
圧縮は、案内情報の要素間の比率を変化させて案内情報のサイズを縮めることであり、案内情報が四角形であれば、四角形の縦横の比率を変化させて案内情報のサイズを縮めることである。
また、変形量は、案内情報の形状の縮小が行われる場合は、1回の縮小処理での縮小量であり、案内情報の形状の圧縮が行われる場合は、1回の圧縮処理での圧縮量である。
S5〜S7は、図5に示したものと同じであるため、説明を省略する。
S7の表示割当て領域指定処理において表示割当て領域指定部130が案内情報の形状に適合する形状の表示割当て領域を取得できなかった場合、すなわち、デフォルトの案内情報のサイズを包含できる表示割当て領域を取得できなかった場合には、S13の案内情報変形処理が行われる。
S13の案内情報変形処理では、案内情報変形部180が、S12で指定された変形方法及び変形量に従って、案内情報の形状を変形させる。
表示割当て領域指定部130は、再度、S7の表示割当て領域指定処理を行い、変形後の案内情報の形状に適合する表示割当て領域を探索する。
案内情報の形状に適合する表示割当て領域が見つかるまで、S7及びS13そのが繰り返される。
本実施の形態では、案内情報の形状に適合する表示割当て領域が見つからない場合には、案内情報の形状を変形させるため、表示割当て領域の候補を増やすことができる。
実施の形態4.
実施の形態1では、図5に示す動作手順が1秒間に20回〜30回程度繰り返されることを想定している。
つまり、実施の形態1では、1秒間に20〜30回の頻度で、撮影装置210により新たな撮影画像が得られ、物体画像抽出部110が、新たに得られた撮影画像から抽出物体画像を抽出する。
そして、物体空間座標算出部140が、1秒間に20〜30回の頻度で、新たに抽出された抽出物体画像に基づいて、新たな表示割当て領域を指定している。
しかしながら、一般的に、車両の前方にある物体の組合せはミリ秒単位では変化しない。
つまり、HUDの表示更新直後は、表示割当て領域に隣接する物体は直前と同じ物体である可能性が高い。
このため、本実施の形態では、各サイクルにおいて、新たに得られた撮影画像から抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれているかを追跡する。
そして、新たに得られた撮影画像から抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれている場合は、S7の表示割当て領域指定処理が省略される。
図8は、本実施の形態に係る表示制御装置100の機能構成例を示す。
図8において、図1との違いは、物体画像追跡部190が追加されている点である。
物体画像追跡部190は、表示割当て領域指定部130により表示割当て領域が指定され、隣接抽出物体画像が特定された後に、新たに得られた撮影画像から物体画像抽出部110により抽出物体画像が抽出される度に、物体画像抽出部110により抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれるか否かを判定する。
そして、本実施の形態では、表示割当て領域指定部130は、物体画像追跡部190により、物体画像抽出部110により抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれると判定された場合に、表示割当て領域の指定を省略する。
すなわち、以前のサイクルで指定された表示割当て領域、隣接抽出物体画像及び接線が、再利用される。
物体画像抽出部110及び物体画像追跡部190以外の要素は、図1と同じである。
次に、図9及び図10は、本実施の形態に係る動作例を示す。
図9において、S1〜S4は、図5に示したものと同じであるため、説明を省略する。
S14の物体画像追跡処理では、物体画像追跡部190が、物体空間座標算出部140で指定された表示割当て領域の隣接抽出画像を追跡する。
すなわち、物体画像追跡部190は、新たに得られた撮影画像から物体画像抽出部110により抽出された抽出物体画像に隣接抽出物体画像として特定された物体画像が含まれるか否かを判定する。
物体空間座標算出部140は、カウント値kが規定回数未満であり、また、物体画像追跡部190により追跡中の物体画像が検出されたか否かを判定する。
カウント値kが規定回数以上である場合又は物体画像追跡部190が追跡中の物体画像で検出できなかった場合は、物体空間座標算出部140は、カウント値kを「0」にリセットし、S7の表示割当て領域指定処理を行う。
S7の表示割当て領域指定処理は、図5に示したものと同じであるため、説明を省略する。
また、S8以降の処理は、図5に示したものと同じであるため、説明を省略する。
一方、カウント値kが規定回数未満であり、また、物体画像追跡部190により追跡中の物体画像が検出された場合は、物体空間座標算出部140は、カウント値kをインクリメントし、また、S7の表示割当て領域指定処理を省略する。
この結果、S8以降の処理は、前回のループと同じ表示割当て領域、隣接抽出物体画像及び接線に対して行われる。
なお、S8以降の処理は、図5に示したものと同じであるため、説明を省略する。
規定回数は、図9のフローが一周する時間が短い場合は大きな値を、長い場合は小さな値を入れることが望ましい。
例えば、規定回数として、5〜10が想定される。
本実施の形態では、隣接抽出画像を追跡することにより、表示割当て領域を探索する頻度を減らすことができ、表示制御装置の計算量を抑制することができる。
***ハードウェア構成例の説明***
最後に、表示制御装置100のハードウェア構成例を図14を参照して説明する。
表示制御装置100はコンピュータである。
表示制御装置100は、プロセッサ901、補助記憶装置902、メモリ903、デバイスインタフェース904、入力インタフェース905、HUDインタフェース906といったハードウェアを備える。
プロセッサ901は、信号線910を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
デバイスインタフェース904は、信号線913を介してデバイス908に接続されている。
入力インタフェース905は、信号線911を介して入力装置907に接続されている。
HUDインタフェース906は、信号線912を介してHUD301に接続されている。
プロセッサ901は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ901は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
補助記憶装置902は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)である。
メモリ903は、例えば、RAM(Random Access Memory)である。
デバイスインタフェース904はデバイス908と接続されている。
デバイス908は、図1等に示す撮影装置210、距離計測装置220及び眼球位置検出装置230である。
入力インタフェース905は入力装置907と接続されている。
HUDインタフェース906は、図1等に示すHUD301と接続されている。
入力装置907は、例えばタッチパネルである。
補助記憶装置902には、図1に示す物体画像抽出部110、案内情報取得部120、表示割当て領域指定部130、物体空間座標算出部140、眼球位置検出部150、接線空間座標算出部160、表示領域決定部170、図6に示す案内情報変形部180、図8に示す物体画像追跡部190(以下、これらをまとめて「部」と表記する)の機能を実現するプログラムが記憶されている。
このプログラムは、メモリ903にロードされ、プロセッサ901に読み込まれ、プロセッサ901によって実行される。
更に、補助記憶装置902には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ903にロードされ、プロセッサ901はOSを実行しながら、「部」の機能を実現するプログラムを実行する。
図14では、1つのプロセッサ901が図示されているが、表示制御装置100が複数のプロセッサ901を備えていてもよい。
そして、複数のプロセッサ901が「部」の機能を実現するプログラムを連携して実行してもよい。
また、「部」の処理の結果を示す情報やデータや信号値や変数値が、メモリ903、補助記憶装置902、又は、プロセッサ901内のレジスタ又はキャッシュメモリに記憶される。
「部」を「サーキットリー」で提供してもよい。
また、「部」を「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
「回路」及び「サーキットリー」は、プロセッサ901だけでなく、ロジックIC又はGA(Gate Array)又はASIC(Application Specific Integrated Circuit)又はFPGA(Field−Programmable Gate Array)といった他の種類の処理回路をも包含する概念である。
100 表示制御装置、110 物体画像抽出部、120 案内情報取得部、130 表示割当て領域指定部、140 物体空間座標算出部、150 眼球位置検出部、160 接線空間座標算出部、170 表示領域決定部、180 案内情報変形部、190 物体画像追跡部、210 撮影装置、220 距離計測装置、230 眼球位置検出装置、310 HUD。

Claims (8)

  1. ウインドシールドに案内情報が表示される車両に搭載され、
    前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する物体画像抽出部と、
    前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定する表示割当て領域指定部と、
    前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する物体空間座標算出部と、
    前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出する接線空間座標算出部と、
    前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示領域決定部とを有する表示制御装置。
  2. 前記表示領域決定部は、
    前記車両の運転者の目の位置に向けて、前記接線空間座標に沿った仮想線を前記ウインドシールドに射影させて得られる射影線の前記ウインドシールド内の位置を、前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき算出し、
    前記射影線の前記ウインドシールド内の位置に基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する請求項1に記載の表示制御装置。
  3. 前記表示割当て領域指定部は、
    前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、複数の抽出物体画像と接する領域を、前記表示割当て領域として指定し、前記表示割当て領域と接する複数の隣接抽出物体画像を特定し、隣接抽出物体画像ごとに、前記表示割当て領域との接線を特定し、
    前記物体空間座標算出部は、
    隣接抽出物体画像ごとに、物体空間座標を算出し、
    前記接線空間座標算出部は、
    隣接抽出物体画像ごとに、接線空間座標を算出し、
    前記表示領域決定部は、
    複数の接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する請求項1に記載の表示制御装置。
  4. 前記物体画像抽出部は、
    前記抽出条件に合致する物体画像をn角形(nは3又は5以上)の輪郭線で包囲して前記抽出物体画像として抽出し、
    前記表示割当て領域探索部は、
    前記撮影画像内で、m角形(mは3又は5以上)の領域を、前記表示割当て領域として指定する請求項1に記載の表示制御装置。
  5. 前記表示制御装置は、更に、
    前記案内情報の形状に適合する表示割当て領域が存在しない場合に、前記案内情報の形状を変形させる案内情報変形部を有する請求項1に記載の表示制御装置。
  6. 前記物体画像抽出部は、
    新たに撮影画像が得られる度に、新たに得られた撮影画像から抽出物体画像を抽出する動作を繰り返し、
    前記表示制御装置は、更に、
    前記表示割当て領域指定部により前記表示割当て領域が指定され、前記隣接抽出物体画像が特定された後に、新たに得られた撮影画像から前記物体画像抽出部により抽出物体画像が抽出される度に、前記物体画像抽出部により抽出された抽出物体画像に前記隣接抽出物体画像として特定された物体画像が含まれるか否かを判定する物体画像追跡部を有し、
    前記表示割当て領域指定部は、
    前記物体画像追跡部により、前記物体画像抽出部により抽出された抽出物体画像に前記隣接抽出物体画像として特定された物体画像が含まれると判定された場合に、前記表示割当て領域の指定を省略する請求項1に記載の表示制御装置。
  7. ウインドシールドに案内情報を表示する車両に搭載されるコンピュータが、
    前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出し、
    前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定し、
    前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出し、
    前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出し、
    前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示制御方法。
  8. ウインドシールドに案内情報を表示する車両に搭載されるコンピュータに、
    前記車両の前方を撮影した撮影画像から、前記車両の前方に存在する複数の物体を表す複数の物体画像のうち抽出条件に合致する物体画像を抽出物体画像として抽出する物体画像抽出処理と、
    前記撮影画像内で、いずれの抽出物体画像とも重ならない領域であって、いずれかの抽出物体画像と接する領域を、前記案内情報の表示に割当てる表示割当て領域として指定し、前記表示割当て領域と接する抽出物体画像である隣接抽出物体画像を特定し、前記隣接抽出物体画像の前記表示割当て領域との接線を特定する表示割当て領域指定処理と、
    前記隣接抽出物体画像に表される物体の三次元空間座標を物体空間座標として算出する物体空間座標算出処理と、
    前記接線が三次元空間に存在すると仮定した場合の前記接線の三次元空間座標を、接線空間座標として、前記物体空間座標に基づき算出する接線空間座標算出処理と、
    前記接線空間座標と、前記車両の運転者の目の位置の三次元空間座標と、前記ウインドシールドの位置の三次元空間座標とに基づき、前記ウインドシールドでの前記案内情報の表示領域を決定する表示領域決定処理とを実行させる表示制御プログラム。
JP2017503645A 2015-06-30 2015-06-30 表示制御装置及び表示制御方法及び表示制御プログラム Expired - Fee Related JP6239186B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/068893 WO2017002209A1 (ja) 2015-06-30 2015-06-30 表示制御装置及び表示制御方法及び表示制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2017002209A1 true JPWO2017002209A1 (ja) 2017-06-29
JP6239186B2 JP6239186B2 (ja) 2017-11-29

Family

ID=57608122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017503645A Expired - Fee Related JP6239186B2 (ja) 2015-06-30 2015-06-30 表示制御装置及び表示制御方法及び表示制御プログラム

Country Status (5)

Country Link
US (1) US20170351092A1 (ja)
JP (1) JP6239186B2 (ja)
CN (1) CN107532917B (ja)
DE (1) DE112015006662T5 (ja)
WO (1) WO2017002209A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101916993B1 (ko) * 2015-12-24 2018-11-08 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어방법
JP6872441B2 (ja) * 2017-06-30 2021-05-19 マクセル株式会社 ヘッドアップディスプレイ装置
WO2019058492A1 (ja) * 2017-09-22 2019-03-28 マクセル株式会社 表示システム及び表示方法
CN108082083B (zh) 2018-01-16 2019-11-01 京东方科技集团股份有限公司 一种被遮挡对象的显示方法和显示系统以及车载防撞系统
JP7255321B2 (ja) * 2019-04-03 2023-04-11 スズキ株式会社 車両用表示制御装置
CN111861865B (zh) * 2019-04-29 2023-06-06 精工爱普生株式会社 电路装置、电子设备以及移动体
CN112484743B (zh) * 2020-12-03 2022-09-20 安徽中科新萝智慧城市信息科技有限公司 车载hud融合实景导航显示方法及其系统
US11605152B1 (en) * 2021-06-22 2023-03-14 Arnold Chase Dynamic positional control system
CN116152883B (zh) * 2022-11-28 2023-08-11 润芯微科技(江苏)有限公司 一种车载眼球识别和前玻璃智能局部显示的方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004322680A (ja) * 2003-04-21 2004-11-18 Denso Corp ヘッドアップディスプレイ装置
JP2006162442A (ja) * 2004-12-07 2006-06-22 Matsushita Electric Ind Co Ltd ナビゲーション装置及びナビゲーション方法
JP2008280026A (ja) * 2007-04-11 2008-11-20 Denso Corp 運転支援装置
JP2013203374A (ja) * 2012-03-29 2013-10-07 Denso It Laboratory Inc 車両用表示装置、その制御方法及びプログラム
JP2014181927A (ja) * 2013-03-18 2014-09-29 Aisin Aw Co Ltd 情報提供装置、及び情報提供プログラム
JP2015000629A (ja) * 2013-06-14 2015-01-05 株式会社デンソー 車載表示装置およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4487188B2 (ja) * 2004-10-25 2010-06-23 ソニー株式会社 情報処理装置および方法、プログラム、並びにナビゲーション装置
JP2007094045A (ja) * 2005-09-29 2007-04-12 Matsushita Electric Ind Co Ltd ナビゲーション装置、ナビゲート方法および車両
JP4783620B2 (ja) * 2005-11-24 2011-09-28 株式会社トプコン 3次元データ作成方法及び3次元データ作成装置
CN101617197B (zh) * 2007-02-16 2011-06-22 三菱电机株式会社 测量装置、测量方法及地物识别装置
JP5346650B2 (ja) 2009-03-31 2013-11-20 株式会社エクォス・リサーチ 情報表示装置
JP5786574B2 (ja) * 2011-09-12 2015-09-30 アイシン・エィ・ダブリュ株式会社 画像表示制御システム、画像表示制御方法および画像表示制御プログラム
JP6328366B2 (ja) 2012-08-13 2018-05-23 アルパイン株式会社 ヘッドアップディスプレイの表示制御装置および表示制御方法
KR20140054909A (ko) * 2012-10-30 2014-05-09 팅크웨어(주) 광각 렌즈 카메라 영상을 이용한 내비게이션 안내 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004322680A (ja) * 2003-04-21 2004-11-18 Denso Corp ヘッドアップディスプレイ装置
JP2006162442A (ja) * 2004-12-07 2006-06-22 Matsushita Electric Ind Co Ltd ナビゲーション装置及びナビゲーション方法
JP2008280026A (ja) * 2007-04-11 2008-11-20 Denso Corp 運転支援装置
JP2013203374A (ja) * 2012-03-29 2013-10-07 Denso It Laboratory Inc 車両用表示装置、その制御方法及びプログラム
JP2014181927A (ja) * 2013-03-18 2014-09-29 Aisin Aw Co Ltd 情報提供装置、及び情報提供プログラム
JP2015000629A (ja) * 2013-06-14 2015-01-05 株式会社デンソー 車載表示装置およびプログラム

Also Published As

Publication number Publication date
US20170351092A1 (en) 2017-12-07
DE112015006662T5 (de) 2018-05-03
CN107532917A (zh) 2018-01-02
JP6239186B2 (ja) 2017-11-29
WO2017002209A1 (ja) 2017-01-05
CN107532917B (zh) 2018-06-12

Similar Documents

Publication Publication Date Title
JP6239186B2 (ja) 表示制御装置及び表示制御方法及び表示制御プログラム
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
US10331962B2 (en) Detecting device, detecting method, and program
US9454704B2 (en) Apparatus and method for determining monitoring object region in image
JP6491517B2 (ja) 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
KR101973917B1 (ko) 3차원 계측 장치 및 그 계측 지원 처리 방법
JP2011505610A (ja) 画像センサデータに距離センサデータをマッピングする方法及び装置
US20150178922A1 (en) Calibration device, method for implementing calibration, and camera for movable body and storage medium with calibration function
JP6599697B2 (ja) 画像測定装置及びその制御プログラム
KR20130057699A (ko) 자이로스코프의 센서 정보와 차선 정보를 이용한 증강현실 뷰 모드 표현 방법 및 그 장치
US9846819B2 (en) Map image display device, navigation device, and map image display method
JP2015206654A (ja) 情報処理装置、情報処理方法、プログラム
JP2007278869A (ja) 測距装置、車両の周辺監視装置、測距方法、および測距用プログラム
JP2021043141A (ja) 物体距離推定装置及び物体距離推定方法
JP6385621B2 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
US11354896B2 (en) Display device, display method, and computer program
US20220397393A1 (en) Shielding detection device and computer readable medium
JP2024032396A (ja) 情報処理装置、情報処理方法およびプログラム
JP6060612B2 (ja) 移動面状況認識装置、移動体、及びプログラム
JP2012027595A (ja) 発進報知装置、発進報知方法及びプログラム
JP2022136366A (ja) 接近検知装置、接近検知方法、及びプログラム
KR20220160850A (ko) 소실점을 추정하는 방법 및 장치
JP2005275568A (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6239186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees