JPWO2019235245A1 - 情報処理装置、情報処理方法、及び、情報処理システム - Google Patents

情報処理装置、情報処理方法、及び、情報処理システム Download PDF

Info

Publication number
JPWO2019235245A1
JPWO2019235245A1 JP2020523620A JP2020523620A JPWO2019235245A1 JP WO2019235245 A1 JPWO2019235245 A1 JP WO2019235245A1 JP 2020523620 A JP2020523620 A JP 2020523620A JP 2020523620 A JP2020523620 A JP 2020523620A JP WO2019235245 A1 JPWO2019235245 A1 JP WO2019235245A1
Authority
JP
Japan
Prior art keywords
vehicle
image
sensor
information processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020523620A
Other languages
English (en)
Other versions
JP7414715B2 (ja
Inventor
航太 米澤
航太 米澤
智詞 中山
智詞 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of JPWO2019235245A1 publication Critical patent/JPWO2019235245A1/ja
Application granted granted Critical
Publication of JP7414715B2 publication Critical patent/JP7414715B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • B60R16/0232Circuits relating to the driving or the functioning of the vehicle for measuring vehicle parameters and indicating critical, abnormal or dangerous conditions
    • B60R16/0234Circuits relating to the driving or the functioning of the vehicle for measuring vehicle parameters and indicating critical, abnormal or dangerous conditions related to maintenance or repairing of vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/48Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for in-vehicle communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/162Visual feedback on control action
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/171Vehicle or relevant part thereof displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/566Mobile devices displaying vehicle information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/55Remote control arrangements
    • B60K2360/56Remote control arrangements using mobile devices
    • B60K2360/573Mobile devices controlling vehicle functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S3/00Vehicle cleaning apparatus not integral with vehicles
    • B60S3/04Vehicle cleaning apparatus not integral with vehicles for exteriors of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Hardware Redundancy (AREA)

Abstract

本技術は、車両に搭載されたセンサの中の不具合があるセンサの位置を、ユーザが容易に認識することができるようにする情報処理装置、情報処理方法、及び、情報処理システムに関する。車両に対する相対的な位置又は方向に関する位置関連情報が取得され、その位置関連情報に応じて、車両が映る車両画像に、車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像が表示される。本技術は、例えば、車両に搭載されたセンサの中の不具合があるセンサを、ユーザに認識させる場合に適用できる。

Description

本技術は、情報処理装置、情報処理方法、及び、情報処理システムに関し、特に、例えば、車両に搭載されたセンサの中の不具合があるセンサの位置を、ユーザが容易に認識することができるようにする情報処理装置、情報処理方法、及び、情報処理システムに関する。
近年、自動ブレーキ等の運転支援等のために、四輪等の自動車では、車外に、カメラ等の多数のセンサが搭載されつつある。
車外に搭載されたセンサには、汚れが付着しやすく、センサに付着した汚れは、センサのセンシングを妨げるため、センサに付着した汚れを洗浄する必要がある。
例えば、特許文献1には、センサとしてのカメラで撮影された画像を、携帯端末に表示し、センサの汚れ具合を、ユーザに報知する技術が提案されている。
特開2012-106557号公報
センサとしてのカメラで撮影された画像を、携帯端末に表示する場合、ユーザは、カメラに汚れがあることを認識することができるが、その汚れがあるカメラが搭載されている位置(自動車における位置)を認識することは困難である。そして、汚れがあるカメラの位置が不明である場合には、ユーザは、センサに付着した汚れを洗浄することが困難である。
本技術は、このような状況に鑑みてなされたものであり、車両に搭載されたセンサの中の、汚れ等の不具合があるセンサの位置を、ユーザが容易に認識することができるようにするものである。
本技術の情報処理装置は、車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部とを備える情報処理装置である。
本技術の情報処理方法は、車両に対する相対的な位置又は方向に関する位置関連情報を取得することと、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させることとを含む情報処理方法である。
本技術の情報処理システムは、車両に搭載されるセンサと、前記センサの不具合を検出する不具合検出部と、画像を表示する表示部と、前記車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部とを備える情報処理システムである。
本技術の情報処理装置、情報処理方法、及び、情報処理システムにおいては、車両に対する相対的な位置又は方向に関する位置関連情報が取得され、前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像が表示される。
なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
また、情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術によれば、車両に搭載されたセンサの中の不具合があるセンサの位置を、ユーザが容易に認識することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した情報処理システムとしての車両制御システムの一実施の形態の概要を示す図である。 車両1の電気的構成例を示すブロック図である。 車外端末40の電気的構成例を示すブロック図である。 合成画像の第1の表示例としてのAR(Augmented Reality)表示を説明する図である。 合成画像の第2の表示例としてのVR(Virtual Reality)表示を説明する図である。 合成画像の第3の表示例としての俯瞰表示を説明する図である。 報知処理に同期した車両1の設備の制御の例を説明する図である。 車両制御装置10の報知処理を説明するフローチャートである。 車外端末40の報知処理を説明するフローチャートである。 汚れの位置を表す画像を含む不具合画像の表示の表示例を示す図である。 発光部を有するセンサ30の構成例を示す断面図及び平面図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
<本技術を適用した情報処理システムの一実施の形態>
図1は、本技術を適用した情報処理システムとしての車両制御システムの一実施の形態の概要を示す図である。
図1において、車両制御システムは、車両1及び車外端末40を有する。
車両1は、例えば、4輪の乗用車あり、車両制御装置10を内蔵している。さらに、車両1は、ヘッドライト、テールライト、その他、LED(Light Emitting Diode)やランプ等の車両1に装備された発光部としての車載ライト20及び20、並びに、カメラ等のセンサ30,30,30,30、及び、30等を、車外に搭載している。
車両制御装置10は、センサ30(本実施の形態では、i=1,2,3,4,5)から供給されるセンサ情報に応じて、運転支援等のための各種の制御を行う。また、車両制御装置10は、車載ライト20及び20の点灯や消灯等の制御を行う。
さらに、車両制御装置10は、車外端末40との間で、無線通信を行い、各種の情報をやりとりする。
例えば、車両制御装置10は、センサ30からのセンサ情報に応じて、センサ30の不具合を検出し、その不具合があるセンサ30の(車両1上の)位置等を含む不具合情報を生成して、車外端末40に送信する。また、車両制御装置10は、車外端末40から送信されてくる位置関連情報や清掃終了通知を受信する。
車両制御装置10は、車外端末40からの位置関連情報に応じて、不具合があるセンサ30に近い車載ライト20(本実施の形態では、j=1,2)を点灯させる。また、車両制御装置10は、車外端末40からの清掃終了通知に応じて、車載ライト20を消灯させる。
車外端末40は、例えば、スマートフォン等のユーザ(例えば、車両1の運転者等)が携帯可能な携帯端末等の情報処理装置であり、車両制御装置10との間で、無線通信を行い、各種の情報をやりとりする。
例えば、車外端末40は、車両に対する車外端末40の相対的な位置又は方向に関する位置関連情報を取得し、車両制御装置10に送信する。また、車外端末40は、ユーザの操作に応じて、センサ30の不具合としての、例えば、汚れの清掃が終了した旨の清掃終了通知を、車両制御装置10に送信する。
さらに、車外端末40は、車両制御装置10から送信されてくる不具合情報を受信する。車外端末40は、車両制御装置10からの不具合情報から、不具合があるセンサ30の位置を表す不具合画像を生成し、位置関連情報に応じて、車両1が映る車両画像に、不具合画像を合成する。そして、車外端末40は、車両画像に不具合画像を合成した合成画像を、表示部145に表示させる。
図1では、車外端末40において、車両1上の不具合があるセンサ30の位置を表す黒で塗りつぶされた円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とが、不具合画像として、その不具合画像が車両画像に合成(重畳)された合成画像が表示されている。
以上のように、図1の車両制御システムでは、車外端末40において、車両1が映る車両画像に、車両1に搭載された不具合があるセンサ30の位置を表す不具合画像を合成した合成画像が表示されるので、ユーザは、車外に車外端末40を携帯して、合成画像を見ることにより、車両1に搭載されたセンサ30ないし30の中の不具合があるセンサ30の位置を容易に認識することができる。
ここで、車外にセンサ30が搭載された車両1において、センサ30に汚れがあること等の不具合が、車両制御装置10により検出された場合、ユーザ自身が車外に出て、センサ30を清掃する必要があるケースがある。例えば、車両1が、センサ30を、水や洗浄液、エア等で自動洗浄する洗浄システムを搭載していない場合や、洗浄システムを搭載していても、洗浄システムによってセンサ30の汚れを取りきれない場合には、ユーザが車外に出て、センサ30を清掃する必要がある。
ユーザが車外に出て、センサ30を清掃する場合、ユーザが、汚れがあるセンサ30の車両1上の位置や、必要に応じて、汚れの状況を認識する必要がある。センサ30の汚れの情報が、車両1の車内のディスプレイに表示されるだけの場合、ユーザは、ディスプレイの表示を見て、汚れがあるセンサ30の位置や汚れの状況を記憶し、さらに、車外に出て、汚れがあるセンサ30を見つけて、清掃する必要がある。また、汚れがあるセンサ30の清掃後、センサ30の汚れが除去され、センサ30が問題ない状態になったと、車両制御装置10が判定するかどうか、すなわち、センサ30について、汚れが検出されない状態になったかどうかを、ユーザは、車外から車内に戻って確認する必要がある。
さらに、将来的には、車両1が自動運転車両として実現された場合、センシングのロバスト性を向上させるために、車両1に搭載されるセンサ30の数が多くなり、しかも、センサ30が小型化されることが予想される。そして、自動運転車両が普及した世の中では、自動配車されるタクシーや、カーシェアの自動車等の、自分の所有物ではない車両を使用する機会が多くなることが予想される。このように、車両1が、自分の所有物ではない車両である場合には、車両1を使用するユーザは、センサ30が搭載されている車両1上の位置や、センサ30の搭載の状態を把握していないため、汚れがあるセンサ30を見つけるのに、時間を要することが予想される。
そこで、例えば、汚れがあるセンサ30に近い位置のライト(例えば、車載ライト20等)を点滅させることや、汚れがあるセンサ30に近い位置で音を出力することで、ユーザに、汚れがあるセンサ30の位置を認識させる方法が考えられる。
しかしながら、上述のように、車両1に搭載されるセンサ30の数が多くなった場合、ライトの近くに、多数のセンサ30が存在することがある。この場合、汚れがあるセンサ30に近い位置のライトを点滅させても、ユーザが、汚れがあるセンサ30の位置を容易に認識することが困難であることがある。
そこで、図1の車両制御システムでは、上述のように、携帯可能な車外端末40において、車両1が映る車両画像に、車両1に搭載された不具合があるセンサ30の位置を表す不具合画像を合成した合成画像が表示される。この場合、ユーザは、車外に車外端末40を携帯して、合成画像を見ることにより、車両1に搭載されたセンサ30ないし30の中で、汚れ等の不具合があるセンサ30の位置を容易に認識することができる。
なお、車両1としては、4輪の乗用車の他、トラクタ等の農業用の車両や、ショベルカー等の建設用の車両、戦車、その他の任意の車両を採用することができる。また、車両1に代えて、ドローンや、飛行機、ロボット、その他のセンサが搭載される任意の装置を採用することができる。
さらに、センサ30の不具合には、ゴミや、虫、泥等の汚れ(センシングの障害になる障害物)の付着の他、センサ30の故障、その他の任意の不具合が含まれる。以下では、センサ30の不具合として、汚れ(の付着)を採用することとする。
また、センサ30としては、カメラ(ステレオカメラを含む)や、測距センサ(ToF(Time of Flight)センサ、LIDAR(Light Detection and Ranging)センサ、ミリ波センサ等)、加速度センサ、温度センサ、その他の任意のセンサを採用することができる。
さらに、図1では、5個のセンサ30ないし30が、車両1に搭載されているが、車両1に搭載されるセンサ30の数は、5個に限定されるものではない。
また、車両制御装置10と車外端末40との間で行われる(双方向)無線通信の方式としては、例えば、無線LAN(Local Area Network)やBluetooth(登録商標)等の任意の方式を採用することができる。
さらに、車両制御装置10と車外端末40との間の無線通信は、ピアトゥピアで行ってもよいし、インターネット等のネットワーク経由で行ってもよい。
また、車外端末40は、例えば、専用端末により実現することもできるし、スマートフォン等の汎用の情報処理装置にアプリケーションを実行させることにより実現することもできる。さらに、車外端末40は、車両制御装置10の着脱可能な1つのブロックとして構成することもできる。
<車両1の電気的構成例>
図2は、図1の車両1の電気的構成例を示すブロック図である。
車両1は、図1で説明したように、車両制御装置10、車載ライト20及び20、並びに、カメラ等のセンサ30ないし30を有する。
車両制御装置10は、表示部111、入力部112、情報処理部113、通信部114、及び、115を有する。
表示部111は、情報処理部113の制御に従い、各種の情報を表示する。
入力部112は、ユーザによって操作され、ユーザの操作に対応する入力情報を、情報処理部113に供給する。入力情報が入力部112から情報処理部113に供給されると、情報処理部113は、入力部112からの入力情報に応じた処理を行う。
なお、表示部111及び入力部112は、例えば、タッチパネル等を用いて、一体的に構成することができる。
情報処理部113は、車両制御装置10を構成する各ブロックの制御、その他各種の処理を行う。
通信部114は、車載ライト20やセンサ30等との間で、有線通信を行う。
例えば、通信部114は、情報処理部113から供給されるライト制御情報を、車載ライト20に送信する。車載ライト20は、通信部114からのライト制御情報に従い、点灯し、点滅し、若しくは、消灯し、又は、発光の向きや強度を変更する。
また、例えば、通信部114は、センサ30から送信されてくるセンサ情報を受信し、情報処理部113に供給する。センサ30のセンサ情報には、そのセンサ30で行われたセンシングのセンシング結果(例えば、カメラの撮影により得られるRGB(Red, Green, Blue)等を画素値として有する撮影画像や、測距センサの測距により得られる距離を画素値として有する距離画像等)と、センサ30の不具合としての汚れの汚れ状況等とが含まれる。情報処理部113は、通信部114からのセンサ30のセンサ情報に応じて、センサ30の不具合としての汚れを検出し、センサ30について、汚れがあるかどうかを表す不具合情報を生成する。さらに、情報処理部113は、センサ30の不具合情報に、そのセンサ30の(車両1上の)位置を表すセンサ位置情報を含め、通信部115に供給して、車外端末40に送信させる。
通信部115は、車外端末40等との間で、無線通信を行う。
例えば、通信部115は、情報処理部113から供給されるセンサ30の不具合情報を、車外端末40に送信する。
また、例えば、通信部115は、車外端末40から送信されてくる位置関連情報や清掃終了通知を受信し、情報処理部113に供給する。
車外端末40から送信されてくる位置関連情報は、車外端末40の、車両1に対する相対的な位置又は方向に関する情報であり、情報処理部113は、位置関連情報から、車外端末40の、車両1に対する相対的な位置(以下、単に、相対位置ともいう)を求める。すなわち、位置関連情報が、車外端末40の、車両1に対する相対的な位置を表す場合、情報処理部113は、位置関連情報が表す相対的な位置を、車外端末40の相対位置として採用する。また、位置関連情報が、車外端末40の、車両1に対する相対的な方向を表す場合、情報処理部113は、例えば、位置関連情報が表す相対的な方向の、車両1から所定の距離の位置を、車外端末40の相対位置として求める。そして、情報処理部113は、車外端末40の相対位置等に応じて、車載ライト20を制御するライト制御情報を、通信部114に供給して、車載ライト20に送信させることで、車載ライト20を制御する。
車外端末40から送信されてくる清掃終了通知は、汚れがあるセンサ30の清掃が終了した旨の通知であり、情報処理部113は、通信部115から清掃終了通知が供給されると、情報処理部113は、再び、通信部114からのセンサ30のセンサ情報に応じて、センサ30の不具合としての汚れ(の有無)を検出し、不具合情報を生成することを繰り返す。
<車外端末40の電気的構成例>
図3は、図1の車外端末40の電気的構成例を示すブロック図である。
車外端末40は、通信部141、情報処理部142、カメラ144、及び、表示部145を有する。
通信部141は、車両制御装置10等との間で、無線通信を行う。
例えば、通信部141は、情報処理部142(の制御部155)から供給される位置関連情報や清掃終了通知を、車両制御装置10に送信する。また、通信部141は、車両制御装置10(の通信部115)から送信されてくる不具合情報を受信し、情報処理部142(の制御部155)に供給する。
情報処理部142は、車両制御装置10を構成する各ブロックの制御、その他各種の処理を行う。
情報処理部142は、画像処理部151、位置関連情報取得部152、画像生成部153、表示制御部154、及び、制御部155を有する。
画像処理部151には、カメラ144で撮影された撮影画像が供給される。画像処理部151は、カメラ144からの撮影画像が、車両1が映る車両画像である場合、その車両画像である撮影画像を、位置関連情報取得部152に供給するとともに、必要に応じて、表示制御部154に供給する。
また、画像処理部151は、車両画像である撮影画像から、車両1のCG(Computer Graphics)を生成し、そのCGとしての車両画像を、表示制御部154に供給する。
位置関連情報取得部152は、画像処理部151からの車両画像である撮影画像等を用い、例えば、SLAM(Simultaneous Localization and Mapping)によって、車外端末40の、車両1に対する相対的な位置又は方向に関する位置関連情報を推定することにより取得し、画像生成部153、及び、制御部155に供給する。
ここで、位置関連情報取得部152では、SLAMにより、車外端末40の位置関連情報を取得することとしたが、車外端末40の位置関連情報は、その他の任意の方法で取得することができる。
例えば、車外端末40の位置関連情報は、車両画像である撮影画像に映る車両1の形状から推定することができる。また、車両1に所定のマーカを設けておき、車両画像である撮影画像に映る車両1上のマーカから、車外端末40の位置関連情報を推定することができる。さらに、車両1から指向性の強い電波を送信し、その電波の、車外端末40での受信状況から、車外端末40の位置関連情報を推定することができる。また、車両1及び車外端末40にGPS(Global Positioning System)機能が搭載されている場合には、そのGPS機能により得られる車両1及び車外端末40の位置から、車外端末40の位置関連情報を推定することができる。さらに、車両1のセンサ30が測距のための赤外線を発する場合や、車両1に可視光を発するLEDが設けられている場合には、その赤外線や可視光の、車外端末40での受光状況から、車外端末40の位置関連情報を推定することができる。
以上は、車外端末40において位置関連情報を求める方法であるが、車外端末40の位置関連情報は、車外端末40ではなく、車両1で求めることができる。そして、車両1で求められた位置関連情報を、車両1から車外端末40に送信し、車外端末40において、車両1からの位置関連情報を受信することにより取得することができる。
車両1では、例えば、カメラとしてのセンサ30によって、車外端末40を所持して、車外にいるユーザを撮影し、その撮影により得られる撮影画像に映るユーザを認識することにより、ユーザの位置関連情報を、車外端末40の位置関連情報として求めることができる。また、例えば、1つのセンサ30として人感センサを採用し、その人感センサのセンシング結果から、ユーザの位置関連情報を、車外端末40の位置関連情報として求めることができる。さらに、車外端末40から指向性の強い電波を送信し、その電波の、車両1での受信状況から、車外端末40の位置関連情報を求める(推定する)ことができる。また、車外端末40が赤外線や可視光を発することができる場合には、その赤外線や可視光の、車両1での受光状況から、車外端末40の位置関連情報を求めることができる。
その他、車外端末40の位置関連情報は、上述の方法を複数組み合わせて求め、ロバスト性を向上させることができる。
画像生成部153には、位置関連情報取得部152から、車外端末40の位置関連情報が供給される他、制御部155から、車両制御装置10から送信されてくる不具合情報が供給される。画像生成部153は、位置関連情報取得部152からの位置関連情報、及び、制御部155からの不具合情報に応じて、汚れがあるセンサ30の位置を表す不具合画像を生成し、表示制御部154に供給する。
表示制御部154は、各種の画像を表示部145に供給して表示させる表示制御を行う。また、表示制御部154は、画像処理部151から供給される撮影画像の車両画像、又は、CGの車両画像に、画像生成部153からの不具合画像を合成し、合成画像を生成する。そして、表示制御部154は、合成画像を、表示部145に供給して表示させる。
制御部155は、情報処理部142の各ブロックの制御、その他各種の処理を行う。
例えば、制御部155は、入力部143の操作に応じて、清掃終了通知を生成し、通信部141に供給して送信させる。また、制御部155は、位置関連情報取得部152から供給される位置関連情報を、通信部141に供給して送信させる。さらに、制御部155は、通信部141から供給される、車両制御装置10から送信されてくる不具合情報を、画像生成部153に供給する。
入力部143は、ユーザによって操作され、ユーザの操作に対応する入力情報を、制御部155に供給する。
カメラ144は、例えば、車両1等の被写体を撮影し、その撮影により得られる撮影画像を、画像処理部151に供給する。
表示部145は、表示制御部154の表示制御に従い、表示制御部154から供給される合成画像等の画像を表示する。
なお、入力部143及び表示部145は、例えば、タッチパネル等を用いて、一体的に構成することができる。
図2の車両1及び図3の車外端末40で構成される図1の車両制御システムでは、例えば、車両1の車両制御装置10が起動し、かつ、車両1が安全な場所で停車している状態の、あらかじめ決められたタイミングで、センサ30の不具合としての汚れを、ユーザに報知する報知処理が開始される。あらかじめ決められたタイミングとしては、例えば、ユーザが車両1に近づいたとき(車両1の所定の範囲内に入ったとき)や、ユーザが車外から車両1のロック(キー)を解除したとき、ユーザが車両1のエンジンをかけたとき等を採用することができる。
なお、車両制御装置10において十分な電力を使用することができるように、報知処理は、車両1のエンジンがかかっている状態で行うことが望ましい。但し、車両1が電気自動車である場合には、車両1のエンジンをかけなくても、車両制御装置10において十分な電力を使用することができるので、報知処理は、車両1のエンジンがかかっていない状態で行ってもよい。
また、車両1の走行中に、車外端末40に合成画像等が表示されても、車両1の運転をしているユーザは、車外端末40に表示された合成画像等を見ることができないため、車両1の走行中には、車外端末40に合成画像等を表示しないこととする。
車両制御装置10(図2)において報知処理が開始されると、センサ30は、そのセンサ30の不具合としての汚れの汚れ状況を取得し、センサ情報に含めて送信する。センサ30が送信するセンサ情報は、通信部114で受信され、情報処理部113に供給される。なお、センサ30の汚れ状況の取得の方法としては、任意の方法を採用することができる。また、センサ30の汚れ状況は、報知処理を開始したときの他、任意のタイミングで取得することができる。例えば、車両1が走行しているときや、停車しているとき等に、センサ30の汚れ状況を取得して、車両制御装置10やセンサ30の図示せぬメモリに記憶しておくことができる。そして、その後に行われる報知処理において、メモリに記憶されたセンサ30の汚れ状況を用いることができる。
情報処理部113は、通信部114からのセンサ情報(に含まれる汚れ状況)から、不具合としての汚れがあるセンサ30を検出する(センサ30の汚れを検出する)。汚れがあるセンサ30が検出された場合、情報処理部113は、センサ30が汚れている旨等の情報を、表示部111に表示させる。さらに、情報処理部113は、汚れがあるセンサ30の位置や汚れの状況(状態)等を、表示部111に表示させる。
また、情報処理部113は、センサ30について、汚れがあるかどうかを表す不具合情報を生成する。さらに、情報処理部113は、センサ30の不具合情報に、そのセンサ30の位置を表すセンサ位置情報を含め、通信部115に供給して、車外端末40に送信させる。
車両1の車内にいるユーザは、表示部111の表示を見て、センサ30に汚れがあることを認識した場合、汚れがあるセンサ30の清掃を行う。
汚れがあるセンサ30の清掃にあたり、ユーザは、車外端末40を所持して、車外に出て、車外端末40によって、汚れがあるセンサ30を確認する。そのため、ユーザは、車外に出て、車外端末40としてのスマートフォンの表示部145を、自分側に向け、表示部145の反対側(表示部145が設けられている側を表側とすると、裏面側)に設けられたカメラ144で、車両1を撮影するような姿勢をとる。
車外端末40(図3)において報知処理が開始されると、カメラ144は撮影を開始する。
これにより、カメラ144では、車外端末40の位置(ユーザの位置)から見た車両1が映る車両画像としての撮影画像が撮影され、画像処理部151に供給される。画像処理部151は、カメラ144からの車両画像としての撮影画像を、位置関連情報取得部152に供給する。
さらに、画像処理部151は、カメラ144からの車両画像としての撮影画像を、表示制御部154に供給する。又は、画像処理部151は、カメラ144からの車両画像としての撮影画像から、車外端末40の位置から見た車両1のCGを生成し、そのCGとしての車両画像を、表示制御部154に供給する。
表示制御部154は、画像処理部151からの車両画像を、表示部145に表示させる。
一方、位置関連情報取得部152は、画像処理部151からの車両画像としての撮影画像を用い、車外端末40の、車両1に対する相対的な位置又は方向に関する位置関連情報を推定することにより取得し、画像生成部153、及び、制御部155に供給する。制御部155に供給された位置関連情報は、通信部141を介して、車両制御装置10に送信され、必要に応じて、車載ライト20の制御等に用いられる。
また、車外端末40(図3)では、通信部141が、車両制御装置10の通信部115から送信されてくる不具合情報を受信し、制御部155に供給する。制御部155は、通信部141からの不具合情報を、画像生成部153に供給する。
画像生成部153は、位置関連情報取得部152からの位置関連情報、及び、制御部155からの不具合情報に応じて、汚れがあるセンサ30の位置を表す不具合画像を生成し、表示制御部154に供給する。
表示制御部154は、画像生成部153から不具合画像が供給されると、画像処理部151から供給される、車外端末40の位置から見た車両1が映る車両画像(撮影画像又はCG)に、画像生成部153からの不具合画像を合成し、合成画像を生成する。そして、表示制御部154は、合成画像を、表示部145に供給して表示させる。
合成画像は、車外端末40の位置、すなわち、ユーザの位置から見た車両1が映る車両画像に、不具合があるセンサ30の位置を表す不具合画像が合成された画像であるので、ユーザは、合成画像を見ることにより、車両1に搭載されたセンサ30ないし30の中の不具合としての汚れがあるセンサ30の位置を、容易に認識することができる。すなわち、ユーザは、車外端末40の表示部145に表示された合成画像を見ることで、車両制御装置10の表示部111に表示された汚れがあるセンサ30の位置を見るために車内に戻ることなく、汚れがあるセンサ30の位置を認識することができる。その結果、ユーザの利便性を向上することができる。
汚れがあるセンサ30の位置を認識したユーザは、そのセンサ30に近寄って清掃する。センサ30の清掃を終了したユーザは、清掃終了通知を通知するように、入力部143を操作する。制御部155は、入力部143の操作に応じて、清掃終了通知を、通信部141に送信させる。
通信部141が送信した清掃終了通知は、車両制御装置10の通信部115で受信され、情報処理部113に供給される。情報処理部113は、清掃終了通知に応じて、再度、通信部114からのセンサ情報から、不具合としての汚れがあるセンサ30を検出する。そして、汚れがあるセンサ30が検出された場合、上述した場合と同様の処理が繰り返される。
一方、汚れがあるセンサ30が検出されなかった場合、車両制御装置10及び車外端末40の報知処理は終了する。
なお、ここでは、清掃終了通知を、車両制御装置10の情報処理部113に通知するために、車外端末40の入力部143を操作することとしたが、その他、車両制御装置10の入力部112を操作することにより、清掃終了通知を、情報処理部113に通知することができる。
また、表示制御部154では、車外端末40の位置から見た車両1が映る車両画像に不具合画像を合成した合成画像の他、車両1を俯瞰した俯瞰画像に不具合画像を合成した合成画像を生成して、表示部145に表示させることができる。
<合成画像の表示例>
図4は、合成画像の第1の表示例としてのAR(Augmented Reality)表示を説明する図である。
AR表示では、車外端末40の位置から車両1をカメラ144で撮影した車両画像としての撮影画像に、不具合画像を合成した合成画像が表示される。
図4では、車両1上の汚れがあるセンサ30の位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とを、不具合画像として、その不具合画像が車両画像としての撮影画像に合成された合成画像が、表示部145に表示されている。
なお、図4では、車外端末40を所持したユーザが、車両1の後方に位置している場合と、車両1の(前方に向って)左側のやや後方に位置している場合とにおいて、表示部145に表示される合成画像が示されている。
AR表示によれば、ユーザ(が所持している車外端末40)の位置から見た車両1の車両画像と、汚れがあるセンサ30の位置を表す不具合画像とが表示されるので、ユーザは、汚れがあるセンサ30の位置を、容易に認識することができる。
図5は、合成画像の第2の表示例としてのVR(Virtual Reality)表示を説明する図である。
VR表示では、車外端末40の位置から車両1をカメラ144で撮影した車両画像から3D(dimensional)モデル等を用いて生成された、車外端末40の位置から見た車両1が映る車両画像としてのCGに、不具合画像を合成した合成画像が表示される。
図5では、車両1上の汚れがあるセンサ30の位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とを、不具合画像として、その不具合画像が車両画像としてのCGに合成された合成画像が、表示部145に表示されている。
なお、図5では、図4の場合と同様に、車外端末40を所持したユーザが、車両1の後方に位置している場合と、車両1の左側のやや後方に位置している場合とにおいて、表示部145に表示される合成画像が示されている。
VR表示によれば、AR表示と同様に、ユーザ(が所持している車外端末40)の位置から見た車両1の車両画像と、汚れがあるセンサ30の位置を表す不具合画像とが表示されるので、ユーザは、汚れがあるセンサ30の位置を、容易に認識することができる。
ここで、AR表示とVR表示とは、車外端末40の位置から車両1を見た車両画像に、不具合画像を合成した合成画像が表示される点で共通する。但し、AR表示の車両画像は、カメラ144で撮影された撮影画像であるのに対して、VR表示の車両画像は、CGである点で、AR表示とVR表示とは異なる。
図6は、合成画像の第3の表示例としての俯瞰表示を説明する図である。
俯瞰表示では、車両1を俯瞰した車両画像(以下、俯瞰画像ともいう)に、不具合画像と、車外端末40の相対位置を表す相対位置画像とを合成した合成画像が表示される。
図6では、車両1上の汚れがあるセンサ30の位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とを、不具合画像とするとともに、車外端末40の相対位置を表す円形状の画像と、その相対位置がユーザの位置であることを表すメッセージ「現在地」とを、相対位置画像として、不具合画像及び相対位置画像が俯瞰画像に合成された合成画像が、表示部145に表示されている。
俯瞰画像としては、例えば、パーキングアシストシステム用の、車両1を俯瞰した画像等を使用することができる。
俯瞰表示によれば、車両1を俯瞰した俯瞰画像、汚れがあるセンサ30の位置を表す不具合画像、及び、ユーザ(が所持している車外端末40)の相対位置(現在地)を表す相対位置画像が表示されるので、ユーザは、汚れがあるセンサ30の位置を、容易に認識することができる。
以上説明したAR表示、VR表示、及び、俯瞰表示は、必要に応じて切り替えることができる。
例えば、AR表示、VR表示、及び、俯瞰表示は、ユーザの操作に応じて切り替えることができる。
その他、AR表示、VR表示、及び、俯瞰表示の切り替えは、以下のように行うことができる。
例えば、ユーザの位置、すなわち、車外端末40の位置から、汚れがあるセンサ30が見えない場合には、車外端末40では、俯瞰表示を行うことができる。
また、車外端末40の位置から、汚れがあるセンサ30が見える場合には、車外端末40では、AR表示又はVR表示を行うことができる。
この場合、車外端末40の位置から、汚れがあるセンサ30が見えないときには、俯瞰表示によって、汚れがあるセンサ30が見える位置への移動を、ユーザに促すことができる。そして、ユーザが、汚れがあるセンサ30が見える位置に移動した後は、AR表示又はVR表示によって、ユーザは、汚れがあるセンサ30の位置を、容易に認識することができる。
また、車外端末40では、例えば、カメラ144で撮影された車両画像の明るさに応じて、AR表示又はVR表示を行うことができる。例えば、車両画像の輝度の平均値が閾値以上である場合には、AR表示を行い、車両画像の輝度の平均値が閾値以上でない場合には、VR表示を行うことができる。
例えば、夜間においては、カメラ144で撮影された車両画像が暗く、その車両画像に映る車両1が視認しにくいことがある。この場合、その車両画像に不具合画像を合成した合成画像でも、その合成画像に映る車両1が視認しにくくなる。
そこで、カメラ144で撮影された車両画像が暗く、例えば、車両画像の輝度の平均値が閾値以上でない場合には、車両1のCGを表示するVR表示を行うことで、合成画像に映る車両1が視認しにくくなることを防止することができる。
なお、ここでは、カメラ144で撮影された車両画像の明るさ(車両画像が暗いかどうか)を、車両画像の輝度の平均値によって判定することとしたが、カメラ144で撮影された車両画像の明るさは、その他、例えば、照度計により計測される照度等によって判定することができる。
また、合成画像を生成するのに用いる不具合画像としては、上述した汚れがあるセンサ30の位置を表す画像の他、汚れがあるセンサ30の位置を分かりやすく表示する任意のGUI(Graphical User Interface)を採用することができる。
<報知処理に同期した車両1の設備の制御>
図7は、報知処理に同期した車両1の設備の制御の例を説明する図である。
車両制御装置10では、報知処理が行われるのに同期して(報知処理と並行して)、汚れがあるセンサ30の位置を、ユーザが容易に認識することを補助するために、車両1の設備を制御することができる。
汚れがあるセンサ30の位置を、ユーザが容易に認識することを補助するために、車両制御装置10が行う車両1の設備の制御を、補助制御ということとすると、車両制御装置10では、車外端末40から送信されてくる、車外端末40の位置関連情報や、周囲の明るさ等に応じて、補助制御を行うことができる。
例えば、車両制御装置10では、周囲の明るさに応じて、周囲の明るさが暗い場合には、図7に示すように、情報処理部113が、通信部114を介して、汚れがあるセンサ30に近い車載ライト20(汚れがあるセンサ30の周辺の車載ライト20)を制御することにより、その車載ライト20を、所定の明るさで点灯させることができる。この場合、例えば、夜間において、汚れがあるセンサ30に近い車載ライト20が点灯するので、ユーザが、汚れがあるセンサ30を見つけることや、汚れがあるセンサ30の洗浄作業を補助することができる。
また、車両制御装置10では、車外端末40から送信されてくる、車外端末40の位置関連情報が、通信部115で受信され、情報処理部113に供給される。情報処理部113では、通信部115からの位置関連情報から、車外端末40の相対位置が求められる。情報処理部113では、車外端末40の相対位置を用いて、汚れがあるセンサ30が、車外端末40の位置、すなわち、ユーザの位置から見えるかどうかを判定することができる。そして、情報処理部113では、周囲の明るさが暗く、かつ、汚れがあるセンサ30が、車外端末40の位置から見える場合に、上述のように、汚れがあるセンサ30に近い車載ライト20を制御して点灯させることができる。
なお、周囲が暗いかどうかは、カメラ144で撮影される撮影画像の明るさ(輝度)や、照度計により計測される照度等により判定することができる。
情報処理部113では、その他、車外端末40の相対位置に応じて、車載ライト20を制御して点滅又は点灯させることができる。
例えば、ユーザ(が所持する車外端末40)が、汚れがあるセンサ30から離れている場合には、情報処理部113は、汚れがあるセンサ30に近い車載ライト20を制御して点滅させることができる。この場合、点滅する車載ライト20によって、ユーザは、汚れがあるセンサ30のおおよその位置を認識することができる。
また、例えば、ユーザが、汚れがあるセンサ30に近くに位置している場合には、情報処理部113は、汚れがあるセンサ30に近い車載ライト20を制御して、比較的高い光強度で点灯させることができる。この場合、例えば、汚れがあるセンサ30のおおよその位置を認識したユーザが、その汚れがあるセンサ30に近づいたときに、汚れがあるセンサ30の近くが明るく照らされるので、ユーザは、汚れがあるセンサ30の汚れ具合を確認することや、夜間におけるセンサ30の洗浄作業を補助することができる。
なお、情報処理部113は、車載ライト20を点灯又は点滅させた場合、ユーザの操作等に応じて、又は、清掃終了通知が通知されるのを待って、車載ライト20を消灯させることができる。
<報知処理>
図8は、図2の車両制御装置10の報知処理を説明するフローチャートである。
ステップS11において、車両制御装置10の情報処理部113は、通信部114を介して、各センサ30から、センサ30のセンサ情報を取得し、処理は、ステップS12に進む。
ステップS12では、情報処理部113が、各センサ30のセンサ情報を用いて、汚れがあるセンサ30があるかどうか判定する。ここで、ステップS12の処理を行う情報処理部113は、センサ30の不具合としての汚れを検出する不具合検出部として機能するということができる。
ステップS12において、汚れがあるセンサ30がないと判定された場合、処理は、ステップS13に進み、情報処理部113は、不具合としての汚れがない旨の不具合情報を生成し、通信部115から、車外端末40に送信させ、車両制御装置10の報知処理は終了する。
一方、ステップS12において、汚れがあるセンサ30があると判定された場合、処理は、ステップS14に進み、情報処理部113は、不具合としての汚れがある旨の不具合情報を生成する。さらに、情報処理部113は、不具合情報に、汚れがあるセンサ30それぞれの位置を表すセンサ位置情報を含め、通信部115から、車外端末40に送信させ、処理は、ステップS14からステップS15に進む。
ステップS15では、情報処理部113は、車外端末40から清掃終了通知を受信したかどうかを判定する。ステップS15において、清掃終了通知を受信していないと判定された場合、処理は、ステップS16に進み、情報処理部113は、必要に応じて、車外端末40の位置関連情報等に応じ、通信部114を介して、車載ライト20を制御することにより、例えば、汚れがあるセンサ30に近い車載ライト20を点灯させる。そして、処理は、ステップS16からステップS15に戻り、以下、同様の処理が繰り返される。
また、ステップS15において、清掃終了通知を受信したと判定された場合、すなわち、例えば、ユーザが、汚れがあるセンサ30の清掃を行い、その後、清掃終了通知を通知するように、車外端末40を操作することにより、車外端末40から車両制御装置10に、清掃終了通知が送信された場合、処理は、ステップS17に進む。
ステップS17では、ステップS16で車載ライト20が点灯された場合に、情報処理部113が、通信部114を介して、車載ライト20を制御することにより消灯させ、処理は、ステップS11に戻る。したがって、ユーザが、汚れがあるセンサ30の清掃を行い、不具合としての汚れが解消された(と一応推測される)場合、点灯していた車載ライト20は消灯する。
そして、ステップS11では、上述のように、情報処理部113が、各センサ30のセンサ情報を取得し、以下、ステップS12において、汚れがあるセンサ30がないと判定されるまで、同様の処理が繰り返される。
図9は、図3の車外端末40の報知処理を説明するフローチャートである。
ステップS21において、車外端末40の制御部155は、車両制御装置10からの不具合情報を取得し、処理は、ステップS22に進む。すなわち、通信部141は、車両制御装置10から不具合情報が送信されてくるのを待って、その不具合情報を受信し、制御部155に供給する。制御部155は、そのようにして通信部141から供給される不具合情報を取得する。
ステップS22では、制御部155は、ステップS21で取得した車両制御装置10からの不具合情報を用いて、汚れのあるセンサ30があるかどうかを判定する。
ステップS22において、汚れのあるセンサ30があると判定された場合、すなわち、車両制御装置10からの不具合情報が、汚れがある旨を表し、その汚れがあるセンサ30のセンサ位置情報を含む場合、制御部155は、車両制御装置10からの不具合情報を、画像生成部153に供給して、処理は、ステップS23に進む。
ステップS23では、制御部155は、清掃終了通知を通知するように、入力部143が操作されたかどうかを判定する。
ステップS23において、清掃終了通知を通知するように、入力部143が操作されていないと判定された場合、処理は、ステップS24に進み、位置関連情報取得部152は、車外端末40の位置関連情報を取得し、制御部155及び画像生成部153に供給して、処理は、ステップS25に進む。
ステップS25では、画像生成部153は、位置関連情報取得部152からの位置関連情報、及び、制御部155からの不具合情報に応じて、汚れがあるセンサ30の位置を表す不具合画像を生成し、表示制御部154に供給する。
表示制御部154は、画像処理部151から供給される車両画像、又は、車両1を俯瞰した車両画像に、画像生成部153からの不具合画像を合成し、合成画像を生成する。そして、表示制御部154は、合成画像を、表示部145に供給して表示させる。
また、制御部155は、位置関連情報取得部152からの位置関連情報を、通信部141から車両制御装置10に送信させ、処理は、ステップS25からステップS23に戻る。
ここで、以上のようにして、通信部141から車両制御装置10に送信される位置関連情報が、図8のステップS16の処理に用いられる。
一方、ステップS23において、清掃終了通知を通知するように、入力部143が操作されたと判定された場合、処理は、ステップS26に進み、制御部155は、清掃終了通知を、通信部141から車両制御装置10に送信させ、処理は、ステップS21に戻る。
ステップS21では、上述したように、車両制御装置10からの不具合情報が取得され、処理は、ステップS22に進む。
そして、ステップS22において、汚れのあるセンサ30がないと判定された場合、すなわち、車両制御装置10からの不具合情報が、汚れがない旨を表す場合、車外端末40の報知処理は終了する。
<汚れの位置を表す画像を含む不具合画像の表示>
図10は、汚れの位置を表す画像を含む不具合画像の表示の表示例を示す図である。
例えば、センサ30が比較的大きなサイズのカメラである場合に、そのセンサ30としてのカメラのレンズの一部が汚れており、その汚れの(レンズ上の)位置を、車両制御装置10で検出することができるときには、不具合情報には、センサ30としてのカメラの汚れの位置(範囲)を表す汚れ位置情報を含めることができる。
この場合、車外端末40(図3)の画像生成部153は、汚れがあるセンサ30の汚れの位置を表す画像を含む不具合画像を生成することができる。
図10は、車外端末40の位置から車両1を見た車両画像に、汚れがあるセンサ30の汚れの位置を表す画像を含む不具合画像を合成した合成画像の表示例を示している。
図10では、汚れがあるセンサ30の位置を表す円形状の画像と、メッセージ「このカメラが泥で汚れています」が記載された吹き出しの画像とが、不具合画像として表示されている。さらに、図10では、汚れがあるセンサ30としてのカメラを模した画像上に汚れとしての影を付した画像を、汚れの位置を表す汚れ位置画像として、その汚れ位置画像を含む不具合画像が表示されている。
以上のように、汚れ位置画像を表示する場合には、ユーザは、汚れがあるセンサ30上のどの位置が汚れているのかを、容易に認識することができる。
なお、汚れ位置画像において、汚れの位置は、例えば、画像の色を変更することや、点滅させること等により表すことができる。
また、ユーザが、汚れがあるセンサ30を清掃し、汚れがなくなった場合には、車外端末40において、不具合画像の表示を、汚れがなくなったことを表す画像の表示に変更することできる。
図10では、汚れがなくなったことを表す画像として、汚れがあったセンサ30の位置を表す円形状の画像と、メッセージ「汚れが落ちました」が記載された吹き出しの画像とが表示されている。さらに、図10では、汚れがなくなったことを表す画像として、汚れがないセンサ30としてのカメラを模した画像が表示されている。
<発光部を有するセンサ30の構成例>
図11は、発光部を有するセンサ30の構成例を示す断面図及び平面図である。
車両1においては、センサ30の周辺の位置(近い位置)に、車載ライト20が装備されているとは限らない。センサ30の周辺の位置に、車載ライト20が装備されていない場合、汚れがあるセンサ30の最も近い位置の車載ライト20が、図7で説明したように点灯されても、汚れがあるセンサ30から大きく離れた車載ライト20が点灯されることがある。このように、汚れがあるセンサ30から大きく離れた車載ライト20が点灯されることは、汚れがあるセンサ30の位置を、ユーザが容易に認識することを補助することにならず、却って妨げとなることがあり得る。
そこで、車両1に搭載されるセンサ30としては、発光部を有するセンサ30を採用することができる。
図11において、センサ30は、例えば、カメラで、イメージセンサ等で構成される光学センサ200を有する。光学センサ200の受光面側には、レンズ201が設けられている。さらに、光学センサ200の周囲には、円環状の基板202が設けられ、その基板202上には、光学センサ200(レンズ201)を囲むように、複数の発光部203が設けられている。
ここで、発光部203は、LED等で構成することができる。また、図11では、8個の発光部203が設けられているが、センサ30に設ける発光部203の数は、1個でも良いし、8個以外の複数個でも良い。
以上のように、センサ30が発光部203を有する場合には、車載ライト20に代えて、汚れがあるセンサ30が有する発光部203を点灯又は点滅させることができる。汚れがあるセンサ30が有する発光部203を点灯又は点滅させる場合には、汚れがあるセンサ30の周辺の車載ライト20を点灯又は点滅させる場合に比較して、汚れがあるセンサ30のより正確な位置を、ユーザが容易に認識することができる。
なお、不具合画像や合成画像は、車外端末40で生成する他、車両制御装置10やクラウド上のコンピュータで生成し、車外端末40に供給することができる。
<本技術を適用したコンピュータの説明>
次に、上述した車両制御装置10や車外端末40の一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図12は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク905やROM903に予め記録しておくことができる。
あるいはまた、プログラムは、ドライブ909によって駆動されるリムーバブル記録媒体911に格納(記録)しておくことができる。このようなリムーバブル記録媒体911は、いわゆるパッケージソフトウエアとして提供することができる。ここで、リムーバブル記録媒体911としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体911からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク905にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)902を内蔵しており、CPU902には、バス901を介して、入出力インタフェース910が接続されている。
CPU902は、入出力インタフェース910を介して、ユーザによって、入力部907が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)903に格納されているプログラムを実行する。あるいは、CPU902は、ハードディスク905に格納されたプログラムを、RAM(Random Access Memory)904にロードして実行する。
これにより、CPU902は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU902は、その処理結果を、必要に応じて、例えば、入出力インタフェース910を介して、出力部906から出力、あるいは、通信部908から送信、さらには、ハードディスク905に記録等させる。
なお、入力部907は、キーボードや、マウス、マイク等で構成される。また、出力部906は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下の構成をとることができる。
<1>
車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部と
を備える情報処理装置。
<2>
前記表示制御部は、前記位置関連情報に応じて、前記車両を俯瞰した前記車両画像に、前記車両に対する前記情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示させる
<1>に記載の情報処理装置。
<3>
前記表示制御部は、前記位置関連情報に応じて、前記情報処理装置の位置から前記車両を見た前記車両画像に、前記不具合画像を合成した前記合成画像を表示させる
<1>に記載の情報処理装置。
<4>
前記車両画像は、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)、又は、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像である
<3>に記載の情報処理装置。
<5>
前記表示制御部は、
前記車両を俯瞰した前記車両画像に、前記車両に対する前記情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、
前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、
前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示と
を切り替える
<1>に記載の情報処理装置。
<6>
前記表示制御部は、
前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、
前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う
<5>に記載の情報処理装置。
<7>
前記表示制御部は、前記撮影画像の明るさに応じて、前記VR表示又は前記AR表示を行う
<5>に記載の情報処理装置。
<8>
前記車両は、前記不具合があるセンサの周辺の発光部を点灯させる
<1>ないし<7>のいずれかに記載の情報処理装置。
<9>
前記車両は、前記不具合があるセンサの不具合が解消された場合に、前記発光部を消灯させる
<8>に記載の情報処理装置。
<10>
前記センサは、前記発光部を有する
<8>又は<9>に記載に情報処理装置。
<11>
前記センサは、カメラである
<1>ないし<10>のいずれかに記載の情報処理装置。
<12>
前記不具合は、前記センサの汚れである
<1>ないし<11>のいずれかに記載の情報処理装置。
<13>
前記不具合画像は、前記汚れがあるセンサの前記汚れの位置を表す画像を含む
<12>に記載の情報処理装置。
<14>
携帯端末である
<1>ないし<13>のいずれかに記載の情報処理装置。
<15>
車両に対する相対的な位置又は方向に関する位置関連情報を取得することと、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させることと
を含む情報処理方法。
<16>
車両に搭載されるセンサと、
前記センサの不具合を検出する不具合検出部と、
画像を表示する表示部と、
前記車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部と
を備える情報処理システム。
1 車両, 10 車両制御装置, 20,20 車載ライト, 30ないし30 センサ, 40 車外端末, 111 表示部, 112 入力部, 113 情報処理部, 114,115,141 通信部, 142 情報処理部, 143 入力部, 144 カメラ, 145 表示部, 151 画像処理部, 152 位置関連情報取得部, 153 画像生成部, 154 表示制御部, 155 制御部, 200 光学センサ, 201 レンズ, 202 基板, 203 発光部, 901 バス, 902 CPU, 903 ROM, 904 RAM, 905 ハードディスク, 906 出力部, 907 入力部, 908 通信部, 909 ドライブ, 910 入出力インタフェース, 911 リムーバブル記録媒体

Claims (16)

  1. 車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
    前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部と
    を備える情報処理装置。
  2. 前記表示制御部は、前記位置関連情報に応じて、前記車両を俯瞰した前記車両画像に、前記車両に対する前記情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示させる
    請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記位置関連情報に応じて、前記情報処理装置の位置から前記車両を見た前記車両画像に、前記不具合画像を合成した前記合成画像を表示させる
    請求項1に記載の情報処理装置。
  4. 前記車両画像は、前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)、又は、前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像である
    請求項3に記載の情報処理装置。
  5. 前記表示制御部は、
    前記車両を俯瞰した前記車両画像に、前記車両に対する前記情報処理装置の相対的な位置を表す画像及び前記不具合画像を合成した前記合成画像を表示する俯瞰表示と、
    前記情報処理装置の位置から見た前記車両のCG(Computer Graphics)に、前記不具合画像を合成した前記合成画像を表示するVR(Virtual Reality)表示と、
    前記情報処理装置の位置から前記車両をカメラで撮影した撮影画像に、前記不具合画像を合成した前記合成画像を表示するAR(Augmented Reality)表示と
    を切り替える
    請求項1に記載の情報処理装置。
  6. 前記表示制御部は、
    前記情報処理装置の位置から、前記不具合があるセンサが見えない場合、前記俯瞰表示を行い、
    前記情報処理装置の位置から、前記不具合があるセンサが見える場合、前記VR表示又は前記AR表示を行う
    請求項5に記載の情報処理装置。
  7. 前記表示制御部は、前記撮影画像の明るさに応じて、前記VR表示又は前記AR表示を行う
    請求項5に記載の情報処理装置。
  8. 前記車両は、前記不具合があるセンサの周辺の発光部を点灯させる
    請求項1に記載の情報処理装置。
  9. 前記車両は、前記不具合があるセンサの不具合が解消された場合に、前記発光部を消灯させる
    請求項8に記載の情報処理装置。
  10. 前記センサは、前記発光部を有する
    請求項8に記載に情報処理装置。
  11. 前記センサは、カメラである
    請求項1に記載の情報処理装置。
  12. 前記不具合は、前記センサの汚れである
    請求項1に記載の情報処理装置。
  13. 前記不具合画像は、前記汚れがあるセンサの前記汚れの位置を表す画像を含む
    請求項12に記載の情報処理装置。
  14. 携帯端末である
    請求項1に記載の情報処理装置。
  15. 車両に対する相対的な位置又は方向に関する位置関連情報を取得することと、
    前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させることと
    を含む情報処理方法。
  16. 車両に搭載されるセンサと、
    前記センサの不具合を検出する不具合検出部と、
    画像を表示する表示部と、
    前記車両に対する相対的な位置又は方向に関する位置関連情報を取得する位置関連情報取得部と、
    前記位置関連情報に応じて、前記車両が映る車両画像に、前記車両に搭載されたセンサの中の不具合があるセンサの位置を表す不具合画像を合成した合成画像を表示させる表示制御部と
    を備える情報処理システム。
JP2020523620A 2018-06-07 2019-05-24 情報処理装置、情報処理方法、及び、情報処理システム Active JP7414715B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018109523 2018-06-07
JP2018109523 2018-06-07
PCT/JP2019/020586 WO2019235245A1 (ja) 2018-06-07 2019-05-24 情報処理装置、情報処理方法、及び、情報処理システム

Publications (2)

Publication Number Publication Date
JPWO2019235245A1 true JPWO2019235245A1 (ja) 2021-06-24
JP7414715B2 JP7414715B2 (ja) 2024-01-16

Family

ID=68770756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020523620A Active JP7414715B2 (ja) 2018-06-07 2019-05-24 情報処理装置、情報処理方法、及び、情報処理システム

Country Status (7)

Country Link
US (1) US11557030B2 (ja)
EP (1) EP3805048B1 (ja)
JP (1) JP7414715B2 (ja)
KR (1) KR102658704B1 (ja)
CN (2) CN110576792A (ja)
TW (1) TWI805725B (ja)
WO (1) WO2019235245A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11318916B2 (en) * 2019-06-13 2022-05-03 Ford Global Technologies, Llc Vehicle maintenance
JP2021150792A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 車両用表示制御装置及び車両用システム
JP7303171B2 (ja) 2020-10-28 2023-07-04 本田技研工業株式会社 情報提供方法、プログラム及び情報提供装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288873A (ja) * 1993-03-30 1994-10-18 Suzuki Motor Corp 故障診断システム
JP2000115759A (ja) * 1998-10-05 2000-04-21 Sony Corp 撮像表示装置
JP2005186659A (ja) * 2003-12-24 2005-07-14 Honda Motor Co Ltd 始業点検補助装置
JP2005346468A (ja) * 2004-06-03 2005-12-15 Canon Inc 画像処理方法、画像処理装置
JP2011223075A (ja) * 2010-04-02 2011-11-04 Alpine Electronics Inc 複数カメラ画像使用車外表示装置
JP2014115457A (ja) * 2012-12-10 2014-06-26 Sony Corp 情報処理装置および記録媒体
JP2014164482A (ja) * 2013-02-25 2014-09-08 Tokyo Electron Ltd 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム
JP2015019271A (ja) * 2013-07-11 2015-01-29 株式会社デンソー 車両用画像合成装置
JP2017086542A (ja) * 2015-11-11 2017-05-25 株式会社コロプラ 画像変更システム、方法、及びプログラム
JP2018056794A (ja) * 2016-09-29 2018-04-05 アイシン精機株式会社 周辺監視装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6550949B1 (en) * 1996-06-13 2003-04-22 Gentex Corporation Systems and components for enhancing rear vision from a vehicle
JP3807331B2 (ja) * 2002-03-06 2006-08-09 日産自動車株式会社 カメラの汚れ検出装置およびカメラの汚れ検出方法
JP4052662B2 (ja) 2006-04-17 2008-02-27 オリンパス株式会社 電子スチルカメラ
JP2009225322A (ja) 2008-03-18 2009-10-01 Hyundai Motor Co Ltd 車両用情報表示システム
JP5521990B2 (ja) 2010-11-16 2014-06-18 株式会社デンソー 車載カメラ用付着物報知装置
KR101232639B1 (ko) * 2011-06-02 2013-02-13 유비벨록스(주) 차량의 자기 진단 상태를 3차원 모델링하여 시각적으로 표시하기 위한 시스템, 이동 단말기 및 방법
JP2014011785A (ja) * 2012-07-03 2014-01-20 Clarion Co Ltd 車載カメラ汚れ除去装置の診断装置、診断方法及び車両システム
DE102012222126B4 (de) * 2012-12-04 2020-06-04 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ansteuern einer Reinigungsvorrichtung für eine Fahrzeugkamera, Verfahren zum Reinigen einer Fahrzeugkamera und Kamerasystem für ein Fahrzeug
US9445057B2 (en) * 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
US9472028B2 (en) * 2014-06-23 2016-10-18 GM Global Technology Operations LLC Augmented reality based interactive troubleshooting and diagnostics for a vehicle
KR101667732B1 (ko) * 2015-01-23 2016-10-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP6585995B2 (ja) 2015-11-06 2019-10-02 クラリオン株式会社 画像処理システム
US20190149813A1 (en) * 2016-07-29 2019-05-16 Faraday&Future Inc. Method and apparatus for camera fault detection and recovery
US10909779B2 (en) * 2016-08-11 2021-02-02 Tekion Corp 3D vehicle model data capturing and retrieving for vehicle inspection, service and maintenance
KR102526083B1 (ko) 2016-08-30 2023-04-27 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
KR101750875B1 (ko) * 2017-03-16 2017-06-26 엘지전자 주식회사 차량용 진단 장치
US20180342054A1 (en) * 2017-05-26 2018-11-29 Bsquare Corp. System and method for constructing augmented and virtual reality interfaces from sensor input
KR102017802B1 (ko) * 2017-12-21 2019-09-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10657721B2 (en) * 2018-02-09 2020-05-19 Paccar Inc Systems and methods for providing augmented reality support for vehicle service operations
US20190279438A1 (en) * 2018-03-09 2019-09-12 Progress Rail Locomotive Inc. Systems and methods for servicing a vehicle

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288873A (ja) * 1993-03-30 1994-10-18 Suzuki Motor Corp 故障診断システム
JP2000115759A (ja) * 1998-10-05 2000-04-21 Sony Corp 撮像表示装置
JP2005186659A (ja) * 2003-12-24 2005-07-14 Honda Motor Co Ltd 始業点検補助装置
JP2005346468A (ja) * 2004-06-03 2005-12-15 Canon Inc 画像処理方法、画像処理装置
JP2011223075A (ja) * 2010-04-02 2011-11-04 Alpine Electronics Inc 複数カメラ画像使用車外表示装置
JP2014115457A (ja) * 2012-12-10 2014-06-26 Sony Corp 情報処理装置および記録媒体
JP2014164482A (ja) * 2013-02-25 2014-09-08 Tokyo Electron Ltd 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム
JP2015019271A (ja) * 2013-07-11 2015-01-29 株式会社デンソー 車両用画像合成装置
JP2017086542A (ja) * 2015-11-11 2017-05-25 株式会社コロプラ 画像変更システム、方法、及びプログラム
JP2018056794A (ja) * 2016-09-29 2018-04-05 アイシン精機株式会社 周辺監視装置

Also Published As

Publication number Publication date
EP3805048B1 (en) 2022-12-14
TW202000517A (zh) 2020-01-01
JP7414715B2 (ja) 2024-01-16
CN210760472U (zh) 2020-06-16
EP3805048A1 (en) 2021-04-14
CN110576792A (zh) 2019-12-17
US20210224976A1 (en) 2021-07-22
EP3805048A4 (en) 2021-08-04
KR102658704B1 (ko) 2024-04-22
US11557030B2 (en) 2023-01-17
TWI805725B (zh) 2023-06-21
WO2019235245A1 (ja) 2019-12-12
KR20210018246A (ko) 2021-02-17

Similar Documents

Publication Publication Date Title
US10944912B2 (en) Systems and methods for reducing flicker artifacts in imaged light sources
US20200344421A1 (en) Image pickup apparatus, image pickup control method, and program
US10989790B2 (en) Distance measuring apparatus, electronic apparatus, and method of controlling distance measuring apparatus
JPWO2019235245A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
JP6771673B2 (ja) 自律運転車両下方の監視のためのシステム
WO2019130945A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
CN111033571A (zh) 图像处理设备和图像处理方法
JP7226440B2 (ja) 情報処理装置、情報処理方法、撮影装置、照明装置、及び、移動体
JP7172603B2 (ja) 信号処理装置、信号処理方法、およびプログラム
CN110741631A (zh) 车辆的图像提供系统、服务器系统及车辆的图像提供方法
JP6922169B2 (ja) 情報処理装置および方法、車両、並びに情報処理システム
JP6984256B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP7371496B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
US20210331586A1 (en) Vehicle control device and vehicle control method
WO2021229983A1 (ja) 撮像装置及びプログラム
WO2020049977A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2023019712A (ja) 画像生成装置、画像生成方法、及び車両制御システム
JP2007038956A (ja) 周辺状況表示装置及び周辺状況表示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231228

R150 Certificate of patent or registration of utility model

Ref document number: 7414715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150