JP2010175329A - On-vehicle information device - Google Patents

On-vehicle information device Download PDF

Info

Publication number
JP2010175329A
JP2010175329A JP2009016773A JP2009016773A JP2010175329A JP 2010175329 A JP2010175329 A JP 2010175329A JP 2009016773 A JP2009016773 A JP 2009016773A JP 2009016773 A JP2009016773 A JP 2009016773A JP 2010175329 A JP2010175329 A JP 2010175329A
Authority
JP
Japan
Prior art keywords
vehicle
image
image data
driver
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009016773A
Other languages
Japanese (ja)
Inventor
Mitsuo Shitaya
光生 下谷
Tsutomu Matsubara
勉 松原
Takashi Sadahiro
崇 貞廣
Masako Ota
正子 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009016773A priority Critical patent/JP2010175329A/en
Publication of JP2010175329A publication Critical patent/JP2010175329A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an on-vehicle information device for actualizing a driver's visual point display that gives a sense of reality. <P>SOLUTION: This on-vehicle information device includes: present position detection means 12, 13, and 14 for detecting a present position of a vehicle; a storage means 20 for therein storing scene image data, road image data, and three-dimensional building image data; a control means 10 for acquiring scene image data, road image data, and three-dimensional building image data corresponding to the present position detected by the detection means from a storage and together combining them, and further combining image data that represent changing events on the vehicle or around the vehicle with an image formed by the combination to generate driver's visual point images which are images acquired by viewing from the driver's visual point; and display means 24 and 25 for displaying the driver's visual point images generated by the control means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、車両に搭載されて、運転を支援するための情報をユーザに提示する車載情報装置に関し、特に前方の風景画像を表示する技術に関する。   The present invention relates to an in-vehicle information apparatus that is mounted on a vehicle and presents information for assisting driving to a user, and more particularly to a technique for displaying a front landscape image.

従来、地図データと自車位置とに基づきドライバの視点による前方風景を合成してモニタに表示する技術が知られている(例えば、特許文献1参照)。このようなドライバの視点による前方風景の表示を、この明細書では、「ドライバ視点表示」という。また、特許文献2は、道路の起伏に従ってドライバ視点表示を効果的に変更して表示する技術を開示している。さらに、特許文献3は、ドライバ視点表示として、前方の建物を3次元(以下、「3D」という場合もある)で表示する技術を開示している。   2. Description of the Related Art Conventionally, a technique for synthesizing a front landscape from a driver's viewpoint based on map data and a vehicle position and displaying the synthesized scene on a monitor is known (for example, see Patent Document 1). In this specification, the display of the front scenery from the viewpoint of the driver is referred to as “driver viewpoint display”. Further, Patent Document 2 discloses a technique for effectively changing and displaying the driver viewpoint display according to road undulations. Further, Patent Document 3 discloses a technique for displaying a building in front in three dimensions (hereinafter sometimes referred to as “3D”) as driver viewpoint display.

このようなドライバ視点表示によれば、ドライバは、自己の視点による現実の風景と、モニタに表示された風景とを対比できるため、ドライバが現在地を認識しやすいという利点がある。   According to such driver viewpoint display, the driver can compare the actual landscape from his / her viewpoint with the landscape displayed on the monitor, and thus has an advantage that the driver can easily recognize the current location.

特開2006−208816号公報JP 2006-208816 A 特開平10−143066号公報JP-A-10-143066 特開平9−319302号公報JP-A-9-319302

しかしながら、実際の走行時には、ドライバからは前方風景だけでなく、例えばボンネットなどといった自車両の一部も見えるため、車両の一部が合成されていないドライバ視点表示では現実感がなく、ドライバに違和感を生じさせる。また、現実の道路には他の車両が走行していたり、天候の変化などによる前方風景が変化したりするが、それらが反映されていないため、従来のドライバ視点表示は、現実と乖離しており、現実感がなく、違和感を生じる原因となっている。   However, during actual driving, the driver can see not only the front scenery but also a part of the vehicle, such as a hood, so there is no sense of reality in the driver viewpoint display where a part of the vehicle is not synthesized, and the driver feels strange. Give rise to In addition, other vehicles are driving on real roads, or the front scenery changes due to changes in weather, etc., but these are not reflected, so the conventional driver viewpoint display differs from reality. This is a cause of unnaturalness and unnaturalness.

この発明は、上述した問題を解消するためになされたものであり、その課題は、現実感のあるドライバ視点表示を実現できる車載情報装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an in-vehicle information device capable of realizing a realistic driver viewpoint display.

上記課題を解決するために、この発明に係る車載情報装置は、車両の現在位置を検出する現在位置検出手段と、風景画像データ、道路画像データおよび3次元建物画像データを記憶する記憶手段と、現在位置検出手段で検出された現在位置に対応する風景画像データ、道路画像データおよび3次元建物画像データを記憶装置から取得して合成し、該合成した画像に、車両または車両周辺の変化する事象を表す画像データをさらに合成してドライバの視点から見た画像であるドライバ視点画像を生成する制御手段と、制御手段で生成されたドライバ視点画像を表示する表示手段とを備えている。   In order to solve the above-described problems, an in-vehicle information device according to the present invention includes a current position detection unit that detects a current position of a vehicle, a storage unit that stores landscape image data, road image data, and three-dimensional building image data, The scenery image data, the road image data, and the 3D building image data corresponding to the current position detected by the current position detection means are acquired from the storage device and synthesized, and the vehicle or the surroundings of the vehicle changes to the synthesized image. Control means for generating a driver viewpoint image that is an image viewed from the viewpoint of the driver by further synthesizing image data representing the above, and display means for displaying the driver viewpoint image generated by the control means.

この発明に係る車載情報装置によれば、風景画像、道路画像および3次元建物画像からなる画像に、さらに車両または車両周辺の変化する事象を表す画像を合成して表示するように構成したので、現実感のあるドライバ視点表示を実現できる。   According to the in-vehicle information device according to the present invention, the image composed of the landscape image, the road image, and the three-dimensional building image is further combined with the image representing the event that changes the vehicle or the surroundings of the vehicle. Realistic driver viewpoint display can be realized.

この発明の実施の形態1に係る車載情報装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted information apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載情報装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the vehicle-mounted information apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載情報装置においてボンネット画像が生成される際のボンネットの表示形態を決定する処理を示すフローチャートである。It is a flowchart which shows the process which determines the display form of a bonnet at the time of a bonnet image being produced | generated in the vehicle-mounted information apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載情報装置の処理過程で形成されるドライバ視点画像の例を示す図である。It is a figure which shows the example of the driver viewpoint image formed in the process of the vehicle-mounted information apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載情報装置で形成されるドライバ視点画像の例を示す図である。It is a figure which shows the example of the driver viewpoint image formed with the vehicle-mounted information apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態2に係る車載情報装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted information apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係る車載情報装置で形成されるドライバ視点画像の例を示す図である。It is a figure which shows the example of the driver viewpoint image formed with the vehicle-mounted information apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係る車載情報装置で形成される他のドライバ視点画像の例を示す図である。It is a figure which shows the example of the other driver viewpoint image formed with the vehicle-mounted information apparatus which concerns on Embodiment 2 of this invention.

以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る車載情報装置の構成を示すブロック図である。この車載情報装置は、CPU(Central Processing Unit)10、内蔵メモリ11、GPS(Global Positioning System)受信機12、車速センサ13、方位センサ14、タッチパネル15、ラジオ受信機18、DTV(Digital TeleVision)受信機19、HDD(Hard Disk Drive)20、CD(Compact Disc)/DVD(Digital Versatile Disk)ドライブ21、携帯電話22、車内LAN(Local Area Network)インタフェース23、描画チップ24、液晶モニタ25、アンプ26およびスピーカ27を備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
1 is a block diagram showing a configuration of an in-vehicle information device according to Embodiment 1 of the present invention. This in-vehicle information device includes a CPU (Central Processing Unit) 10, a built-in memory 11, a GPS (Global Positioning System) receiver 12, a vehicle speed sensor 13, a direction sensor 14, a touch panel 15, a radio receiver 18, and a DTV (Digital TeleVision) reception. Machine 19, HDD (Hard Disk Drive) 20, CD (Compact Disc) / DVD (Digital Versatile Disk) drive 21, mobile phone 22, in-vehicle LAN (Local Area Network) interface 23, drawing chip 24, LCD monitor 25, amplifier 26 And a speaker 27.

CPU10は、この発明の制御手段の一部に対応し、内蔵メモリ11、GPS受信機12、車速センサ13、方位センサ14、タッチパネル15、ラジオ受信機18、DTV受信機19、HDD20、CD/DVDドライブ21、携帯電話22、車内LANインタフェース23、描画チップ24およびアンプ26との間でデータを送受して所定の処理を実行することにより車載情報装置の全体を制御する。このCPU10で実行される処理の詳細は、後述する。   The CPU 10 corresponds to a part of the control means of the present invention, and includes a built-in memory 11, a GPS receiver 12, a vehicle speed sensor 13, a direction sensor 14, a touch panel 15, a radio receiver 18, a DTV receiver 19, an HDD 20, and a CD / DVD. The entire in-vehicle information device is controlled by transmitting and receiving data to and from the drive 21, the mobile phone 22, the in-vehicle LAN interface 23, the drawing chip 24, and the amplifier 26 to execute predetermined processing. Details of the processing executed by the CPU 10 will be described later.

内蔵メモリ11は、この発明の制御手段の他の一部に対応し、例えばRAM(Random Access Memory)から構成されている。この内蔵メモリ11には、HDD20から読み込まれたプログラムが展開される。CPU10は、この内蔵メモリ11に展開されたプログラムに従って動作する。また、内蔵メモリ11は、CPU10が処理中のデータを一時的に記憶するために使用される。   The built-in memory 11 corresponds to another part of the control means of the present invention, and is composed of, for example, a RAM (Random Access Memory). A program read from the HDD 20 is expanded in the internal memory 11. The CPU 10 operates according to a program developed in the built-in memory 11. The built-in memory 11 is used for temporarily storing data being processed by the CPU 10.

GPS受信機12は、GPS衛星からアンテナを介して受信されたGPS信号に基づき車両の現在位置を検出する。このGPS受信機12で検出された車両の現在位置を表す現在位置データは、CPU10に送られる。   The GPS receiver 12 detects the current position of the vehicle based on a GPS signal received from a GPS satellite via an antenna. Current position data representing the current position of the vehicle detected by the GPS receiver 12 is sent to the CPU 10.

車速センサ13は、この車載情報装置が搭載された車両から送られてくる車速パルスに基づき車両の移動速度を検出する。この車速センサ13で検出された車両の移動速度を表す速度データは、CPU10に送られる。方位センサ14は、車両の進行方位を検出する。この方位センサ14で検出された車両の進行方位を表す方位データはCPU10に送られる。   The vehicle speed sensor 13 detects the moving speed of the vehicle based on the vehicle speed pulse sent from the vehicle on which the in-vehicle information device is mounted. Speed data representing the moving speed of the vehicle detected by the vehicle speed sensor 13 is sent to the CPU 10. The direction sensor 14 detects the traveling direction of the vehicle. Direction data representing the traveling direction of the vehicle detected by the direction sensor 14 is sent to the CPU 10.

車速センサ13からの速度データおよび方位センサ14からの方位データを受け取ったCPU10は、これら速度データおよび方位データに基づいて自立航法により車両の現在位置を検出して現在位置データを生成する。これにより、例えばトンネルまたはビルディングの谷間に入るなどによってGPS受信機12で車両の現在位置を検出できなくなっても、自立航法によって車両の現在位置を検出できるので、車載情報装置は、常に正しい車両の現在位置を検出できる。この発明の現在位置検出手段は、これらGPS受信機12、車速センサ13および方位センサ14から構成されている。   The CPU 10 that has received the speed data from the vehicle speed sensor 13 and the direction data from the direction sensor 14 detects the current position of the vehicle by self-contained navigation based on the speed data and the direction data, and generates current position data. Thus, even if the GPS receiver 12 cannot detect the current position of the vehicle, for example, when entering the valley of a tunnel or a building, the vehicle's current position can be detected by self-contained navigation. The current position can be detected. The current position detecting means of the present invention is composed of the GPS receiver 12, the vehicle speed sensor 13 and the direction sensor 14.

タッチパネル15は、液晶モニタ25の画面上に載置されており、車載情報装置に対する種々の指示を入力するために使用される。このタッチパネル15は、タッチされた位置に応じた信号を発生し、操作データとしてCPU10に送る。CPU10は、この操作データに応答して、例えば、液晶モニタ25への表示モードの変更(例えば、2次元地図表示モードからドライバ視点表示モードへの変更)、画面のスクロール、施設探索、経路探索または誘導案内などを実現するための処理を実行する。   The touch panel 15 is placed on the screen of the liquid crystal monitor 25, and is used for inputting various instructions to the in-vehicle information device. The touch panel 15 generates a signal corresponding to the touched position and sends it to the CPU 10 as operation data. In response to the operation data, the CPU 10 changes the display mode on the liquid crystal monitor 25 (for example, changes from the two-dimensional map display mode to the driver viewpoint display mode), screen scrolling, facility search, route search, or Processing for realizing guidance guidance and the like is executed.

ラジオ受信機18は、ラジオ放送を受信して音声信号を再生し、CPU10に送る。CPU10は、ラジオ受信機18から送られてくる音声信号をアンプ26に送る。これにより、後述するように、スピーカ27からラジオ放送の音声が出力される。   The radio receiver 18 receives a radio broadcast, reproduces an audio signal, and sends it to the CPU 10. The CPU 10 sends the audio signal sent from the radio receiver 18 to the amplifier 26. Thereby, as will be described later, radio broadcast sound is output from the speaker 27.

DTV受信機19は、デジタルテレビジョン放送を受信して音声信号および映像信号を再生し、CPU10に送る。CPU10は、DTV受信機19から送られてくる映像信号を描画チップ24に送るとともに、音声信号をアンプ26に送る。これにより、後述するように、液晶モニタ25にデジタルテレビジョン放送の映像が表示されるとともに、スピーカ27からデジタルテレビジョン放送の音声が出力される。   The DTV receiver 19 receives the digital television broadcast, reproduces the audio signal and the video signal, and sends them to the CPU 10. The CPU 10 sends the video signal sent from the DTV receiver 19 to the drawing chip 24 and sends the audio signal to the amplifier 26. As a result, as will be described later, the digital television broadcast video is displayed on the liquid crystal monitor 25 and the sound of the digital television broadcast is output from the speaker 27.

また、DTV受信機19から映像信号を受け取ったCPU10は、この映像信号の中から天気情報を取得し、後述する車両画像の表示態様に反映させる。この天気情報の取得に使用される際のDTV受信機19は、この発明の天気情報取得手段に対応する。   In addition, the CPU 10 that has received the video signal from the DTV receiver 19 acquires weather information from the video signal and reflects it in a vehicle image display mode described later. The DTV receiver 19 used when acquiring the weather information corresponds to the weather information acquiring means of the present invention.

HDD20は、この発明の記憶手段に対応し、車両画像データ、地図データベース、3次元建物画像データおよびプログラムを格納している。車両画像データは、運転席より前方に存在する車両の一部がドライバ視点で描かれた画像(以下、「ドライバ視点画像」という)であり、この車両画像データには、ボンネット、ヘッドライト、ミラー、ピラーおよびメータパネルなどの画像が含まれる。また、地図データベースには、地図データの他に、前方の3次元表現された風景画像データおよび3次元表現された道路画像データなどが含まれる。このHDD20に格納されているデータは、CPU10によって読み出される。   The HDD 20 corresponds to the storage means of the present invention, and stores vehicle image data, a map database, three-dimensional building image data, and a program. The vehicle image data is an image in which a part of the vehicle existing in front of the driver's seat is drawn from the driver viewpoint (hereinafter referred to as “driver viewpoint image”), and the vehicle image data includes a bonnet, a headlight, a mirror. Images such as pillars and meter panels are included. In addition to map data, the map database includes forward three-dimensional landscape image data, three-dimensional road image data, and the like. Data stored in the HDD 20 is read by the CPU 10.

CD/DVDドライブ21は、装着されたCDまたはDVD21aに記録されている内容を再生する。このCD/DVDドライブ21で再生することにより得られた音声信号および映像信号は、CPU10に送られる。CPU10は、CD/DVDドライブ21から送られてくる映像信号を描画チップ24に送るとともに、音声信号をアンプ26に送る。これにより、後述するように、液晶モニタ25に映像が表示されるとともに、スピーカ27から音声が出力される。   The CD / DVD drive 21 reproduces the contents recorded on the loaded CD or DVD 21a. The audio signal and the video signal obtained by reproducing with the CD / DVD drive 21 are sent to the CPU 10. The CPU 10 sends the video signal sent from the CD / DVD drive 21 to the drawing chip 24 and sends the audio signal to the amplifier 26. As a result, as will be described later, an image is displayed on the liquid crystal monitor 25 and a sound is output from the speaker 27.

携帯電話22は、外部との通信を制御するために使用される。すなわち、外部からの送信されてくる電波を受信して電気信号に変換し、受信信号としてCPU10に送るとともに、CPU10から送られてくる送信信号を電波に変換して外部に送信する。この携帯電話22は、例えば、外部のサーバから天気情報を取得するために使用される。この天気情報の取得に使用される際の携帯電話22は、この発明の天気情報取得手段に対応する。   The mobile phone 22 is used to control communication with the outside. That is, a radio wave transmitted from the outside is received and converted into an electric signal and sent to the CPU 10 as a received signal, and a transmission signal sent from the CPU 10 is converted into a radio wave and transmitted to the outside. The mobile phone 22 is used, for example, for acquiring weather information from an external server. The mobile phone 22 used when acquiring the weather information corresponds to the weather information acquiring means of the present invention.

車内LANインタフェース23は、車内LANとCPU10との間の通信を制御する。CPU10は、この車内LANインタフェース23を介して車両内部で発生される車両の操作状態を表す車両情報、例えば、ヘッドライトのオン/オフを示すヘッドライトデータ、速度メータが示している速度を表す速度データ、サイドミラーの開閉を示すサイドミラーデータ、ウインカーが作動中か否かを示すウインカーデータなどを取得する。これらの車両情報は、CPU10において、車両の変化する事象として認識される。この車内LANインタフェース23は、この発明の車両情報取得手段に対応する。   The in-vehicle LAN interface 23 controls communication between the in-vehicle LAN and the CPU 10. The CPU 10 transmits vehicle information indicating the operation state of the vehicle generated inside the vehicle via the in-vehicle LAN interface 23, for example, headlight data indicating on / off of the headlight, and a speed indicating the speed indicated by the speed meter. Data, side mirror data indicating opening / closing of the side mirror, winker data indicating whether the winker is operating, and the like are acquired. These pieces of vehicle information are recognized by the CPU 10 as events that change the vehicle. This in-vehicle LAN interface 23 corresponds to the vehicle information acquisition means of this invention.

なお、実施の形態1に係る車載情報装置では、車両情報を、車内LANインタフェース23を介してCPU10に取り込むように構成しているが、車両情報を直接にCPU10に取り込むように構成することもできる。   In the in-vehicle information device according to the first embodiment, the vehicle information is configured to be captured by the CPU 10 via the in-vehicle LAN interface 23. However, the vehicle information may be directly captured by the CPU 10. .

描画チップ24は、CPU10から送られてくる表示データに基づき画像を描画し、映像信号として液晶モニタ25に送る。液晶モニタ25は、描画チップ24から送られてくる映像信号に基づき画像を表示する。これら描画チップ24および液晶モニタ25は、この発明の表示手段に対応する。   The drawing chip 24 draws an image based on the display data sent from the CPU 10 and sends it to the liquid crystal monitor 25 as a video signal. The liquid crystal monitor 25 displays an image based on the video signal sent from the drawing chip 24. The drawing chip 24 and the liquid crystal monitor 25 correspond to the display means of the present invention.

アンプ26は、CPU10から送られてくる音声データに基づき音声信号を生成して増幅し、スピーカ27に送る。スピーカ27は、アンプ26から送られてくる増幅された音声信号に応じた音声を出力する。   The amplifier 26 generates and amplifies an audio signal based on the audio data sent from the CPU 10 and sends it to the speaker 27. The speaker 27 outputs sound corresponding to the amplified sound signal sent from the amplifier 26.

次に、上記のように構成される、この発明の実施の形態1に係る車載情報装置の動作を、図2に示すフローチャートを参照しながら説明する。   Next, the operation of the in-vehicle information device according to Embodiment 1 of the present invention configured as described above will be described with reference to the flowchart shown in FIG.

タッチパネル15が操作されることにより、液晶モニタ25への表示モードが、他の表示モードからドライバ視点表示モードに変更されると、まず、現在位置が計算される(ステップST11)。すなわち、CPU10は、GPS受信機12から受け取った現在位置データから現在位置を計算し、または、車速センサ13から受け取った車速データと方位センサ14から受け取った方位データとに基づき自律航法により現在位置を計算する。   When the display mode on the liquid crystal monitor 25 is changed from the other display mode to the driver viewpoint display mode by operating the touch panel 15, first, the current position is calculated (step ST11). That is, the CPU 10 calculates the current position from the current position data received from the GPS receiver 12 or determines the current position by autonomous navigation based on the vehicle speed data received from the vehicle speed sensor 13 and the direction data received from the direction sensor 14. calculate.

次いで、風景画像が生成される(ステップST12)。すなわち、CPU10は、HDD20の地図データベースから風景画像データを取得し、内蔵メモリ11に設けられた画像生成エリアに格納する。   Next, a landscape image is generated (step ST12). That is, the CPU 10 acquires landscape image data from the map database of the HDD 20 and stores it in the image generation area provided in the built-in memory 11.

次いで、道路画像が生成されて重ねられる(ステップST13)。すなわち、CPU10は、HDD20の地図データベースから道路画像データを取得し、上述した風景画像が格納されている画像生成エリアに重ねて展開する。   Next, road images are generated and overlaid (step ST13). That is, the CPU 10 acquires road image data from the map database of the HDD 20 and develops it overlaid on the image generation area in which the landscape image described above is stored.

次いで、3次元建物画像が遠方から生成して重ねられる(ステップST14)。すなわち、CPU10は、HDD20から3次元建物画像データを取得し遠方の画像から順次に画像を生成し、上述した風景画像および道路画像が格納されている画像生成エリアに重ねる。これにより、例えば図4に示すような、従来と同様の、遠方の風景画像、道路画像および3次元建物画像によって構成されたドライバ視点画像が形成される。   Next, a three-dimensional building image is generated and superimposed from a distance (step ST14). That is, the CPU 10 acquires 3D building image data from the HDD 20, sequentially generates images from distant images, and superimposes them on the image generation area in which the above-described landscape image and road image are stored. As a result, a driver viewpoint image composed of a distant scenery image, a road image, and a three-dimensional building image is formed as shown in FIG.

次いで、ボンネット画像が生成されて重ねられる(ステップST15)。すなわち、CPU10は、HDD20に車両画像データとして格納されているボンネット画像データを取得し、ステップST14で生成されたドライバ視点画像が格納されている画像生成エリアに重ねる。ボンネット画像には、ヘッドライトの画像が付加されている。これにより、図5に示すような、遠方の風景画像、道路画像および3次元建物画像が合成された画像に、ボンネット画像が重ねられドライバ視点画像が形成される。   Next, a bonnet image is generated and overlaid (step ST15). That is, the CPU 10 acquires bonnet image data stored as vehicle image data in the HDD 20 and superimposes it on the image generation area in which the driver viewpoint image generated in step ST14 is stored. A headlight image is added to the bonnet image. As a result, a bonnet image is superimposed on an image obtained by combining a distant landscape image, a road image, and a three-dimensional building image as shown in FIG. 5 to form a driver viewpoint image.

このボンネット画像を重ねる際に、ボンネット画像は、時刻および天気に応じて、その表示態様が変更される。図3は、ボンネット画像の表示態様を変更する処理を示すフローチャートである。この処理では、まず、現在の時間帯が調べられる(ステップST21)。すなわち、CPU10は、図示しない時計機構(この発明の時刻取得手段に対応する)から時刻を取得し、時間帯を調べる。このステップST21において、時間帯が「夜」であることが判断されると、ボンネット画像が暗色に変更される(ステップST22)。すなわち、CPU10は、ボンネット画像の明度を下げる処理を実行する。その後、シーケンスはステップST24に進む。   When superimposing the bonnet image, the display mode of the bonnet image is changed according to time and weather. FIG. 3 is a flowchart showing processing for changing the display mode of the bonnet image. In this process, first, the current time zone is examined (step ST21). That is, the CPU 10 acquires time from a clock mechanism (not shown) (corresponding to the time acquisition means of the present invention), and checks the time zone. If it is determined in step ST21 that the time zone is “night”, the bonnet image is changed to a dark color (step ST22). That is, the CPU 10 executes processing for reducing the brightness of the bonnet image. Thereafter, the sequence proceeds to step ST24.

一方、ステップST21において、時間帯が「昼」であることが判断されると、ボンネット画像が明色に変更される(ステップST23)。すなわち、CPU10は、ボンネット画像の明度を上げる処理を実行する。その後、シーケンスはステップST24に進む。なお、「夜」であるか「昼」であるかの判断は、時計機構に保持されているカレンダーを取得し、このカレンダーに従って決定することができる。   On the other hand, if it is determined in step ST21 that the time zone is “daytime”, the bonnet image is changed to a light color (step ST23). That is, the CPU 10 executes a process for increasing the brightness of the bonnet image. Thereafter, the sequence proceeds to step ST24. Whether it is “night” or “daytime” can be determined by obtaining a calendar held in the clock mechanism and according to this calendar.

ステップST24では、天気が調べられる。すなわち、CPU10は、DTV受信機19または図示しないサーバから携帯電話22を経由して天気情報を取得し、この取得した天気情報に基づいて「晴」であるか「雨」または「曇」であるかを調べる。このステップST24において「晴」であることが判断されると、ボンネット画像の彩度が上げられる(ステップST25)。すなわち、CPU10は、ボンネット画像の彩度を上げる処理を実行する。その後、図2のフローチャートに示す処理にリターンする。   In step ST24, the weather is checked. That is, the CPU 10 acquires weather information from the DTV receiver 19 or a server (not shown) via the mobile phone 22, and is “sunny”, “rainy” or “cloudy” based on the acquired weather information. Find out. If it is determined in this step ST24 that it is “clear”, the saturation of the bonnet image is increased (step ST25). That is, the CPU 10 executes a process for increasing the saturation of the bonnet image. Thereafter, the process returns to the process shown in the flowchart of FIG.

一方、ステップST24において「雨」または「曇」であることが判断されると、ボンネット画像の彩度が下げられる(ステップST26)。すなわち、CPU10は、ボンネット画像の彩度を下げる処理を実行する。その後、図2のフローチャートに示す処理にリターンする。なお、図3のフローチャートに示す処理では、時刻および天気に応じてボンネット画像の表示形態を変更する場合について説明したが、さらに、車内LANインタフェース23を介して送られてくる車両情報に応じてボンネット画像の表示形態を変更するように構成できる。例えば、ヘッドライトデータがヘッドライトのオンを示している場合はボンネット画像を暗色に変更し、ヘッドライトのオフを示している場合はボンネット画像を明色に変更するように構成できる。   On the other hand, if it is determined in step ST24 that it is “rainy” or “cloudy”, the saturation of the bonnet image is lowered (step ST26). That is, the CPU 10 executes a process for reducing the saturation of the bonnet image. Thereafter, the process returns to the process shown in the flowchart of FIG. In the process shown in the flowchart of FIG. 3, the case where the display form of the bonnet image is changed according to the time and weather has been described. Further, the bonnet according to the vehicle information sent via the in-vehicle LAN interface 23 is described. The display form of the image can be changed. For example, when the headlight data indicates that the headlight is on, the bonnet image is changed to a dark color, and when the headlight data indicates that the headlight is off, the bonnet image can be changed to a light color.

図2に示すフローチャートのステップST16では、ヘッドランプがオンであるかどうかが調べられる。すなわち、CPU10は、車内LANインタフェース23を介して取得したヘッドライトデータがヘッドライトのオンを示しているかどうかを調べる。   In step ST16 of the flowchart shown in FIG. 2, it is checked whether or not the headlamp is on. That is, the CPU 10 checks whether the headlight data acquired via the in-vehicle LAN interface 23 indicates that the headlight is on.

このステップST16において、ヘッドランプがオンでないことが判断されると、シーケンスはステップST18に進む。一方、ステップST16において、ヘッドランプがオンであることが判断されると、ヘッドライト画像を光らせる処理が行われる(ステップST17)。すなわち、CPU10は、ステップST15で生成して重ねられたボンネット画像の中のヘッドライト画像を明るい色に変更する。その後、シーケンスはステップST18に進む。   If it is determined in step ST16 that the headlamp is not on, the sequence proceeds to step ST18. On the other hand, if it is determined in step ST16 that the headlamp is on, a process of shining the headlight image is performed (step ST17). That is, the CPU 10 changes the headlight image in the bonnet image generated and superimposed in step ST15 to a bright color. Thereafter, the sequence proceeds to step ST18.

ステップST18では、表示処理が実行される。すなわち、CPU10は、内蔵メモリ11の画像生成エリアに格納されている内容を、表示データとして描画チップ24に送る。描画チップ24は、CPU10から送られてくる表示データに基づき画像を描画し、映像信号として液晶モニタ25に送る。液晶モニタ25は、描画チップ24から送られてくる映像信号に基づき画像を表示する。これにより、例えば図5に示すような画像が液晶モニタ25に表示される。   In step ST18, display processing is executed. That is, the CPU 10 sends the contents stored in the image generation area of the built-in memory 11 to the drawing chip 24 as display data. The drawing chip 24 draws an image based on the display data sent from the CPU 10 and sends it to the liquid crystal monitor 25 as a video signal. The liquid crystal monitor 25 displays an image based on the video signal sent from the drawing chip 24. Thereby, for example, an image as shown in FIG. 5 is displayed on the liquid crystal monitor 25.

その後、シーケンスはステップST11に戻り上述した処理が繰り返される。この繰り返しは、例えば、1/30秒毎に行われる。   Thereafter, the sequence returns to step ST11 and the above-described processing is repeated. This repetition is performed every 1/30 seconds, for example.

なお、上述した実施の形態1に係る車載情報装置においては、車両画像としてヘッドライトを有するボンネット画像を表示する場合について説明したが、サイドミラー、ピラー、メータパネルなどを表示するように構成することもできる。メータパネルを表示する場合は、車内LANインタフェース23から送られてくる速度データに応じてメータパネルの表示内容を変更するように構成することができる。   In the in-vehicle information device according to Embodiment 1 described above, the case where a bonnet image having a headlight is displayed as a vehicle image has been described. However, the vehicle information apparatus is configured to display a side mirror, a pillar, a meter panel, and the like. You can also. When displaying the meter panel, the display content of the meter panel can be changed according to the speed data sent from the in-vehicle LAN interface 23.

また、夜間は建物および道路も暗く表示し、ヘッドライトがオンの場合は、ヘッドライトで道路が照らされるような画面を生成するように構成することもできる。   Further, it is also possible to display a building and road darkly at night and generate a screen in which the headlight illuminates the road when the headlight is on.

また、時計機構に含まれるカレンダーから算出した太陽の位置と方位センサ14から得られる自車両が向いている方位を加味して、ボンネット画像に陰影や光沢を付与するように構成することもできる。また、天気情報に応じて建物画像に陰影を付与したり、風景を変更したりすることもできる。   In addition, the bonnet image may be configured to be shaded or glossy by taking into account the sun position calculated from the calendar included in the timepiece mechanism and the azimuth of the host vehicle obtained from the azimuth sensor 14. Further, it is possible to add a shadow to the building image or change the landscape according to the weather information.

実施の形態2.
図6は、この発明の実施の形態2に係る車載情報装置の構成を示すブロック図である。この車載情報装置は、図1に示した車載情報装置にカメラ16および画像認識装置17が追加されて構成されている。
Embodiment 2. FIG.
FIG. 6 is a block diagram showing a configuration of the in-vehicle information device according to Embodiment 2 of the present invention. This in-vehicle information device is configured by adding a camera 16 and an image recognition device 17 to the in-vehicle information device shown in FIG.

カメラ16には、図示は省略するが、車両の前方を撮影するフロントカメラ、後方を撮影するリアカメラ、側方を撮影するサイドカメラが含まれている。このカメラ16で撮影することにより得られた画像信号は、画像認識装置17に送られる。   Although not shown, the camera 16 includes a front camera that captures the front of the vehicle, a rear camera that captures the rear, and a side camera that captures the side. An image signal obtained by photographing with the camera 16 is sent to the image recognition device 17.

画像認識装置17は、カメラ16から送られてくる画像信号によって示される画像を解析することにより、車両周辺の変化する事象、例えば、移動している車両の有無、車両の色彩、車両までの距離または車両の移動速度などを検知する。この画像認識装置17で検知された変化する事象を示すデータは、CPU10に送られる。この発明の前方車両検知手段は、カメラ16に含まれるフロントカメラと画像認識装置17によって構成されている。また、この発明の後方車両検知手段は、カメラ16に含まれるリアカメラと画像認識装置17によって構成されている。   The image recognition device 17 analyzes the image indicated by the image signal sent from the camera 16, thereby changing events around the vehicle, such as the presence or absence of a moving vehicle, the color of the vehicle, and the distance to the vehicle. Alternatively, the moving speed of the vehicle is detected. Data indicating a changing event detected by the image recognition device 17 is sent to the CPU 10. The forward vehicle detection means of the present invention includes a front camera included in the camera 16 and an image recognition device 17. The rear vehicle detection means of the present invention includes a rear camera included in the camera 16 and an image recognition device 17.

なお、この発明の前方車両検知手段および後方車両検知手段は、レーザレーダ装置によって構成することもできる。この場合、レーザレーダ装置は、前方、側方または後方に向けてレーザ光を照射し、その反射光を受信することにより、車両の有無、車両までの距離または車両の移動速度などを検知することができる。   The front vehicle detection means and the rear vehicle detection means of the present invention can also be configured by a laser radar device. In this case, the laser radar device detects the presence / absence of the vehicle, the distance to the vehicle, or the moving speed of the vehicle by irradiating the laser beam forward, sideward or backward and receiving the reflected light. Can do.

上記のように構成される、実施の形態2に係る車載情報装置では、カメラ16に含まれるフロントカメラで撮影することにより得られた画像信号が画像認識装置17に送られる。画像認識装置17は、カメラ16から送られてくる画像信号によって示される画像を解析することにより、車両周辺の変化する事象、例えば、移動している車両の有無、車両の色彩、車両までの距離または車両の移動速度などを検知する。この画像認識装置17における検知により得られたデータは、CPU10に送られる。   In the in-vehicle information device according to Embodiment 2 configured as described above, an image signal obtained by photographing with the front camera included in the camera 16 is sent to the image recognition device 17. The image recognition device 17 analyzes the image indicated by the image signal sent from the camera 16, thereby changing events around the vehicle, such as the presence or absence of a moving vehicle, the color of the vehicle, and the distance to the vehicle. Alternatively, the moving speed of the vehicle is detected. Data obtained by detection in the image recognition device 17 is sent to the CPU 10.

CPU10は、画像認識装置17から送られてくるデータに基づき、画像認識装置17で検知された車両の移動速度に基づき、移動している車両であるかどうかを判断し、移動している車両である場合に、該車両を表す画像を生成して、実施の形態1に係る車載情報装置で生成したドライバ視点画像にさらに合成する。より詳しくは、図2に示したフローチャートのステップST15とステップST16との間で、車両を表す画像を生成して重ねる処理を実行する。これにより、図7に示すような、遠方の風景画像、道路画像および3次元建物画像が合成された画像に、ボンネット画像が重ねられ、さらに、車両を表す画像が重ねられたドライバ視点画像が形成される。   Based on the data sent from the image recognition device 17, the CPU 10 determines whether the vehicle is moving based on the moving speed of the vehicle detected by the image recognition device 17. In some cases, an image representing the vehicle is generated and further combined with the driver viewpoint image generated by the in-vehicle information device according to Embodiment 1. In more detail, the process which produces | generates and overlaps the image showing a vehicle is performed between step ST15 and step ST16 of the flowchart shown in FIG. As a result, as shown in FIG. 7, a bonnet image is superimposed on an image obtained by combining a distant landscape image, a road image, and a three-dimensional building image, and further, a driver viewpoint image in which an image representing a vehicle is superimposed is formed. Is done.

なお、車両を表す画像としては、デフォルメされた画像または画像認識装置17で認識された形状に基づき特定された車種に応じた画像を用いることができる。また、車両を表す画像の色としては、画像認識装置17で検知された車両の色彩を用いることができる。また、車両を表す画像の大きさは、画像認識装置17で検知された車両までの距離に基づいて決定することができる。さらに、車両を表す画像としては、カメラ16に含まれるフロントカメラで撮影した画像をそのまま用いることもできる。   Note that as the image representing the vehicle, a deformed image or an image corresponding to the vehicle type specified based on the shape recognized by the image recognition device 17 can be used. As the color of the image representing the vehicle, the color of the vehicle detected by the image recognition device 17 can be used. Further, the size of the image representing the vehicle can be determined based on the distance to the vehicle detected by the image recognition device 17. Furthermore, as an image representing the vehicle, an image taken by a front camera included in the camera 16 can be used as it is.

また、HDD20の車両画像データにバックミラーの画像データを格納しておき、CPU10は、上記のようにして生成したドライバ視点画像に、HDD20の車両画像から取得したバックミラーの画像を合成し、カメラ16に含まれるリアカメラからの画像信号に基づき画像認識装置17で車両が検知された場合に、この検知された後方の車両を表す画像を、変化する事象を表す画像として、該バックミラーの画像に合成するように構成できる。これにより、図8(a)に示すような、遠方の風景画像、道路画像および3次元建物画像が合成された画像に、ボンネット画像および前方の車両を表す画像が重ねられ、さらに、後方の車両を表す画像を含むバックミラー画像が重ねられたドライバ視点画像が形成される。なお、カメラ16に含まれるリアカメラからの画像信号に基づき画像認識装置17で車両が検知されない場合、バックミラ−画像には、図8(b)に示すように、後方の車両を表す画像(変化する事象を表す画像)は含まれない。   Further, the rearview mirror image data is stored in the vehicle image data of the HDD 20, and the CPU 10 synthesizes the rearview mirror image acquired from the vehicle image of the HDD 20 with the driver viewpoint image generated as described above, and the camera. When a vehicle is detected by the image recognition device 17 based on an image signal from a rear camera included in the image, the image of the rearview mirror is used as an image representing a changing event. Can be configured to synthesize. As a result, the bonnet image and the image representing the vehicle ahead are superimposed on the image obtained by combining the distant landscape image, the road image, and the three-dimensional building image as shown in FIG. A driver viewpoint image in which a rearview mirror image including an image representing the image is superimposed is formed. In addition, when a vehicle is not detected by the image recognition device 17 based on an image signal from a rear camera included in the camera 16, as shown in FIG. Image representing an event to be performed) is not included.

同様に、HDD20の車両画像データにサイドミラーの画像データを格納しておき、CPU10は、上記のようにして生成したドライバ視点画像に、HDD20の車両画像から取得したサイドミラーの画像を合成し、カメラ16に含まれるサイドカメラからの画像信号に基づく画像認識装置17で車両が検知された場合に、この検知された後側方の車両を表す画像を、変化する事象を表す画像として、該サイドミラーの画像に合成するように構成することもできる。   Similarly, the image data of the side mirror is stored in the vehicle image data of the HDD 20, and the CPU 10 combines the image of the side mirror acquired from the vehicle image of the HDD 20 with the driver viewpoint image generated as described above. When a vehicle is detected by the image recognition device 17 based on an image signal from a side camera included in the camera 16, an image representing the detected rear side vehicle is used as an image representing a changing event. It can also be configured to be combined with a mirror image.

なお、上述した実施の形態1および実施の形態2に係る車載情報装置では、風景画像、道路画像および3次元建物画像が合成された画像に、ボンネット画像または車両を表す画像を合成するように構成したが、カメラ16に含まれるフロントカメラで撮影された実写画像に、ボンネット画像または車両を表す画像を合成して表示するように構成することもできる。   Note that the in-vehicle information device according to Embodiment 1 and Embodiment 2 described above is configured to combine a bonnet image or an image representing a vehicle with an image obtained by combining a landscape image, a road image, and a three-dimensional building image. However, a bonnet image or an image representing a vehicle may be combined and displayed on a real image photographed by a front camera included in the camera 16.

また、上述した実施の形態1および実施の形態2に係る車載情報装置では、ボンネットの画像は左車線の上に表示する例を示した(図5、図7および図8参照)が、カメラ16から送られてくる画像信号を受け取った画像認識装置17において車線を検出し、複数の車線が検出された場合は、自車が走行している車線の上にボンネット画像を表示するように構成することができる。   In the in-vehicle information device according to Embodiment 1 and Embodiment 2 described above, an example in which the image of the hood is displayed on the left lane (see FIGS. 5, 7, and 8) is shown. The image recognition device 17 that receives the image signal sent from the vehicle detects the lane, and when a plurality of lanes are detected, the bonnet image is displayed on the lane in which the host vehicle is traveling. be able to.

10 CPU(制御手段)、11 内蔵メモリ(制御手段)、12 GPS受信機(現在位置検出手段)、13 車速センサ(現在位置検出手段)、14 方位センサ(現在位置検出手段)、15 タッチパネル、16 カメラ(前方車両検知手段、後方車両検知手段)、17 画像認識装置(前方車両検知手段、後方車両検知手段)、18 ラジオ受信機、19 DTV受信機(天気情報取得手段)、20 HDD(記憶手段)、21 CD/DVDドライブ、22 携帯電話(天気情報取得手段)、23 車内LANインタフェース(車両情報取得手段)、24 描画チップ(表示手段)、25 液晶モニタ(表示手段)、26 アンプ、27 スピーカ。   10 CPU (control means), 11 built-in memory (control means), 12 GPS receiver (current position detection means), 13 vehicle speed sensor (current position detection means), 14 direction sensor (current position detection means), 15 touch panel, 16 Camera (front vehicle detection means, rear vehicle detection means), 17 image recognition device (front vehicle detection means, rear vehicle detection means), 18 radio receiver, 19 DTV receiver (weather information acquisition means), 20 HDD (storage means) ), 21 CD / DVD drive, 22 mobile phone (weather information acquisition means), 23 in-vehicle LAN interface (vehicle information acquisition means), 24 drawing chip (display means), 25 liquid crystal monitor (display means), 26 amplifier, 27 speaker .

Claims (6)

車両の現在位置を検出する現在位置検出手段と、
風景画像データ、道路画像データおよび3次元建物画像データを記憶する記憶手段と、
前記現在位置検出手段で検出された現在位置に対応する風景画像データ、道路画像データおよび3次元建物画像データを前記記憶装置から取得して合成し、該合成した画像に、車両または車両周辺の変化する事象を表す画像データをさらに合成してドライバの視点から見たドライバ視点画像を生成する制御手段と、
前記制御手段で生成されたドライバ視点画像を表示する表示手段
とを備えた車載情報装置。
Current position detecting means for detecting the current position of the vehicle;
Storage means for storing landscape image data, road image data, and three-dimensional building image data;
Landscape image data, road image data, and three-dimensional building image data corresponding to the current position detected by the current position detection means are acquired from the storage device and synthesized, and a change in the vehicle or around the vehicle is combined with the synthesized image. Control means for generating a driver viewpoint image viewed from the viewpoint of the driver by further combining image data representing an event to be performed;
A vehicle-mounted information device comprising display means for displaying a driver viewpoint image generated by the control means.
記憶手段は、運転席より前方の車両の一部を表す車両画像データを記憶し、
制御手段は、生成したドライバ視点画像に、前記記憶装置から取得した車両画像データを合成したドライバ視点画像を生成する
ことを特徴とする請求項1記載の車載情報装置。
The storage means stores vehicle image data representing a part of the vehicle ahead of the driver's seat,
The in-vehicle information device according to claim 1, wherein the control unit generates a driver viewpoint image obtained by combining the generated driver viewpoint image with the vehicle image data acquired from the storage device.
車両の操作状態を表す車両情報を取得する車両情報取得手段と、
時刻情報を取得する時刻取得手段と、
天気情報を取得する天気情報取得手段とを備え、
制御手段は、前記車両情報取得手段で取得された車両情報、前記時刻取得手段により取得された時刻情報および前記天気情報取得手段で取得された天気情報の少なくとも1つに基づいて車両画像の表示態様を変更する
ことを特徴とする請求項2記載の車載情報装置。
Vehicle information acquisition means for acquiring vehicle information representing an operation state of the vehicle;
Time acquisition means for acquiring time information;
Weather information acquisition means for acquiring weather information,
The control unit is configured to display a vehicle image based on at least one of the vehicle information acquired by the vehicle information acquisition unit, the time information acquired by the time acquisition unit, and the weather information acquired by the weather information acquisition unit. The in-vehicle information device according to claim 2, wherein:
前方の車両を検知する前方車両検知手段を備え、
制御手段は、前記前方車両検知手段によって車両が検知された場合に、該検知された車両を表す画像を、変化する事象を表す画像として使用する
ことを特徴とする請求項1記載の車載情報装置。
It has a forward vehicle detection means for detecting a forward vehicle,
2. The on-vehicle information device according to claim 1, wherein when a vehicle is detected by the forward vehicle detection unit, the control unit uses an image representing the detected vehicle as an image representing a changing event. .
記憶手段に記憶される車両画像データはボンネットの画像データを含み、
制御手段は、生成したドライバ視点画像に、前記記憶装置から取得したボンネットの画像データを合成したドライバ視点画像を生成する
ことを特徴とする請求項2記載の車載情報装置。
The vehicle image data stored in the storage means includes bonnet image data,
3. The in-vehicle information device according to claim 2, wherein the control unit generates a driver viewpoint image obtained by synthesizing the generated driver viewpoint image with bonnet image data acquired from the storage device.
後方の車両を検知する後方車両検知手段を備え、
記憶手段に記憶される車両画像データはバックミラーの画像データを含み、
制御手段は、生成したドライバ視点画像に、前記記憶装置から取得したバックミラーの画像データを合成し、前記後方車両検知手段によって車両が検知された場合に、該検知された車両を表す画像を変化する事象を表す画像として、該バックミラーの画像データに合成したドライバ視点画像を生成する
ことを特徴とする請求項2記載の車載情報装置。
A rear vehicle detection means for detecting a rear vehicle;
The vehicle image data stored in the storage means includes image data of the rearview mirror,
The control unit synthesizes the image data of the rearview mirror acquired from the storage device with the generated driver viewpoint image, and changes the image representing the detected vehicle when the vehicle is detected by the rear vehicle detection unit. The in-vehicle information device according to claim 2, wherein a driver viewpoint image synthesized with the image data of the rearview mirror is generated as an image representing an event to be performed.
JP2009016773A 2009-01-28 2009-01-28 On-vehicle information device Pending JP2010175329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009016773A JP2010175329A (en) 2009-01-28 2009-01-28 On-vehicle information device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009016773A JP2010175329A (en) 2009-01-28 2009-01-28 On-vehicle information device

Publications (1)

Publication Number Publication Date
JP2010175329A true JP2010175329A (en) 2010-08-12

Family

ID=42706458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009016773A Pending JP2010175329A (en) 2009-01-28 2009-01-28 On-vehicle information device

Country Status (1)

Country Link
JP (1) JP2010175329A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123669A (en) * 2010-12-09 2012-06-28 Mitsubishi Electric Corp Ui display system
WO2016157277A1 (en) * 2015-03-27 2016-10-06 株式会社日立製作所 Method and device for generating travelling environment abstract image
KR101835374B1 (en) * 2017-01-24 2018-03-09 주식회사 유비벨록스모바일 Method for driving simulation service, system and computer-readable medium recording the method
WO2018216402A1 (en) * 2017-05-23 2018-11-29 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2020057407A (en) * 2014-11-05 2020-04-09 シエラ・ネバダ・コーポレイション System and method for generating improved environmental display for vehicle
CN111132089A (en) * 2019-12-31 2020-05-08 东软睿驰汽车技术(沈阳)有限公司 In-vehicle call answering method and system
JP2021076960A (en) * 2019-11-06 2021-05-20 本田技研工業株式会社 Equipment operating device, equipment operating method, and program
US11393196B2 (en) 2018-12-10 2022-07-19 Toyota Jidosha Kabushiki Kaisha Line of sight assistance device and method
CN110651304B (en) * 2017-05-23 2024-05-24 索尼公司 Information processing device, information processing method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123669A (en) * 2010-12-09 2012-06-28 Mitsubishi Electric Corp Ui display system
JP2020057407A (en) * 2014-11-05 2020-04-09 シエラ・ネバダ・コーポレイション System and method for generating improved environmental display for vehicle
JP6997750B2 (en) 2014-11-05 2022-01-18 シエラ・ネバダ・コーポレイション Systems and methods for generating improved environment displays for mobiles
WO2016157277A1 (en) * 2015-03-27 2016-10-06 株式会社日立製作所 Method and device for generating travelling environment abstract image
KR101835374B1 (en) * 2017-01-24 2018-03-09 주식회사 유비벨록스모바일 Method for driving simulation service, system and computer-readable medium recording the method
US11182950B2 (en) 2017-05-23 2021-11-23 Sony Corporation Information processing device and information processing method
JPWO2018216402A1 (en) * 2017-05-23 2020-05-21 ソニー株式会社 Information processing apparatus, information processing method, and program
CN110651304A (en) * 2017-05-23 2020-01-03 索尼公司 Information processing apparatus, information processing method, and program
WO2018216402A1 (en) * 2017-05-23 2018-11-29 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7040521B2 (en) 2017-05-23 2022-03-23 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
CN110651304B (en) * 2017-05-23 2024-05-24 索尼公司 Information processing device, information processing method, and program
US11393196B2 (en) 2018-12-10 2022-07-19 Toyota Jidosha Kabushiki Kaisha Line of sight assistance device and method
JP2021076960A (en) * 2019-11-06 2021-05-20 本田技研工業株式会社 Equipment operating device, equipment operating method, and program
JP6991186B2 (en) 2019-11-06 2022-01-12 本田技研工業株式会社 Equipment operation device, equipment operation method, and program
CN111132089A (en) * 2019-12-31 2020-05-08 东软睿驰汽车技术(沈阳)有限公司 In-vehicle call answering method and system

Similar Documents

Publication Publication Date Title
JP2010175329A (en) On-vehicle information device
JP5811804B2 (en) Vehicle periphery monitoring device
JP5182042B2 (en) Image processing apparatus, image processing method, and computer program
EP2724896B1 (en) Parking assistance device
JP4325705B2 (en) Display system and program
JP4556742B2 (en) Vehicle direct image display control apparatus and vehicle direct image display control program
JP6311646B2 (en) Image processing apparatus, electronic mirror system, and image processing method
JP5726201B2 (en) Three-dimensional stereoscopic display device, three-dimensional stereoscopic display control device, and LSI circuit
WO2009119110A1 (en) Blind spot display device
US8553081B2 (en) Apparatus and method for displaying an image of vehicle surroundings
JP2007198962A (en) Guidance display device for vehicle
JPH11108684A (en) Car navigation system
JP2009020089A (en) System, method, and program for navigation
JP2007172541A (en) Driving support device
JPH0935177A (en) Method and device for supporting driving
JP2005214857A (en) Navigation system, and guide image preparation method
JP2014036326A (en) Bird&#39;s eye image display device
US8666655B2 (en) Systems and methods for navigation
JP2007025739A (en) Image display device for vehicle
JP5212920B2 (en) Vehicle display device
JP2004125446A (en) Navigation device and navigation program
JP2007088577A (en) Vehicle surrounding image processing system
KR100833603B1 (en) Navigation system for providing bird view and method thereof
KR20080019690A (en) Navigation device with camera-info
KR20160065721A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium