JP2013217808A - On-vehicle apparatus - Google Patents

On-vehicle apparatus Download PDF

Info

Publication number
JP2013217808A
JP2013217808A JP2012089631A JP2012089631A JP2013217808A JP 2013217808 A JP2013217808 A JP 2013217808A JP 2012089631 A JP2012089631 A JP 2012089631A JP 2012089631 A JP2012089631 A JP 2012089631A JP 2013217808 A JP2013217808 A JP 2013217808A
Authority
JP
Japan
Prior art keywords
vehicle
camera unit
image
information
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012089631A
Other languages
Japanese (ja)
Inventor
Yoshinori Suzuki
嘉教 鈴木
Hiroki Okada
広樹 岡田
Tetsuya Mizuno
哲也 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012089631A priority Critical patent/JP2013217808A/en
Publication of JP2013217808A publication Critical patent/JP2013217808A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an "on-vehicle apparatus" capable of providing a composite image for which guide information is superimposed on a proper vehicle front image even when a portable terminal is not set inside a compartment so that a camera unit is turned to a proper direction in front of a vehicle.SOLUTION: The on-vehicle apparatus includes an on-vehicle camera unit for photographing a prescribed direction in front of a vehicle. A difference between a photographing direction of the camera unit set so as to photograph the vehicle front by the camera unit of a portable terminal and a photographing direction of the on-vehicle camera unit is detected to generate photographing direction difference information indicating the difference. Guide information generated in the portable terminal is acquired, a position in the vehicle front image obtained by the photographing by the on-vehicle camera unit of the guide information is determined on the basis of the photographing direction difference information, the guide information is superimposed on the determined position of the vehicle front image obtained by the photographing by the on-vehicle camera unit to generate a composite vehicle front image, and a display part is made to display the composite vehicle front image.

Description

本発明は、外方を撮影するカメラユニットを備えたスマートフォン等の携帯端末が接続される車載機器に関する。   The present invention relates to an in-vehicle device to which a mobile terminal such as a smartphone provided with a camera unit that captures the outside is connected.

従来、カメラによる撮影画像(実画像)にマーク等の情報を付加して提供する情報提供方法が提案されている(特許文献1)。このような情報提供方法は、車両の前方を撮影する車載カメラにて得られる車両前方画像に、車両の進行方向を表す矢印や、施設を指示する施設マーク等の案内マーク(案内情報)を重ねて表示するAR(拡張現実)ナビゲーションに応用することができる。   Conventionally, an information providing method has been proposed in which information such as a mark is added to an image captured by a camera (actual image) (Patent Document 1). Such an information providing method superimposes an arrow indicating a traveling direction of a vehicle or a guidance mark (guidance information) such as a facility mark indicating a facility on a vehicle front image obtained by an in-vehicle camera that captures the front of the vehicle. It can be applied to AR (Augmented Reality) navigation displayed.

近年、スマートフォン等の携帯端末において、前述したようなARナビゲーションを実現するためのアプリケーションも提案されている。この場合の携帯端末は、外方を撮影するカメラユニット、当該携帯端末の現在位置を検出するめのユニット(例えば、GPS)、当該携帯端末の姿勢及び向きを検出するためのユニット(例えば、ジャイロスコープ、コンパス等)及び地図情報を格納したデータベースを備えている。そして、当該携帯端末が車室内に前記カメラユニットによって車両前方を撮影することができるようにセットされた状態で、前記アプリケーション(ARナビゲーション)が実行される。このアプリケーションの実行により、地図情報(データベース)に基づいて、現在位置での前記カメラユニットの向く方向(検出される携帯端末の姿勢及び向きに基づいて検出される)のカメラ視野内の道路、施設等(環境)に対応させた案内マークが生成され、その案内マークを前記カメラユニットにて得られる画像に重ねて生成された合成画像が当該携帯端末の表示画面に表示される。これにより、車両運転者は、携帯端末に表示される車両前方画像に重ねられた案内マークに基づいて、車両前方の現実の環境についての情報(車両進行方向、施設の内容等)を把握しつつ運転操作を行うことができる。   In recent years, an application for realizing the above-described AR navigation in a mobile terminal such as a smartphone has also been proposed. In this case, the mobile terminal includes a camera unit for photographing the outside, a unit for detecting the current position of the mobile terminal (for example, GPS), and a unit for detecting the attitude and orientation of the mobile terminal (for example, a gyroscope) , Compass, etc.) and a database storing map information. Then, the application (AR navigation) is executed in a state in which the mobile terminal is set in the vehicle interior so that the camera unit can capture the front of the vehicle. By executing this application, on the basis of map information (database), roads and facilities in the camera field of view in the direction in which the camera unit is facing at the current position (detected based on the detected attitude and orientation of the mobile terminal) Etc. (environment) is generated, and a composite image generated by superimposing the guidance mark on the image obtained by the camera unit is displayed on the display screen of the portable terminal. As a result, the vehicle driver grasps information about the actual environment ahead of the vehicle (vehicle traveling direction, contents of the facility, etc.) based on the guidance mark superimposed on the vehicle forward image displayed on the mobile terminal. Driving operation can be performed.

特開2003−216982号公報JP 2003-216882 A

しかしながら、上述したようなアプリケーションを搭載した携帯端末を利用する場合、車両前方を、運転者の視界に邪魔にならないように、カメラユニットにて適正に撮影できるように携帯端末を車室内にセットすることが難しい。カメラユニットにより適正に撮影できるように携帯端末が車室内にセットされない場合、フロントウィンドウを通して運転者が視認できる車両前方の環境(道路や施設等の位置)と、携帯端末に表示される車両前方画像に表れる環境とにずれが生ずる。この場合、携帯端末に表示される車両前方画像に重ねられた案内マークが、車両前方の現実の環境中におけるどの道路、施設等に対応するものかを把握し難いものとなってしまう。   However, when using a portable terminal equipped with an application as described above, the portable terminal is set in the passenger compartment so that the front of the vehicle can be properly captured by the camera unit so as not to interfere with the driver's field of view. It is difficult. When the mobile terminal is not set in the passenger compartment so that it can be properly photographed by the camera unit, the environment in front of the vehicle (position of roads, facilities, etc.) that the driver can visually recognize through the front window and the vehicle front image displayed on the mobile terminal Deviation occurs in the environment that appears. In this case, it becomes difficult to grasp which road, facility, etc. in the actual environment in front of the vehicle the guidance mark superimposed on the vehicle front image displayed on the mobile terminal.

本発明は、このような事情に鑑みてなされたもので、カメラユニットが車両前方の適正な方向に向くように携帯端末が車室内にセットされていなくても、適正な車両前方画像に案内情報を重ねた合成画像を供することのできる車載機器を提供するものである。   The present invention has been made in view of such circumstances, and even if the mobile terminal is not set in the vehicle interior so that the camera unit faces in an appropriate direction in front of the vehicle, guidance information is displayed in an appropriate vehicle front image. It is intended to provide an in-vehicle device capable of providing a composite image in which images are superimposed.

本発明に係る車載機器は、外方を撮影するカメラユニットを有し、地図情報に基づいて現在位置での前記カメラユニットの撮影方向の視野内の環境に対応させた案内情報を生成し、該案内情報を前記カメラユニットにて得られる画像に重ねて合成画像を生成して表示させるためのアプリケーションを搭載した携帯端末が接続される車載機器であって、表示部と、車両前方の所定方向を撮影する車載カメラユニットと、前記携帯端末の前記カメラユニットにより車両前方を撮影するようにセットされた当該カメラユニットの撮影方向と前記車載カメラユニットの撮影方向との差を検出して当該差を表す撮影方向差情報を生成する方向差検出手段と、前記携帯端末にて生成される前記案内情報を取得する案内情報取得手段と、前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置を、前記撮影方向差情報に基づいて決める案内情報表示位置決定手段と、前記車載カメラユニットの撮影により得られる前記車両前方画像の前記案内情報表示位置決定手段により決められた位置に前記案内情報を重ねて合成車両前方画像を生成する画像処理手段と、前記画像処理手段にて得られる前記合成車両前方画像を前記表示部に表示させる表示制御手段とを有する構成となる。   The in-vehicle device according to the present invention has a camera unit for photographing the outside, and generates guide information corresponding to the environment in the field of view in the photographing direction of the camera unit at the current position based on map information, An in-vehicle device to which a portable terminal equipped with an application for generating and displaying a composite image by superimposing guidance information on an image obtained by the camera unit is connected, the display unit and a predetermined direction in front of the vehicle The difference between the in-vehicle camera unit to be photographed and the photographing direction of the camera unit set so as to photograph the front of the vehicle by the camera unit of the portable terminal and the photographing direction of the in-vehicle camera unit is represented. Direction difference detection means for generating photographing direction difference information, guidance information acquisition means for acquiring the guidance information generated by the portable terminal, and the guidance information Guidance information display position determining means for determining a position in the vehicle front image obtained by photographing with the mounted camera unit based on the photographing direction difference information, and the guidance information display of the vehicle forward image obtained by photographing with the in-vehicle camera unit Image processing means for generating a composite vehicle forward image by superimposing the guidance information at the position determined by the position determination means, and display control means for displaying the composite vehicle forward image obtained by the image processing means on the display unit. It becomes the composition which has.

このような構成によれば、携帯端末でのアプリケーションの実行により、案内情報がカメラユニットにて得られる画像に重ねて合成画像が生成される際に、携帯端末のカメラユニットの撮影方向と車載カメラの撮影方向との差に基づいて、前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置が決められ、前記車両前方画像の前記決められた位置に前記案内情報が重ねて合成車両前方画像が生成され、その合成車両前方画像が表示部に表示される。   According to such a configuration, when the composite image is generated by superimposing the guidance information on the image obtained by the camera unit by executing the application on the mobile terminal, the shooting direction of the camera unit of the mobile terminal and the in-vehicle camera The position of the guidance information in the vehicle front image obtained by photographing of the in-vehicle camera unit is determined based on the difference from the shooting direction of the vehicle, and the guidance information is superimposed and synthesized on the determined position of the vehicle front image. A vehicle front image is generated, and the composite vehicle front image is displayed on the display unit.

本発明に係る車載機器において、前記方向差検出手段は、前記携帯端末から当該携帯端末の向きを表す方位情報を取得する手段と、当該車両の移動方向を検出する車両移動方向検出手段と、前記携帯端末についての前記方位情報と、前記車両の移動方向とに基づいて前記撮影方向差情報を演算する手段とを有する構成とすることができる。   In the in-vehicle device according to the present invention, the direction difference detecting means includes means for obtaining azimuth information representing the orientation of the mobile terminal from the mobile terminal, vehicle moving direction detecting means for detecting the moving direction of the vehicle, It can be set as the structure which has the means to calculate the said imaging | photography direction difference information based on the said direction information about a portable terminal, and the moving direction of the said vehicle.

このような構成により、車両の移動方向が検出され、携帯端末から取得した当該携帯端末の向きを表す方位情報と、前記検出された車両の移動方向とに基づいて、携帯端末のカメラユニットの撮影方向と車載カメラの撮影方向との差を表す撮影方向差情報が得られる。   With such a configuration, the moving direction of the vehicle is detected, and based on the azimuth information indicating the direction of the portable terminal acquired from the portable terminal and the detected moving direction of the vehicle, the photographing of the camera unit of the portable terminal is performed. The photographing direction difference information representing the difference between the direction and the photographing direction of the in-vehicle camera is obtained.

また、本発明に係る車載機器において、前記車両移動方向検出手段は、前記携帯端末から複数のタイミングにて位置情報を取得する携帯端末位置取得手段と、前記携帯端末についての前記複数のタイミングでの位置情報に基づいて当該車両の移動方向を演算する移動方向演算手段とを有する構成とすることができる。   Further, in the in-vehicle device according to the present invention, the vehicle movement direction detection unit includes a mobile terminal position acquisition unit that acquires position information from the mobile terminal at a plurality of timings, and a plurality of timings about the mobile terminal. A moving direction calculating means for calculating the moving direction of the vehicle based on the position information can be used.

このような構成により、車両の走行にともなって移動する携帯端末の複数のタイミングにて得られる位置情報に基づいて車両の移動方向が検出される。   With such a configuration, the moving direction of the vehicle is detected based on position information obtained at a plurality of timings of the mobile terminal that moves as the vehicle travels.

また、本発明に係る車載機器において、前記案内情報取得手段は、前記携帯端末に、前記カメラユニットにて得られる画像に代えて単色画像と前記案内情報とを重ねて合成した単色背景合成画像を要求する手段と、前記要求に応答して前記携帯端末から送られてくる前記単色背景合成画像を取得する手段と、前記単色背景合成画像から前記案内情報を抽出する案内情報抽出手段とを有する構成とすることができる。   Further, in the in-vehicle device according to the present invention, the guide information acquisition unit may be configured to combine a monochrome background composite image obtained by superimposing a single color image and the guide information on the mobile terminal instead of an image obtained by the camera unit. A means for requesting, a means for acquiring the monochrome background composite image sent from the portable terminal in response to the request, and a guide information extracting means for extracting the guide information from the monochrome background composite image It can be.

このような構成により、携帯端末の車両前方を撮影するカメラユニットにて得られる画像に代えて単色画像に案内情報を重ねて合成された単色背景合成画像から、前記案内情報が抽出される。   With such a configuration, the guide information is extracted from a single color background composite image synthesized by superimposing the guide information on the single color image instead of the image obtained by the camera unit that captures the front of the mobile terminal.

更に、本発明に係る車載機器において、前記案内情報取得手段は、前記携帯端末から前記カメラユニットの撮影により得られる画像に前記案内情報を重ねて生成された合成画像を取得する合成画像取得手段と、取得した前記合成画像から前記案内情報を抽出する案内情報抽出手段とを有する構成とすることができる。   Furthermore, in the in-vehicle device according to the present invention, the guide information acquisition means includes a composite image acquisition means for acquiring a composite image generated by superimposing the guide information on an image obtained by photographing with the camera unit from the portable terminal. And a guide information extracting means for extracting the guide information from the acquired composite image.

このような構成により、携帯端末のカメラユニットの撮影により得られた画像と案内情報との合成画像から当該案内情報が抽出される。   With such a configuration, the guide information is extracted from the combined image of the image obtained by photographing with the camera unit of the mobile terminal and the guide information.

本発明に係る車載機器によれば、携帯端末でのアプリケーションの実行により、案内情報がカメラユニットにて得られる画像に重ねて合成画像が生成される際に、携帯端末のカメラユニットの撮影方向と車載カメラユニットの撮影方向との差に基づいて、前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置が決められ、前記車両前方画像の前記決められた位置に前記案内情報が重ねて合成車両前方画像が生成され、その合成車両前方画像が表示部に表示されるので、カメラユニットが車両前方の適正な方向に向くように携帯端末が車室内にセットされていなくても、車載カメラユニットでの撮影により得られた適正な車両前方画像に案内情報を重ねた合成画像を供することができる。   According to the vehicle-mounted device according to the present invention, when the composite image is generated by superimposing the guidance information on the image obtained by the camera unit by executing the application on the mobile terminal, the shooting direction of the camera unit of the mobile terminal and Based on the difference with the shooting direction of the in-vehicle camera unit, the position of the guidance information in the vehicle front image obtained by the shooting of the in-vehicle camera unit is determined, and the guidance information is in the determined position of the vehicle front image. A composite vehicle forward image is generated by overlapping, and the composite vehicle forward image is displayed on the display unit, so even if the mobile terminal is not set in the vehicle interior so that the camera unit faces the appropriate direction in front of the vehicle, It is possible to provide a composite image in which guidance information is superimposed on an appropriate vehicle front image obtained by photographing with the in-vehicle camera unit.

本発明の実施の一形態に係る車載機器の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle equipment which concerns on one Embodiment of this invention. スマートフォン(携帯端末)の表示部に表示されるホーム画面の一例を示す図である。It is a figure which shows an example of the home screen displayed on the display part of a smart phone (mobile terminal). カメラユニットにて車両前方を撮影するようにスマートフォンを車室内にセットした例を示す図である。It is a figure which shows the example which set the smart phone in the vehicle interior so that a vehicle front may be image | photographed with a camera unit. カメラユニットにて車両前方を撮影するように車室内にセットされたスマートフォンの当該カメラユニットでの撮影により得られた画像の一例を示す図である。It is a figure which shows an example of the image obtained by imaging | photography with the said camera unit of the smart phone set in the vehicle interior so that a vehicle front may be image | photographed with a camera unit. 車両前方を撮影するように車室内に設けられた車載カメラユニットでの撮影により得られた車両前方画像の一例を示す図である。It is a figure which shows an example of the vehicle front image obtained by imaging | photography with the vehicle-mounted camera unit provided in the vehicle interior so that the vehicle front might be image | photographed. スマートフォンの表示部に表示される、カメラユニットでの撮影により得られる画像と案内マークとを合成した合成画像の一例を示す図である。It is a figure which shows an example of the synthesized image which synthesize | combined the image obtained by imaging | photography with a camera unit, and a guidance mark displayed on the display part of a smart phone. スマートフォンのカメラユニットの撮影方向と車載カメラユニットの撮影方向との差を表す撮影方向差Δθを検出するための処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process for detecting imaging | photography direction difference (DELTA) (theta) showing the difference of the imaging | photography direction of the camera unit of a smart phone, and the imaging | photography direction of a vehicle-mounted camera unit. 車載カメラユニットでの撮影により得られる車両前方画像と案内マークとを合成した合成車両前方画像の生成及び表示のための処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process for the production | generation and display of the synthetic | combination vehicle front image which synthesize | combined the vehicle front image obtained by imaging | photography with a vehicle-mounted camera unit, and a guidance mark. スマートフォンにて生成された案内マークの抽出の手法を説明する図である。It is a figure explaining the method of extraction of the guidance mark produced | generated with the smart phone. スマートフォンのカメラユニットの撮影方向と車載カメラユニットの撮影方向との差Δθと、表示画面との関係を示す図である。It is a figure which shows the difference (DELTA) (theta) of the imaging | photography direction of the camera unit of a smart phone, and the imaging | photography direction of a vehicle-mounted camera unit, and the relationship with a display screen. 携帯端末にてカメラユニットでの撮影にて得られた画像に合成される案内マークの、車載カメラユニットでの撮影にて得られる車両前方画像において重ねる位置を示す図である。It is a figure which shows the position which overlaps in the vehicle front image obtained by imaging | photography with a vehicle-mounted camera unit of the guidance mark synthesize | combined with the image obtained by imaging | photography with the camera unit with a portable terminal. 車載カメラユニットでの撮影にて得られる車載前方画像と案内マークとの合成により得られる合成車両前方画像の一例を示す図である。It is a figure which shows an example of the synthetic | combination vehicle front image obtained by a synthesis | combination with the vehicle-mounted front image obtained by imaging | photography with a vehicle-mounted camera unit, and a guide mark.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施の一形態に係る車載機器は、図1に示すように構成される。   An in-vehicle device according to an embodiment of the present invention is configured as shown in FIG.

図1において、この車載機器100は、処理ユニット11、操作部12、表示部13、記憶部14、出力回路15、スピーカ16及び車載カメラユニット17を有している。この車載機器100にはコネクタ18を介してスマートフォン20(携帯端末)が接続可能になっている。スマートフォン20がコネクタ18に接続された状態で、処理ユニット11とスマートフォン20とは、相互に情報(データ)の通信が可能となる。処理ユニット11は、操作部12での操作に応じて種々の処理を実行し、その処理により得られる情報を表示部13に表示させる。また、処理ユニット11からのメッセージ情報に基づいた音声信号が出力回路15からスピーカ16に供給され、スピーカ16からメッセージ情報の音声出力がなされる。記憶部14には、処理ユニット11での処理に用いられる情報が記憶されており、また、処理ユニット11での処理により得られた情報が記憶される。   In FIG. 1, the in-vehicle device 100 includes a processing unit 11, an operation unit 12, a display unit 13, a storage unit 14, an output circuit 15, a speaker 16, and an in-vehicle camera unit 17. A smart phone 20 (mobile terminal) can be connected to the in-vehicle device 100 via a connector 18. With the smartphone 20 connected to the connector 18, the processing unit 11 and the smartphone 20 can communicate information (data) with each other. The processing unit 11 executes various processes according to operations on the operation unit 12 and causes the display unit 13 to display information obtained by the processes. An audio signal based on the message information from the processing unit 11 is supplied from the output circuit 15 to the speaker 16, and the message information is output from the speaker 16. Information used for processing in the processing unit 11 is stored in the storage unit 14, and information obtained by processing in the processing unit 11 is stored.

車載カメラユニット17は、車両の前方移動方向の環境を撮影することが可能なようにフロントウィンドウの所定部位(例えば、ルームミラーの裏側の部位)に設置されている。車載カメラユニット17として、専用のカメラユニットだけでなく、例えば、前方車両との車間距離、走行レーンの境界を表す白線、その他の車両前方の環境情報を車両運転の支援情報として得るために車両前方を撮影するためのカメラユニットを用いることができる。処理ユニット11は、車載カメラユニット17から出力される画像信号から車両前方の環境を表す画像データを生成して画像処理を実行する。処理ユニット11は、車載カメラユニット17での撮影により得られる画像データに基づいて表示部13に車両前方画像を表示させることができる。   The in-vehicle camera unit 17 is installed in a predetermined part of the front window (for example, a part on the back side of the room mirror) so that an environment in the forward movement direction of the vehicle can be photographed. As the in-vehicle camera unit 17, not only a dedicated camera unit, but also, for example, in order to obtain the inter-vehicle distance with the preceding vehicle, the white line indicating the boundary of the traveling lane, and other environmental information in front of the vehicle as vehicle driving support information. A camera unit for photographing can be used. The processing unit 11 generates image data representing the environment ahead of the vehicle from the image signal output from the in-vehicle camera unit 17 and executes image processing. The processing unit 11 can display a vehicle forward image on the display unit 13 based on image data obtained by photographing with the in-vehicle camera unit 17.

スマートフォン20(携帯端末)は、図示されてはいないが、外方を撮影するカメラユニット、スマートフォン20の現在位置を検出するためのユニット(例えば、GPS)、スマートフォン20の姿勢及び向きを検出するためのユニット(例えば、ジャイロスコープ、コンパス等)及び地図情報を格納したデータベースを備えている。また、スマートフォン20は、地図情報(データベース)に基づいて、現在位置での前記カメラユニットの向く方向(検出されるスマートフォン20の姿勢及び向きに基づいて検出される)のカメラ視野内の道路、施設等(環境)に対応させた案内マークを生成し、更にその案内マークを前記カメラユニットにて得られる画像に重ねて合成画像を生成して、その合成画像を表示部に表示させるARナビゲーションのアプリケーション(アプリケーションソフト)を搭載している。   Although not shown, the smartphone 20 (mobile terminal) is a camera unit that captures the outside, a unit (for example, GPS) for detecting the current position of the smartphone 20, and a posture and orientation of the smartphone 20. Unit (for example, gyroscope, compass, etc.) and a database storing map information. Further, the smartphone 20 is based on map information (database), and roads and facilities in the camera field of view of the camera unit at the current position (detected based on the detected posture and orientation of the smartphone 20). AR navigation application that generates a guidance mark corresponding to the environment (environment), overlays the guidance mark on the image obtained by the camera unit, generates a composite image, and displays the composite image on the display unit (Application software) is installed.

スマートフォン20では、例えば、図2に示すように、搭載されたアプリケーションの選択ボタン(アイコン)が配列されたホーム画面が表示部201に表示される。このホーム画面において、例えば、前記ARナビゲーションに対応した選択ボタン(AR Navi)の選択操作を行うことにより、ARナビゲーションのアプリケーションが起動される。また、スマートフォン20は、例えば、図3に示すように、車室内のダッシュパネルの上に、そのカメラユニット(図示略)が車両前方を向き、表示部201が車室内に向くようにセットされる。なお、スマートフォン20は、運転者の前方視界を妨げない位置にセットすることができる。   In the smartphone 20, for example, as illustrated in FIG. 2, a home screen on which selection buttons (icons) of installed applications are arranged is displayed on the display unit 201. On this home screen, for example, an AR navigation application is activated by performing a selection operation of a selection button (AR Navi) corresponding to the AR navigation. For example, as shown in FIG. 3, the smartphone 20 is set on a dash panel in the vehicle interior so that the camera unit (not shown) faces the front of the vehicle and the display unit 201 faces the vehicle interior. . The smartphone 20 can be set at a position that does not interfere with the driver's forward view.

スマートフォン20のカメラユニットでの撮影により表示部201に表示し得る車両前方の画像(以下、端末前方撮影画像という)Isphは、例えば、図4に示すようになる。また、前記端末前方撮影画像Isphが得られると同じタイミングで車載カメラユニット17での撮影により表示部13に表示される車両前方の画像(以下、機器前方撮影画像という)Icは、例えば、図5に示すようになる。図4に示される端末前方撮影画像Isphの見え方と図5に示される機器前方撮影画像Icの見え方との違いは、スマートフォン20のカメラユニットの撮影方向と、車載カメラユニット17の撮影方向とがずれていることに起因している。   FIG. 4 shows, for example, an image in front of the vehicle (hereinafter referred to as a terminal front-captured image) Isph that can be displayed on the display unit 201 by photographing with the camera unit of the smartphone 20. Further, when the terminal front photographed image Isph is obtained, an image in front of the vehicle (hereinafter referred to as a device front photographed image) Ic displayed on the display unit 13 by photographing with the in-vehicle camera unit 17 at the same timing is, for example, FIG. As shown. The difference between the appearance of the terminal front captured image Isph shown in FIG. 4 and the appearance of the device front captured image Ic shown in FIG. 5 is that the shooting direction of the camera unit of the smartphone 20 and the shooting direction of the in-vehicle camera unit 17 are different. This is due to the deviation.

スマートフォン20での前述したARナビゲーションのアプリケーションの実行により、地図情報に基づいて、例えば、図6に示すように、現在位置でのカメラユニットの向く方向のカメラ視野内の車両が進行する道路に対応させた進行方向を示す矢印M1、当該カメラ視野内の施設、例えば、銀行Aに対応させた施設マークM2や他の銀行Bに対応させた施設マークM3が生成される。そして、それら矢印M1及び施設マークM2、M3(案内マーク・案内情報)を端末前方撮影画像Isph(図4に示すものと同じ)に重ねて合成画像Isph/Mが生成される。   By executing the above-described AR navigation application on the smartphone 20, based on the map information, for example, as shown in FIG. 6, it corresponds to a road on which the vehicle in the camera field of view in the direction of the camera unit at the current position travels. An arrow M1 indicating the travel direction thus generated, a facility mark M2 corresponding to the bank A, and a facility mark M3 corresponding to another bank B are generated. Then, the composite image Isph / M is generated by superimposing these arrows M1 and facility marks M2, M3 (guidance marks / guidance information) on the terminal front photographed image Isph (same as shown in FIG. 4).

処理ユニット11は、ARナビゲーションのアプリケーションを実行するスマートフォン20と情報通信を行って、車載カメラユニット17での撮影により得られる機器前方撮影画像Icを用いて、ARナビゲーションの機能を車載機器100において実現するために、図7及び図8に示す手順に従って処理を行う。図7に示す手順の処理(方向差検出手段)は、スマートフォン20のカメラユニットの撮影方向と車載カメラユニット17の撮影方向とのずれ(差)である撮影方向差Δθを求める。図8に示す手順の処理は、前記撮影方向差Δθを用いて、車載カメラユニット17での撮影により得られる機器前方撮影画像Icに案内マーク(M1、M2、M3)を重ねて合成画像Ic/Mを生成し、表示部13に表示させる(ARナビゲーション機能)。   The processing unit 11 performs information communication with the smartphone 20 that executes the application of the AR navigation, and implements the AR navigation function in the in-vehicle device 100 using the device front captured image Ic obtained by imaging with the in-vehicle camera unit 17. In order to do so, processing is performed according to the procedure shown in FIGS. The processing of the procedure shown in FIG. 7 (direction difference detection means) obtains a shooting direction difference Δθ that is a deviation (difference) between the shooting direction of the camera unit of the smartphone 20 and the shooting direction of the in-vehicle camera unit 17. The processing of the procedure shown in FIG. 8 is performed by superimposing guide marks (M1, M2, M3) on the device front photographed image Ic obtained by photographing with the in-vehicle camera unit 17 using the photographing direction difference Δθ. M is generated and displayed on the display unit 13 (AR navigation function).

図7において、処理ユニット11は、コネクタ18に接続されたスマートフォン20と相互に情報通信可能であることを確認すると(S11)、そのスマートフォン20に対してARナビゲーションのアプリケーション(ARナビアプリ)の起動要求を行って(S12)、この起動要求に対するスマートフォン20からの応答の待ち状態となる(S13)。前記起動要求により、スマートフォン20は、ARナビアプリを起動して応答信号を車載機器100に返信する。処理ユニット11は、前記ARナビアプリの起動要求を行った後、スマートフォン20からの応答信号を受信すると(S13でYES)、スマートフォン20との情報通通信により、ARナビアプリの実行により得られる、スマートフォン20の向く方向を表す方位情報(S14)、及びスマートフォン20の現在位置を表す位置情報(緯度、経度)を第1位置情報として取得する(S15)。その後所定時間の待ち状態となる(S16)。   In FIG. 7, when the processing unit 11 confirms that information can be mutually communicated with the smartphone 20 connected to the connector 18 (S11), the AR navigation application (AR navigation application) is activated for the smartphone 20. A request is made (S12), and a response from the smartphone 20 to the activation request is waited (S13). In response to the activation request, the smartphone 20 activates the AR navigation application and returns a response signal to the in-vehicle device 100. When the processing unit 11 receives the response signal from the smartphone 20 after making the AR navigation application activation request (YES in S13), the processing unit 11 is obtained by executing the AR navigation application through information communication with the smartphone 20. Direction information (S14) indicating the direction in which the smartphone 20 faces and position information (latitude, longitude) indicating the current position of the smartphone 20 are acquired as first position information (S15). Thereafter, a waiting state for a predetermined time is entered (S16).

処理ユニット11は、所定時間の待ち状態が終了すると(S16でYES)、スマートフォン20との情報通信により、スマートフォン20の現在位置を表す位置情報(緯度、経度)を第2位置情報として取得する(S17)。車両の走行により、以前に取得された第1位置情報と前記所定時間後に取得された第2位置情報とは異なっており、処理ユニット11は、その第1位置情報と第2位置情報との差から車両の移動方位を算出する(S18)。そして、処理ユニット11は、前記取得された方位情報(S14参照)で表されるスマートフォン20の向く方向と前記車両の移動方位との差を、スマートフォン20のカメラユニットの撮影方向(スマートフォン20の向く方向に対応)と車載カメラユニットの撮影方向(車両の移動方向に対応)とのずれである撮影方向差Δθを算出する(S19)。   When the waiting state for a predetermined time ends (YES in S16), the processing unit 11 acquires position information (latitude, longitude) representing the current position of the smartphone 20 as second position information through information communication with the smartphone 20 ( S17). Due to the traveling of the vehicle, the first position information acquired before and the second position information acquired after the predetermined time are different, and the processing unit 11 determines the difference between the first position information and the second position information. The moving direction of the vehicle is calculated from (S18). Then, the processing unit 11 determines the difference between the direction in which the smartphone 20 is represented and the moving direction of the vehicle represented by the acquired azimuth information (see S14) as the shooting direction of the camera unit in the smartphone 20 (the direction in which the smartphone 20 is directed). The shooting direction difference Δθ, which is a difference between the shooting direction of the vehicle-mounted camera unit (corresponding to the moving direction of the vehicle) and the vehicle-mounted camera unit, is calculated (S19).

このようにして撮影方向差Δθが得られると、処理ユニット11は、図8に示す手順に従って、ARナビゲーションのための画像処理を実行する。   When the photographing direction difference Δθ is obtained in this way, the processing unit 11 executes image processing for AR navigation according to the procedure shown in FIG.

図8において、処理ユニット11は、スマートフォン20との情報通信により、ARナビアプリを実行するスマートフォン20に対してカメラユニットにて得られる画像に代えて単色画像IBGに案内マーク(M1、M2、M3)を重ね単色背景合成画像の要求を行う(S21)。この要求を受けたスマートフォン20は、例えば、カメラユニットからの画像信号の送出を停止させることにより、図4に示すような端末前方画像Isphに代えて単色(例えば、黒)の単色背景画像IBGを生成する。そして、スマートフォン20は、この単色背景画像IBGと前述した案内マーク(M1、M2、M3)と合成する処理を行うことにより、例えば、図9に示すように、単色背景画像IBG(例えば、黒画像)に案内マーク(M1、M2、M3)が重ねられた1画面分の単色背景合成画像IBG/Mを生成する。スマートフォン20は、この単色背景合成画像IBG/Mを表す画像データを前記要求の応答とともに車載機器100に送る。 In FIG. 8, the processing unit 11 replaces an image obtained by the camera unit with respect to the smartphone 20 that executes the AR navigation application by information communication with the smartphone 20, and displays a guide mark (M1, M2, M3) is overlaid and a request for a monochrome background composite image is made (S21). The smartphone 20 that has received this request, for example, stops sending image signals from the camera unit, thereby replacing the terminal front image Isph as shown in FIG. 4 with a monochrome (for example, black) monochrome background image I BG. Is generated. And the smart phone 20 performs the process which synthesize | combines with this monochromatic background image IBG and the guidance mark (M1, M2, M3) mentioned above, for example, as shown in FIG. 9, monochromatic background image IBG (for example, A single-color background composite image I BG / M for one screen in which the guide marks (M1, M2, M3) are superimposed on the black image) is generated. The smartphone 20 sends the image data representing the monochrome background composite image I BG / M to the in-vehicle device 100 together with the response to the request.

前記単色背景合成画像の要求を行った後、待ち状態となる(S22)となる処理ユニット11は、スマートフォン20からの応答を確認すると(S22でYES)、その応答ともに送られてきた単色背景合成画像IBG/Mの画像データを取得する(S23)。その後、処理ユニット11は、その取得した画像データに対して、例えば、その単色背景合成画像IBG/Mの背景(黒)部分とそれ以外の部分とを識別しつつ、案内マーク(M1、M2、M3)を背景部分から切り出す(抽出する)処理を施す(S24)。これにより、一画面内に分散して配置された案内マーク(M1、M2、M3)を表す画像データが得られる(S21〜S24:案内情報取得手段)。 After making the request for the monochrome background composite image, when the processing unit 11 that enters the waiting state (S22) confirms the response from the smartphone 20 (YES in S22), the monochrome background composition that has been sent together with the response. Image data of the image I BG / M is acquired (S23). Thereafter, the processing unit 11 identifies, for example, the guide marks (M1, M2) for the acquired image data while identifying the background (black) portion and other portions of the monochrome background composite image I BG / M. , M3) is cut out (extracted) from the background portion (S24). Thereby, image data representing the guide marks (M1, M2, M3) distributed and arranged in one screen is obtained (S21 to S24: guide information acquisition means).

処理ユニット11は、前述したようにして(図7参照)求めた撮影方向差Δθに基づいて、案内マーク(M1、M2、M3)の、スマートフォン20のカメラユニットの撮影方向と異なる撮影方向となる車載カメラユニット17の撮影により得られる、例えば、図5に示すような機器車両前方撮影画像Icにおける位置を演算する(S25:案内情報表示位置決定手段)。この案内マーク(M1、M2、M3)の機器車両前方撮影画像Ic上での位置は、次のようにして演算される。   The processing unit 11 has a shooting direction different from the shooting direction of the camera unit of the smartphone 20 of the guide marks (M1, M2, M3) based on the shooting direction difference Δθ obtained as described above (see FIG. 7). For example, a position in an apparatus vehicle front photographed image Ic as shown in FIG. 5 obtained by photographing by the in-vehicle camera unit 17 is calculated (S25: guidance information display position determining means). The positions of the guide marks (M1, M2, M3) on the equipment vehicle front captured image Ic are calculated as follows.

図10に示すように、前記撮影方向差Δθに応じて、スマートフォン20のカメラユニットによるカメラ視野Vsphと、車載カメラユニット17によるカメラ視野Vcとがずれる。このことから、スマートフォン20のカメラユニットによるカメラ視野Vsphの環境に対応させて重ねるべきマークMの画面(Vsphに対応)内での位置から、前記撮影方向差Δθ、スマートフォン20のカメラユニット及び車載カメラユニット17の光学的条件等に基づいて、車載カメラユニット17によるカメラ視野Vcの環境に対応させて重ねるべきマークMの画面(Vcに対応)内での位置が演算される。図10に示す例では、マークMが、スマートフォン20のカメラユニットでの撮影による端末車両前方撮影画像Isph(Vsphに対応)の画面内において比較的右側に位置するのに対し、前記撮影方向差Δθにより、車載カメラユニット17での撮影による機器車両前方撮影画像Ic(Vcに対応)の画面内において比較的左側に位置するようになる。   As shown in FIG. 10, the camera field of view Vsph by the camera unit of the smartphone 20 and the camera field of view Vc by the in-vehicle camera unit 17 are shifted according to the photographing direction difference Δθ. From this, the shooting direction difference Δθ, the camera unit of the smartphone 20 and the in-vehicle camera are determined from the position in the screen (corresponding to Vsph) of the mark M to be overlapped corresponding to the environment of the camera visual field Vsph by the camera unit of the smartphone 20. Based on the optical conditions of the unit 17 and the like, the position of the mark M in the screen (corresponding to Vc) to be superimposed corresponding to the environment of the camera visual field Vc by the in-vehicle camera unit 17 is calculated. In the example shown in FIG. 10, the mark M is located on the relatively right side in the screen of the terminal vehicle forward captured image Isph (corresponding to Vsph) captured by the camera unit of the smartphone 20, whereas the imaging direction difference Δθ. As a result, it is positioned relatively on the left side in the screen of the device vehicle front-captured image Ic (corresponding to Vc) obtained by photographing with the in-vehicle camera unit 17.

上記のような処理の結果、例えば、図11に示すように、スマートフォン20のカメラユニットでの撮影による端末車両前方撮影画像Isphにおける環境(道路、施設)に対応させて重ねられる各案内マークM1、M2、M3(図11において破線で示される)の、車載カメラユニット17の撮影による機器車両前方撮影画像Icの画面内での位置が、図11の実線で示すように決められる。   As a result of the processing as described above, for example, as shown in FIG. 11, each guide mark M <b> 1 that is overlaid in correspondence with the environment (road, facility) in the terminal vehicle forward captured image Isph captured by the camera unit of the smartphone 20, The positions of M2 and M3 (indicated by broken lines in FIG. 11) in the screen of the device vehicle front captured image Ic captured by the in-vehicle camera unit 17 are determined as indicated by solid lines in FIG.

そして、処理ユニット11は、車載カメラユニット17の撮影により得られる機器車両前方撮影画像Ic(図5参照)における前述したように決められた位置に、前記案内マークM1、M2、M3を重ねて合成し、合成車両前方画像Ic/Mを表す画像データを生成し、その画像データに基づいて表示部13にその合成車両前方画像Ic/Mを表示させる(S26:画像処理手段、表示制御手段)。例えば、表示部13には、図12に示すように、機器車両前方撮影画像Icが表す環境(道路、施設)に合致するように案内マークM1、M2、M3が重ねられた合成車両前方画像Ic/Mが表示される。   Then, the processing unit 11 combines the guide marks M1, M2, and M3 at the positions determined as described above in the equipment vehicle front photographed image Ic (see FIG. 5) obtained by photographing by the in-vehicle camera unit 17. Then, image data representing the composite vehicle front image Ic / M is generated, and the composite vehicle front image Ic / M is displayed on the display unit 13 based on the image data (S26: image processing means, display control means). For example, as shown in FIG. 12, the composite vehicle forward image Ic in which the guide marks M1, M2, and M3 are superimposed on the display unit 13 so as to match the environment (road, facility) represented by the equipment vehicle forward captured image Ic, as shown in FIG. / M is displayed.

以後、処理ユニット11は、前述した処理(S23〜S26)を繰り返すことにより、車両が移動中に車載カメラユニット17の撮影により得られる機器車両前方撮影画像Icに、スマートフォン20のARナビアプリの実行により得られる案内マークが重ねられた合成車両前方画像Ic/Mが継続的に表示部13に表示される。   Thereafter, the processing unit 11 repeats the above-described processing (S23 to S26), thereby executing the AR navigation application of the smartphone 20 on the device vehicle front photographed image Ic obtained by photographing with the in-vehicle camera unit 17 while the vehicle is moving. The composite vehicle forward image Ic / M on which the guide mark obtained by the above is superimposed is continuously displayed on the display unit 13.

上述したような車載機器では、スマートフォン20でのARアプリの実行により、案内マーク(M1、M2、M3)がカメラユニットにて得られる端末車両前方画像Isphに重ねて合成画像Isph/Mが生成される際に、スマートフォン20のカメラユニットの撮影方向と車載カメラユニット17の撮影方向との差(撮影方向差)Δθに基づいて、前記案内マーク(M1、M2、M3)の車載カメラユニット17の撮影により得られる機器車両前方撮影画像Icにおける位置が決められ、その機器車両前方撮影画像Icの前記決められた位置に前記案内マーク(M1、M2、M3)重ねて合成車両前方画像Ic/Mが生成され、その合成車両前方画像Ic/Mが表示部13に表示される。そのため、カメラユニットが車両前方の適正な方向に向くようにスマートフォン20が車室内にセットされていなくても、車載カメラユニット17での撮影により得られた適正な機器車両前方撮影画像Icに案内マーク(M1、M2、M3)を重ねた合成車両前方画像Ic/Mを車両の運転者に提供することができる。   In the in-vehicle device as described above, the composite image Isph / M is generated by superimposing the guidance mark (M1, M2, M3) on the terminal vehicle forward image Isph obtained by the camera unit by executing the AR application on the smartphone 20. In this case, based on the difference (shooting direction difference) Δθ between the shooting direction of the camera unit of the smartphone 20 and the shooting direction of the in-vehicle camera unit 17, the shooting of the in-vehicle camera unit 17 of the guide marks (M1, M2, M3) is performed. The position in the device vehicle front captured image Ic obtained by the above is determined, and the guide mark (M1, M2, M3) is superimposed on the determined position of the device vehicle front captured image Ic to generate the composite vehicle front image Ic / M. Then, the composite vehicle forward image Ic / M is displayed on the display unit 13. Therefore, even if the smartphone 20 is not set in the vehicle interior so that the camera unit faces in an appropriate direction in front of the vehicle, a guidance mark is displayed on the appropriate device vehicle front-captured image Ic obtained by photographing with the in-vehicle camera unit 17. The composite vehicle forward image Ic / M on which (M1, M2, M3) is superimposed can be provided to the driver of the vehicle.

また、車載機器100にARナビゲーションの機能が無くても、ARナビアプリを搭載したスマートフォン20等の携帯端末を接続することにより、ARナビゲーションの機能による合成画像をその表示部13に表示させることができる。そのため、運転者は、スマートフォン20の比較的小さい表示部201の画面ではなく、車載機器100の比較的大きい表示部13の画面を通してARナビゲーションの機能による合成画像を利用することができる。   Even if the in-vehicle device 100 does not have an AR navigation function, by connecting a mobile terminal such as the smartphone 20 equipped with the AR navigation application, a composite image by the AR navigation function can be displayed on the display unit 13. it can. Therefore, the driver can use the composite image by the function of the AR navigation through the relatively large screen of the display unit 13 of the in-vehicle device 100 instead of the relatively small screen of the display unit 201 of the smartphone 20.

なお、前述した処理(図8参照)では、スマートフォン20に、カメラユニットにて得られる画像に代えて単色画像IBG(例えば、黒画像)と前記案内マーク(M1、M2、M3)とを重ねて合成した単色背景合成画像IBG/Mを要求し、その要求に応答してスマートフォン20から送られてくる単色背景合成画像IBG/Mから前記案内マーク(M1、M2、M3)を抽出するようにしたが、これに限らない。例えば、スマートフォン20からカメラユニットの撮影により得られる機器車両前方撮影画像Isphに前記案内マーク(M1、M2、M3)を重ねて生成された合成画像Isph/M(図6参照)を取得し、その合成画像Isph/Mから前記案内マーク(M1、M2、M3)を抽出するようにしてもよい。この場合、背景の画像(機器車両前方撮影画像Isph)においては同じ色が連続しないという性質と、案内マーク(M1、M2、M3)においては枠線や矢印等同じ色が連続するという性質との違いにより、背景となる機器車両前方撮影画像Isphから案内マーク(M1、M2、M3)を抽出することができる。 In the process described above (see FIG. 8), the smartphone 20 is overlaid with the monochrome image I BG (for example, a black image) and the guide marks (M1, M2, M3) instead of the image obtained by the camera unit. So that the single-color background composite image IBG / M synthesized is requested, and the guide marks (M1, M2, M3) are extracted from the single-color background composite image IBG / M sent from the smartphone 20 in response to the request. However, it is not limited to this. For example, the composite image Isph / M (see FIG. 6) generated by superimposing the guide marks (M1, M2, M3) on the device vehicle front photographed image Isph obtained by photographing with the camera unit from the smartphone 20 is acquired, and The guide marks (M1, M2, M3) may be extracted from the composite image Isph / M. In this case, the nature that the same color does not continue in the background image (device vehicle front photographed image Isph), and the nature that the same color such as a frame line or an arrow continues in the guidance mark (M1, M2, M3). Due to the difference, the guidance marks (M1, M2, M3) can be extracted from the device vehicle forward photographed image Isph as the background.

また、スマートフォン20で生成される合成画像Isph/M(図6参照)は、スマートフォン20の表示部201に表示させる、あるいは、表示させない、のいずれであってもよい。また、背景を単色画像IBGにした単色背景合成画像IBG/M(図9参照)をスマートフォン20の表示部201に表示させるようにしてもよい。 Further, the composite image Isph / M (see FIG. 6) generated by the smartphone 20 may be displayed on the display unit 201 of the smartphone 20 or may not be displayed. It is also possible to display a single color background and the background to a single color image IBG composite image I BG / M (see FIG. 9) on the display unit 201 of the smartphone 20.

以上説明したように、本発明に係る車載機器は、カメラユニットが車両前方の適正な方向に向くように携帯端末が車室内にセットされていなくても、適正な車両前方画像に案内情報を重ねた合成画像を供することができるという効果を有し、外方を撮影するカメラユニットを備えたスマートフォン等の携帯端末が接続される車載機器として有用である。   As described above, the in-vehicle device according to the present invention superimposes the guidance information on the appropriate vehicle front image even if the mobile terminal is not set in the vehicle interior so that the camera unit faces the appropriate direction in front of the vehicle. It is useful as an in-vehicle device to which a portable terminal such as a smartphone provided with a camera unit for photographing the outside is connected.

11 処理ユニット
12 操作部
13 表示部
14 記憶部
15 出力回路
16 スピーカ
17 車載カメラユニット
18 コネクタ
20 スマートフォン(携帯端末)
100 車載機器
DESCRIPTION OF SYMBOLS 11 Processing unit 12 Operation part 13 Display part 14 Memory | storage part 15 Output circuit 16 Speaker 17 Car-mounted camera unit 18 Connector 20 Smartphone (mobile terminal)
100 In-vehicle equipment

Claims (5)

外方を撮影するカメラユニットを有し、地図情報に基づいて現在位置での前記カメラユニットの撮影方向の視野内の環境に対応させた案内情報を生成し、該案内情報を前記カメラユニットにて得られる画像に重ねて合成画像を生成して表示させるためのアプリケーションを搭載した携帯端末が接続される車載機器であって、
表示部と、
車両前方の所定方向を撮影する車載カメラユニットと、
前記携帯端末の前記カメラユニットにより車両前方を撮影するようにセットされた当該カメラユニットの撮影方向と前記車載カメラユニットの撮影方向との差を検出して当該差を表す撮影方向差情報を生成する方向差検出手段と、
前記携帯端末にて生成される前記案内情報を取得する案内情報取得手段と、
前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置を、前記撮影方向差情報に基づいて決める案内情報表示位置決定手段と、
前記車載カメラユニットの撮影により得られる前記車両前方画像の前記案内情報表示位置決定手段により決められた位置に前記案内情報を重ねて合成車両前方画像を生成する画像処理手段と、
前記画像処理手段にて得られる前記合成車両前方画像を前記表示部に表示させる表示制御手段とを有する車載機器。
It has a camera unit for photographing the outside, and generates guide information corresponding to the environment in the field of view in the shooting direction of the camera unit at the current position based on map information, and the guide information is generated by the camera unit. It is an in-vehicle device to which a portable terminal equipped with an application for generating and displaying a composite image superimposed on the obtained image is connected,
A display unit;
An in-vehicle camera unit that captures a predetermined direction in front of the vehicle;
The difference between the shooting direction of the camera unit set to capture the front of the vehicle by the camera unit of the portable terminal and the shooting direction of the in-vehicle camera unit is detected, and shooting direction difference information representing the difference is generated. Direction difference detection means;
Guidance information acquisition means for acquiring the guidance information generated by the portable terminal;
Guidance information display position determining means for determining the position of the guidance information in the vehicle front image obtained by photographing with the in-vehicle camera unit based on the photographing direction difference information;
Image processing means for generating a composite vehicle forward image by superimposing the guide information at a position determined by the guide information display position determining means of the vehicle forward image obtained by photographing by the in-vehicle camera unit;
Vehicle-mounted equipment having display control means for displaying the composite vehicle forward image obtained by the image processing means on the display unit.
前記方向差検出手段は、前記携帯端末から当該携帯端末の向きを表す方位情報を取得する手段と、
当該車両の移動方向を検出する車両移動方向検出手段と、
前記携帯端末についての前記方位情報と、前記車両の移動方向とに基づいて前記撮影方向差情報を演算する手段とを有する請求項1記載の車載機器。
The direction difference detection means acquires direction information representing the orientation of the mobile terminal from the mobile terminal;
Vehicle moving direction detecting means for detecting the moving direction of the vehicle;
The in-vehicle device according to claim 1, further comprising means for calculating the photographing direction difference information based on the azimuth information about the portable terminal and a moving direction of the vehicle.
前記車両移動方向検出手段は、
前記携帯端末から複数のタイミングにて位置情報を取得する携帯端末位置取得手段と、
前記携帯端末についての前記複数のタイミングでの位置情報に基づいて当該車両の移動方向を演算する移動方向演算手段とを有する請求項2記載の車載機器。
The vehicle moving direction detecting means is
Mobile terminal position acquisition means for acquiring position information from the mobile terminal at a plurality of timings;
The in-vehicle device according to claim 2, further comprising a movement direction calculation unit that calculates a movement direction of the vehicle based on position information at the plurality of timings of the portable terminal.
前記案内情報取得手段は、前記携帯端末に、前記カメラユニットにて得られる画像に代えて単色画像と前記案内情報とを重ねて合成した単色背景合成画像を要求する手段と、
前記要求に応答して前記携帯端末から送られてくる前記単色背景合成画像を取得する手段と、
前記単色背景合成画像から前記案内情報を抽出する案内情報抽出手段とを有する請求項1乃至3のいずれかに記載の車載機器。
The guide information acquisition means requests the mobile terminal for a monochrome background composite image obtained by superimposing a single color image and the guide information instead of an image obtained by the camera unit;
Means for acquiring the monochrome background composite image sent from the mobile terminal in response to the request;
The in-vehicle device according to any one of claims 1 to 3, further comprising guide information extracting means for extracting the guide information from the monochrome background composite image.
前記案内情報取得手段は、前記携帯端末から前記カメラユニットの撮影により得られる画像に前記案内情報を重ねて生成された合成画像を取得する合成画像取得手段と、
取得した前記合成画像から前記案内情報を抽出する案内情報抽出手段とを有する請求項1乃至3のいずれかに記載の車載機器。
The guidance information acquisition means acquires a composite image generated by superimposing the guidance information on an image obtained by photographing with the camera unit from the portable terminal, and
The in-vehicle device according to claim 1, further comprising guide information extraction means for extracting the guide information from the acquired composite image.
JP2012089631A 2012-04-10 2012-04-10 On-vehicle apparatus Pending JP2013217808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012089631A JP2013217808A (en) 2012-04-10 2012-04-10 On-vehicle apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012089631A JP2013217808A (en) 2012-04-10 2012-04-10 On-vehicle apparatus

Publications (1)

Publication Number Publication Date
JP2013217808A true JP2013217808A (en) 2013-10-24

Family

ID=49590059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012089631A Pending JP2013217808A (en) 2012-04-10 2012-04-10 On-vehicle apparatus

Country Status (1)

Country Link
JP (1) JP2013217808A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067418A (en) * 2014-01-24 2019-04-25 ピーシーエムエス ホールディングス インコーポレイテッド Methods, apparatus, systems, devices and computer program products for augmenting reality in connection with real-world places
US20220163334A1 (en) * 2019-03-20 2022-05-26 Lg Electronics Inc. Method for providing navigation service using mobile terminal, and mobile terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067418A (en) * 2014-01-24 2019-04-25 ピーシーエムエス ホールディングス インコーポレイテッド Methods, apparatus, systems, devices and computer program products for augmenting reality in connection with real-world places
US11854130B2 (en) 2014-01-24 2023-12-26 Interdigital Vc Holdings, Inc. Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with real world places
US20220163334A1 (en) * 2019-03-20 2022-05-26 Lg Electronics Inc. Method for providing navigation service using mobile terminal, and mobile terminal

Similar Documents

Publication Publication Date Title
US20190101405A1 (en) Three-dimensional driving navigation device
JP6033689B2 (en) Cruise control device and method, and vehicle identification device
US10099617B2 (en) Driving assistance device and driving assistance method
CN210139859U (en) Automobile collision early warning system, navigation and automobile
US20200175872A1 (en) Information providing system, server, onboard device, storage medium, and information providing method
JP2016095688A (en) On-vehicle information display device
JP2013124957A (en) Navigation system using portable information terminal
JP2020095406A (en) On-vehicle device, program, and vehicle
JP2019109707A (en) Display control device, display control method and vehicle
JP6236954B2 (en) Driving support system, method and program
JP2010134640A (en) Information acquisition apparatus
EP1669722A1 (en) Vehicle-mounted communication device
JP6186905B2 (en) In-vehicle display device and program
JP2013217808A (en) On-vehicle apparatus
JP6221562B2 (en) Vehicle information presentation device
JP5212920B2 (en) Vehicle display device
KR100833603B1 (en) Navigation system for providing bird view and method thereof
JP5231595B2 (en) Navigation device
JP6586226B2 (en) Terminal device position estimation method, information display method, and terminal device position estimation device
JP2018031600A (en) Display device and display system
JP2016082409A (en) Radio communication device
JP2020118473A (en) Route guidance control device, route guidance control method, and program
JP2018101897A (en) Vehicle periphery monitoring device and monitoring method
JP6248823B2 (en) In-vehicle display device
KR20040025150A (en) Route guide method in car navigation system