JP2013217808A - On-vehicle apparatus - Google Patents
On-vehicle apparatus Download PDFInfo
- Publication number
- JP2013217808A JP2013217808A JP2012089631A JP2012089631A JP2013217808A JP 2013217808 A JP2013217808 A JP 2013217808A JP 2012089631 A JP2012089631 A JP 2012089631A JP 2012089631 A JP2012089631 A JP 2012089631A JP 2013217808 A JP2013217808 A JP 2013217808A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera unit
- image
- information
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Navigation (AREA)
Abstract
Description
本発明は、外方を撮影するカメラユニットを備えたスマートフォン等の携帯端末が接続される車載機器に関する。 The present invention relates to an in-vehicle device to which a mobile terminal such as a smartphone provided with a camera unit that captures the outside is connected.
従来、カメラによる撮影画像(実画像)にマーク等の情報を付加して提供する情報提供方法が提案されている(特許文献1)。このような情報提供方法は、車両の前方を撮影する車載カメラにて得られる車両前方画像に、車両の進行方向を表す矢印や、施設を指示する施設マーク等の案内マーク(案内情報)を重ねて表示するAR(拡張現実)ナビゲーションに応用することができる。 Conventionally, an information providing method has been proposed in which information such as a mark is added to an image captured by a camera (actual image) (Patent Document 1). Such an information providing method superimposes an arrow indicating a traveling direction of a vehicle or a guidance mark (guidance information) such as a facility mark indicating a facility on a vehicle front image obtained by an in-vehicle camera that captures the front of the vehicle. It can be applied to AR (Augmented Reality) navigation displayed.
近年、スマートフォン等の携帯端末において、前述したようなARナビゲーションを実現するためのアプリケーションも提案されている。この場合の携帯端末は、外方を撮影するカメラユニット、当該携帯端末の現在位置を検出するめのユニット(例えば、GPS)、当該携帯端末の姿勢及び向きを検出するためのユニット(例えば、ジャイロスコープ、コンパス等)及び地図情報を格納したデータベースを備えている。そして、当該携帯端末が車室内に前記カメラユニットによって車両前方を撮影することができるようにセットされた状態で、前記アプリケーション(ARナビゲーション)が実行される。このアプリケーションの実行により、地図情報(データベース)に基づいて、現在位置での前記カメラユニットの向く方向(検出される携帯端末の姿勢及び向きに基づいて検出される)のカメラ視野内の道路、施設等(環境)に対応させた案内マークが生成され、その案内マークを前記カメラユニットにて得られる画像に重ねて生成された合成画像が当該携帯端末の表示画面に表示される。これにより、車両運転者は、携帯端末に表示される車両前方画像に重ねられた案内マークに基づいて、車両前方の現実の環境についての情報(車両進行方向、施設の内容等)を把握しつつ運転操作を行うことができる。 In recent years, an application for realizing the above-described AR navigation in a mobile terminal such as a smartphone has also been proposed. In this case, the mobile terminal includes a camera unit for photographing the outside, a unit for detecting the current position of the mobile terminal (for example, GPS), and a unit for detecting the attitude and orientation of the mobile terminal (for example, a gyroscope) , Compass, etc.) and a database storing map information. Then, the application (AR navigation) is executed in a state in which the mobile terminal is set in the vehicle interior so that the camera unit can capture the front of the vehicle. By executing this application, on the basis of map information (database), roads and facilities in the camera field of view in the direction in which the camera unit is facing at the current position (detected based on the detected attitude and orientation of the mobile terminal) Etc. (environment) is generated, and a composite image generated by superimposing the guidance mark on the image obtained by the camera unit is displayed on the display screen of the portable terminal. As a result, the vehicle driver grasps information about the actual environment ahead of the vehicle (vehicle traveling direction, contents of the facility, etc.) based on the guidance mark superimposed on the vehicle forward image displayed on the mobile terminal. Driving operation can be performed.
しかしながら、上述したようなアプリケーションを搭載した携帯端末を利用する場合、車両前方を、運転者の視界に邪魔にならないように、カメラユニットにて適正に撮影できるように携帯端末を車室内にセットすることが難しい。カメラユニットにより適正に撮影できるように携帯端末が車室内にセットされない場合、フロントウィンドウを通して運転者が視認できる車両前方の環境(道路や施設等の位置)と、携帯端末に表示される車両前方画像に表れる環境とにずれが生ずる。この場合、携帯端末に表示される車両前方画像に重ねられた案内マークが、車両前方の現実の環境中におけるどの道路、施設等に対応するものかを把握し難いものとなってしまう。 However, when using a portable terminal equipped with an application as described above, the portable terminal is set in the passenger compartment so that the front of the vehicle can be properly captured by the camera unit so as not to interfere with the driver's field of view. It is difficult. When the mobile terminal is not set in the passenger compartment so that it can be properly photographed by the camera unit, the environment in front of the vehicle (position of roads, facilities, etc.) that the driver can visually recognize through the front window and the vehicle front image displayed on the mobile terminal Deviation occurs in the environment that appears. In this case, it becomes difficult to grasp which road, facility, etc. in the actual environment in front of the vehicle the guidance mark superimposed on the vehicle front image displayed on the mobile terminal.
本発明は、このような事情に鑑みてなされたもので、カメラユニットが車両前方の適正な方向に向くように携帯端末が車室内にセットされていなくても、適正な車両前方画像に案内情報を重ねた合成画像を供することのできる車載機器を提供するものである。 The present invention has been made in view of such circumstances, and even if the mobile terminal is not set in the vehicle interior so that the camera unit faces in an appropriate direction in front of the vehicle, guidance information is displayed in an appropriate vehicle front image. It is intended to provide an in-vehicle device capable of providing a composite image in which images are superimposed.
本発明に係る車載機器は、外方を撮影するカメラユニットを有し、地図情報に基づいて現在位置での前記カメラユニットの撮影方向の視野内の環境に対応させた案内情報を生成し、該案内情報を前記カメラユニットにて得られる画像に重ねて合成画像を生成して表示させるためのアプリケーションを搭載した携帯端末が接続される車載機器であって、表示部と、車両前方の所定方向を撮影する車載カメラユニットと、前記携帯端末の前記カメラユニットにより車両前方を撮影するようにセットされた当該カメラユニットの撮影方向と前記車載カメラユニットの撮影方向との差を検出して当該差を表す撮影方向差情報を生成する方向差検出手段と、前記携帯端末にて生成される前記案内情報を取得する案内情報取得手段と、前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置を、前記撮影方向差情報に基づいて決める案内情報表示位置決定手段と、前記車載カメラユニットの撮影により得られる前記車両前方画像の前記案内情報表示位置決定手段により決められた位置に前記案内情報を重ねて合成車両前方画像を生成する画像処理手段と、前記画像処理手段にて得られる前記合成車両前方画像を前記表示部に表示させる表示制御手段とを有する構成となる。 The in-vehicle device according to the present invention has a camera unit for photographing the outside, and generates guide information corresponding to the environment in the field of view in the photographing direction of the camera unit at the current position based on map information, An in-vehicle device to which a portable terminal equipped with an application for generating and displaying a composite image by superimposing guidance information on an image obtained by the camera unit is connected, the display unit and a predetermined direction in front of the vehicle The difference between the in-vehicle camera unit to be photographed and the photographing direction of the camera unit set so as to photograph the front of the vehicle by the camera unit of the portable terminal and the photographing direction of the in-vehicle camera unit is represented. Direction difference detection means for generating photographing direction difference information, guidance information acquisition means for acquiring the guidance information generated by the portable terminal, and the guidance information Guidance information display position determining means for determining a position in the vehicle front image obtained by photographing with the mounted camera unit based on the photographing direction difference information, and the guidance information display of the vehicle forward image obtained by photographing with the in-vehicle camera unit Image processing means for generating a composite vehicle forward image by superimposing the guidance information at the position determined by the position determination means, and display control means for displaying the composite vehicle forward image obtained by the image processing means on the display unit. It becomes the composition which has.
このような構成によれば、携帯端末でのアプリケーションの実行により、案内情報がカメラユニットにて得られる画像に重ねて合成画像が生成される際に、携帯端末のカメラユニットの撮影方向と車載カメラの撮影方向との差に基づいて、前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置が決められ、前記車両前方画像の前記決められた位置に前記案内情報が重ねて合成車両前方画像が生成され、その合成車両前方画像が表示部に表示される。 According to such a configuration, when the composite image is generated by superimposing the guidance information on the image obtained by the camera unit by executing the application on the mobile terminal, the shooting direction of the camera unit of the mobile terminal and the in-vehicle camera The position of the guidance information in the vehicle front image obtained by photographing of the in-vehicle camera unit is determined based on the difference from the shooting direction of the vehicle, and the guidance information is superimposed and synthesized on the determined position of the vehicle front image. A vehicle front image is generated, and the composite vehicle front image is displayed on the display unit.
本発明に係る車載機器において、前記方向差検出手段は、前記携帯端末から当該携帯端末の向きを表す方位情報を取得する手段と、当該車両の移動方向を検出する車両移動方向検出手段と、前記携帯端末についての前記方位情報と、前記車両の移動方向とに基づいて前記撮影方向差情報を演算する手段とを有する構成とすることができる。 In the in-vehicle device according to the present invention, the direction difference detecting means includes means for obtaining azimuth information representing the orientation of the mobile terminal from the mobile terminal, vehicle moving direction detecting means for detecting the moving direction of the vehicle, It can be set as the structure which has the means to calculate the said imaging | photography direction difference information based on the said direction information about a portable terminal, and the moving direction of the said vehicle.
このような構成により、車両の移動方向が検出され、携帯端末から取得した当該携帯端末の向きを表す方位情報と、前記検出された車両の移動方向とに基づいて、携帯端末のカメラユニットの撮影方向と車載カメラの撮影方向との差を表す撮影方向差情報が得られる。 With such a configuration, the moving direction of the vehicle is detected, and based on the azimuth information indicating the direction of the portable terminal acquired from the portable terminal and the detected moving direction of the vehicle, the photographing of the camera unit of the portable terminal is performed. The photographing direction difference information representing the difference between the direction and the photographing direction of the in-vehicle camera is obtained.
また、本発明に係る車載機器において、前記車両移動方向検出手段は、前記携帯端末から複数のタイミングにて位置情報を取得する携帯端末位置取得手段と、前記携帯端末についての前記複数のタイミングでの位置情報に基づいて当該車両の移動方向を演算する移動方向演算手段とを有する構成とすることができる。 Further, in the in-vehicle device according to the present invention, the vehicle movement direction detection unit includes a mobile terminal position acquisition unit that acquires position information from the mobile terminal at a plurality of timings, and a plurality of timings about the mobile terminal. A moving direction calculating means for calculating the moving direction of the vehicle based on the position information can be used.
このような構成により、車両の走行にともなって移動する携帯端末の複数のタイミングにて得られる位置情報に基づいて車両の移動方向が検出される。 With such a configuration, the moving direction of the vehicle is detected based on position information obtained at a plurality of timings of the mobile terminal that moves as the vehicle travels.
また、本発明に係る車載機器において、前記案内情報取得手段は、前記携帯端末に、前記カメラユニットにて得られる画像に代えて単色画像と前記案内情報とを重ねて合成した単色背景合成画像を要求する手段と、前記要求に応答して前記携帯端末から送られてくる前記単色背景合成画像を取得する手段と、前記単色背景合成画像から前記案内情報を抽出する案内情報抽出手段とを有する構成とすることができる。 Further, in the in-vehicle device according to the present invention, the guide information acquisition unit may be configured to combine a monochrome background composite image obtained by superimposing a single color image and the guide information on the mobile terminal instead of an image obtained by the camera unit. A means for requesting, a means for acquiring the monochrome background composite image sent from the portable terminal in response to the request, and a guide information extracting means for extracting the guide information from the monochrome background composite image It can be.
このような構成により、携帯端末の車両前方を撮影するカメラユニットにて得られる画像に代えて単色画像に案内情報を重ねて合成された単色背景合成画像から、前記案内情報が抽出される。 With such a configuration, the guide information is extracted from a single color background composite image synthesized by superimposing the guide information on the single color image instead of the image obtained by the camera unit that captures the front of the mobile terminal.
更に、本発明に係る車載機器において、前記案内情報取得手段は、前記携帯端末から前記カメラユニットの撮影により得られる画像に前記案内情報を重ねて生成された合成画像を取得する合成画像取得手段と、取得した前記合成画像から前記案内情報を抽出する案内情報抽出手段とを有する構成とすることができる。 Furthermore, in the in-vehicle device according to the present invention, the guide information acquisition means includes a composite image acquisition means for acquiring a composite image generated by superimposing the guide information on an image obtained by photographing with the camera unit from the portable terminal. And a guide information extracting means for extracting the guide information from the acquired composite image.
このような構成により、携帯端末のカメラユニットの撮影により得られた画像と案内情報との合成画像から当該案内情報が抽出される。 With such a configuration, the guide information is extracted from the combined image of the image obtained by photographing with the camera unit of the mobile terminal and the guide information.
本発明に係る車載機器によれば、携帯端末でのアプリケーションの実行により、案内情報がカメラユニットにて得られる画像に重ねて合成画像が生成される際に、携帯端末のカメラユニットの撮影方向と車載カメラユニットの撮影方向との差に基づいて、前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置が決められ、前記車両前方画像の前記決められた位置に前記案内情報が重ねて合成車両前方画像が生成され、その合成車両前方画像が表示部に表示されるので、カメラユニットが車両前方の適正な方向に向くように携帯端末が車室内にセットされていなくても、車載カメラユニットでの撮影により得られた適正な車両前方画像に案内情報を重ねた合成画像を供することができる。 According to the vehicle-mounted device according to the present invention, when the composite image is generated by superimposing the guidance information on the image obtained by the camera unit by executing the application on the mobile terminal, the shooting direction of the camera unit of the mobile terminal and Based on the difference with the shooting direction of the in-vehicle camera unit, the position of the guidance information in the vehicle front image obtained by the shooting of the in-vehicle camera unit is determined, and the guidance information is in the determined position of the vehicle front image. A composite vehicle forward image is generated by overlapping, and the composite vehicle forward image is displayed on the display unit, so even if the mobile terminal is not set in the vehicle interior so that the camera unit faces the appropriate direction in front of the vehicle, It is possible to provide a composite image in which guidance information is superimposed on an appropriate vehicle front image obtained by photographing with the in-vehicle camera unit.
以下、本発明の実施の形態について図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本発明の実施の一形態に係る車載機器は、図1に示すように構成される。 An in-vehicle device according to an embodiment of the present invention is configured as shown in FIG.
図1において、この車載機器100は、処理ユニット11、操作部12、表示部13、記憶部14、出力回路15、スピーカ16及び車載カメラユニット17を有している。この車載機器100にはコネクタ18を介してスマートフォン20(携帯端末)が接続可能になっている。スマートフォン20がコネクタ18に接続された状態で、処理ユニット11とスマートフォン20とは、相互に情報(データ)の通信が可能となる。処理ユニット11は、操作部12での操作に応じて種々の処理を実行し、その処理により得られる情報を表示部13に表示させる。また、処理ユニット11からのメッセージ情報に基づいた音声信号が出力回路15からスピーカ16に供給され、スピーカ16からメッセージ情報の音声出力がなされる。記憶部14には、処理ユニット11での処理に用いられる情報が記憶されており、また、処理ユニット11での処理により得られた情報が記憶される。
In FIG. 1, the in-
車載カメラユニット17は、車両の前方移動方向の環境を撮影することが可能なようにフロントウィンドウの所定部位(例えば、ルームミラーの裏側の部位)に設置されている。車載カメラユニット17として、専用のカメラユニットだけでなく、例えば、前方車両との車間距離、走行レーンの境界を表す白線、その他の車両前方の環境情報を車両運転の支援情報として得るために車両前方を撮影するためのカメラユニットを用いることができる。処理ユニット11は、車載カメラユニット17から出力される画像信号から車両前方の環境を表す画像データを生成して画像処理を実行する。処理ユニット11は、車載カメラユニット17での撮影により得られる画像データに基づいて表示部13に車両前方画像を表示させることができる。
The in-
スマートフォン20(携帯端末)は、図示されてはいないが、外方を撮影するカメラユニット、スマートフォン20の現在位置を検出するためのユニット(例えば、GPS)、スマートフォン20の姿勢及び向きを検出するためのユニット(例えば、ジャイロスコープ、コンパス等)及び地図情報を格納したデータベースを備えている。また、スマートフォン20は、地図情報(データベース)に基づいて、現在位置での前記カメラユニットの向く方向(検出されるスマートフォン20の姿勢及び向きに基づいて検出される)のカメラ視野内の道路、施設等(環境)に対応させた案内マークを生成し、更にその案内マークを前記カメラユニットにて得られる画像に重ねて合成画像を生成して、その合成画像を表示部に表示させるARナビゲーションのアプリケーション(アプリケーションソフト)を搭載している。
Although not shown, the smartphone 20 (mobile terminal) is a camera unit that captures the outside, a unit (for example, GPS) for detecting the current position of the
スマートフォン20では、例えば、図2に示すように、搭載されたアプリケーションの選択ボタン(アイコン)が配列されたホーム画面が表示部201に表示される。このホーム画面において、例えば、前記ARナビゲーションに対応した選択ボタン(AR Navi)の選択操作を行うことにより、ARナビゲーションのアプリケーションが起動される。また、スマートフォン20は、例えば、図3に示すように、車室内のダッシュパネルの上に、そのカメラユニット(図示略)が車両前方を向き、表示部201が車室内に向くようにセットされる。なお、スマートフォン20は、運転者の前方視界を妨げない位置にセットすることができる。
In the
スマートフォン20のカメラユニットでの撮影により表示部201に表示し得る車両前方の画像(以下、端末前方撮影画像という)Isphは、例えば、図4に示すようになる。また、前記端末前方撮影画像Isphが得られると同じタイミングで車載カメラユニット17での撮影により表示部13に表示される車両前方の画像(以下、機器前方撮影画像という)Icは、例えば、図5に示すようになる。図4に示される端末前方撮影画像Isphの見え方と図5に示される機器前方撮影画像Icの見え方との違いは、スマートフォン20のカメラユニットの撮影方向と、車載カメラユニット17の撮影方向とがずれていることに起因している。
FIG. 4 shows, for example, an image in front of the vehicle (hereinafter referred to as a terminal front-captured image) Isph that can be displayed on the
スマートフォン20での前述したARナビゲーションのアプリケーションの実行により、地図情報に基づいて、例えば、図6に示すように、現在位置でのカメラユニットの向く方向のカメラ視野内の車両が進行する道路に対応させた進行方向を示す矢印M1、当該カメラ視野内の施設、例えば、銀行Aに対応させた施設マークM2や他の銀行Bに対応させた施設マークM3が生成される。そして、それら矢印M1及び施設マークM2、M3(案内マーク・案内情報)を端末前方撮影画像Isph(図4に示すものと同じ)に重ねて合成画像Isph/Mが生成される。
By executing the above-described AR navigation application on the
処理ユニット11は、ARナビゲーションのアプリケーションを実行するスマートフォン20と情報通信を行って、車載カメラユニット17での撮影により得られる機器前方撮影画像Icを用いて、ARナビゲーションの機能を車載機器100において実現するために、図7及び図8に示す手順に従って処理を行う。図7に示す手順の処理(方向差検出手段)は、スマートフォン20のカメラユニットの撮影方向と車載カメラユニット17の撮影方向とのずれ(差)である撮影方向差Δθを求める。図8に示す手順の処理は、前記撮影方向差Δθを用いて、車載カメラユニット17での撮影により得られる機器前方撮影画像Icに案内マーク(M1、M2、M3)を重ねて合成画像Ic/Mを生成し、表示部13に表示させる(ARナビゲーション機能)。
The
図7において、処理ユニット11は、コネクタ18に接続されたスマートフォン20と相互に情報通信可能であることを確認すると(S11)、そのスマートフォン20に対してARナビゲーションのアプリケーション(ARナビアプリ)の起動要求を行って(S12)、この起動要求に対するスマートフォン20からの応答の待ち状態となる(S13)。前記起動要求により、スマートフォン20は、ARナビアプリを起動して応答信号を車載機器100に返信する。処理ユニット11は、前記ARナビアプリの起動要求を行った後、スマートフォン20からの応答信号を受信すると(S13でYES)、スマートフォン20との情報通通信により、ARナビアプリの実行により得られる、スマートフォン20の向く方向を表す方位情報(S14)、及びスマートフォン20の現在位置を表す位置情報(緯度、経度)を第1位置情報として取得する(S15)。その後所定時間の待ち状態となる(S16)。
In FIG. 7, when the
処理ユニット11は、所定時間の待ち状態が終了すると(S16でYES)、スマートフォン20との情報通信により、スマートフォン20の現在位置を表す位置情報(緯度、経度)を第2位置情報として取得する(S17)。車両の走行により、以前に取得された第1位置情報と前記所定時間後に取得された第2位置情報とは異なっており、処理ユニット11は、その第1位置情報と第2位置情報との差から車両の移動方位を算出する(S18)。そして、処理ユニット11は、前記取得された方位情報(S14参照)で表されるスマートフォン20の向く方向と前記車両の移動方位との差を、スマートフォン20のカメラユニットの撮影方向(スマートフォン20の向く方向に対応)と車載カメラユニットの撮影方向(車両の移動方向に対応)とのずれである撮影方向差Δθを算出する(S19)。
When the waiting state for a predetermined time ends (YES in S16), the
このようにして撮影方向差Δθが得られると、処理ユニット11は、図8に示す手順に従って、ARナビゲーションのための画像処理を実行する。
When the photographing direction difference Δθ is obtained in this way, the
図8において、処理ユニット11は、スマートフォン20との情報通信により、ARナビアプリを実行するスマートフォン20に対してカメラユニットにて得られる画像に代えて単色画像IBGに案内マーク(M1、M2、M3)を重ね単色背景合成画像の要求を行う(S21)。この要求を受けたスマートフォン20は、例えば、カメラユニットからの画像信号の送出を停止させることにより、図4に示すような端末前方画像Isphに代えて単色(例えば、黒)の単色背景画像IBGを生成する。そして、スマートフォン20は、この単色背景画像IBGと前述した案内マーク(M1、M2、M3)と合成する処理を行うことにより、例えば、図9に示すように、単色背景画像IBG(例えば、黒画像)に案内マーク(M1、M2、M3)が重ねられた1画面分の単色背景合成画像IBG/Mを生成する。スマートフォン20は、この単色背景合成画像IBG/Mを表す画像データを前記要求の応答とともに車載機器100に送る。
In FIG. 8, the
前記単色背景合成画像の要求を行った後、待ち状態となる(S22)となる処理ユニット11は、スマートフォン20からの応答を確認すると(S22でYES)、その応答ともに送られてきた単色背景合成画像IBG/Mの画像データを取得する(S23)。その後、処理ユニット11は、その取得した画像データに対して、例えば、その単色背景合成画像IBG/Mの背景(黒)部分とそれ以外の部分とを識別しつつ、案内マーク(M1、M2、M3)を背景部分から切り出す(抽出する)処理を施す(S24)。これにより、一画面内に分散して配置された案内マーク(M1、M2、M3)を表す画像データが得られる(S21〜S24:案内情報取得手段)。
After making the request for the monochrome background composite image, when the
処理ユニット11は、前述したようにして(図7参照)求めた撮影方向差Δθに基づいて、案内マーク(M1、M2、M3)の、スマートフォン20のカメラユニットの撮影方向と異なる撮影方向となる車載カメラユニット17の撮影により得られる、例えば、図5に示すような機器車両前方撮影画像Icにおける位置を演算する(S25:案内情報表示位置決定手段)。この案内マーク(M1、M2、M3)の機器車両前方撮影画像Ic上での位置は、次のようにして演算される。
The
図10に示すように、前記撮影方向差Δθに応じて、スマートフォン20のカメラユニットによるカメラ視野Vsphと、車載カメラユニット17によるカメラ視野Vcとがずれる。このことから、スマートフォン20のカメラユニットによるカメラ視野Vsphの環境に対応させて重ねるべきマークMの画面(Vsphに対応)内での位置から、前記撮影方向差Δθ、スマートフォン20のカメラユニット及び車載カメラユニット17の光学的条件等に基づいて、車載カメラユニット17によるカメラ視野Vcの環境に対応させて重ねるべきマークMの画面(Vcに対応)内での位置が演算される。図10に示す例では、マークMが、スマートフォン20のカメラユニットでの撮影による端末車両前方撮影画像Isph(Vsphに対応)の画面内において比較的右側に位置するのに対し、前記撮影方向差Δθにより、車載カメラユニット17での撮影による機器車両前方撮影画像Ic(Vcに対応)の画面内において比較的左側に位置するようになる。
As shown in FIG. 10, the camera field of view Vsph by the camera unit of the
上記のような処理の結果、例えば、図11に示すように、スマートフォン20のカメラユニットでの撮影による端末車両前方撮影画像Isphにおける環境(道路、施設)に対応させて重ねられる各案内マークM1、M2、M3(図11において破線で示される)の、車載カメラユニット17の撮影による機器車両前方撮影画像Icの画面内での位置が、図11の実線で示すように決められる。
As a result of the processing as described above, for example, as shown in FIG. 11, each guide mark M <b> 1 that is overlaid in correspondence with the environment (road, facility) in the terminal vehicle forward captured image Isph captured by the camera unit of the
そして、処理ユニット11は、車載カメラユニット17の撮影により得られる機器車両前方撮影画像Ic(図5参照)における前述したように決められた位置に、前記案内マークM1、M2、M3を重ねて合成し、合成車両前方画像Ic/Mを表す画像データを生成し、その画像データに基づいて表示部13にその合成車両前方画像Ic/Mを表示させる(S26:画像処理手段、表示制御手段)。例えば、表示部13には、図12に示すように、機器車両前方撮影画像Icが表す環境(道路、施設)に合致するように案内マークM1、M2、M3が重ねられた合成車両前方画像Ic/Mが表示される。
Then, the
以後、処理ユニット11は、前述した処理(S23〜S26)を繰り返すことにより、車両が移動中に車載カメラユニット17の撮影により得られる機器車両前方撮影画像Icに、スマートフォン20のARナビアプリの実行により得られる案内マークが重ねられた合成車両前方画像Ic/Mが継続的に表示部13に表示される。
Thereafter, the
上述したような車載機器では、スマートフォン20でのARアプリの実行により、案内マーク(M1、M2、M3)がカメラユニットにて得られる端末車両前方画像Isphに重ねて合成画像Isph/Mが生成される際に、スマートフォン20のカメラユニットの撮影方向と車載カメラユニット17の撮影方向との差(撮影方向差)Δθに基づいて、前記案内マーク(M1、M2、M3)の車載カメラユニット17の撮影により得られる機器車両前方撮影画像Icにおける位置が決められ、その機器車両前方撮影画像Icの前記決められた位置に前記案内マーク(M1、M2、M3)重ねて合成車両前方画像Ic/Mが生成され、その合成車両前方画像Ic/Mが表示部13に表示される。そのため、カメラユニットが車両前方の適正な方向に向くようにスマートフォン20が車室内にセットされていなくても、車載カメラユニット17での撮影により得られた適正な機器車両前方撮影画像Icに案内マーク(M1、M2、M3)を重ねた合成車両前方画像Ic/Mを車両の運転者に提供することができる。
In the in-vehicle device as described above, the composite image Isph / M is generated by superimposing the guidance mark (M1, M2, M3) on the terminal vehicle forward image Isph obtained by the camera unit by executing the AR application on the
また、車載機器100にARナビゲーションの機能が無くても、ARナビアプリを搭載したスマートフォン20等の携帯端末を接続することにより、ARナビゲーションの機能による合成画像をその表示部13に表示させることができる。そのため、運転者は、スマートフォン20の比較的小さい表示部201の画面ではなく、車載機器100の比較的大きい表示部13の画面を通してARナビゲーションの機能による合成画像を利用することができる。
Even if the in-
なお、前述した処理(図8参照)では、スマートフォン20に、カメラユニットにて得られる画像に代えて単色画像IBG(例えば、黒画像)と前記案内マーク(M1、M2、M3)とを重ねて合成した単色背景合成画像IBG/Mを要求し、その要求に応答してスマートフォン20から送られてくる単色背景合成画像IBG/Mから前記案内マーク(M1、M2、M3)を抽出するようにしたが、これに限らない。例えば、スマートフォン20からカメラユニットの撮影により得られる機器車両前方撮影画像Isphに前記案内マーク(M1、M2、M3)を重ねて生成された合成画像Isph/M(図6参照)を取得し、その合成画像Isph/Mから前記案内マーク(M1、M2、M3)を抽出するようにしてもよい。この場合、背景の画像(機器車両前方撮影画像Isph)においては同じ色が連続しないという性質と、案内マーク(M1、M2、M3)においては枠線や矢印等同じ色が連続するという性質との違いにより、背景となる機器車両前方撮影画像Isphから案内マーク(M1、M2、M3)を抽出することができる。
In the process described above (see FIG. 8), the
また、スマートフォン20で生成される合成画像Isph/M(図6参照)は、スマートフォン20の表示部201に表示させる、あるいは、表示させない、のいずれであってもよい。また、背景を単色画像IBGにした単色背景合成画像IBG/M(図9参照)をスマートフォン20の表示部201に表示させるようにしてもよい。
Further, the composite image Isph / M (see FIG. 6) generated by the
以上説明したように、本発明に係る車載機器は、カメラユニットが車両前方の適正な方向に向くように携帯端末が車室内にセットされていなくても、適正な車両前方画像に案内情報を重ねた合成画像を供することができるという効果を有し、外方を撮影するカメラユニットを備えたスマートフォン等の携帯端末が接続される車載機器として有用である。 As described above, the in-vehicle device according to the present invention superimposes the guidance information on the appropriate vehicle front image even if the mobile terminal is not set in the vehicle interior so that the camera unit faces the appropriate direction in front of the vehicle. It is useful as an in-vehicle device to which a portable terminal such as a smartphone provided with a camera unit for photographing the outside is connected.
11 処理ユニット
12 操作部
13 表示部
14 記憶部
15 出力回路
16 スピーカ
17 車載カメラユニット
18 コネクタ
20 スマートフォン(携帯端末)
100 車載機器
DESCRIPTION OF
100 In-vehicle equipment
Claims (5)
表示部と、
車両前方の所定方向を撮影する車載カメラユニットと、
前記携帯端末の前記カメラユニットにより車両前方を撮影するようにセットされた当該カメラユニットの撮影方向と前記車載カメラユニットの撮影方向との差を検出して当該差を表す撮影方向差情報を生成する方向差検出手段と、
前記携帯端末にて生成される前記案内情報を取得する案内情報取得手段と、
前記案内情報の前記車載カメラユニットの撮影により得られる車両前方画像における位置を、前記撮影方向差情報に基づいて決める案内情報表示位置決定手段と、
前記車載カメラユニットの撮影により得られる前記車両前方画像の前記案内情報表示位置決定手段により決められた位置に前記案内情報を重ねて合成車両前方画像を生成する画像処理手段と、
前記画像処理手段にて得られる前記合成車両前方画像を前記表示部に表示させる表示制御手段とを有する車載機器。 It has a camera unit for photographing the outside, and generates guide information corresponding to the environment in the field of view in the shooting direction of the camera unit at the current position based on map information, and the guide information is generated by the camera unit. It is an in-vehicle device to which a portable terminal equipped with an application for generating and displaying a composite image superimposed on the obtained image is connected,
A display unit;
An in-vehicle camera unit that captures a predetermined direction in front of the vehicle;
The difference between the shooting direction of the camera unit set to capture the front of the vehicle by the camera unit of the portable terminal and the shooting direction of the in-vehicle camera unit is detected, and shooting direction difference information representing the difference is generated. Direction difference detection means;
Guidance information acquisition means for acquiring the guidance information generated by the portable terminal;
Guidance information display position determining means for determining the position of the guidance information in the vehicle front image obtained by photographing with the in-vehicle camera unit based on the photographing direction difference information;
Image processing means for generating a composite vehicle forward image by superimposing the guide information at a position determined by the guide information display position determining means of the vehicle forward image obtained by photographing by the in-vehicle camera unit;
Vehicle-mounted equipment having display control means for displaying the composite vehicle forward image obtained by the image processing means on the display unit.
当該車両の移動方向を検出する車両移動方向検出手段と、
前記携帯端末についての前記方位情報と、前記車両の移動方向とに基づいて前記撮影方向差情報を演算する手段とを有する請求項1記載の車載機器。 The direction difference detection means acquires direction information representing the orientation of the mobile terminal from the mobile terminal;
Vehicle moving direction detecting means for detecting the moving direction of the vehicle;
The in-vehicle device according to claim 1, further comprising means for calculating the photographing direction difference information based on the azimuth information about the portable terminal and a moving direction of the vehicle.
前記携帯端末から複数のタイミングにて位置情報を取得する携帯端末位置取得手段と、
前記携帯端末についての前記複数のタイミングでの位置情報に基づいて当該車両の移動方向を演算する移動方向演算手段とを有する請求項2記載の車載機器。 The vehicle moving direction detecting means is
Mobile terminal position acquisition means for acquiring position information from the mobile terminal at a plurality of timings;
The in-vehicle device according to claim 2, further comprising a movement direction calculation unit that calculates a movement direction of the vehicle based on position information at the plurality of timings of the portable terminal.
前記要求に応答して前記携帯端末から送られてくる前記単色背景合成画像を取得する手段と、
前記単色背景合成画像から前記案内情報を抽出する案内情報抽出手段とを有する請求項1乃至3のいずれかに記載の車載機器。 The guide information acquisition means requests the mobile terminal for a monochrome background composite image obtained by superimposing a single color image and the guide information instead of an image obtained by the camera unit;
Means for acquiring the monochrome background composite image sent from the mobile terminal in response to the request;
The in-vehicle device according to any one of claims 1 to 3, further comprising guide information extracting means for extracting the guide information from the monochrome background composite image.
取得した前記合成画像から前記案内情報を抽出する案内情報抽出手段とを有する請求項1乃至3のいずれかに記載の車載機器。 The guidance information acquisition means acquires a composite image generated by superimposing the guidance information on an image obtained by photographing with the camera unit from the portable terminal, and
The in-vehicle device according to claim 1, further comprising guide information extraction means for extracting the guide information from the acquired composite image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012089631A JP2013217808A (en) | 2012-04-10 | 2012-04-10 | On-vehicle apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012089631A JP2013217808A (en) | 2012-04-10 | 2012-04-10 | On-vehicle apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013217808A true JP2013217808A (en) | 2013-10-24 |
Family
ID=49590059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012089631A Pending JP2013217808A (en) | 2012-04-10 | 2012-04-10 | On-vehicle apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013217808A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019067418A (en) * | 2014-01-24 | 2019-04-25 | ピーシーエムエス ホールディングス インコーポレイテッド | Methods, apparatus, systems, devices and computer program products for augmenting reality in connection with real-world places |
US20220163334A1 (en) * | 2019-03-20 | 2022-05-26 | Lg Electronics Inc. | Method for providing navigation service using mobile terminal, and mobile terminal |
-
2012
- 2012-04-10 JP JP2012089631A patent/JP2013217808A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019067418A (en) * | 2014-01-24 | 2019-04-25 | ピーシーエムエス ホールディングス インコーポレイテッド | Methods, apparatus, systems, devices and computer program products for augmenting reality in connection with real-world places |
US11854130B2 (en) | 2014-01-24 | 2023-12-26 | Interdigital Vc Holdings, Inc. | Methods, apparatus, systems, devices, and computer program products for augmenting reality in connection with real world places |
US20220163334A1 (en) * | 2019-03-20 | 2022-05-26 | Lg Electronics Inc. | Method for providing navigation service using mobile terminal, and mobile terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190101405A1 (en) | Three-dimensional driving navigation device | |
JP6033689B2 (en) | Cruise control device and method, and vehicle identification device | |
US10099617B2 (en) | Driving assistance device and driving assistance method | |
CN210139859U (en) | Automobile collision early warning system, navigation and automobile | |
US20200175872A1 (en) | Information providing system, server, onboard device, storage medium, and information providing method | |
JP2016095688A (en) | On-vehicle information display device | |
JP2013124957A (en) | Navigation system using portable information terminal | |
JP2020095406A (en) | On-vehicle device, program, and vehicle | |
JP2019109707A (en) | Display control device, display control method and vehicle | |
JP6236954B2 (en) | Driving support system, method and program | |
JP2010134640A (en) | Information acquisition apparatus | |
EP1669722A1 (en) | Vehicle-mounted communication device | |
JP6186905B2 (en) | In-vehicle display device and program | |
JP2013217808A (en) | On-vehicle apparatus | |
JP6221562B2 (en) | Vehicle information presentation device | |
JP5212920B2 (en) | Vehicle display device | |
KR100833603B1 (en) | Navigation system for providing bird view and method thereof | |
JP5231595B2 (en) | Navigation device | |
JP6586226B2 (en) | Terminal device position estimation method, information display method, and terminal device position estimation device | |
JP2018031600A (en) | Display device and display system | |
JP2016082409A (en) | Radio communication device | |
JP2020118473A (en) | Route guidance control device, route guidance control method, and program | |
JP2018101897A (en) | Vehicle periphery monitoring device and monitoring method | |
JP6248823B2 (en) | In-vehicle display device | |
KR20040025150A (en) | Route guide method in car navigation system |