JP7282199B2 - Merging support device and merging support method - Google Patents

Merging support device and merging support method Download PDF

Info

Publication number
JP7282199B2
JP7282199B2 JP2021555718A JP2021555718A JP7282199B2 JP 7282199 B2 JP7282199 B2 JP 7282199B2 JP 2021555718 A JP2021555718 A JP 2021555718A JP 2021555718 A JP2021555718 A JP 2021555718A JP 7282199 B2 JP7282199 B2 JP 7282199B2
Authority
JP
Japan
Prior art keywords
user
meeting point
virtual
image
merging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021555718A
Other languages
Japanese (ja)
Other versions
JPWO2021095198A5 (en
JPWO2021095198A1 (en
Inventor
光生 下谷
直志 宮原
義典 上野
圭作 福田
邦代 家田
祐介 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2021095198A1 publication Critical patent/JPWO2021095198A1/ja
Publication of JPWO2021095198A5 publication Critical patent/JPWO2021095198A5/ja
Application granted granted Critical
Publication of JP7282199B2 publication Critical patent/JP7282199B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、ユーザと他者(合流相手)との合流を支援する合流支援装置に関するものである。 The present invention relates to a merging support device that supports merging between a user and another person (merging partner).

自動車業界では「シェアリング」をキーワードに、例えばライドヘイリング、ライドシェアリング、ダイナミックシャトルなど、サービス利用者が、他者所有の車両を利用することができるサービスの開発および実用化が進んでいる。これらのサービスでは、サービス利用者と車両との合流をスムーズに行わせることが重要である。 In the automobile industry, with "sharing" as a keyword, the development and commercialization of services that allow service users to use vehicles owned by others, such as ride hailing, ride sharing, and dynamic shuttle, are progressing. . In these services, it is important to smoothly merge service users and vehicles.

例えば、下記の特許文献1,2には、合流地点(待ち合わせ場所)を地図上に表示することによって、合流を支援する合流支援装置が提案されている。また、下記の特許文献3には、サービス利用者の持つ端末装置に、合流相手となる予約車両を認証するための認証子を事前に提供することで、サービス利用者が予約車両を正しく識別できるシステムが提案されている。 For example, Patent Literatures 1 and 2 below propose a merging support device that supports merging by displaying a merging point (meeting place) on a map. In addition, according to Patent Document 3 below, the service user can correctly identify the reserved vehicle by providing in advance an authenticator for authenticating the reserved vehicle that will be the merging partner to the terminal device of the service user. A system is proposed.

特開2019-053547号公報JP 2019-053547 A 特開2016-085734号公報JP 2016-085734 A 特開2019-28629号公報JP 2019-28629 A

特許文献1,2の合流支援装置によれば、ユーザは、地図上で合流地点の位置を確認できる。しかし、ユーザが地図を読むのが苦手な場合や、合流地点の近くに目印となる地物(いわゆる「ランドマーク」)がない場合などには、地図と現実世界とをマッチングさせるのが難しく、ユーザが合流地点へ容易に到達できないこともある。 According to the merging support devices of Patent Documents 1 and 2, the user can confirm the position of the merging point on the map. However, it is difficult to match the map with the real world when the user is not good at reading the map, or when there is no feature (so-called "landmark") that serves as a landmark near the meeting point. The user may not be able to easily reach the meeting point.

本発明は以上のような課題を解決するためになされたものであり、現実世界における合流地点の場所をユーザに提示することが可能な合流支援装置を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the problems described above, and an object of the present invention is to provide a merging support device capable of presenting the location of a merging point in the real world to a user.

本発明に係る合流支援装置は、ユーザと他者との合流地点を記憶する合流地点記憶部と、合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶する仮想オブジェクト記憶部と、ユーザの位置を取得する位置情報取得部と、ユーザの位置および合流地点の位置に基づいて、仮想合流地点オブジェクトを、ユーザから透明な画面を通して見える実景、または、画面に表示されたユーザの周囲の実景の画像における合流地点に対応する位置に表示する表示制御部と、を備え、仮想合流地点オブジェクトの画像は複数の異なる画像のうちから選択され、ユーザと他者との双方により合流支援装置が利用される場合、ユーザの合流支援装置と他者の合流支援装置とで、共通の仮想合流地点オブジェクトが用いられるものである。 A merging support device according to the present invention includes a merging point storage unit that stores a merging point between a user and another person, and an image that indicates the position of the merging point. a virtual object storage unit that stores a virtual junction object in a simulated display mode; a position information acquisition unit that acquires the position of the user; a display control unit for displaying at a position corresponding to the junction in the image of the real scene seen through the transparent screen or the real scenery around the user displayed on the screen , wherein the image of the virtual junction object is a plurality of different images. , and the user and the other person use the meeting support device, the user's meeting support device and the other person's meeting support device use a common virtual meeting point object. .

本発明によれば、現実世界の合流地点に対応する位置に仮想合流地点オブジェクトが存在する仮想世界をユーザに提示することが可能である。よって、ユーザは現実世界における合流地点の位置を直感的に認識できる。 According to the present invention, it is possible to present a user with a virtual world in which a virtual junction object exists at a position corresponding to a junction in the real world. Therefore, the user can intuitively recognize the position of the meeting point in the real world.

本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 Objects, features, aspects and advantages of the present invention will become more apparent from the following detailed description and accompanying drawings.

実施の形態1に係る合流支援装置の構成を示す図である。1 is a diagram showing a configuration of a merging support device according to Embodiment 1; FIG. 現実世界の例を示す図である。FIG. 2 is a diagram showing a real-world example; 実施の形態1に係る合流支援装置が提供する仮想世界の例を示す図である。2 is a diagram showing an example of a virtual world provided by the merging support device according to Embodiment 1; FIG. ユーザから見た実景および仮想合流地点オブジェクトの例を示す図である。FIG. 4 is a diagram showing an example of a real scene and a virtual meeting point object seen by a user; 実施の形態1に係る合流支援装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the merging support device according to Embodiment 1; 合流支援装置のハードウェア構成例を示す図である。3 is a diagram illustrating a hardware configuration example of a joining support device; FIG. 合流支援装置のハードウェア構成例を示す図である。3 is a diagram illustrating a hardware configuration example of a joining support device; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するためのフローチャートである。7 is a flow chart for explaining a modification of the merging support device according to Embodiment 1; 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態1に係る合流支援装置の変形例を説明するための図である。FIG. 5 is a diagram for explaining a modification of the merging support device according to Embodiment 1; FIG. 実施の形態2に係る合流支援装置の構成を示す図である。FIG. 10 is a diagram showing the configuration of a merging support device according to Embodiment 2; 表示装置に表示される実景の画像および仮想合流地点オブジェクトの例を示す図である。FIG. 3 is a diagram showing an example of a real scene image and a virtual junction object displayed on a display device; 実施の形態2に係る合流支援装置の動作を示すフローチャートである。9 is a flow chart showing the operation of the merging support device according to the second embodiment; 実施の形態3に係る合流支援装置の構成を示す図である。FIG. 12 is a diagram showing the configuration of a merging support device according to Embodiment 3; 現実世界の例を示す図である。FIG. 2 is a diagram showing a real-world example; 実施の形態3に係る合流支援装置が提供する仮想世界の例を示す図である。FIG. 10 is a diagram showing an example of a virtual world provided by a merging support device according to Embodiment 3; FIG. 携帯端末の画面に表示される実景の画像および仮想合流地点オブジェクトの例を示す図である。FIG. 10 is a diagram showing an example of a real scene image and a virtual meeting point object displayed on the screen of the mobile terminal; 実施の形態3に係る携帯端末の動作を示すフローチャートである。10 is a flowchart showing operations of a mobile terminal according to Embodiment 3; 実施の形態3に係る携帯端末の動作の変形例を示すフローチャートである。14 is a flow chart showing a modification of the operation of the mobile terminal according to Embodiment 3; 実施の形態3に係る合流支援装置の変形例を説明するための図である。FIG. 11 is a diagram for explaining a modification of the merging support device according to Embodiment 3; 実施の形態3に係る合流支援装置の変形例を説明するための図である。FIG. 11 is a diagram for explaining a modification of the merging support device according to Embodiment 3; 実施の形態3に係る合流支援装置の変形例を説明するための図である。FIG. 11 is a diagram for explaining a modification of the merging support device according to Embodiment 3; 実施の形態3に係る合流支援装置の変形例を説明するための図である。FIG. 11 is a diagram for explaining a modification of the merging support device according to Embodiment 3; 実施の形態3に係る携帯端末の変形例を説明するための図である。FIG. 12 is a diagram for explaining a modification of the mobile terminal according to Embodiment 3; 実施の形態3に係る携帯端末の変形例を説明するための図である。FIG. 12 is a diagram for explaining a modification of the mobile terminal according to Embodiment 3; 実施の形態3に係る携帯端末の変形例を説明するための図である。FIG. 12 is a diagram for explaining a modification of the mobile terminal according to Embodiment 3; 実施の形態4に係る合流支援システムの構成を示す図である。FIG. 13 is a diagram showing the configuration of a merging support system according to Embodiment 4; FIG. 実施の形態4に係る合流支援システムにおける合流支援サーバの動作を示すフローチャートである。14 is a flow chart showing the operation of a merging support server in the merging support system according to Embodiment 4;

<実施の形態1>
図1は、本発明の実施の形態1に係る合流支援装置10の構成を示す図である。図1のように、実施の形態1の合流支援装置10は、車両100に搭載されている。ただし、合流支援装置10は、車両100に常設される必要はなく、車両100に持ち込み可能な携帯型の装置として構成されてもよい。
<Embodiment 1>
FIG. 1 is a diagram showing the configuration of a merging support device 10 according to Embodiment 1 of the present invention. As shown in FIG. 1, the merging support device 10 of Embodiment 1 is mounted on a vehicle 100. As shown in FIG. However, the merging support device 10 does not have to be permanently installed in the vehicle 100 and may be configured as a portable device that can be brought into the vehicle 100 .

本実施の形態では、合流支援装置10のユーザは車両100の運転者である。以下の説明における「ユーザ」は、特に断りのない限り、車両100の運転者を意図している。 In the present embodiment, the user of merging support device 10 is the driver of vehicle 100 . A “user” in the following description intends a driver of the vehicle 100 unless otherwise specified.

合流支援装置10は、車両100が備えるヘッドアップディスプレイ(HUD)21、表示装置22、操作入力装置23、測位装置24、通信装置25および地図情報記憶装置26に接続されている。 The merging support device 10 is connected to a head-up display (HUD) 21 , a display device 22 , an operation input device 23 , a positioning device 24 , a communication device 25 and a map information storage device 26 provided in the vehicle 100 .

ヘッドアップディスプレイ21および表示装置22は、合流支援装置10がユーザ(車両100の運転者)に各種の情報を画像として提示する手段である。特に、ヘッドアップディスプレイ21は、車両100のウィンドシールドを透明な画面として用いることで、ユーザから見える実景上に、画像を表示することができる。表示装置22は、車両100のセンターパネルやインストルメントパネルに設置された一般的な表示装置であり、例えば合流支援装置10の操作画面などを表示する。表示装置22は、例えば液晶ディスプレイや有機ELディスプレイ(Organic ElectroLuminescence display)などで構成される。 The head-up display 21 and the display device 22 are means by which the merging support device 10 presents various kinds of information as images to the user (driver of the vehicle 100). In particular, the head-up display 21 uses the windshield of the vehicle 100 as a transparent screen to display an image on the actual scene that the user can see. The display device 22 is a general display device installed on the center panel or instrument panel of the vehicle 100, and displays an operation screen of the merging support device 10, for example. The display device 22 is configured by, for example, a liquid crystal display or an organic EL display (Organic ElectroLuminescence display).

ヘッドアップディスプレイ21が表示する画像は、実景上に表示されるため、あたかも現実世界に存在しているかのように見える。以下、ヘッドアップディスプレイ21が表示する画像を「仮想オブジェクト」といい、仮想オブジェクトが存在するものとして見立てた世界を「仮想世界」という。 Since the image displayed by the head-up display 21 is displayed on the actual scene, it looks as if it exists in the real world. Hereinafter, the image displayed by the head-up display 21 will be referred to as a "virtual object", and the world in which the virtual object exists will be referred to as a "virtual world".

操作入力装置23は、ユーザが合流支援装置10に対する操作を入力する手段である。操作入力装置23は、押しボタンや操作レバー、キーボードなどのハードウェアキーでもよいし、画面に表示されるソフトウェアキーでもよい。例えば、操作入力装置23としてのソフトウェアキーを表示装置22に表示させてもよく、その場合、表示装置22と操作入力装置23は1つのタッチパネルとして構成されてもよい。 The operation input device 23 is means for the user to input an operation to the merging support device 10 . The operation input device 23 may be a hardware key such as a push button, an operation lever, or a keyboard, or may be a software key displayed on the screen. For example, software keys as the operation input device 23 may be displayed on the display device 22, and in that case, the display device 22 and the operation input device 23 may be configured as one touch panel.

測位装置24は、例えばGPS(Global Positioning System)衛星などのGNSS(Global Navigation Satellite System )衛星から受信した測位信号に基づいて、車両100の位置を算出する。ここで、車両100の位置は、合流支援装置10のユーザの位置と等しいものとする。通信装置25は、合流支援装置10が車両100の外部との通信を行う手段である。 The positioning device 24 calculates the position of the vehicle 100 based on positioning signals received from GNSS (Global Navigation Satellite System) satellites such as GPS (Global Positioning System) satellites. Here, it is assumed that the position of the vehicle 100 is the same as the position of the user of the merging support device 10 . The communication device 25 is means for the merging support device 10 to communicate with the outside of the vehicle 100 .

地図情報記憶装置26は、道路やPOI(Point of Interest)などの位置情報を含む地図情報が記憶された記憶媒体である。地図情報記憶装置26は、車両100のナビゲーションシステムが備えるものであってもよい。また、地図情報記憶装置26は、車両100の外部に設置されたサーバとして構成されてもよく、その場合、合流支援装置10は、通信装置25を通して地図情報記憶装置26から地図情報を取得する。 The map information storage device 26 is a storage medium in which map information including position information such as roads and POIs (Points of Interest) is stored. The map information storage device 26 may be included in the navigation system of the vehicle 100 . Alternatively, the map information storage device 26 may be configured as a server installed outside the vehicle 100 , in which case the merging support device 10 acquires map information from the map information storage device 26 through the communication device 25 .

合流支援装置10は、通信部11、合流地点記憶部12、仮想オブジェクト記憶部13、位置情報取得部14、地図情報取得部15および表示制御部16を備える。 The meeting support device 10 includes a communication section 11 , a meeting point storage section 12 , a virtual object storage section 13 , a position information acquisition section 14 , a map information acquisition section 15 and a display control section 16 .

通信部11は、通信装置25を介して、車両100の外部との通信を行う。合流地点記憶部12は、ユーザと合流相手である他者との合流地点を記憶する。合流相手は歩行者でも車両でもよい。ユーザは、操作入力装置23を操作して、通信装置25を介する合流相手との直接的または間接的な通信を行い、合流相手との間で予め合流地点を取り決めることができ、決定された合流地点が合流地点記憶部12に記憶される。ここで、間接的な通信とは、ユーザと合流相手とがサーバ等から構成される他のシステム(例えば、合流地点の調停システム)を介して通信することを意味し、直接的な通信とは、ユーザと合流相手とが他のシステムを介さずに通信することを意味している。 The communication unit 11 communicates with the outside of the vehicle 100 via the communication device 25 . The meeting point storage unit 12 stores a meeting point between the user and another person who is a meeting partner. A merging partner may be a pedestrian or a vehicle. The user can operate the operation input device 23 to perform direct or indirect communication with the merging partner via the communication device 25, and can predetermine the merging point with the merging partner. The point is stored in the merging point storage unit 12 . Here, indirect communication means communication between the user and the merging partner via another system (for example, an arbitration system at the merging point) composed of a server or the like, and direct communication , means that the user and the joining partner communicate without going through another system.

仮想オブジェクト記憶部13は、合流地点の位置を示す仮想オブジェクトである仮想合流地点オブジェクトの画像を記憶する。 The virtual object storage unit 13 stores an image of a virtual junction object, which is a virtual object indicating the position of the junction.

位置情報取得部14は、測位装置24が算出した車両100の位置(ユーザの位置)を取得する。また、位置情報取得部14は、車両100の位置の履歴から車両100の向きを算出することができる。なお、位置情報取得部14は、例えば地図情報を用いたマップマッチング、車両100の速度センサと方位センサを用いた自律航法による測位など、車両100の位置の精度を上げるための処理を行ってもよい。また、車両100の向きは、車両100の方位センサを用いて測定されてもよい。 The position information acquisition unit 14 acquires the position of the vehicle 100 (user's position) calculated by the positioning device 24 . Further, the position information acquisition unit 14 can calculate the direction of the vehicle 100 from the position history of the vehicle 100 . Note that the position information acquisition unit 14 may perform processing for increasing the accuracy of the position of the vehicle 100, such as map matching using map information and positioning by autonomous navigation using the speed sensor and direction sensor of the vehicle 100. good. Also, the orientation of the vehicle 100 may be measured using the orientation sensor of the vehicle 100 .

地図情報取得部15は、地図情報記憶装置26から、位置情報取得部14が取得した車両100の位置周辺の地図情報を取得する。 The map information acquisition unit 15 acquires map information around the position of the vehicle 100 acquired by the position information acquisition unit 14 from the map information storage device 26 .

表示制御部16は、位置情報取得部14が取得した車両100の位置および向き、仮想オブジェクト記憶部13に記憶された合流地点の位置、および地図情報取得部15が取得した地図情報に基づいて、ユーザ(車両100の運転者)から見た合流地点の位置(相対位置)を算出し、ヘッドアップディスプレイ21を用いて、ユーザから見える実景内の合流地点に対応する位置に、仮想合流地点オブジェクトを表示する。より具体的には、表示制御部16は、ユーザから見て仮想合流地点オブジェクトが合流地点と重畳して見えるように、ユーザの眼と合流地点とを結ぶ直線とウィンドシールドとの交点に仮想合流地点オブジェクトを表示する。その結果、ユーザからは、あたかも合流地点に仮想合流地点オブジェクトが存在するよう見える。つまり、表示制御部16は、現実世界の合流地点に仮想合流地点オブジェクトが存在して見える仮想世界をユーザに提供する。 Based on the position and orientation of the vehicle 100 acquired by the position information acquisition unit 14, the position of the junction stored in the virtual object storage unit 13, and the map information acquired by the map information acquisition unit 15, the display control unit 16 The position (relative position) of the meeting point seen from the user (driver of the vehicle 100) is calculated, and the head-up display 21 is used to place a virtual meeting point object at a position corresponding to the meeting point in the actual scenery seen by the user. indicate. More specifically, the display control unit 16 controls the virtual confluence at the intersection of the straight line connecting the user's eyes and the confluence and the windshield so that the user sees the virtual confluence as superimposed on the confluence. Display a point object. As a result, it appears to the user as if a virtual meeting point object exists at the meeting point. In other words, the display control unit 16 provides the user with a virtual world in which the virtual junction object exists at the junction in the real world.

例えば、図2のような現実世界における地点MPがユーザと合流相手との合流地点として定められ、ユーザが運転する車両100が合流地点MPの付近に到達した場面を想定する。合流支援装置10の合流地点記憶部12には、合流地点MPの位置の情報が記憶されている。この場合、表示制御部16は、ヘッドアップディスプレイ21を用いて、合流地点MPに仮想合流地点オブジェクト200が存在する図3のような仮想世界をユーザに提供する。車両100の運転者であるユーザからは、図4のように、車両100のウィンドシールド30を通して見える実景における合流地点MPに対応する位置に、仮想合流地点オブジェクト200が見える。 For example, it is assumed that a point MP in the real world as shown in FIG. 2 is determined as the meeting point between the user and the meeting partner, and the vehicle 100 driven by the user reaches the vicinity of the meeting point MP. Information on the position of the merging point MP is stored in the merging point storage unit 12 of the merging support device 10 . In this case, the display control unit 16 uses the head-up display 21 to provide the user with a virtual world as shown in FIG. 3 in which the virtual meeting point object 200 exists at the meeting point MP. A user, who is the driver of the vehicle 100, sees a virtual junction object 200 at a position corresponding to the junction MP in the actual scene seen through the windshield 30 of the vehicle 100, as shown in FIG.

なお、図3およびこれ以降に示す図では、現実世界と仮想世界とを容易に区別できるように、仮想オブジェクトにはハッチングを付しているが、実際にヘッドアップディスプレイ21が表示する仮想オブジェクトにはハッチングが付される必要はない。ここでは仮想合流地点オブジェクトの例として、公共交通機関の停留所(バス停)に設置される標識柱を模擬した画像を用いているが、仮想合流地点オブジェクトはどのような画像でもよい。 In FIG. 3 and subsequent figures, the virtual objects are hatched so that the real world and the virtual world can be easily distinguished. need not be hatched. Here, as an example of the virtual junction object, an image simulating a sign post installed at a public transportation stop (bus stop) is used, but any image may be used as the virtual junction object.

このように、実施の形態1に係る合流支援装置10は、ユーザに対し、現実世界の合流地点に仮想合流地点オブジェクトが存在して見える仮想世界を提示することによって、合流地点の場所を提示する。よって、ユーザは、現実世界における合流地点の場所を直感的に認識できる。その結果、ユーザが合流地点へ到達することが容易になる。 In this way, the merging support device 10 according to the first embodiment presents the location of the merging point to the user by presenting the virtual world in which the virtual merging point object appears to exist at the merging point in the real world. . Therefore, the user can intuitively recognize the location of the meeting point in the real world. As a result, it becomes easier for the user to reach the meeting point.

ここで、図5のフローチャートを参照しつつ、合流支援装置10の動作を説明する。合流支援装置10が起動し、ユーザと合流相手との間で合流地点が決定されると、合流地点記憶部12は、その合流地点を記憶する(ステップS101)。 Here, the operation of the merging support device 10 will be described with reference to the flowchart of FIG. When the merging support device 10 is activated and a merging point is determined between the user and the merging partner, the merging point storage unit 12 stores the merging point (step S101).

続いて、位置情報取得部14が、測位装置24が算出した車両100の位置、すなわちユーザの位置を取得する(ステップS102)。このとき位置情報取得部14は、車両100の位置の履歴に基づき、車両100の向きを算出する。地図情報取得部15は、地図情報記憶装置26から、ユーザの位置周辺の地図情報を取得する(ステップS103)。 Subsequently, the position information acquisition unit 14 acquires the position of the vehicle 100 calculated by the positioning device 24, that is, the position of the user (step S102). At this time, the position information acquiring unit 14 calculates the orientation of the vehicle 100 based on the position history of the vehicle 100 . The map information acquisition unit 15 acquires map information around the user's position from the map information storage device 26 (step S103).

表示制御部16は、位置情報取得部14が取得したユーザの位置と、合流地点記憶部12に記憶された合流地点の位置と、地図情報取得部15が取得した地図情報とに基づいて、ユーザの位置が合流地点付近であるか否かを判断する(ステップS104)。 The display control unit 16 displays the position of the user based on the position of the user acquired by the position information acquisition unit 14, the position of the meeting point stored in the meeting point storage unit 12, and the map information acquired by the map information acquisition unit 15. is near the junction (step S104).

ステップS104の判断は、単純にユーザから合流地点までの直線距離が予め定められた閾値(例えば100m)以下か否かで判断してもよいが、例えば、ユーザが位置する道路と合流地点が位置する道路とが立体交差している場合など、ユーザから合流地点までの直線距離が短くてもユーザが合流地点に到達するまでに長時間を要することもある。そのため、本実施の形態では、地図情報を用いて、ユーザから合流地点までの経路長(道のり)を算出し、その経路長が閾値以下か否かによって、ステップS104の判断を行う。 The determination in step S104 may simply be based on whether or not the straight-line distance from the user to the junction is equal to or less than a predetermined threshold value (for example, 100 m). Even if the straight line distance from the user to the meeting point is short, it may take a long time for the user to reach the meeting point, for example, when the road crosses the intersection. Therefore, in the present embodiment, map information is used to calculate the route length (distance) from the user to the meeting point, and step S104 is determined depending on whether the route length is equal to or less than a threshold.

ユーザの位置が合流地点付近であれば(ステップS104でYES)、表示制御部16は、位置情報取得部14が取得した車両100の位置および向き、仮想オブジェクト記憶部13に記憶された合流地点の位置、および地図情報取得部15が取得した地図情報に基づいて、ユーザから見た合流地点の位置を算出する(ステップS105)。そして、ユーザから見た合流地点の位置がヘッドアップディスプレイ21の表示領域内か否かを確認する(ステップS106)。 If the user's position is near the meeting point (YES in step S104), the display control unit 16 controls the position and orientation of the vehicle 100 acquired by the position information acquisition unit 14 and the meeting point stored in the virtual object storage unit 13. Based on the position and the map information acquired by the map information acquisition unit 15, the position of the meeting point seen from the user is calculated (step S105). Then, it is confirmed whether or not the position of the confluence seen from the user is within the display area of the head-up display 21 (step S106).

ユーザから見た合流地点の位置がヘッドアップディスプレイ21の表示領域内であれば(ステップS106でYES)、表示制御部16は、ヘッドアップディスプレイ21を用いて、仮想合流地点オブジェクトをユーザから見た合流地点の位置に重畳させて表示し(ステップS107)、ステップS102へ戻る。 If the position of the meeting point as viewed by the user is within the display area of the head-up display 21 (YES in step S106), the display control unit 16 uses the head-up display 21 to display the virtual meeting point object as viewed by the user. It is superimposed and displayed on the position of the junction (step S107), and the process returns to step S102.

一方、ユーザの位置が合流地点から遠い場合(ステップS104でNO)、ならびに、ユーザから見た合流地点の位置がヘッドアップディスプレイ21の表示領域外である場合(ステップS106でNO)には、表示制御部16が、ヘッドアップディスプレイ21により仮想合流地点オブジェクトが表示されているか否かを確認し、表示されていればそれを消去して(ステップS108)、ステップS102へ戻る。 On the other hand, if the user's position is far from the meeting point (NO in step S104) and if the meeting point as seen from the user is outside the display area of the head-up display 21 (NO in step S106), the display The control unit 16 confirms whether or not the virtual junction object is displayed on the head-up display 21, erases it if it is displayed (step S108), and returns to step S102.

なお、ステップS104の判断に関し、ユーザが位置する道路と合流地点が位置する道路とが立体交差しているが、その2つの道路間を歩いて行き来できる階段またはスロープがある場合には、ユーザが車両100を降り、歩いて合流相手を迎えに行くことも可能である。そのため、階段またはスロープを通った経路長に基づいて、ステップS104の判断が行われてもよい。そのような判断により、ステップS104でYESと判断された場合には、その旨をユーザに通知することが好ましい。 Regarding the determination in step S104, if the road on which the user is located and the road on which the confluence is located intersect, and there is a stairway or slope that allows walking between the two roads, the user can It is also possible to get off the vehicle 100 and walk to pick up the merging partner. As such, the determination of step S104 may be made based on the length of the path through the stairs or ramp. When such determination results in YES in step S104, it is preferable to notify the user to that effect.

また、階段またはスロープがあったとしても、それを使った方が、道路に沿って車両100を走行させるよりも合流地点への到着時刻が遅くなる場合は、階段またはスロープを考慮せずにステップS104の判断が行われることが好ましい。あるいは、階段またはスロープを使う方が、道路に沿って車両100を走行させるよりも合流地点への到着時刻が遅くなることを、ユーザに通知してもよい。 In addition, even if there are stairs or a slope, if the arrival time to the merging point is later than using the stairs or the slope, the vehicle 100 can be used without taking the stairs or the slope into consideration. Preferably, the determination of S104 is made. Alternatively, the user may be notified that using the stairs or the slope will result in a later arrival time at the junction than driving the vehicle 100 along the road.

[ハードウェア構成例]
図6および図7は、それぞれ合流支援装置10のハードウェア構成の例を示す図である。図1に示した合流支援装置10の構成要素の各機能は、例えば図6に示す処理回路50により実現される。すなわち、合流支援装置10は、ユーザと他者との合流地点を記憶し、合流地点の位置を示す画像である仮想合流地点オブジェクトを記憶し、ユーザの位置を取得し、ユーザの位置および合流地点の位置に基づいて、仮想合流地点オブジェクトを、ユーザから透明な画面を通して見える実景の合流地点に対応する位置に表示する、ための処理回路50を備える。処理回路50は、専用のハードウェアであってもよいし、メモリに格納されたプログラムを実行するプロセッサ(中央処理装置(CPU:Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)とも呼ばれる)を用いて構成されていてもよい。
[Hardware configuration example]
6 and 7 are diagrams showing examples of the hardware configuration of the joining support device 10, respectively. Each function of the constituent elements of the merging support device 10 shown in FIG. 1 is implemented by, for example, a processing circuit 50 shown in FIG. That is, the merging support device 10 stores a merging point between the user and others, stores a virtual merging point object that is an image indicating the position of the merging point, acquires the user's position, and stores the user's position and the merging point. A processing circuit 50 for displaying a virtual junction object at a position corresponding to the junction in the real world seen by the user through the transparent screen, based on the position of . The processing circuit 50 may be dedicated hardware, or a processor (central processing unit (CPU: Central Processing Unit), processing device, arithmetic device, microprocessor, microcomputer, etc.) that executes a program stored in a memory. Also called a DSP (Digital Signal Processor)).

処理回路50が専用のハードウェアである場合、処理回路50は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものなどが該当する。合流支援装置10の構成要素の各々の機能が個別の処理回路で実現されてもよいし、それらの機能がまとめて一つの処理回路で実現されてもよい。 When the processing circuit 50 is dedicated hardware, the processing circuit 50 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a combination of these. Each function of the constituent elements of the joining support device 10 may be implemented by individual processing circuits, or these functions may be collectively implemented by one processing circuit.

図7は、処理回路50がプログラムを実行するプロセッサ51を用いて構成されている場合における合流支援装置10のハードウェア構成の例を示している。この場合、合流支援装置10の構成要素の機能は、ソフトウェア等(ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせ)により実現される。ソフトウェア等はプログラムとして記述され、メモリ52に格納される。プロセッサ51は、メモリ52に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、合流支援装置10は、プロセッサ51により実行されるときに、ユーザと他者との合流地点を記憶する処理と、合流地点の位置を示す画像である仮想合流地点オブジェクトを記憶する処理と、ユーザの位置を取得する処理と、ユーザの位置および合流地点の位置に基づいて、仮想合流地点オブジェクトを、ユーザから透明な画面を通して見える実景の合流地点に対応する位置に表示する処理と、が結果的に実行されることになるプログラムを格納するためのメモリ52を備える。換言すれば、このプログラムは、合流支援装置10の構成要素の動作の手順や方法をコンピュータに実行させるものであるともいえる。 FIG. 7 shows an example of the hardware configuration of the joining support device 10 when the processing circuit 50 is configured using a processor 51 that executes programs. In this case, the functions of the constituent elements of the joining support device 10 are implemented by software or the like (software, firmware, or a combination of software and firmware). Software or the like is written as a program and stored in the memory 52 . The processor 51 implements the function of each part by reading and executing the program stored in the memory 52 . Namely, when executed by the processor 51, the meeting support device 10 stores a process of storing the meeting point between the user and the other party, a process of storing a virtual meeting point object, which is an image indicating the position of the meeting point, A process of acquiring the position of the user and a process of displaying the virtual meeting point object at a position corresponding to the meeting point in the real world seen by the user through the transparent screen based on the user's position and the meeting point position are the results. A memory 52 is provided for storing the program to be executed on the fly. In other words, it can be said that this program causes a computer to execute the procedures and methods of operation of the components of the merging support device 10 .

ここで、メモリ52は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)およびそのドライブ装置等、または、今後使用されるあらゆる記憶媒体であってもよい。 Here, the memory 52 is, for example, a non-volatile or Volatile semiconductor memory, HDD (Hard Disk Drive), magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc) and its drive device, etc., or any storage medium that will be used in the future. may

以上、合流支援装置10の構成要素の機能が、ハードウェアおよびソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、合流支援装置10の一部の構成要素を専用のハードウェアで実現し、別の一部の構成要素をソフトウェア等で実現する構成であってもよい。例えば、一部の構成要素については専用のハードウェアとしての処理回路50でその機能を実現し、他の一部の構成要素についてはプロセッサ51としての処理回路50がメモリ52に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。 The configuration in which the functions of the constituent elements of the merging support device 10 are realized by either hardware or software has been described above. However, the present invention is not limited to this, and a configuration may be adopted in which a part of the constituent elements of the merging support device 10 are realized by dedicated hardware and another part of the constituent elements are realized by software or the like. For example, the processing circuit 50 as dedicated hardware implements the functions of some components, and the processing circuit 50 as a processor 51 executes programs stored in the memory 52 for some other components. Its function can be realized by reading and executing it.

以上のように、合流支援装置10は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。 As described above, the merging support device 10 can implement the functions described above by using hardware, software, etc., or a combination thereof.

[変形例]
合流地点の決定方法は、任意の方法でよく、例えば、合流支援装置10のユーザと合流相手との間で合流地点の場所を取り決めるための調停システムが、インターネット上に構築されていてもよい。その場合、合流支援装置10の合流地点記憶部12は、通信部11を通して当該調停システムから、決定した合流地点の情報を取得して記憶する。
[Modification]
Any method may be used to determine the meeting point. For example, an arbitration system may be built on the Internet for determining the location of the meeting point between the user of the meeting support device 10 and the meeting partner. In this case, the meeting point storage unit 12 of the meeting support device 10 acquires information on the determined meeting point from the arbitration system through the communication unit 11 and stores the information.

仮想合流地点オブジェクトの画像は、ユーザが操作入力装置23を操作して、複数の画像から選択できるようにしてもよい。また、仮想合流地点オブジェクトの画像は、合流相手から指定された画像でもよいし、合流支援装置10のユーザと合流相手との間で仮想合流地点オブジェクト画像を相談して決めてもよい。例えば、合流支援装置10のユーザと合流相手との間で仮想合流地点オブジェクトの画像を取り決めるための調停システムが、インターネット上に構築されていてもよい。その場合、合流支援装置10の仮想オブジェクト記憶部13は、通信部11を通して当該調停システムから、決定した仮想合流地点オブジェクトの画像を取得して記憶する。 The image of the virtual meeting point object may be selected from a plurality of images by the user operating the operation input device 23 . The image of the virtual confluence point object may be an image specified by the confluence partner, or may be determined by consultation between the user of the confluence support device 10 and the confluence partner. For example, an arbitration system for arranging the image of the virtual meeting point object between the user of the meeting support device 10 and the meeting partner may be constructed on the Internet. In this case, the virtual object storage unit 13 of the meeting support device 10 acquires the image of the determined virtual meeting point object from the arbitration system through the communication unit 11 and stores it.

仮想合流地点オブジェクトの画像を決定する際に合流相手の意向を汲む場合、合流支援装置10のユーザ(車両100の運転者)と合流相手の双方が、仮想合流地点オブジェクトの画像がどのような画像なのかを認識できる。例えば、車両100がタクシーの場合など、車両100の運転者と合流相手との面識がない場面も考えられるが、車両100の運転者と合流相手の双方が仮想合流地点オブジェクトの画像を認識していれば、互いに仮想合流地点オブジェクトの画像を確認し合うことで、互いの認証を行うことができるため、セキュリティーの向上に寄与できる。 When the intention of the merging partner is taken into consideration when determining the image of the virtual merging point object, both the user of the merging support device 10 (the driver of the vehicle 100) and the merging partner can decide what kind of image the virtual merging point object should be. can recognize whether For example, when the vehicle 100 is a taxi, the driver of the vehicle 100 and the merging partner may not be acquainted with each other. If so, the images of the virtual meeting point objects can be confirmed by each other, so that mutual authentication can be performed, which contributes to the improvement of security.

また、表示制御部16は、合流地点の位置を示す仮想合流地点オブジェクトだけでなく、合流支援のための追加的な情報を示す仮想オブジェクトを含む仮想世界をユーザに提供してもよい。例えば、図8のように、仮想合流地点オブジェクト200と共に、合流地点に到着したユーザ(ここではユーザが運転する車両100)を模擬した仮想オブジェクト201や、合流地点に到着した合流相手を模擬した仮想オブジェクト202が存在する仮想世界がユーザに提供されてもよい。この場合、表示制御部16は、ヘッドアップディスプレイ21を用いて、図9のように、仮想合流地点オブジェクト200の前の道路上に車両100を模擬した仮想オブジェクト201を表示し、仮想合流地点オブジェクト200の傍らに合流相手を模擬した仮想オブジェクト202を表示する。 Further, the display control unit 16 may provide the user with a virtual world including not only a virtual meeting point object indicating the position of the meeting point but also a virtual object indicating additional information for supporting the meeting. For example, as shown in FIG. 8, together with a virtual meeting point object 200, a virtual object 201 simulating a user arriving at the meeting point (in this case, the vehicle 100 driven by the user), and a virtual object 201 simulating a meeting partner arriving at the meeting point. A user may be presented with a virtual world in which the object 202 resides. In this case, the display control unit 16 uses the head-up display 21 to display a virtual object 201 simulating the vehicle 100 on the road in front of the virtual junction object 200 as shown in FIG. A virtual object 202 simulating a joining partner is displayed beside 200 .

また例えば、図10のように、仮想合流地点オブジェクト200と共に、車両100が合流地点に到着したときの停止位置(駐車スペース)を示す仮想オブジェクト203が存在する仮想世界がユーザに提供されてもよい。この場合、表示制御部16は、ヘッドアップディスプレイ21を用いて、図11のように、仮想合流地点オブジェクト200の前の道路上に車両100の停止位置を示す仮想オブジェクト203を表示する。 Further, for example, as shown in FIG. 10, the user may be provided with a virtual world in which a virtual junction object 200 and a virtual object 203 indicating a stop position (parking space) when the vehicle 100 arrives at the junction exist. . In this case, the display control unit 16 uses the head-up display 21 to display a virtual object 203 indicating the stop position of the vehicle 100 on the road in front of the virtual junction object 200, as shown in FIG.

また、図12に示す仮想世界のように車両100が合流地点MPを通り過ぎる位置まで進んだ場合、ユーザから見た合流地点MPの位置は、ヘッドアップディスプレイ21の表示領域外になる。このとき表示制御部16は、例えば図13のように、合流地点MPが車両100から近いが仮想合流地点オブジェクト200を表示できる位置にないことを示す仮想オブジェクト204を表示してもよい。図13には、仮想オブジェクト204が、仮想合流地点オブジェクト200の画像を目立たない表示態様(大きさ、色、明るさなど)にした画像と、合流地点MPが位置する方向を示す矢印の画像とから成る例を示したが、仮想オブジェクト204はこの2つの画像のいずれか片方だけでもよい。また、仮想オブジェクト204を点滅させるなどのアニメーション効果が用いられてもよい。 12, when the vehicle 100 has passed the confluence point MP, the position of the confluence point MP seen from the user is outside the display area of the head-up display 21. FIG. At this time, the display control unit 16 may display a virtual object 204 indicating that the meeting point MP is close to the vehicle 100 but not at a position where the virtual meeting point object 200 can be displayed, as shown in FIG. 13, for example. In FIG. 13, the virtual object 204 includes an image of the image of the virtual junction object 200 in an inconspicuous display mode (size, color, brightness, etc.) and an image of an arrow indicating the direction in which the junction MP is located. , the virtual object 204 may be just one of these two images. Also, an animation effect such as blinking the virtual object 204 may be used.

なお、図13のように、ユーザから見た合流地点MPの位置がヘッドアップディスプレイ21の表示領域外である旨を示す仮想オブジェクト204を表示させる場合の、合流支援装置10の動作を図14のフローチャートに示す。図14のフローチャートは、図5のフローチャートに対し、ステップS106でNOと判断されたときに実行されるステップS109を追加したものである。 Note that the operation of the merging support device 10 when displaying a virtual object 204 indicating that the position of the merging point MP as seen from the user is outside the display area of the head-up display 21 as shown in FIG. shown in the flow chart. The flowchart of FIG. 14 is obtained by adding step S109, which is executed when NO is determined in step S106, to the flowchart of FIG.

すなわち、図14のフローチャートでは、ユーザから見た合流地点の位置がヘッドアップディスプレイ21の表示領域外である場合に(ステップS106でNO)、表示制御部16が、その旨を示す仮想オブジェクト204を、ヘッドアップディスプレイ21を用いて表示する(ステップS109)。その他のステップは、図5と同様であるため、ここでの説明は省略する。 That is, in the flowchart of FIG. 14, when the position of the meeting point seen by the user is outside the display area of the head-up display 21 (NO in step S106), the display control unit 16 displays the virtual object 204 indicating that fact. , is displayed using the head-up display 21 (step S109). Since other steps are the same as those in FIG. 5, descriptions thereof are omitted here.

また、通信部11が合流相手の携帯端末やナビゲーション装置などから、合流相手の位置や通過予定経路の情報を取得し、表示制御部16が、それらの情報を示す仮想オブジェクトを、仮想合流地点オブジェクト200と共に表示させてもよい。具体的には、表示制御部16は、ユーザから見た合流相手の位置に対応する位置に、合流相手の位置を示す仮想オブジェクトを表示し、また、ユーザから見た合流相手の通過予定経路に対応する位置に、合流相手の通過予定経路を示す仮想オブジェクトを表示してもよい。 In addition, the communication unit 11 acquires information on the location of the meeting partner and the planned passage route from the mobile terminal, navigation device, or the like of the meeting partner, and the display control unit 16 converts a virtual object indicating the information into a virtual meeting point object. 200 may be displayed. Specifically, the display control unit 16 displays a virtual object indicating the position of the merging partner at a position corresponding to the position of the merging partner as seen from the user, and also displays a virtual object indicating the position of the merging partner as seen from the user. A virtual object may be displayed at the corresponding position, which indicates the planned passage route of the merging partner.

例えば、図15のような現実世界における地点MPがユーザと合流相手101との合流地点として定められ、ユーザが運転する車両100および合流相手101が合流地点MPの付近に到達した場面を想定する。合流支援装置10の合流地点記憶部12には、合流地点MPの情報が記憶されており、通信部11は合流相手101が持つ携帯端末から合流相手101の位置や通過予定経路の情報を逐次取得する。この場合、表示制御部16は、ヘッドアップディスプレイ21を用いて、合流地点MPを示す仮想合流地点オブジェクト200と、合流相手101の位置を示す仮想オブジェクト205と、合流相手101の通過予定経路を示す仮想オブジェクト206とが存在する図16のような仮想世界をユーザに提供する。車両100の運転者であるユーザからは、図17のように、車両100のウィンドシールド30を通して見える実景内に、仮想合流地点オブジェクト200と、合流相手101の位置を示す仮想オブジェクト205と、合流相手101の通過予定経路を示す仮想オブジェクト206とが見える。 For example, it is assumed that a point MP in the real world as shown in FIG. 15 is determined as the meeting point between the user and the meeting partner 101, and the vehicle 100 driven by the user and the meeting partner 101 arrive near the meeting point MP. Information on the merging point MP is stored in the merging point storage unit 12 of the merging support device 10, and the communication unit 11 sequentially acquires information on the position of the merging partner 101 and the planned passing route from the portable terminal held by the merging partner 101. do. In this case, the display control unit 16 uses the head-up display 21 to display a virtual confluence point object 200 indicating the confluence point MP, a virtual object 205 indicating the position of the confluence partner 101, and a planned passing route of the confluence partner 101. The user is provided with a virtual world as shown in FIG. 16 in which the virtual object 206 exists. As shown in FIG. 17, the user, who is the driver of the vehicle 100, can see a virtual merging point object 200, a virtual object 205 indicating the position of the merging partner 101, and a merging partner in the actual scene seen through the windshield 30 of the vehicle 100. A virtual object 206 indicating the planned passage route of 101 can be seen.

図17では合流相手101が建物に隠れて見えない状態を示したが、合流相手101がユーザから見える位置まで出てくると、図18のように、仮想オブジェクト205が合流相手101の頭上に見える。そのため、ユーザは、人通りの多い場所などでも素早く合流相手101を見つけることができる。 FIG. 17 shows a state in which the joining partner 101 is hidden behind a building and cannot be seen. . Therefore, the user can quickly find the joining partner 101 even in a busy place.

通信部11が取得して表示制御部16が表示する合流相手の情報は、現在位置と通過予定経路の情報に限られない。例えば、通信部11が、合流相手の合流地点への到着予定時刻の情報を取得し、例えば「到着5分前」などの文字列を仮想オブジェクトとして表示してもよい。 The information about the merging partner acquired by the communication unit 11 and displayed by the display control unit 16 is not limited to the information on the current position and the planned passage route. For example, the communication unit 11 may acquire information about the scheduled arrival time of the merging partner at the merging point, and display a character string such as "five minutes before arrival" as a virtual object.

<実施の形態2>
図19は、本発明の実施の形態2に係る合流支援装置10の構成を示す図である。実施の形態2の合流支援装置10も車両100に搭載されており、合流支援装置10のユーザは車両100の運転者である。ただし、実施の形態2の合流支援装置10には、図1に示したヘッドアップディスプレイ21に代えて、撮影装置27が接続されている。
<Embodiment 2>
FIG. 19 is a diagram showing the configuration of a merging support device 10 according to Embodiment 2 of the present invention. The merging support device 10 of Embodiment 2 is also mounted on the vehicle 100 , and the user of the merging support device 10 is the driver of the vehicle 100 . However, instead of the head-up display 21 shown in FIG. 1, an imaging device 27 is connected to the merging support device 10 of the second embodiment.

撮影装置27は、車両100の周囲(すなわちユーザの周囲)の実景を撮影するカメラである。ここでは、撮影装置27は車両100の前方の実景を撮影するものとする。 The photographing device 27 is a camera that photographs the actual scenery around the vehicle 100 (that is, around the user). Here, it is assumed that the photographing device 27 photographs the actual scene in front of the vehicle 100 .

実施の形態2に係る合流支援装置10の表示制御部16は、表示装置22の画面に、撮影装置27が撮影した実景の画像(以下「実景画像」という)を表示する。さらに、表示制御部16は、位置情報取得部14が取得した車両100の位置および向き、仮想オブジェクト記憶部13に記憶された合流地点の位置、および地図情報取得部15が取得した地図情報に基づいて、ユーザ(車両100の運転者)から見た合流地点の相対位置を算出し、表示装置22の画面に表示されている実景画像における合流地点に対応する位置に、仮想合流地点オブジェクトを表示する。その結果、表示装置22の画面には、あたかも合流地点に仮想合流地点オブジェクトが存在するよう見える画像が表示される。つまり、表示制御部16は、表示装置22の画面を通して、合流地点に仮想合流地点オブジェクトが存在する仮想世界をユーザに提供する。 The display control unit 16 of the merging support device 10 according to the second embodiment displays an image of the actual scene captured by the imaging device 27 (hereinafter referred to as “actual scene image”) on the screen of the display device 22 . Further, the display control unit 16 controls the position and orientation of the vehicle 100 acquired by the position information acquisition unit 14, the position of the junction stored in the virtual object storage unit 13, and the map information acquired by the map information acquisition unit 15. to calculate the relative position of the meeting point as seen from the user (driver of the vehicle 100), and display the virtual meeting point object at the position corresponding to the meeting point in the actual scene image displayed on the screen of the display device 22. . As a result, an image is displayed on the screen of the display device 22 as if a virtual meeting point object exists at the meeting point. In other words, the display control unit 16 provides the user with a virtual world in which a virtual meeting point object exists at the meeting point through the screen of the display device 22 .

例えば、表示制御部16が、上述した図3と同様の仮想世界をユーザに提供する場合、表示制御部16は、表示装置22の画面に図20のような画像を表示する。図4の画像は、撮影装置27が撮影した実景画像における合流地点MPに対応する位置に、仮想合流地点オブジェクト200を重畳したものである。 For example, when the display control unit 16 provides the user with a virtual world similar to that shown in FIG. 3 described above, the display control unit 16 displays an image as shown in FIG. The image in FIG. 4 is obtained by superimposing a virtual junction object 200 at a position corresponding to the junction MP in the real scene image captured by the photographing device 27 .

このように、実施の形態2に係る合流支援装置10は、車両100の運転者であるユーザに、現実世界の合流地点に仮想合流地点オブジェクトが存在して見える仮想世界を提示することによって、合流地点の場所を提示する。よって、ユーザは、現実世界における合流地点の場所を直感的に認識でき、合流地点へ到達することが容易になる。 In this way, the merging support device 10 according to the second embodiment presents the user, who is the driver of the vehicle 100, with a virtual world in which the virtual merging point object exists at the merging point in the real world. Present the location of the point. Therefore, the user can intuitively recognize the location of the meeting point in the real world, and can easily reach the meeting point.

ここで、図21のフローチャートを参照しつつ、合流支援装置10の動作を説明する。合流支援装置10が起動し、ユーザと合流相手との間で合流地点が決定されると、合流地点記憶部12は、その合流地点を記憶する(ステップS201)。 Here, the operation of the merging support device 10 will be described with reference to the flowchart of FIG. 21 . When the merging support device 10 is activated and a merging point is determined between the user and the merging partner, the merging point storage unit 12 stores the merging point (step S201).

続いて、表示制御部16が、撮影装置27により撮影された車両100周囲の実景画像を、表示装置22の画面に表示する(ステップS202)。そして、位置情報取得部14が、測位装置24が算出した車両100の位置、すなわちユーザの位置を取得する(ステップS203)。このとき位置情報取得部14は、車両100の位置の履歴に基づき、車両100の向きを算出する。地図情報取得部15は、地図情報記憶装置26から、ユーザの位置周辺の地図情報を取得する(ステップS204)。 Subsequently, the display control unit 16 displays the image of the surroundings of the vehicle 100 taken by the imaging device 27 on the screen of the display device 22 (step S202). Then, the position information acquisition unit 14 acquires the position of the vehicle 100 calculated by the positioning device 24, that is, the position of the user (step S203). At this time, the position information acquiring unit 14 calculates the orientation of the vehicle 100 based on the position history of the vehicle 100 . The map information acquisition unit 15 acquires map information around the user's position from the map information storage device 26 (step S204).

表示制御部16は、位置情報取得部14が取得したユーザの位置と、合流地点記憶部12に記憶された合流地点の位置と、地図情報取得部15が取得した地図情報とに基づいて、ユーザの位置が合流地点付近であるか否かを判断する(ステップS205)。ステップS205の判断は、図5のステップS104と同様の判断でよい。 The display control unit 16 displays the position of the user based on the position of the user acquired by the position information acquisition unit 14, the position of the meeting point stored in the meeting point storage unit 12, and the map information acquired by the map information acquisition unit 15. is near the junction (step S205). The determination in step S205 may be the same determination as in step S104 of FIG.

ユーザの位置が合流地点付近であれば(ステップS205でYES)、表示制御部16は、車両100の位置および向きと、合流地点の位置と、地図情報とに基づいて、ユーザから見た実景上の合流地点の位置を算出する(ステップS206)。 If the user's position is near the meeting point (YES in step S205), the display control unit 16 controls the position and direction of the vehicle 100, the position of the meeting point, and the map information to display the actual scene as seen by the user. is calculated (step S206).

そして、ユーザから見た合流地点の位置が、撮影装置27により撮影された実景画像の範囲内か否かを確認する(ステップS207)。ユーザから見た合流地点の位置が実景画像の範囲内であれば(ステップS207でYES)、表示制御部16は、表示装置22の画面に表示された実景画像におけるユーザから見た合流地点の位置に、仮想合流地点オブジェクトを重畳させて表示し(ステップS208)、ステップS202へ戻る。 Then, it is confirmed whether or not the position of the merging point seen by the user is within the range of the actual scene image captured by the image capturing device 27 (step S207). If the position of the meeting point as seen by the user is within the range of the actual scene image (YES in step S207), the display control unit 16 controls the position of the meeting point as seen by the user in the actual scene image displayed on the screen of the display device 22. , the virtual junction object is superimposed and displayed (step S208), and the process returns to step S202.

一方、ユーザの位置が合流地点から遠い場合(ステップS205でNO)、ならびに、ユーザから見た合流地点の位置が実景画像の範囲外である場合(ステップS207でNO)には、表示制御部16が、表示装置22の画面に仮想合流地点オブジェクトを表示しているか否かを確認し、表示していれば消去して(ステップS209)、ステップS202へ戻る。 On the other hand, if the user's position is far from the meeting point (NO in step S205) and if the position of the meeting point seen by the user is outside the range of the actual scene image (NO in step S207), the display control unit 16 However, it is confirmed whether or not the virtual junction object is displayed on the screen of the display device 22, and if it is displayed, it is deleted (step S209), and the process returns to step S202.

[変形例]
実施の形態1で示した各種の変形例は、実施の形態2の合流支援装置10に対しても適用可能である。
[Modification]
Various modifications shown in the first embodiment can also be applied to the merging support device 10 of the second embodiment.

図21のフローチャートでは、表示装置22の画面に実景画像のみを先に表示してから、その上に仮想合流地点オブジェクトを重畳表示したが、実景画像と仮想合流地点オブジェクトとの重畳処理(合成処理)先に行ってから、仮想合流地点オブジェクトが合成された実景画像を表示装置22に映像を表示してもよい。 In the flowchart of FIG. 21, only the actual scene image is first displayed on the screen of the display device 22, and then the virtual junction object is displayed superimposed thereon. ), the actual scene image synthesized with the virtual junction object may be displayed on the display device 22 after going ahead.

また、表示装置22がスーパーインポーズ機能を有する場合、表示装置22が撮影装置27から直接(表示制御部16を通さずに)取得した実景画像を画面に表示し、表示制御部16が表示装置22の画面に表示された実景画像に対して仮想合流地点オブジェクトのスーパーインポーズを行ってもよい。 Further, when the display device 22 has a superimpose function, the display device 22 displays on the screen a real scene image obtained directly from the photographing device 27 (without going through the display control unit 16), and the display control unit 16 A virtual meeting point object may be superimposed on the actual scene image displayed on the screen of 22 .

実施の形態2では、撮影装置27が車両100の前方の実景を撮影する例を示したが、撮影装置27は車両100の側方、後方あるいは後側方の実景を撮影するものであってもよい。例えば、撮影装置27が車両100の後方または後側方の実景を撮影する場合、撮影装置27および表示装置22は、車両100のリアビューミラーを電子的に実現する電子ミラーとして機能する。言い換えれば、実施の形態2の合流支援装置10は、車両100の電子ミラーシステムに適用可能である。 In Embodiment 2, an example in which the photographing device 27 photographs the actual scene in front of the vehicle 100 has been described, but the photographing device 27 may photograph the actual scene to the side, rear, or rear side of the vehicle 100. good. For example, when the photographing device 27 photographs an actual scene behind or behind the vehicle 100 , the photographing device 27 and the display device 22 function as an electronic mirror that electronically realizes the rear view mirror of the vehicle 100 . In other words, the merging support device 10 of the second embodiment is applicable to the electronic mirror system of the vehicle 100. FIG.

また、合流支援装置10に、それぞれ撮影方向の異なる複数の撮影装置27を接続させ、表示制御部16が、複数の撮影装置27が撮影した複数の実景画像を合成したサラウンド画像を作成して、表示装置22の画面に表示させてもよい。 In addition, the merging support device 10 is connected to a plurality of photographing devices 27 with different photographing directions, and the display control unit 16 creates a surround image by synthesizing a plurality of real scene images photographed by the plurality of photographing devices 27, It may be displayed on the screen of the display device 22 .

実施の形態1で示したヘッドアップディスプレイ21を用いる技術、実施の形態2で示した車両100の前方の実景画像を用いる技術、さらに、上述した電子ミラーを用いる技術、サラウンド画像を用いる技術の2つ以上を組み合わせてもよい。それにより、仮想合流地点オブジェクトを表示する領域が広がるため、仮想合流地点オブジェクトが表示される確率が高くなる。また、ヘッドアップディスプレイ21あるいは表示装置22を複数用いる場合、複数の画面のうちの一部にだけ仮想合流地点オブジェクトが表示されることがある。そのとき、表示制御部16は、仮想合流地点オブジェクトが表示されていない画面に、仮想合流地点オブジェクトがどの画面に表示されているかをユーザに通知するマークを表示してもよい。 Two of the technology using the head-up display 21 described in the first embodiment, the technology using the actual scene image in front of the vehicle 100 described in the second embodiment, the technology using the above-described electronic mirror, and the technology using the surround image. You can combine two or more. As a result, the area for displaying the virtual meeting point object is expanded, so the probability of displaying the virtual meeting point object increases. Also, when using a plurality of head-up displays 21 or display devices 22, the virtual junction object may be displayed only on some of the plurality of screens. At that time, the display control unit 16 may display a mark on the screen on which the virtual meeting point object is not displayed to notify the user on which screen the virtual meeting point object is displayed.

実施の形態2において、車両100は、車両100から離れた場所にいる運転者(合流支援装置10のユーザ)によって遠隔操作されてもよい。その場合、表示装置22は、遠隔地にいるユーザのそばに設置される。車両100が遠隔操作される場合、実際には、位置情報取得部14が取得する車両100の位置はユーザの位置ではないが、位置情報取得部14は、測位装置24が算出した車両100の位置を、ユーザの位置とみなして取得する。そして、表示制御部16は、車両100の周囲の実景の画像の合流地点に対応する位置に、仮想合流地点オブジェクトを表示する。 In Embodiment 2, vehicle 100 may be remotely controlled by a driver (user of merging support device 10) who is away from vehicle 100. FIG. In that case, the display device 22 is installed near the user at a remote location. When the vehicle 100 is remotely operated, the position of the vehicle 100 acquired by the position information acquisition unit 14 is not actually the position of the user. is regarded as the user's position. Then, the display control unit 16 displays the virtual junction object at the position corresponding to the junction of the images of the actual scenery around the vehicle 100 .

[ハードウェア構成]
実施の形態2の合流支援装置10も、図6および図7と同様のハードウェア構成により実現できる。例えば、合流支援装置10が図6に示した処理回路50により実現される場合、合流支援装置10は、ユーザと他者との合流地点を記憶し、合流地点の位置を示す画像である仮想合流地点オブジェクトを記憶し、ユーザの位置を取得し、ユーザの位置および合流地点の位置に基づいて、仮想合流地点オブジェクトを、画面に表示されたユーザの周囲の実景の画像の合流地点に対応する位置に表示する、ための処理回路50を備える。
[Hardware configuration]
The merging support device 10 of the second embodiment can also be realized by a hardware configuration similar to that of FIGS. 6 and 7. FIG. For example, when the confluence support device 10 is realized by the processing circuit 50 shown in FIG. store the point object, obtain the position of the user, and based on the position of the user and the position of the meeting point, place the virtual meeting point object at the position corresponding to the meeting point of the images of the real world surrounding the user displayed on the screen; a processing circuit 50 for displaying the .

また、合流支援装置10が、図7に示したプロセッサ51およびメモリ52で構成される場合、メモリ52には、プロセッサ51により実行されるときに、ユーザと他者との合流地点を記憶する処理と、合流地点の位置を示す画像である仮想合流地点オブジェクトを記憶する処理と、ユーザの位置を取得する処理と、ユーザの位置および合流地点の位置に基づいて、仮想合流地点オブジェクトを、画面に表示されたユーザの周囲の実景の画像の合流地点に対応する位置に表示する処理と、が結果的に実行されることになるプログラムが格納される。 In addition, when the meeting support device 10 is composed of the processor 51 and the memory 52 shown in FIG. a process of storing a virtual meeting point object, which is an image indicating the position of the meeting point; a process of acquiring the position of the user; A program that results in the execution of a process of displaying at a position corresponding to the confluence of the displayed images of the actual scenery around the user is stored.

<実施の形態3>
図22は、本発明の実施の形態3に係る合流支援装置10の構成を示す図である。実施の形態3の合流支援装置10は、例えばスマートフォンなどの携帯端末300に搭載されている。すなわち、合流支援装置10は、携帯端末300のプロセッサがメモリに記憶された合流支援のアプリケーションプログラム(以下「合流支援アプリ」という)を実行することによって実現されている。そのことを除けば、図22の合流支援装置10の構成は、図19と同様である。
<Embodiment 3>
FIG. 22 is a diagram showing the configuration of a merging support device 10 according to Embodiment 3 of the present invention. The merging support device 10 according to the third embodiment is installed in a mobile terminal 300 such as a smart phone, for example. In other words, the merging support device 10 is implemented by executing a merging support application program (hereinafter referred to as a 'merging support application') stored in the memory by the processor of the mobile terminal 300 . Except for this, the configuration of the merging support device 10 of FIG. 22 is the same as that of FIG.

合流支援装置10のユーザは携帯端末300のユーザである。以下の説明における「ユーザ」は、特に断りのない限り、携帯端末300のユーザを意図している。ここでは、ユーザは歩行者であるものとするが、ユーザは、携帯端末300を車両に持ち込むことも可能である。また、合流相手は、歩行者でも車両でもよいが、ここでは車両であるものとする。また、合流相手の車両は、遠隔操作または自動運転により走行する運転者不在の車両(例えば無人タクシーなど)でもよい。 A user of the joining support device 10 is a user of the mobile terminal 300 . A “user” in the following description intends the user of the mobile terminal 300 unless otherwise specified. Here, the user is assumed to be a pedestrian, but the user can also bring the mobile terminal 300 into the vehicle. A merging partner may be a pedestrian or a vehicle, but is assumed to be a vehicle here. Also, the merging partner vehicle may be a vehicle without a driver (for example, an unmanned taxi) that travels by remote control or automatic operation.

携帯端末300の撮影装置27は、ユーザの周囲の実景を撮影するものであるが、その撮影方向は、ユーザが携帯端末300を構える方向によるため、必ずしもユーザの進行方向とは一致しない。そのため、実施の形態3に係る合流支援装置10の表示制御部16は、撮影装置27が撮影した実景画像の範囲を認識するために、携帯端末300の向きを認識する必要がある。携帯端末300の向きの認識方法は、任意の方法でよい。表示制御部16は、例えば、携帯端末300の方位センサ(不図示)を用いて携帯端末300の向きを算出してもよいし、撮影装置27で撮影された実景画像と地図情報取得部15が取得した地図情報とを照合することで携帯端末300の向きを判断してもよい。 The photographing device 27 of the portable terminal 300 photographs the actual surroundings of the user, but the photographing direction depends on the direction in which the user holds the portable terminal 300, and therefore does not necessarily match the traveling direction of the user. Therefore, the display control unit 16 of the merging support device 10 according to Embodiment 3 needs to recognize the orientation of the mobile terminal 300 in order to recognize the range of the actual scene image captured by the image capturing device 27 . Any method may be used to recognize the orientation of the mobile terminal 300 . The display control unit 16 may calculate the orientation of the mobile terminal 300 using, for example, an orientation sensor (not shown) of the mobile terminal 300, or the actual scene image captured by the imaging device 27 and the map information acquisition unit 15 may be The orientation of the mobile terminal 300 may be determined by comparing it with the acquired map information.

表示制御部16は、表示装置22の画面(「携帯端末300の画面」ということもある)に、撮影装置27が撮影した実景画像を表示する。さらに、表示制御部16は、認識した携帯端末300の向き、位置情報取得部14が取得した携帯端末300の位置、仮想オブジェクト記憶部13に記憶された合流地点の位置、および地図情報取得部15が取得した地図情報に基づいて、ユーザから見た合流地点の相対位置を算出し、表示装置22の画面に表示されている実景画像における合流地点に対応する位置に、仮想合流地点オブジェクトを表示する。その結果、表示装置22の画面には、あたかも合流地点に仮想合流地点オブジェクトが存在するよう見える画像が表示される。つまり、表示制御部16は、表示装置22の画面を通して、合流地点に仮想合流地点オブジェクトが存在する仮想世界をユーザに提供する。 The display control unit 16 displays the actual scene image captured by the imaging device 27 on the screen of the display device 22 (also referred to as "the screen of the mobile terminal 300"). Further, the display control unit 16 controls the recognized orientation of the mobile terminal 300, the position of the mobile terminal 300 acquired by the position information acquisition unit 14, the position of the junction stored in the virtual object storage unit 13, and the map information acquisition unit 15. based on the acquired map information, calculates the relative position of the meeting point seen from the user, and displays the virtual meeting point object at the position corresponding to the meeting point in the actual scene image displayed on the screen of the display device 22. . As a result, an image is displayed on the screen of the display device 22 as if a virtual meeting point object exists at the meeting point. In other words, the display control unit 16 provides the user with a virtual world in which a virtual meeting point object exists at the meeting point through the screen of the display device 22 .

例えば、図23のような現実世界における地点MPがユーザ301と合流相手との合流地点として定められ、ユーザ301が合流地点MPの付近に到達した場面を想定する。合流支援装置10の合流地点記憶部12には、合流地点MPの位置の情報が記憶されている。この場合、表示制御部16は、表示装置22を用いて、合流地点MPに仮想合流地点オブジェクト400が存在する図24のような仮想世界をユーザに提供する。ユーザ301の携帯端末300の画面には、図25のように、撮影装置27が撮影した実景画像における合流地点MPに対応する位置に、仮想合流地点オブジェクト400が重畳された画像が表示される。 For example, it is assumed that a point MP in the real world as shown in FIG. 23 is determined as the meeting point between the user 301 and the meeting partner, and the user 301 reaches the vicinity of the meeting point MP. Information on the position of the merging point MP is stored in the merging point storage unit 12 of the merging support device 10 . In this case, the display control unit 16 uses the display device 22 to provide the user with a virtual world as shown in FIG. 24 in which the virtual meeting point object 400 exists at the meeting point MP. On the screen of the mobile terminal 300 of the user 301, as shown in FIG. 25, an image is displayed in which the virtual meeting point object 400 is superimposed at the position corresponding to the meeting point MP in the real scene image captured by the imaging device 27. FIG.

このように、実施の形態3に係る合流支援装置10は、携帯端末300のユーザに、現実世界の合流地点に仮想合流地点オブジェクトが存在して見える仮想世界を提示することによって、合流地点の場所を提示する。よって、ユーザは、現実世界における合流地点の場所を直感的に認識でき、合流地点へ到達することが容易になる。 In this way, the merging support apparatus 10 according to Embodiment 3 presents to the user of the mobile terminal 300 a virtual world in which a virtual merging point object appears to exist at the merging point in the real world. present. Therefore, the user can intuitively recognize the location of the meeting point in the real world, and can easily reach the meeting point.

ここで、図26のフローチャートを参照しつつ、携帯端末300の動作を説明する。まず、携帯端末300のユーザが、操作入力装置23を操作して、合流相手との合流地点を決定するためのアプリケーション(合流地点決定アプリ)を起動させると、合流地点決定アプリが通信装置25を介する合流相手との直接的または間接的な通信を行い、合流相手との間で合流地点を取り決める(ステップS301)。合流地点決定アプリにより決定された合流地点は、合流地点記憶部12に記憶される(ステップS302)。 Here, the operation of the mobile terminal 300 will be described with reference to the flowchart of FIG. 26 . First, when the user of the mobile terminal 300 operates the operation input device 23 to start an application (meeting point determination application) for determining the meeting point with the meeting partner, the meeting point determination application activates the communication device 25. Direct or indirect communication is performed with the merging partner through which the merging point is arranged (step S301). The meeting point determined by the meeting point determination application is stored in the meeting point storage unit 12 (step S302).

その後、ユーザは、任意のタイミング(例えば、ユーザが合流地点にある程度近づいたときなど)で、合流支援アプリを起動させることで、合流支援装置10を起動させる(ステップS303)。 After that, the user activates the merging support device 10 by activating the merging support application at an arbitrary timing (for example, when the user approaches the merging point to some extent) (step S303).

合流支援装置10が起動すると、表示制御部16が、撮影装置27により撮影されたユーザの周囲の実景画像を、表示装置22の画面に表示する(ステップS304)。そして、位置情報取得部14が、測位装置24が算出した携帯端末300の位置、すなわちユーザの位置を取得する(ステップS305)。地図情報取得部15は、地図情報記憶装置26から、ユーザの位置周辺の地図情報を取得する(ステップS306)。 When the merging support device 10 is activated, the display control unit 16 displays an image of the actual surroundings of the user captured by the imaging device 27 on the screen of the display device 22 (step S304). Then, the position information acquisition unit 14 acquires the position of the mobile terminal 300 calculated by the positioning device 24, that is, the position of the user (step S305). The map information acquisition unit 15 acquires map information around the user's position from the map information storage device 26 (step S306).

表示制御部16は、位置情報取得部14が取得したユーザの位置と、合流地点記憶部12に記憶された合流地点の位置と、地図情報取得部15が取得した地図情報とに基づいて、ユーザの位置が合流地点付近であるか否かを判断する(ステップS307)。ステップS307の判断は、図5のステップS104と同様の判断でよい。 The display control unit 16 displays the position of the user based on the position of the user acquired by the position information acquisition unit 14, the position of the meeting point stored in the meeting point storage unit 12, and the map information acquired by the map information acquisition unit 15. is near the junction (step S307). The determination in step S307 may be the same determination as in step S104 in FIG.

ユーザの位置が合流地点付近であれば(ステップS307でYES)、表示制御部16は、携帯端末300の位置および向きと、合流地点の位置と、地図情報とに基づいて、ユーザから見た実景上の合流地点の位置を算出する(ステップS308)。 If the user's position is near the meeting point (YES in step S307), the display control unit 16 displays the actual scene seen by the user based on the position and orientation of the mobile terminal 300, the position of the meeting point, and the map information. The position of the upper junction point is calculated (step S308).

そして、表示制御部16は、ユーザから見た合流地点の位置が、撮影装置27により撮影された実景画像の範囲内か否かを確認する(ステップS309)。ユーザから見た合流地点の位置が実景画像の範囲内であれば(ステップS309でYES)、表示制御部16は、表示装置22の画面に表示された実景画像におけるユーザから見た合流地点の位置に、仮想合流地点オブジェクトを重畳させて表示し(ステップS310)、ステップS304へ戻る。 Then, the display control unit 16 confirms whether or not the position of the merging point seen by the user is within the range of the actual scene image captured by the image capturing device 27 (step S309). If the position of the meeting point as seen by the user is within the range of the actual scene image (YES in step S309), the display control unit 16 controls the position of the meeting point as seen by the user in the actual scene image displayed on the screen of the display device 22. , the virtual junction object is superimposed and displayed (step S310), and the process returns to step S304.

一方、ユーザの位置が合流地点から遠い場合(ステップS307でNO)、ならびに、ユーザから見た合流地点の位置が実景画像の範囲外である場合(ステップS309でNO)には、表示制御部16が、表示装置22の画面に仮想合流地点オブジェクトを表示しているか否かを確認し、表示していれば消去して(ステップS311)、ステップS304へ戻る。 On the other hand, if the user's position is far from the meeting point (NO in step S307) and if the position of the meeting point seen by the user is outside the range of the actual scene image (NO in step S309), the display control unit 16 However, it is confirmed whether or not the virtual junction object is displayed on the screen of the display device 22, and if it is displayed, it is deleted (step S311), and the process returns to step S304.

[変形例]
合流地点の位置が、撮影装置27が撮影した実景画像の範囲外である場合(つまり、図26のステップS309でNOの場合)、実施の形態1で図12~図14を用いて説明した変形例と同様に、合流地点が表示領域外である旨を示す仮想オブジェクトを携帯端末300の画面に表示させてもよい。
[Modification]
If the position of the merging point is outside the range of the actual scene image captured by the image capturing device 27 (that is, if NO in step S309 of FIG. 26), the modification described in Embodiment 1 using FIGS. 12 to 14 is performed. As in the example, a virtual object indicating that the meeting point is outside the display area may be displayed on the screen of the mobile terminal 300 .

図26のフローチャートでは、ステップS304~S311が繰り返し実行されるため、表示装置22に表示される画面は逐次更新される。よって、表示装置22の画面に仮想合流地点オブジェクト400が表示されても、ユーザが携帯端末300を構える向きを変えるとすぐに合流地点が実景画像の領域外になって、仮想合流地点オブジェクト400が消えてしまう。そこで、ユーザが表示装置22の画面に表示された画像をポーズできるようにしてもよい。それにより、ユーザは、表示装置22に表示された仮想世界の画像と現実世界の風景とを比較し易くなる。 In the flowchart of FIG. 26, steps S304 to S311 are repeatedly executed, so the screen displayed on the display device 22 is updated sequentially. Therefore, even if the virtual meeting point object 400 is displayed on the screen of the display device 22, as soon as the user changes the direction in which the mobile terminal 300 is held, the meeting point is outside the real image area, and the virtual meeting point object 400 is displayed. Disappear. Therefore, the user may be allowed to pause the image displayed on the screen of the display device 22 . This makes it easier for the user to compare the image of the virtual world displayed on the display device 22 with the scenery of the real world.

また、ユーザが携帯端末300で実景画像を撮影しながら回転し、撮影方向の異なる複数の実景画像を取得した場合に、表示制御部16が、それらの実景画像を合成してパノラマ画像を生成し、パノラマ画像の中に仮想合流地点オブジェクトを表示できるようにしてもよい。 Further, when the user rotates the mobile terminal 300 while photographing a real scene image and acquires a plurality of real scene images in different shooting directions, the display control unit 16 synthesizes the real scene images to generate a panorama image. , the virtual meeting point object may be displayed in the panorama image.

図26のフローチャートでは、合流地点決定アプリと合流支援アプリとが別々のアプリであるものとしたが、合流地点決定アプリの機能は合流支援アプリに組み込まれていてもよい。合流地点決定アプリが合流支援アプリの機能を備える場合の携帯端末300の動作の例を、図27はフローチャートに基づいて説明する。 In the flowchart of FIG. 26, the meeting point determination application and the meeting support application are separate applications, but the function of the meeting point determination application may be incorporated in the meeting support application. An example of the operation of the mobile terminal 300 when the meeting point determination application has the function of the meeting support application will be described with reference to the flowchart of FIG.

携帯端末300のユーザが、操作入力装置23を操作して合流支援アプリを起動すると(ステップS401)、合流支援アプリが、通信装置25を介する合流相手との直接的または間接的な通信を行い、合流相手との間で合流地点を取り決める(ステップS402)。決定された合流地点は、合流地点記憶部12に記憶される(ステップS403)。 When the user of the mobile terminal 300 operates the operation input device 23 to activate the joining support application (step S401), the joining support application directly or indirectly communicates with the joining partner via the communication device 25, A merging point is arranged with the merging partner (step S402). The determined meeting point is stored in the meeting point storage unit 12 (step S403).

その後、位置情報取得部14が、測位装置24が算出した携帯端末300の位置、すなわちユーザの位置を取得する(ステップS404)。地図情報取得部15は、地図情報記憶装置26から、ユーザの位置周辺の地図情報を取得する(ステップS405)。表示制御部16は、位置情報取得部14が取得したユーザの位置と、合流地点記憶部12に記憶された合流地点の位置と、地図情報取得部15が取得した地図情報とに基づいて、ユーザの位置が合流地点付近であるか否かを判断する(ステップS406)。ユーザの位置が合流地点付近であれば(ステップS406でYES)、その旨を例えば携帯端末300のバイブレーション機能などを用いてユーザに通知する(ステップS407)。 After that, the position information acquiring unit 14 acquires the position of the mobile terminal 300 calculated by the positioning device 24, that is, the position of the user (step S404). The map information acquisition unit 15 acquires map information around the user's position from the map information storage device 26 (step S405). The display control unit 16 displays the position of the user based on the position of the user acquired by the position information acquisition unit 14, the position of the meeting point stored in the meeting point storage unit 12, and the map information acquired by the map information acquisition unit 15. is near the junction (step S406). If the user's position is near the meeting point (YES in step S406), the user is notified of this using, for example, the vibration function of the mobile terminal 300 (step S407).

通知を受けたユーザは、操作入力装置23を操作して、合流支援装置10に対し、仮想合流地点オブジェクトの表示を指示することができる。一定時間、仮想合流地点オブジェクトの表示指示がなければ(ステップS408でNO)、ステップS404に戻る。 The user who has received the notification can operate the operation input device 23 to instruct the rendezvous support device 10 to display the virtual rendezvous point object. If there is no instruction to display the virtual junction object for a certain period of time (NO in step S408), the process returns to step S404.

合流支援装置10が、ユーザから仮想合流地点オブジェクトの表示指示を受けると、(ステップS408でYES)、表示制御部16が、撮影装置27により撮影されたユーザの周囲の実景画像を、表示装置22の画面に表示する(ステップS409)。そして、位置情報取得部14が、測位装置24が算出した携帯端末300の位置(ユーザの位置)を取得する(ステップS410)。地図情報取得部15は、地図情報記憶装置26から、ユーザの位置周辺の地図情報を取得する(ステップS411)。 When the merging support device 10 receives an instruction to display the virtual merging point object from the user (YES in step S408), the display control unit 16 causes the image of the actual surroundings of the user captured by the imaging device 27 to be displayed on the display device 22. is displayed on the screen (step S409). Then, the position information acquisition unit 14 acquires the position of the mobile terminal 300 (user's position) calculated by the positioning device 24 (step S410). The map information acquisition unit 15 acquires map information around the user's position from the map information storage device 26 (step S411).

表示制御部16は、ステップS406と同様の方法で、ユーザの位置が合流地点付近であるか否かを判断し、ユーザの位置が合流地点付近であれば(ステップS412でYES)、携帯端末300の位置および向きと、合流地点の位置と、地図情報とに基づいて、ユーザから見た実景上の合流地点の位置を算出する(ステップS413)。 The display control unit 16 determines whether or not the user's position is near the meeting point by the same method as in step S406. , the position of the meeting point, and the map information, the position of the meeting point on the actual scene as seen from the user is calculated (step S413).

そして、ユーザから見た合流地点の位置が、撮影装置27により撮影された実景画像の範囲内か否かを確認する(ステップS414)。ユーザから見た合流地点の位置が実景画像の範囲内であれば(ステップS414でYES)、表示制御部16は、表示装置22の画面に表示された実景画像におけるユーザから見た合流地点の位置に、仮想合流地点オブジェクトを重畳させて表示し(ステップS415)、ステップS409へ戻る。 Then, it is confirmed whether or not the position of the meeting point seen by the user is within the range of the actual scene image captured by the image capturing device 27 (step S414). If the position of the junction as seen by the user is within the range of the actual scene image (YES in step S414), the display control unit 16 controls the position of the junction as seen by the user in the actual scene image displayed on the screen of the display device 22. , the virtual junction object is superimposed and displayed (step S415), and the process returns to step S409.

なお、ユーザの位置が合流地点から遠ざかった場合(ステップS412でNO)には、表示制御部16が、表示装置22の画面に仮想合流地点オブジェクトを表示しているか否かを確認し、表示していれば消去して(ステップS416)、ステップS404へ戻る。また、ユーザから見た合流地点の位置が実景画像の範囲外である場合(ステップS414でNO)には、表示制御部16が、ステップS416と同様の処理を行って(ステップS417)、ステップS409へ戻る。 When the user moves away from the meeting point (NO in step S412), the display control unit 16 checks whether the virtual meeting point object is displayed on the screen of the display device 22, and displays it. If so, it is deleted (step S416) and the process returns to step S404. Further, when the position of the merging point seen by the user is outside the range of the actual scene image (NO in step S414), the display control unit 16 performs the same processing as in step S416 (step S417), and performs step S409. back to

実施の形態3においても、実施の形態1と同様に、仮想合流地点オブジェクトとする画像を、ユーザまたは合流相手が選択したり、仮想合流地点オブジェクトの画像を取り決めるための調停システムを利用したりして、変更できるようにしてもよい。 In the third embodiment, as in the first embodiment, the user or the meeting partner selects an image to be the virtual meeting point object, and an arbitration system is used to determine the image of the virtual meeting point object. can be changed by

また、表示制御部16は、合流地点の位置を示す仮想合流地点オブジェクトだけでなく、合流支援のための追加的な情報を示す仮想オブジェクトを含む仮想世界をユーザに提供してもよい。例えば、図28のように、仮想合流地点オブジェクト400と共に、合流地点に到着したユーザ301を模擬した仮想オブジェクト401や、合流地点に到着した合流相手(ここでは車両)を模擬した仮想オブジェクト402が存在する仮想世界がユーザに提供されてもよい。この場合、表示制御部16は、図29のように、携帯端末300の画面に、仮想合流地点オブジェクト400の傍らにユーザ301を模擬した仮想オブジェクト401を表示し、仮想合流地点オブジェクト400の前の道路に合流相手を模擬した仮想オブジェクト402を表示する。 Further, the display control unit 16 may provide the user with a virtual world including not only a virtual meeting point object indicating the position of the meeting point but also a virtual object indicating additional information for supporting the meeting. For example, as shown in FIG. 28, along with a virtual meeting point object 400, there are a virtual object 401 imitating a user 301 arriving at the meeting point, and a virtual object 402 imitating a meeting partner (a vehicle in this case) arriving at the meeting point. A user may be provided with a virtual world that In this case, as shown in FIG. A virtual object 402 imitating a merging partner is displayed on the road.

また、通信部11が合流相手の携帯端末やナビゲーション装置などから、合流相手の位置や通過予定経路の情報を取得し、表示制御部16が、それらの情報を示す仮想オブジェクトを、仮想合流地点オブジェクト400と共に表示させてもよい。具体的には、表示制御部16は、ユーザから見た合流相手の位置に対応する位置に、合流相手の位置を示す仮想オブジェクトを表示し、また、ユーザから見た合流相手の通過予定経路に対応する位置に、合流相手の通過予定経路を示す仮想オブジェクトを表示してもよい。 In addition, the communication unit 11 acquires information on the location of the meeting partner and the planned passage route from the mobile terminal, navigation device, or the like of the meeting partner, and the display control unit 16 converts a virtual object indicating the information into a virtual meeting point object. 400 may be displayed. Specifically, the display control unit 16 displays a virtual object indicating the position of the merging partner at a position corresponding to the position of the merging partner as seen from the user, and also displays a virtual object indicating the position of the merging partner as seen from the user. A virtual object may be displayed at the corresponding position, which indicates the planned passage route of the merging partner.

例えば、図30のような現実世界における地点MPがユーザ301と合流相手の車両302との合流地点として定められ、ユーザ301および合流相手の車両302が合流地点MPの付近に到達した場面を想定する。合流支援装置10の合流地点記憶部12には、合流地点MPの情報が記憶されており、通信部11は合流相手の車両302のナビゲーション装置から車両302の位置や通過予定経路の情報を取得する。この場合、表示制御部16は、携帯端末300の画面を用いて、合流地点MPを示す仮想合流地点オブジェクト400と、合流相手の車両302の位置を示す仮想オブジェクト403と、合流相手の車両302の通過予定経路を示す仮想オブジェクト404とが存在する図30のような仮想世界をユーザ301に提供する。ユーザ301の携帯端末300の画面には、図31のように、実景画像内に仮想合流地点オブジェクト400と、合流相手の車両302の位置を示す仮想オブジェクト403と、当該車両302の通過予定経路を示す仮想オブジェクト404が実景画像に重畳された画像が表示される。 For example, it is assumed that a point MP in the real world as shown in FIG. 30 is determined as the meeting point of the user 301 and the vehicle 302 of the meeting partner, and the user 301 and the vehicle 302 of the meeting partner arrive near the meeting point MP. . Information on the merging point MP is stored in the merging point storage unit 12 of the merging support device 10, and the communication unit 11 acquires information on the position of the vehicle 302 and the planned passage route from the navigation device of the vehicle 302 of the merging partner. . In this case, the display control unit 16 uses the screen of the mobile terminal 300 to display the virtual meeting point object 400 indicating the meeting point MP, the virtual object 403 indicating the position of the vehicle 302 of the meeting partner, and the vehicle 302 of the meeting partner. The user 301 is provided with a virtual world as shown in FIG. As shown in FIG. 31, on the screen of the portable terminal 300 of the user 301, a virtual merging point object 400, a virtual object 403 indicating the position of the vehicle 302 of the merging partner, and the planned passage route of the vehicle 302 are displayed in the actual scene image. An image in which the indicated virtual object 404 is superimposed on the real scene image is displayed.

通信部11が取得して表示制御部16が表示する合流相手の情報は、現在位置と通過予定経路の情報に限られない。例えば、通信部11が、合流相手の合流地点への到着予定時刻の情報を取得し、例えば「到着5分前」などの文字列を仮想オブジェクトとして表示してもよい。 The information about the merging partner acquired by the communication unit 11 and displayed by the display control unit 16 is not limited to the information on the current position and the planned passage route. For example, the communication unit 11 may acquire information about the scheduled arrival time of the merging partner at the merging point, and display a character string such as "five minutes before arrival" as a virtual object.

携帯端末300は、図25のような仮想合流地点オブジェクトを含む実景画像の表示(仮想世界の表示)と、図32のようなユーザおよび合流地点の位置を示す地図の表示とを切り替え可能に構成されていてもよい。その場合、携帯端末300の画面における地図の表示領域と実景画像の表示領域が、携帯端末300の姿勢に従って変更されてもよい。 The mobile terminal 300 is configured to be able to switch between display of a real scene image (display of a virtual world) including a virtual junction object as shown in FIG. 25 and display of a map showing the position of the user and the junction as shown in FIG. may have been In that case, the map display area and the actual scene image display area on the screen of the mobile terminal 300 may be changed according to the orientation of the mobile terminal 300 .

例えば、携帯端末300が水平に寝かせると(この状態を仰角0度と定義する)図32のような地図が表示され、ユーザが実景を撮影するために携帯端末300を垂直に立てて構えると(この状態を仰角90度と定義する)と、図25のような実景画像が表示されるようにしてもよい。あるいは、携帯端末300の仰角が90度のとき、図33のように実景画像と地図の双方が表示されるようにしてもよい。また、ユーザが実景画像の表示にポーズをかけたときには、携帯端末300の仰角に関係なく、図33のように実景画像と地図の双方が表示されるようにしてもよい。 For example, when the mobile terminal 300 is laid horizontally (this state is defined as an elevation angle of 0 degrees), a map such as that shown in FIG. This state is defined as an elevation angle of 90 degrees), a real scene image as shown in FIG. 25 may be displayed. Alternatively, when the elevation angle of portable terminal 300 is 90 degrees, both the actual scene image and the map may be displayed as shown in FIG. Also, when the user pauses the display of the actual scene image, both the actual scene image and the map may be displayed as shown in FIG. 33 regardless of the elevation angle of the mobile terminal 300 .

また、携帯端末300を横向きにしたときは図25のような実景画像が表示され、携帯端末300を縦向きにしたときは図34のように実景画像と地図の双方が表示されるようにしてもよい。さらに、携帯端末300の画面に実景画像と地図の双方が表示された状態では、ユーザが、携帯端末300の画面のスワイプ操作などによって、実景画像の表示領域および地図の表示領域の広さ(面積比)を変更できるようにしてもよい。 25 is displayed when the portable terminal 300 is oriented horizontally, and both the actual scene image and the map are displayed as shown in FIG. 34 when the portable terminal 300 is oriented vertically. good too. Furthermore, in a state where both the actual scene image and the map are displayed on the screen of the mobile terminal 300, the user can swipe the screen of the mobile terminal 300 to change the display area of the actual scene image and the map. ratio) may be changed.

<実施の形態4>
実施の形態4では、実施の形態1(または実施の形態2)に係る合流支援装置10を備える車両100と、実施の形態3に係る合流支援装置10を備える携帯端末300のユーザとの合流を支援する合流システムの例を示す。
<Embodiment 4>
In the fourth embodiment, the vehicle 100 equipped with the merging support device 10 according to the first embodiment (or the second embodiment) and the user of the mobile terminal 300 equipped with the merging support device 10 according to the third embodiment are allowed to merge. An example of a supporting merge system is shown.

図35は、実施の形態4に係る合流支援システムの構成を示す図である。合流支援システムは、それぞれ合流支援装置10を備える車両100および携帯端末300と、合流支援サーバ500とを含んでいる。車両100および携帯端末300は、インターネット等の通信網を通して合流支援サーバ500と通信可能である。図35には車両100および携帯端末300を1つずつ示しているが、車両100および携帯端末300は複数存在する。 35 is a diagram showing a configuration of a merging support system according to Embodiment 4. FIG. The merging support system includes a vehicle 100 and a mobile terminal 300 each having a merging support device 10 , and a merging support server 500 . Vehicle 100 and mobile terminal 300 can communicate with merging support server 500 through a communication network such as the Internet. Although one vehicle 100 and one mobile terminal 300 are shown in FIG. 35, there are a plurality of vehicles 100 and mobile terminals 300 .

合流支援サーバ500は、携帯端末300のユーザに対し、車両100を用いた送迎サービスを提供するものであり、合流支援サーバ500には予め配車可能な複数の車両100が登録されている。以下、このサービスを受けようとする携帯端末300のユーザを「サービス利用者」という。 The merging support server 500 provides a pick-up service using the vehicle 100 to the user of the mobile terminal 300, and a plurality of vehicles 100 that can be dispatched are registered in the merging support server 500 in advance. Hereinafter, the user of the mobile terminal 300 who wants to receive this service will be referred to as "service user".

以下、図36のフローチャートを参照しつつ、合流支援サーバ500の動作を説明する。合流支援サーバ500は、サービス利用者の携帯端末300から配車要求を受信する(ステップS501)。携帯端末300からの配車要求には、少なくともサービス利用者が配車を希望する場所および時刻の情報が含まれるが、その他、搭乗者の人数、配車を希望する車種などの情報も含まれていてもよい。配車要求を受信した合流支援サーバ500は、登録された複数の車両100のうちからサービス利用者の希望に近いものへ配車を打診する(ステップS502)。 The operation of the joining support server 500 will be described below with reference to the flowchart of FIG. The merging support server 500 receives a dispatch request from the mobile terminal 300 of the service user (step S501). The dispatch request from the mobile terminal 300 includes at least information about the place and time that the service user wishes to dispatch a vehicle, but may also include other information such as the number of passengers and the vehicle type desired to be dispatched. good. The merging support server 500, which has received the vehicle allocation request, asks for a vehicle that is closest to the service user's request from among the plurality of registered vehicles 100 (step S502).

その後、合流支援サーバ500は、配車を打診した車両100のいずれかから配車可能である旨の応答を受信する(ステップS503)。そして、配車可能な車両100の情報をサービス利用者の携帯端末300へ送信する(ステップS504)。配車可能な車両100が複数ある場合には、複数の車両100の情報がサービス利用者の携帯端末300へ送信され、サービス利用者がそのうちの1台を選択する。 After that, the merging support server 500 receives a response to the effect that the vehicle can be allocated from any of the vehicles 100 to which the request for vehicle allocation has been made (step S503). Then, the information on the vehicles 100 that can be dispatched is transmitted to the mobile terminal 300 of the service user (step S504). When there are a plurality of vehicles 100 that can be dispatched, information on the plurality of vehicles 100 is transmitted to the mobile terminal 300 of the service user, and the service user selects one of them.

合流支援サーバ500は、サービス利用者の携帯端末300から、サービス利用者が選択した車両100の情報およびサービス利用者のプロファイルを受信する(ステップS505)。これにより、サービス利用者と選択された車両100との間で送迎の契約が成立する。 The merging support server 500 receives information on the vehicle 100 selected by the service user and the service user's profile from the service user's portable terminal 300 (step S505). As a result, a pick-up contract is established between the service user and the selected vehicle 100 .

契約が成立すると、合流支援サーバ500は、サービス利用者が選択した車両100へ、契約の成立を通知するとともに、仮想合流地点オブジェクトの画像を送信する(ステップS506)。また、合流支援サーバ500は、サービス利用者の携帯端末300へも、契約の成立を通知するとともに、仮想合流地点オブジェクトの画像を送信する(ステップS507)。 When the contract is established, the merging support server 500 notifies the vehicle 100 selected by the service user of the establishment of the contract and transmits an image of the virtual merging point object (step S506). The confluence support server 500 also notifies the service user's mobile terminal 300 of the establishment of the contract and transmits the image of the virtual confluence point object (step S507).

合流支援サーバ500の動作は以上で完了する。その後は、車両100の合流支援装置10が実施の形態1で説明した動作を行い、携帯端末300の合流支援装置10が実施の形態3で説明した動作を行うことで、車両100とサービス利用者との合流を支援する。 The operation of the joining support server 500 is now completed. After that, the merging support device 10 of the vehicle 100 performs the operation described in the first embodiment, and the merging support device 10 of the mobile terminal 300 performs the operation described in the third embodiment. support merging with

なお、契約が成立した車両100と携帯端末300には、仮想合流地点オブジェクトの画像として互いに同一の画像が送信されることが好ましい。あるいは、合流支援サーバ500が、サービス利用者と配車される車両100の運転者との間で、仮想合流地点オブジェクトとする画像を取り決めるための調停システムとして動作してもよい。車両100と携帯端末300とで同一の仮想合流地点オブジェクトが用いられる場合、例えば、サービス利用者が車両100と合流したときに、仮想合流地点オブジェクトが表示された携帯端末300を車両100の運転者に提示するなどして、互いに仮想合流地点オブジェクトの画像を確認し合うことができる。それにより、互いの認証を行うことができるため、セキュリティーの向上に寄与できる。 It is preferable that the same image as the image of the virtual meeting point object is transmitted to the vehicle 100 and the portable terminal 300 with which the contract has been concluded. Alternatively, the confluence support server 500 may operate as an arbitration system for arranging an image to be a virtual confluence point object between the service user and the driver of the vehicle 100 to be dispatched. When the same virtual meeting point object is used in the vehicle 100 and the mobile terminal 300, for example, when the service user joins the vehicle 100, the driver of the vehicle 100 can use the mobile terminal 300 on which the virtual meeting point object is displayed. The images of the virtual meeting point objects can be confirmed by each other by presenting the images to the virtual meeting point objects. As a result, mutual authentication can be performed, which contributes to an improvement in security.

[変形例]
実施の形態1および3では、車両100が合流地点に近づいたか否かの判断(例えば図5のステップS104の判断)、または、携帯端末300のユーザが合流地点に近づいたか否かの判断(例えば図26のステップS307の判断)を、車両100または携帯端末300が備える合流支援装置10が行った。しかし、合流支援サーバ500が、車両100および携帯端末300の位置を逐次取得してそれらの判断を行い、車両100または携帯端末300が合流地点に近づいたときに、車両100または携帯端末300へ通知してもよい。
[Modification]
In the first and third embodiments, it is determined whether or not the vehicle 100 has approached the junction (for example, the determination in step S104 in FIG. 5), or whether the user of the mobile terminal 300 has approached the junction (for example, 26) was performed by the merging support device 10 included in the vehicle 100 or the mobile terminal 300. FIG. However, merging support server 500 sequentially acquires the positions of vehicle 100 and mobile terminal 300 and makes determinations thereof, and notifies vehicle 100 or mobile terminal 300 when vehicle 100 or mobile terminal 300 approaches the merging point. You may

<実施の形態5>
実施の形態5では、合流支援装置10を備える車両100を用いて、合流支援装置10を備える携帯端末300を持つ不特定多数の乗客を送迎する送迎システムの例を示す。
<Embodiment 5>
Embodiment 5 shows an example of a pick-up and drop-off system that uses a vehicle 100 equipped with a merging support device 10 to pick up and drop off an unspecified number of passengers having mobile terminals 300 equipped with the merging support device 10 .

実施の形態5の送迎システムは、合流支援装置10を備える1台または複数台の車両100が、巡回バスのように特定の巡回ルートを走行し、巡回ルートの途中にある複数の乗降地点で携帯端末300を持つ不特定の乗客を乗降させるサービスを提供する。以下、このサービスを提供する車両100を「巡回車両」といい、当該サービスを受けようとする携帯端末300のユーザを「サービス利用者」という。 In the pickup and drop-off system of the fifth embodiment, one or more vehicles 100 equipped with a merging support device 10 run on a specific patrol route like a patrol bus, and are carried at a plurality of boarding/alighting points along the patrol route. A service for getting on and off unspecified passengers with terminals 300 is provided. Hereinafter, the vehicle 100 that provides this service will be referred to as a "patrol vehicle", and the user of the portable terminal 300 who intends to receive this service will be referred to as a "service user".

実施の形態5の送迎システムの構成は、図35と同様でよい。巡回車両100およびサービス利用者の携帯端末300には、合流支援サーバ500から、巡回ルートおよび各乗降地点の情報が配信される。巡回車両100の合流支援装置10の合流地点記憶部12には、複数の乗降地点が合流地点として記憶される。また、サービス利用者の携帯端末300の合流支援装置10の合流地点記憶部12にも同様に、複数の乗降地点が合流地点として記憶される。よって、巡回車両100および携帯端末300の合流支援装置10は、乗降地点に対応する位置に仮想合流地点オブジェクトが存在する仮想世界を、巡回車両100の運転者およびサービス利用者に提供する。以下、乗降地点の位置を示す仮想合流地点オブジェクトを「仮想乗降地点オブジェクト」という。 The configuration of the pick-up system of Embodiment 5 may be the same as that shown in FIG. Information on the patrol route and each boarding/alighting point is distributed from the joining support server 500 to the patrol vehicle 100 and the mobile terminal 300 of the service user. A plurality of boarding/alighting points are stored as merging points in the merging point storage unit 12 of the merging support device 10 of the patrol vehicle 100 . Similarly, a plurality of boarding/alighting points are stored as merging points in the merging point storage unit 12 of the merging support device 10 of the service user's mobile terminal 300 . Therefore, the merging support device 10 of the patrolling vehicle 100 and the mobile terminal 300 provides the driver of the patrolling vehicle 100 and service users with a virtual world in which virtual merging point objects exist at positions corresponding to boarding/alighting points. Hereinafter, the virtual meeting point object indicating the position of the boarding/alighting point will be referred to as a "virtual boarding/alighting point object".

巡回車両100の運転者およびサービス利用者は、合流支援装置10が提供する仮想世界における仮想乗降地点オブジェクトの位置を確認することで、乗降地点の位置を認識できる。よって、当該送迎システムでは、実際に巡回ルートに標識柱を設置する必要がない。そのため、当該送迎システムでは、乗降地点の場所や巡回ルートの変更を柔軟に行うことができる。 The driver of the patrol vehicle 100 and the service user can recognize the position of the boarding/alighting point by confirming the position of the virtual boarding/alighting point object in the virtual world provided by the merging support device 10 . Therefore, in the pick-up system, there is no need to actually install signposts on the patrol route. Therefore, in the pick-up system, it is possible to flexibly change the place of getting on and off and the patrol route.

例えば、合流支援サーバ500が、交通情報、天候情報、サービス利用者の分布情報などを収集して、例えば、渋滞区間を避けるように巡回ルートを変更したり、悪天候時に乗降地点を風雨にさらされない場所へ変更したり、サービス利用者の多い地域を巡回ルートに追加したりすることで、利便性の高い送迎サービスを提供できる。また、合流支援サーバ500は、必要に応じて仮想乗降地点オブジェクトの画像を変更してもよい。 For example, the merging support server 500 collects traffic information, weather information, distribution information of service users, etc., and, for example, changes the patrol route so as to avoid congested sections, and protects the boarding and alighting points from the weather during bad weather. By changing the location or adding areas with many service users to the patrol route, it is possible to provide a highly convenient pick-up service. Also, the merging support server 500 may change the image of the virtual boarding/alighting point object as necessary.

また、合流支援サーバ500が、サービス利用者から乗降地点にしたい場所のリクエストを受け付け、そのリクエストに基づいて乗降地点を定めてもよい。例えば、複数のサービス利用者が10分以内に到達できる場所を乗降地点と定めることなどが想定される。さらに、合流支援サーバ500は、例えば老人や怪我人など歩行が困難なサービス利用者からの要求に応じて、一時的に乗降地点を増やしてもよい。 In addition, the merging support server 500 may receive a request from the service user for a desired boarding/alighting point, and determine the boarding/alighting point based on the request. For example, it is assumed that a place where a plurality of service users can reach within 10 minutes is defined as a boarding/alighting point. Furthermore, the merging support server 500 may temporarily increase the number of boarding/alighting points in response to a request from a service user who has difficulty walking, such as an elderly person or an injured person.

巡回ルート、乗降地点、仮想乗降地点オブジェクトの画像の変更情報は、合流支援サーバ500から巡回車両100および携帯端末300へ配信される。 Information about changes in the images of the patrol route, boarding/alighting point, and virtual boarding/alighting point objects is distributed from the merging support server 500 to the patrol vehicle 100 and the mobile terminal 300 .

なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。 In addition, within the scope of the invention, each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted.

本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 While the present invention has been described in detail, the foregoing description is, in all its aspects, illustrative and not intended to limit the invention. It is understood that numerous variations not illustrated can be envisioned without departing from the scope of the invention.

10 合流支援装置、11 通信部、12 合流地点記憶部、13 仮想オブジェクト記憶部、14 位置情報取得部、15 地図情報取得部、16 表示制御部、21 ヘッドアップディスプレイ、22 表示装置、23 操作入力装置、24 測位装置、25 通信装置、26 地図情報記憶装置、27 撮影装置、30 ウィンドシールド、MP 合流地点、100 ユーザの車両、101 合流相手、200,400 仮想合流地点オブジェクト、201~206,401~404 仮想オブジェクト、300 携帯端末、301 携帯端末のユーザ、302 合流相手の車両、500 合流支援サーバ。 10 confluence support device 11 communication unit 12 confluence point storage unit 13 virtual object storage unit 14 position information acquisition unit 15 map information acquisition unit 16 display control unit 21 head-up display 22 display device 23 operation input device, 24 positioning device, 25 communication device, 26 map information storage device, 27 photographing device, 30 windshield, MP meeting point, 100 user's vehicle, 101 meeting partner, 200, 400 virtual meeting point object, 201 to 206, 401 404 virtual object, 300 mobile terminal, 301 mobile terminal user, 302 merging partner vehicle, 500 merging support server.

Claims (22)

ユーザと他者との合流地点を記憶する合流地点記憶部と、
前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶する仮想オブジェクト記憶部と、
前記ユーザの位置を取得する位置情報取得部と、
前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示する表示制御部と、
を備える合流支援装置において、
前記仮想合流地点オブジェクトの画像は複数の異なる画像のうちから選択され、前記ユーザと前記他者との双方により前記合流支援装置が利用される場合、前記ユーザの前記合流支援装置と前記他者の前記合流支援装置とで、共通の前記仮想合流地点オブジェクトが用いられる、
合流支援装置。
a meeting point storage unit that stores a meeting point between the user and others;
a virtual object storage unit for storing a virtual meeting point object, which is an image indicating the position of the meeting point and has a display mode simulating a substantial feature indicating the stopping position of the moving object;
a location information acquisition unit that acquires the location of the user;
Based on the position of the user and the position of the meeting point, the virtual meeting point object is the meeting point in an image of the real world seen by the user through a transparent screen or the image of the real world around the user displayed on the screen. a display control unit for displaying at a position corresponding to
In a merging support device comprising
The image of the virtual meeting point object is selected from a plurality of different images, and when the meeting support device is used by both the user and the other person, The virtual meeting point object is used in common with the meeting support device,
Merging support device.
ユーザと他者との合流地点を記憶する合流地点記憶部と、
前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶する仮想オブジェクト記憶部と、
前記ユーザの位置を取得する位置情報取得部と、
前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示する表示制御部と、
を備え
前記仮想オブジェクト記憶部は、前記ユーザと前記他者との間で前記仮想合流地点オブジェクトとする画像を取り決める調停システムから、前記他者が指定した前記仮想合流地点オブジェクトとする画像を取得する、
合流支援装置。
a meeting point storage unit that stores a meeting point between the user and others;
a virtual object storage unit for storing a virtual meeting point object, which is an image indicating the position of the meeting point and has a display mode simulating a substantial feature indicating the stopping position of the moving object;
a location information acquisition unit that acquires the location of the user;
Based on the position of the user and the position of the meeting point, the virtual meeting point object is the meeting point in an image of the real world seen by the user through a transparent screen or the image of the real world around the user displayed on the screen. a display control unit for displaying at a position corresponding to
with
The virtual object storage unit acquires an image to be the virtual meeting point object specified by the other person from an arbitration system that determines an image to be the virtual meeting point object between the user and the other person.
Merging support device.
ユーザと他者との合流地点を記憶する合流地点記憶部と、
前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶する仮想オブジェクト記憶部と、
前記ユーザの位置を取得する位置情報取得部と、
前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示する表示制御部と、
を備え
前記ユーザは車両の運転者であり、
前記表示制御部は、前記仮想合流地点オブジェクトを、前記運転者から透明な画面を通して見える実景、または、前記車両が搭載する表示装置の画面に表示された前記車両の周囲の実景の画像における前記合流地点に対応する位置に表示し、
前記車両は、予め定められた複数の前記合流地点を廻る巡回ルートを走行し、不特定の前記他者を前記合流地点で乗降させる車両であり、サービス利用者から受けた乗降地点にしたい場所のリクエストに基づいて前記合流地点が定められる車両である、
合流支援装置。
a meeting point storage unit that stores a meeting point between the user and others;
a virtual object storage unit for storing a virtual meeting point object, which is an image indicating the position of the meeting point and has a display mode simulating a substantial feature indicating the stopping position of the moving object;
a location information acquisition unit that acquires the location of the user;
Based on the position of the user and the position of the meeting point, the virtual meeting point object is the meeting point in an image of the real world seen by the user through a transparent screen or the image of the real world around the user displayed on the screen. a display control unit for displaying at a position corresponding to
with
the user is a vehicle driver,
The display control unit converts the virtual merging point object into a real scene seen by the driver through a transparent screen, or an image of a real scene around the vehicle displayed on the screen of a display device installed in the vehicle. Display at the position corresponding to the point,
The vehicle is a vehicle that travels on a patrol route that goes around a plurality of predetermined meeting points, and allows the unspecified other person to get on and off at the meeting point. A vehicle for which the meeting point is determined based on a request;
Merging support device.
ユーザと他者との合流地点を記憶する合流地点記憶部と、
前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶する仮想オブジェクト記憶部と、
前記ユーザの位置を取得する位置情報取得部と、
前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示する表示制御部と、
を備え
前記ユーザおよび前記他者のうちの片方は車両の運転者、もう片方は前記車両の乗客であり、
前記車両は、予め定められた複数の前記合流地点を廻る巡回ルートを走行し、不特定の乗客を前記合流地点で乗降させる車両であり、
前記仮想合流地点オブジェクトは、公共交通機関の停留所に設置される標識柱を模擬した画像である、
合流支援装置。
a meeting point storage unit that stores a meeting point between the user and others;
a virtual object storage unit for storing a virtual meeting point object, which is an image indicating the position of the meeting point and has a display mode simulating a substantial feature indicating the stopping position of the moving object;
a location information acquisition unit that acquires the location of the user;
Based on the position of the user and the position of the meeting point, the virtual meeting point object is the meeting point in an image of the real world seen by the user through a transparent screen or the image of the real world around the user displayed on the screen. a display control unit for displaying at a position corresponding to
with
one of said user and said other is a driver of a vehicle and the other is a passenger of said vehicle;
The vehicle is a vehicle that travels on a patrol route around a plurality of predetermined confluence points and allows unspecified passengers to get on and off at the confluence points,
The virtual junction object is an image simulating a signpost installed at a public transportation stop,
Merging support device.
前記ユーザは車両の運転者であり、
前記表示制御部は、前記仮想合流地点オブジェクトを、前記運転者から透明な画面を通して見える実景、または、前記車両が搭載する表示装置の画面に表示された前記車両の周囲の実景の画像における前記合流地点に対応する位置に表示する、
請求項1または請求項2に記載の合流支援装置。
the user is a vehicle driver,
The display control unit converts the virtual merging point object into a real scene seen by the driver through a transparent screen, or an image of a real scene around the vehicle displayed on the screen of a display device installed in the vehicle. Display at the position corresponding to the point,
The merging support device according to claim 1 or 2 .
前記合流支援装置は、携帯端末に搭載されており、
前記表示制御部は、前記仮想合流地点オブジェクトを、前記携帯端末の画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示する、
請求項1または請求項2に記載の合流支援装置。
The merging support device is mounted on a mobile terminal,
The display control unit displays the virtual meeting point object at a position corresponding to the meeting point in an image of the actual surroundings of the user displayed on the screen of the mobile terminal.
The merging support device according to claim 1 or 2 .
前記他者は、遠隔操作または自動運転により走行する運転者不在の車両である、
請求項6に記載の合流支援装置。
The other person is a driverless vehicle that runs by remote control or automatic operation,
The merging support device according to claim 6 .
前記合流地点記憶部は、前記ユーザと前記他者との間で前記合流地点の場所を取り決める調停システムから、前記合流地点の情報を取得する、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
The meeting point storage unit acquires information on the meeting point from an arbitration system that determines the location of the meeting point between the user and the other person.
The merging support device according to any one of claims 1 to 4 .
前記表示制御部は、前記仮想合流地点オブジェクトと共に、前記合流地点に到着した前記ユーザまたは前記他者を模擬した画像を表示する、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
The display control unit displays an image simulating the user or the other person arriving at the meeting point together with the virtual meeting point object.
The merging support device according to any one of claims 1 to 4 .
前記表示制御部は、前記仮想合流地点オブジェクトと共に、前記車両が前記合流地点に到着したときの停止位置を示す画像を表示する、
請求項5に記載の合流支援装置。
The display control unit displays an image showing a stop position when the vehicle arrives at the junction together with the virtual junction object.
The merging support device according to claim 5 .
通信により前記他者の位置の情報を取得する通信部をさらに備え、
前記表示制御部はさらに、前記実景または前記実景の画像における前記他者の位置に対応する位置に、前記他者の位置を示す画像を表示する、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
further comprising a communication unit that obtains information on the position of the other person through communication;
The display control unit further displays an image indicating the position of the other person at a position corresponding to the position of the other person in the actual scene or the image of the actual scene.
The merging support device according to any one of claims 1 to 4 .
通信により前記他者が前記合流地点に到着するまでの通過予定経路の情報を取得する通信部さらに備え、
前記表示制御部はさらに、前記実景または前記実景の画像における前記他者の前記通過予定経路の位置に対応する位置に、前記他者の前記通過予定経路を示す画像を表示する、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
further comprising a communication unit that acquires information on a planned route through which the other party will arrive at the meeting point through communication;
The display control unit further displays an image showing the planned passage route of the other person at a position corresponding to the position of the planned passage route of the other person in the actual scene or the image of the actual scene.
The merging support device according to any one of claims 1 to 4 .
前記合流地点の位置が、前記ユーザから透明な画面を通して見える実景の範囲外、または、前記ユーザの周囲の実景の画像の範囲外である場合に、前記合流地点が存在する方向を示す画像を表示する、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
When the position of the meeting point is out of the range of the actual scene seen by the user through the transparent screen or out of the range of the image of the actual view around the user, an image indicating the direction in which the meeting point exists is displayed. do,
The merging support device according to any one of claims 1 to 4 .
前記巡回ルートおよび複数の前記合流地点は、前記車両を利用する前記他者の分布情報、交通情報、天候情報のいずれか1つ以上に基づいて変更される、
請求項3または請求項4に記載の合流支援装置。
The patrol route and the plurality of meeting points are changed based on any one or more of distribution information, traffic information, and weather information of the other person using the vehicle,
5. The merging support device according to claim 3 or 4 .
前記携帯端末は、前記ユーザの位置および前記合流地点の位置を示した地図の表示と、前記仮想合流地点オブジェクトが重畳される前記実景の画像の表示とが可能であり、前記携帯端末の姿勢に従って、前記画面における前記地図を表示する領域および前記実景の画像を表示する領域を変更する、
請求項6に記載の合流支援装置。
The mobile terminal is capable of displaying a map indicating the location of the user and the location of the meeting point, and displaying an image of the actual scene on which the virtual meeting point object is superimposed. , changing the area for displaying the map and the area for displaying the image of the actual scene on the screen;
The merging support device according to claim 6 .
前記車両は、前記車両から離れた場所にいる前記運転者によって遠隔操作される車両であり、
前記位置情報取得部は、前記車両の位置を、前記ユーザの位置として取得し、
前記表示制御部は、前記仮想合流地点オブジェクトを、画面に表示された前記車両の周囲の実景の画像における前記合流地点に対応する位置に表示する、
請求項3または請求項5に記載の合流支援装置。
the vehicle is a vehicle remotely operated by the driver at a location remote from the vehicle;
The position information acquisition unit acquires the position of the vehicle as the position of the user,
The display control unit displays the virtual junction object at a position corresponding to the junction in the image of the actual scenery around the vehicle displayed on the screen.
The merging support device according to claim 3 or 5 .
前記仮想合流地点オブジェクトを含む前記実景の画像をポーズさせることが可能である、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
an image of the real scene containing the virtual junction object can be posed;
The merging support device according to any one of claims 1 to 4 .
前記実景の画像は、撮影方向の異なる複数の画像を合成したサラウンド画像である、
請求項1から請求項4のいずれか一項に記載の合流支援装置。
The image of the actual scene is a surround image obtained by synthesizing a plurality of images taken in different shooting directions,
The merging support device according to any one of claims 1 to 4 .
合流支援装置の合流地点記憶部が、ユーザと他者との合流地点を記憶し、
前記合流支援装置の仮想オブジェクト記憶部が、前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶し、
前記合流支援装置の位置情報取得部が、前記ユーザの位置を取得し、
前記合流支援装置の表示制御部が、前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示し、
前記仮想合流地点オブジェクトの画像は複数の異なる画像のうちから選択され、前記ユーザと前記他者との双方により前記合流支援装置が利用される場合、前記ユーザの前記合流支援装置と前記他者の前記合流支援装置とで、共通の前記仮想合流地点オブジェクトが用いられる、
合流支援方法。
a meeting point storage unit of the meeting support device stores a meeting point between the user and the other person;
The virtual object storage unit of the merging support device stores a virtual merging point object which is an image indicating the position of the merging point and has a display mode simulating a substantial feature indicating the stop position of the moving body,
a location information acquiring unit of the joining support device acquires the location of the user;
The display control unit of the meeting support device displays the virtual meeting point object on the basis of the position of the user and the position of the meeting point. displayed at a position corresponding to the confluence point in the image of the actual scene surrounding the
The image of the virtual meeting point object is selected from a plurality of different images, and when the meeting support device is used by both the user and the other person, The virtual meeting point object is used in common with the meeting support device,
Merge support method.
合流支援装置の合流地点記憶部が、ユーザと他者との合流地点を記憶し、
前記合流支援装置の仮想オブジェクト記憶部が、前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶し、
前記合流支援装置の位置情報取得部が、前記ユーザの位置を取得し、
前記合流支援装置の表示制御部が、前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示し、
前記仮想オブジェクト記憶部は、前記ユーザと前記他者との間で前記仮想合流地点オブジェクトとする画像を取り決める調停システムから、前記他者が指定した前記仮想合流地点オブジェクトとする画像を取得する、
合流支援方法。
a meeting point storage unit of the meeting support device stores a meeting point between the user and the other person;
The virtual object storage unit of the merging support device stores a virtual merging point object which is an image indicating the position of the merging point and has a display mode simulating a substantial feature indicating the stop position of the moving body,
a location information acquiring unit of the joining support device acquires the location of the user;
The display control unit of the meeting support device displays the virtual meeting point object on the basis of the position of the user and the position of the meeting point. displayed at a position corresponding to the confluence point in the image of the actual scene surrounding the
The virtual object storage unit acquires an image to be the virtual meeting point object specified by the other person from an arbitration system that determines an image to be the virtual meeting point object between the user and the other person.
Merge support method.
合流支援装置の合流地点記憶部が、ユーザと他者との合流地点を記憶し、
前記合流支援装置の仮想オブジェクト記憶部が、前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶し、
前記合流支援装置の位置情報取得部が、前記ユーザの位置を取得し、
前記合流支援装置の表示制御部が、前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示し、
前記ユーザは車両の運転者であり、
前記表示制御部は、前記仮想合流地点オブジェクトを、前記運転者から透明な画面を通して見える実景、または、前記車両が搭載する表示装置の画面に表示された前記車両の周囲の実景の画像における前記合流地点に対応する位置に表示し、
前記車両は、予め定められた複数の前記合流地点を廻る巡回ルートを走行し、不特定の前記他者を前記合流地点で乗降させる車両であり、サービス利用者から受けた乗降地点にしたい場所のリクエストに基づいて前記合流地点が定められる車両である、
合流支援方法。
a meeting point storage unit of the meeting support device stores a meeting point between the user and the other person;
The virtual object storage unit of the merging support device stores a virtual merging point object which is an image indicating the position of the merging point and has a display mode simulating a substantial feature indicating the stop position of the moving body,
a location information acquiring unit of the joining support device acquires the location of the user;
The display control unit of the meeting support device displays the virtual meeting point object on the basis of the position of the user and the position of the meeting point. displayed at a position corresponding to the confluence point in the image of the actual scene surrounding the
the user is a vehicle driver,
The display control unit converts the virtual merging point object into a real scene seen by the driver through a transparent screen, or an image of a real scene around the vehicle displayed on the screen of a display device installed in the vehicle. Display at the position corresponding to the point,
The vehicle is a vehicle that travels on a patrol route that goes around a plurality of predetermined meeting points, and allows the unspecified other person to get on and off at the meeting point. A vehicle for which the meeting point is determined based on a request;
Merge support method.
合流支援装置の合流地点記憶部が、ユーザと他者との合流地点を記憶し、
前記合流支援装置の仮想オブジェクト記憶部が、前記合流地点の位置を示す画像であり、移動体の停止位置を示す実体的な地物を模擬した表示態様の仮想合流地点オブジェクトを記憶し、
前記合流支援装置の位置情報取得部が、前記ユーザの位置を取得し、
前記合流支援装置の表示制御部が、前記ユーザの位置および前記合流地点の位置に基づいて、前記仮想合流地点オブジェクトを、前記ユーザから透明な画面を通して見える実景、または、画面に表示された前記ユーザの周囲の実景の画像における前記合流地点に対応する位置に表示し、
前記ユーザおよび前記他者のうちの片方は車両の運転者、もう片方は前記車両の乗客であり、
前記車両は、予め定められた複数の前記合流地点を廻る巡回ルートを走行し、不特定の乗客を前記合流地点で乗降させる車両であり、
前記仮想合流地点オブジェクトは、公共交通機関の停留所に設置される標識柱を模擬した画像である、
合流支援方法。
a meeting point storage unit of the meeting support device stores a meeting point between the user and the other person;
The virtual object storage unit of the merging support device stores a virtual merging point object which is an image indicating the position of the merging point and has a display mode simulating a substantial feature indicating the stop position of the moving body,
a location information acquiring unit of the joining support device acquires the location of the user;
The display control unit of the meeting support device displays the virtual meeting point object on the basis of the position of the user and the position of the meeting point. displayed at a position corresponding to the confluence point in the image of the actual scene surrounding the
one of said user and said other is a driver of a vehicle and the other is a passenger of said vehicle;
The vehicle is a vehicle that travels on a patrol route around a plurality of predetermined confluence points and allows unspecified passengers to get on and off at the confluence points,
The virtual junction object is an image simulating a signpost installed at a public transportation stop,
Merge support method.
JP2021555718A 2019-11-14 2019-11-14 Merging support device and merging support method Active JP7282199B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/044677 WO2021095198A1 (en) 2019-11-14 2019-11-14 Meetup assistance device and meetup assistance method

Publications (3)

Publication Number Publication Date
JPWO2021095198A1 JPWO2021095198A1 (en) 2021-05-20
JPWO2021095198A5 JPWO2021095198A5 (en) 2022-01-25
JP7282199B2 true JP7282199B2 (en) 2023-05-26

Family

ID=75912590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555718A Active JP7282199B2 (en) 2019-11-14 2019-11-14 Merging support device and merging support method

Country Status (2)

Country Link
JP (1) JP7282199B2 (en)
WO (1) WO2021095198A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114973736A (en) * 2022-05-30 2022-08-30 东风汽车集团股份有限公司 Remote driving monitoring system based on virtual simulation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009236844A (en) 2008-03-28 2009-10-15 Panasonic Corp Navigation device, navigation method, and navigation program
JP2018163578A (en) 2017-03-27 2018-10-18 株式会社日本総合研究所 Car pickup control server, in-vehicle terminal, control method, and control program in active car pickup system
JP2019117449A (en) 2017-12-26 2019-07-18 トヨタ自動車株式会社 Person search system
JP2019174909A (en) 2018-03-27 2019-10-10 パイオニア株式会社 Support device and support processing method
JP2019194836A (en) 2018-04-27 2019-11-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Information processing device and information processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048079A (en) * 2012-08-30 2014-03-17 Mitsubishi Electric Corp Navigation device
JP6627214B2 (en) * 2014-11-10 2020-01-08 日本精機株式会社 Information display device, control method, program, and storage medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009236844A (en) 2008-03-28 2009-10-15 Panasonic Corp Navigation device, navigation method, and navigation program
JP2018163578A (en) 2017-03-27 2018-10-18 株式会社日本総合研究所 Car pickup control server, in-vehicle terminal, control method, and control program in active car pickup system
JP2019117449A (en) 2017-12-26 2019-07-18 トヨタ自動車株式会社 Person search system
JP2019174909A (en) 2018-03-27 2019-10-10 パイオニア株式会社 Support device and support processing method
JP2019194836A (en) 2018-04-27 2019-11-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Information processing device and information processing method

Also Published As

Publication number Publication date
JPWO2021095198A1 (en) 2021-05-20
WO2021095198A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
KR102521834B1 (en) Method of providing image to vehicle, and electronic device therefor
CN109644256B (en) Vehicle-mounted video system
JP4921462B2 (en) Navigation device with camera information
JP5798392B2 (en) Parking assistance device
JP5901779B2 (en) How to move data from image database map service into assist system
US20100161207A1 (en) Mobile terminal and method for providing location-based service thereof
TW200829872A (en) Navigation device and method for displaying navigation information
US20160054137A1 (en) Navigation device with enhanced widgets and applications
WO2017145364A1 (en) Parking assistance device and parking assistance method
JP5054834B2 (en) Information processing apparatus, system, empty space guidance method, and program
JP6462123B2 (en) Vehicle image recording device
JP5955662B2 (en) Augmented reality system
JP2011102732A (en) Navigation system
US20230314156A1 (en) Information presentation method, information presentation system, and computer-readable medium
JP2015504815A (en) Driver notification method and driver notification device
JP7282199B2 (en) Merging support device and merging support method
US11358592B2 (en) In-vehicle processing apparatus and in-vehicle processing system
CN112298203B (en) Driving control device
JP5212920B2 (en) Vehicle display device
JP6424100B2 (en) NAVIGATION SYSTEM, NAVIGATION DEVICE, GLASS TYPE DEVICE, AND METHOD FOR LINKING THE DEVICE
CN110301133B (en) Information processing apparatus, information processing method, and computer-readable recording medium
JP5231595B2 (en) Navigation device
JP7369571B2 (en) Meeting place presentation system, meeting place presentation method, and dispatch server
JP6793884B2 (en) Automatic driving control device, information communication terminal, automatic driving control system and automatic driving control method
KR20080019690A (en) Navigation device with camera-info

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7282199

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150