JP2021043763A - Meeting place presentation system, meeting place presentation method, and ride-hailing server - Google Patents

Meeting place presentation system, meeting place presentation method, and ride-hailing server Download PDF

Info

Publication number
JP2021043763A
JP2021043763A JP2019165997A JP2019165997A JP2021043763A JP 2021043763 A JP2021043763 A JP 2021043763A JP 2019165997 A JP2019165997 A JP 2019165997A JP 2019165997 A JP2019165997 A JP 2019165997A JP 2021043763 A JP2021043763 A JP 2021043763A
Authority
JP
Japan
Prior art keywords
meeting place
image
user
display
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019165997A
Other languages
Japanese (ja)
Other versions
JP7369571B2 (en
Inventor
丈明 大澤
Takeaki Osawa
丈明 大澤
裕史 高田
Yasushi Takada
裕史 高田
敦 高松
Atsushi Takamatsu
敦 高松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2019165997A priority Critical patent/JP7369571B2/en
Publication of JP2021043763A publication Critical patent/JP2021043763A/en
Application granted granted Critical
Publication of JP7369571B2 publication Critical patent/JP7369571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To concretely identify a meeting place where a user meets a vehicle.SOLUTION: A place presentation system includes a user terminal 2 that accepts a ride-hailing request with which a user asks for a ride-hailing service, and a ride-hailing server 1 that acquires the ride-hailing request sent from the user terminal 2, and allocates a vehicle to a meeting place, and presents a meeting place 32 to the user who moves to the meeting place. The ride-hailing server 1 or user terminal 2 includes a position information acquisition unit 15 that acquires position information on the user terminal 2, a moving direction arithmetic unit 13 that computes the user's moving direction on the basis of at least the position information on the user terminal 2 and the meeting place 32, a display control unit 19 that controls a display 22 so that an image showing the meeting place 32 can be displayed on the display 22 included in the user terminal 2, and an imaging direction control unit 12 that varies an imaging direction 31 for the image, which is displayed on the display 22, depending on the user's moving direction.SELECTED DRAWING: Figure 1

Description

本発明は、待合せ場所提示システム、待合せ場所提示方法、及び配車サーバに関するものである。 The present invention relates to a meeting place presentation system, a meeting place presentation method, and a vehicle allocation server.

従来から、現在位置と目的地との距離が所定距離内となった状態で表示画面の配置が変更されたときに、目的地又はその周辺の詳細情報を取得して表示手段に表示させるナビゲーション装置が知られている(特許文献1参照)。このナビゲーション装置は、移動手段が自動車である場合、詳細情報として、目的地の周辺にある駐車場の名称、駐車場までの距離、駐車場の料金などを表示し、移動手段が自動車でない場合、目的の周辺にある施設の情報を提示している。 Conventionally, when the arrangement of the display screen is changed while the distance between the current position and the destination is within a predetermined distance, a navigation device that acquires detailed information on the destination or its surroundings and displays it on the display means. Is known (see Patent Document 1). This navigation device displays the name of the parking lot around the destination, the distance to the parking lot, the parking lot fee, etc. as detailed information when the means of transportation is a car, and when the means of transportation is not a car, Information on facilities around the target is presented.

国際公開第2009/151037号International Publication No. 2009/151037

しかし、特許文献1では、目的地の周辺の詳細情報の選定において、目的地へ接近するユーザの接近方向を考慮していない。このため、例えばユーザが南側から目的地へ接近している場合に、目的地の東側、北側又は西側の周辺情報を提示してしまう恐れがあり、ユーザの進行方向の景色と、周辺情報の提示内容の向きとが異なる恐れがあった。 However, Patent Document 1 does not consider the approaching direction of the user approaching the destination in the selection of detailed information around the destination. Therefore, for example, when the user is approaching the destination from the south side, there is a possibility that the surrounding information on the east side, the north side, or the west side of the destination may be presented. There was a risk that the orientation of the content would be different.

本発明は、上記のような事情に鑑み成されたものであり、ユーザが車両と待合せる待合せ場所を具体的に特定することができる待合せ場所提示システム、待合せ場所提示方法、及び配車サーバを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a meeting place presentation system, a meeting place presentation method, and a vehicle allocation server that can specifically specify a meeting place where a user meets with a vehicle. The purpose is to do.

上述の課題を解決するため、本発明の一態様に係る待合せ場所提示システムは、ユーザが車両の配車を依頼する配車リクエストを受け付けるユーザ端末と、ユーザ端末から送信された配車リクエストを取得して、待合せ場所へ車両を配車する配車サーバとを備え、待合せ場所まで移動するユーザに待合せ場所を提示する。配車サーバ又はユーザ端末は、ユーザ端末の位置情報を取得する位置情報取得部と、少なくともユーザ端末の位置情報及び待合せ場所に基づいて、ユーザの移動方向を演算する移動方向演算部と、ユーザ端末が備えるディスプレイに待合せ場所を示す画像が表示されるようにディスプレイを制御する表示制御部と、ユーザの移動方向に応じてディスプレイに表示される画像の撮影方向を変化させる撮影方向制御部とを備える。 In order to solve the above-mentioned problems, the meeting place presentation system according to one aspect of the present invention acquires a user terminal that receives a vehicle allocation request for the user to dispatch a vehicle and a vehicle allocation request transmitted from the user terminal. It is equipped with a vehicle allocation server that allocates vehicles to the meeting place, and presents the meeting place to the user who moves to the meeting place. The vehicle allocation server or the user terminal includes a position information acquisition unit that acquires the position information of the user terminal, a movement direction calculation unit that calculates the movement direction of the user based on at least the position information and the meeting place of the user terminal, and the user terminal. It includes a display control unit that controls the display so that an image indicating a meeting place is displayed on the display provided, and a shooting direction control unit that changes the shooting direction of the image displayed on the display according to the moving direction of the user.

本発明の他の一態様に係る配車サーバは、ユーザ端末から送信された、ユーザが車両の配車を依頼する配車リクエストを取得して、ユーザと車両との待合せ場所へ車両を配車する。配車サーバは、待合せ場所まで移動するユーザが保持するユーザ端末の位置情報を取得し、少なくともユーザ端末の位置情報及び待合せ場所に基づいて、ユーザの移動方向を演算し、ユーザ端末が備えるディスプレイに待合せ場所を示す画像を表示するようにユーザ端末に通知し、ユーザの移動方向に応じて画像の撮影方向を変化させる。 The vehicle allocation server according to another aspect of the present invention acquires a vehicle allocation request for which the user requests the vehicle allocation, which is transmitted from the user terminal, and allocates the vehicle to the meeting place between the user and the vehicle. The vehicle dispatch server acquires the position information of the user terminal held by the user who moves to the meeting place, calculates the moving direction of the user based on at least the position information of the user terminal and the meeting place, and waits for the display provided in the user terminal. The user terminal is notified to display an image indicating the location, and the shooting direction of the image is changed according to the moving direction of the user.

本発明によれば、ユーザの進行方向の景色と、周辺情報の提示内容の向きとを近づけることができる。 According to the present invention, it is possible to bring the scenery in the traveling direction of the user closer to the direction of the presentation content of the peripheral information.

図1は、実施形態に係る配車サーバ1とユーザ端末2とを備える待合せ場所提示システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a meeting place presentation system including a vehicle allocation server 1 and a user terminal 2 according to the embodiment. 図2は、図1の待合せ場所提示システムを用いて、待合せ場所まで移動するユーザに待合せ場所を提示する待合せ場所提示方法の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of a meeting place presenting method for presenting a meeting place to a user who moves to the meeting place by using the meeting place presenting system of FIG. 図3は、表示制御部19によりディスプレイ22に表示された、待合せ場所32を示す画像(右側半分)と待合せ場所32を示す地図(左側半分)とを示す画面の一例である。FIG. 3 is an example of a screen showing an image showing the meeting place 32 (right half) and a map showing the meeting place 32 (left half) displayed on the display 22 by the display control unit 19. 図4は、表示制御部19によりディスプレイ22に表示された、待合せ場所32を示す画像(右側半分)と待合せ場所32を示す地図(左側半分)とを示す画面の他の例である。FIG. 4 is another example of a screen showing an image showing the meeting place 32 (right half) and a map showing the meeting place 32 (left half) displayed on the display 22 by the display control unit 19. 図5は、ユーザの現在位置30から待合せ場所32の間に遮蔽物が有る為、建物の階段を移動するユーザの現在位置30から待合せ場所32を見通すことができない画像の例を示す。FIG. 5 shows an example of an image in which the meeting place 32 cannot be seen from the user's current position 30 moving on the stairs of the building because there is a shield between the user's current position 30 and the meeting place 32. 図6は、画像の視点(撮影位置)から待合せ場所32の間に遮蔽物である車両が有る為、画像に待合せ場所32を直接表示することができない画像の例を示す。FIG. 6 shows an example of an image in which the meeting place 32 cannot be directly displayed on the image because there is a vehicle that is a shield between the viewpoint (shooting position) of the image and the meeting place 32.

次に、図面を参照して、本発明の実施形態を詳細に説明する。説明において、同一のものには同一符号を付して重複説明を省略する。 Next, embodiments of the present invention will be described in detail with reference to the drawings. In the description, the same items are designated by the same reference numerals and duplicate description is omitted.

図1を参照して、実施形態に係る配車サーバ1とユーザ端末2とを備える待合せ場所提示システムの構成を説明する。待合せ場所提示システムは、ユーザが車両の配車を依頼する配車リクエストを受け付けるユーザ端末2と、ユーザ端末2から送信された配車リクエストを取得して、ユーザ又は配車サーバが設定した待合せ場所へ車両を配車する配車サーバ1とを備える。待合せ場所提示システムは、待合せ場所まで移動するユーザに待合せ場所を提示する。 The configuration of the meeting place presentation system including the vehicle allocation server 1 and the user terminal 2 according to the embodiment will be described with reference to FIG. The meeting place presentation system acquires the vehicle allocation request sent from the user terminal 2 and the user terminal 2 that receives the vehicle allocation request for the user to dispatch the vehicle, and allocates the vehicle to the meeting place set by the user or the vehicle allocation server. It is provided with a vehicle dispatch server 1. The meeting place presentation system presents the meeting place to the user who moves to the meeting place.

実施形態において、配車サーバ1は、ユーザ端末2から送信された配車リクエストを取得して、ユーザ又は配車サーバが設定した待合せ場所へ車両を配車する配車制御部6と、待合せ場所まで徒歩又は自転車で移動するユーザに車両との待合せ場所を提示する情報提示制御部3と、ユーザ端末2との通信を行う外部機器通信部7とを備える。ただし、情報提示制御部3の全体又はその一部の機能を、配車サーバ1の代わりにユーザ端末2が備えていても構わない。 In the embodiment, the vehicle allocation server 1 acquires the vehicle allocation request transmitted from the user terminal 2 and allocates the vehicle to the meeting place set by the user or the vehicle allocation server, and the vehicle allocation control unit 6 and the meeting place on foot or by bicycle. It includes an information presentation control unit 3 that presents a meeting place with the vehicle to a moving user, and an external device communication unit 7 that communicates with the user terminal 2. However, the user terminal 2 may be provided with all or a part of the functions of the information presentation control unit 3 instead of the vehicle allocation server 1.

配車制御部6及び情報提示制御部3の各々は、CPU(中央処理装置:演算部4)、メモリ、及び入出力部を備えるマイクロコンピュータを用いて実現可能である。マイクロコンピュータを配車制御部6及び情報提示制御部3として機能させるためのコンピュータプログラムを、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、配車制御部6及び情報提示制御部3が備える複数の情報処理部として機能させることができる。ここでは、ソフトウェアによって配車制御部6及び情報提示制御部3を実現する例を示すが、もちろん、各情報処理を実行するための専用のハードウェアを用意して、配車制御部6及び情報提示制御部3を構成することも可能である。専用のハードウェアには、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。また、配車制御部6と情報提示制御部3とを異なる部材として説明したが、勿論、1つの部材として構成してもよい。 Each of the vehicle allocation control unit 6 and the information presentation control unit 3 can be realized by using a microcomputer including a CPU (central processing unit: arithmetic unit 4), a memory, and an input / output unit. A computer program for operating the microcomputer as the vehicle allocation control unit 6 and the information presentation control unit 3 is installed and executed on the microcomputer. As a result, the microprocessor can function as a plurality of information processing units included in the vehicle allocation control unit 6 and the information presentation control unit 3. Here, an example in which the vehicle allocation control unit 6 and the information presentation control unit 3 are realized by software is shown, but of course, dedicated hardware for executing each information processing is prepared, and the vehicle allocation control unit 6 and the information presentation control are provided. It is also possible to form part 3. Dedicated hardware includes devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments. Further, although the vehicle allocation control unit 6 and the information presentation control unit 3 have been described as different members, of course, they may be configured as one member.

ユーザ端末2は、位置測位部10及びディスプレイ22を有し、ユーザが車両の配車を依頼する配車リクエストを受け付け、配車リクエストを配車サーバ1へ送信する。位置測位部10は、GPS衛星からの信号を受信するGPS受信機を備え、受信信号からユーザ端末2の地理座標系における現在位置を検出する。ディスプレイ22には、待合せ場所を示す画像が少なくとも表示される。ユーザ端末2は、4G又は5Gなどの移動通信システムを用いて配車リクエストを配車サーバ1へ送信する。ユーザ端末2には、例えば、携帯電話、スマートフォン、携帯情報端末(PDA)、ラップトップパソコンなどの、ユーザが保持したまま歩行することができる通信機器が含まれる。 The user terminal 2 has a positioning unit 10 and a display 22, receives a vehicle allocation request for which the user requests vehicle allocation, and transmits the vehicle allocation request to the vehicle allocation server 1. The positioning unit 10 includes a GPS receiver that receives a signal from a GPS satellite, and detects the current position of the user terminal 2 in the geographic coordinate system from the received signal. The display 22 displays at least an image showing the meeting place. The user terminal 2 transmits a vehicle allocation request to the vehicle allocation server 1 using a mobile communication system such as 4G or 5G. The user terminal 2 includes communication devices such as mobile phones, smartphones, personal digital assistants (PDAs), and laptop personal computers that can be walked while being held by the user.

配車制御部6は、外部機器通信部7を介して配車リクエストを受信し、配車リクエストに含まれる情報、例えば、ユーザが希望する乗車時刻、希望する乗車ポイント、希望する目的地などのリクエスト情報に基づいて、対応可能な車両を選定し、待合せ場所へ車両を配車する。車両には、人間が主体的に走行制御を行う手動運転車両、及び、車両が自律的に走行制御を行う自動運転車両の双方が含まれる。走行制御にはアクセル制御、ブレーキ制御、ステアリング制御などが含まれるが、自動運転車両には、これらの制御の全て又は一部を自律的に行う車両が含まれる。 The vehicle allocation control unit 6 receives the vehicle allocation request via the external device communication unit 7, and obtains information included in the vehicle allocation request, for example, request information such as a desired boarding time, a desired boarding point, and a desired destination. Based on this, select a vehicle that can handle it and dispatch the vehicle to the meeting place. Vehicles include both manually driven vehicles in which humans independently control driving and autonomous vehicles in which vehicles autonomously control driving. Travel control includes accelerator control, brake control, steering control, and the like, and autonomous driving vehicles include vehicles that autonomously perform all or part of these controls.

配車制御部6は、ユーザ端末2と同様にして、移動通信システムを用いて、配車の対象となる複数の車両と無線通信を行う。配車制御部6は、各車両の運転状況(顧客輸送中、巡回中)、現在位置、残燃料又は残電気量などの車両情報を各車両から受信し、選定した車両へ待合せ場所及び待合せ時刻などの情報を送信し、待ち合わせ場所への移動を車両に指示する。 Similar to the user terminal 2, the vehicle allocation control unit 6 wirelessly communicates with a plurality of vehicles to be allocated by using the mobile communication system. The vehicle allocation control unit 6 receives vehicle information such as the driving status of each vehicle (during customer transportation and patrol), current position, remaining fuel or remaining electricity amount from each vehicle, and the meeting place and meeting time for the selected vehicle, etc. And instruct the vehicle to move to the meeting place.

「待合せ場所」は、ユーザ又は配車制御部6が設定することができる。具体的には、配車リクエストにおいてユーザは希望する乗車ポイントを指定し、配車制御部6は、当該乗車ポイントを含む領域として乗車エリアを設定する。そして、配車制御部6は、乗車エリアにおいて停車可能な場所を探索し、検出した停車可能な場所を「待合せ場所」として設定することができる。「待合せ場所」が乗車ポイントと異なる場合、当該待合せ場所は、配車制御部6が設定したことになる。一方、配車リクエストにおける乗車ポイントがそのまま「待合せ場所」として設定される場合、当該待合せ場所はユーザが設定したことになる。なお、本実施形態において、待合せ場所の設定方法及び車両の選定方法は特に問わず、既知の方法を用いればよい。 The "meeting place" can be set by the user or the vehicle allocation control unit 6. Specifically, the user specifies a desired boarding point in the vehicle allocation request, and the vehicle allocation control unit 6 sets the boarding area as an area including the boarding point. Then, the vehicle allocation control unit 6 can search for a place where the vehicle can stop in the boarding area and set the detected place where the vehicle can stop as a "meeting place". When the "meeting place" is different from the boarding point, the meeting place is set by the vehicle allocation control unit 6. On the other hand, when the boarding point in the vehicle allocation request is set as the "meeting place" as it is, the meeting place is set by the user. In the present embodiment, the method of setting the meeting place and the method of selecting the vehicle are not particularly limited, and a known method may be used.

情報提示制御部3は、ユーザ端末2のディスプレイ22に待合せ場所を示す画像を表示することにより、ユーザに待合せ場所を提示する。情報提示制御部3は、待合せ場所に向かって移動するユーザの移動方向に応じて、前記した画像の撮影方向を制御する。具体的には、ユーザの移動方向に近づくように、前記した画像の撮影方向を変化させる。 The information presentation control unit 3 presents the meeting place to the user by displaying an image showing the meeting place on the display 22 of the user terminal 2. The information presentation control unit 3 controls the shooting direction of the image according to the moving direction of the user moving toward the meeting place. Specifically, the shooting direction of the above-mentioned image is changed so as to approach the moving direction of the user.

情報提示制御部3は、メモリ5と、演算部(CPU)4とを備えるマイクロコンピュータである。メモリ5は、目的地記憶部20と、画像記憶部21と、地理情報記憶部23とを備える。目的地記憶部20には、配車リクエストに含まれる目的地を示すデータが記憶されている。画像記憶部21には、待合せ場所を示す複数の画像が予め記憶されている。 The information presentation control unit 3 is a microcomputer including a memory 5 and a calculation unit (CPU) 4. The memory 5 includes a destination storage unit 20, an image storage unit 21, and a geographic information storage unit 23. The destination storage unit 20 stores data indicating the destination included in the vehicle allocation request. A plurality of images indicating the meeting place are stored in advance in the image storage unit 21.

地理情報記憶部23には、待合せ場所の周辺の道路の構造、地下構造、及び建物の構造を含む地理情報が記憶されている。「道路の構造」には、車道及び歩道の構造が含まれる。「地下構造」には、地下の車道及び歩道の構造が含まれる。建物の構造には、建物の外形、及び建物内部にある階段及び通路の構造が含まれる。 The geographic information storage unit 23 stores geographic information including the structure of the road, the underground structure, and the structure of the building around the meeting place. "Road structure" includes roadway and sidewalk structures. "Underground structure" includes the structure of underground roadways and sidewalks. The structure of a building includes the outer shape of the building and the structure of stairs and passages inside the building.

演算部4は、CPUにより実現される複数の具体的な情報処理部として、撮影方向制御部12と、移動方向演算部13と、視認予測部14と、位置情報取得部15と、距離演算部16と、シーン分類部17と、画像分析部18と、表示制御部19とを備える。 The calculation unit 4 includes a shooting direction control unit 12, a movement direction calculation unit 13, a visual prediction unit 14, a position information acquisition unit 15, and a distance calculation unit as a plurality of specific information processing units realized by the CPU. A scene classification unit 17, an image analysis unit 18, and a display control unit 19 are provided.

位置情報取得部15は、ユーザ端末2の位置情報を取得する。位置情報取得部15は、位置測位部10により検出されたユーザ端末2の現在位置を、外部機器通信部7を介して取得する。位置測位部10により検出されたユーザ端末2の現在位置は、ユーザの現在位置を示す。 The position information acquisition unit 15 acquires the position information of the user terminal 2. The position information acquisition unit 15 acquires the current position of the user terminal 2 detected by the position positioning unit 10 via the external device communication unit 7. The current position of the user terminal 2 detected by the positioning unit 10 indicates the current position of the user.

移動方向演算部13は、少なくともユーザ端末2の位置情報及び待合せ場所に基づいて、ユーザが待合せ場所に向けて移動する方向である移動方向を演算する。ユーザ端末2の位置情報からユーザの現在位置を特定することができる。移動方向演算部13は、ユーザの現在位置と待合せ場所を結ぶ線分、あるいは、ユーザの現在位置から待合せ場所までの徒歩での移動ルートを演算し、線分又は移動ルートから移動方向を特定する。移動方向演算部13は、さらにユーザ端末2の現在位置の時間変化を考慮して、ユーザの移動方向を演算してもよい。ユーザ端末2の現在位置の時間変化は、ユーザ端末2の位置情報から取得することができる。あるいは、ユーザ端末2が電子コンパスを備えている場合、電子コンパスが示す方角を更に考慮してユーザの移動方向を演算してもよい。 The movement direction calculation unit 13 calculates the movement direction, which is the direction in which the user moves toward the meeting place, based on at least the position information of the user terminal 2 and the meeting place. The current position of the user can be specified from the position information of the user terminal 2. The movement direction calculation unit 13 calculates a line segment connecting the user's current position and the meeting place, or a walking route from the user's current position to the meeting place, and specifies the movement direction from the line segment or the movement route. .. The movement direction calculation unit 13 may further calculate the movement direction of the user in consideration of the time change of the current position of the user terminal 2. The time change of the current position of the user terminal 2 can be obtained from the position information of the user terminal 2. Alternatively, when the user terminal 2 is provided with an electronic compass, the moving direction of the user may be calculated in consideration of the direction indicated by the electronic compass.

表示制御部19は、ユーザ端末2が備えるディスプレイ22に待合せ場所を示す画像が表示されるようにディスプレイ22を制御する。以後、待合せ場所を示す画像を「特徴画像」と呼ぶ場合がある。 The display control unit 19 controls the display 22 so that an image indicating the meeting place is displayed on the display 22 included in the user terminal 2. Hereinafter, the image showing the meeting place may be referred to as a "feature image".

具体的に、表示制御部19は、ディスプレイ22に特徴画像を表示するようにユーザ端末2へ通知する。当該通知を受領したユーザ端末2は、ディスプレイ22に特徴画像が表示されるようにディスプレイ22を制御する。すなわち、配車サーバ1の表示制御部19は、待合せ場所を示す画像が表示されるように、遠隔から無線通信を介して、ユーザ端末2のディスプレイ22を制御する。配車サーバ1に表示制御機能を持たせることにより、ユーザ端末2の演算処理能力を低く抑えることができる。 Specifically, the display control unit 19 notifies the user terminal 2 to display the feature image on the display 22. The user terminal 2 that has received the notification controls the display 22 so that the feature image is displayed on the display 22. That is, the display control unit 19 of the vehicle allocation server 1 remotely controls the display 22 of the user terminal 2 via wireless communication so that an image indicating the meeting place is displayed. By providing the vehicle allocation server 1 with a display control function, the arithmetic processing capacity of the user terminal 2 can be suppressed to a low level.

配車サーバ1は、ディスプレイ22に表示される特徴画像のデータをユーザ端末2へ送信してもよい。この場合、ユーザ端末2には、予め画像データは格納されておらず、配車サーバ1の画像記憶部21に記憶された画像データが、配車サーバ1からユーザ端末2に送信され、ディスプレイ22に表示される。ユーザ端末2内の記憶装置に画像データを予め記憶する必要がなくなり、ユーザ端末2のメモリ容量を軽減することができる。あるいは、画像記憶部21に記憶された画像データの代わりに、路上に設置された監視カメラが撮影する画像を利用することも可能である。この場合、監視カメラからユーザ端末2へ直接、又は配車サーバ1を介して間接的に、監視カメラの画像データが送信される。これにより、今現在の画像をユーザに提示することができるので、ユーザはより具体的に待ち合わせ場所を特定することができる。 The vehicle dispatch server 1 may transmit the data of the feature image displayed on the display 22 to the user terminal 2. In this case, the image data is not stored in the user terminal 2 in advance, and the image data stored in the image storage unit 21 of the vehicle allocation server 1 is transmitted from the vehicle allocation server 1 to the user terminal 2 and displayed on the display 22. Will be done. It is not necessary to store the image data in the storage device in the user terminal 2 in advance, and the memory capacity of the user terminal 2 can be reduced. Alternatively, instead of the image data stored in the image storage unit 21, an image taken by a surveillance camera installed on the road can be used. In this case, the image data of the surveillance camera is transmitted directly from the surveillance camera to the user terminal 2 or indirectly via the vehicle allocation server 1. As a result, the current image can be presented to the user, so that the user can more specifically specify the meeting place.

撮影方向制御部12は、移動方向演算部13により演算されたユーザの移動方向に応じてディスプレイ22に表示される画像の撮影方向を変化させる。具体的には、撮影方向制御部12は、画像の撮影方向がユーザの移動方向に近づくように、画像の撮影方向を変化させる。これにより、ユーザが目的地に近づく方向に近い視点の画像を表示することができるので、ユーザは、表示された特徴画像から、待合せ場所を具体的に特定することができる。 The shooting direction control unit 12 changes the shooting direction of the image displayed on the display 22 according to the movement direction of the user calculated by the movement direction calculation unit 13. Specifically, the shooting direction control unit 12 changes the shooting direction of the image so that the shooting direction of the image approaches the moving direction of the user. As a result, the image of the viewpoint close to the direction in which the user approaches the destination can be displayed, so that the user can specifically specify the meeting place from the displayed feature image.

例えば、情報提示制御部3は、同じ待合せ場所を示し且つ撮影方向が異なる複数の画像を予め用意し、撮影方向制御部12は、撮影方向がユーザの移動方向に最も近い画像を選択してディスプレイ22に表示することができる。 For example, the information presentation control unit 3 prepares in advance a plurality of images indicating the same meeting place and different shooting directions, and the shooting direction control unit 12 selects and displays an image whose shooting direction is closest to the moving direction of the user. It can be displayed on 22.

なお、ユーザの移動途中にユーザの移動方向が変化した場合、撮影方向制御部12は、移動方向の変化に応じて、画像の撮影方向を変化させる。換言すれば、予め準備した複数の画像の中からディスプレイ22に表示する画像を、ユーザの移動方向の時間変化に応じて切り替える。これにより、ユーザの移動途中におけるユーザの移動方向の変化に応じて、適時に特徴画像を変化させることができる。 When the moving direction of the user changes during the movement of the user, the shooting direction control unit 12 changes the shooting direction of the image according to the change of the moving direction. In other words, the image to be displayed on the display 22 is switched from the plurality of images prepared in advance according to the time change in the moving direction of the user. As a result, the feature image can be changed in a timely manner according to the change in the moving direction of the user during the movement of the user.

図3及び図4は、表示制御部19によりディスプレイ22に表示された、待合せ場所32を示す画像(右側半分)及び待合せ場所32を示す地図(左側半分)の例を示す。表示制御部19は、待合せ場所32を示す画像と同時に、待合せ場所32を示す地図をディスプレイ22に表示させてもよい。 3 and 4 show an example of an image showing the meeting place 32 (right half) and a map showing the meeting place 32 (left half) displayed on the display 22 by the display control unit 19. The display control unit 19 may display a map showing the meeting place 32 on the display 22 at the same time as the image showing the meeting place 32.

移動方向演算部13は、少なくともユーザの現在位置30と待合せ場所32とからユーザの移動方向を特定する。撮影方向制御部12は、画像の撮影方向31がユーザの移動方向に近づくように、画像の撮影方向を変化させる。これにより、ユーザが目的地に近づく方向に近い視点の画像を表示することができるので、ユーザは、表示された特徴画像から、待合せ場所を具体的に特定することができる。例えば、画像記憶部21に、待合せ場所32の複数視点画像のデータを予め格納しておく。情報提示制御部3が、待合せ場所32の複数視点画像のデータをユーザ端末へ送信し、撮影方向制御部12が、無線通信を介してディスプレイ22に表示される複数視点画像の視点を制御してもよい。 The movement direction calculation unit 13 specifies the movement direction of the user from at least the current position 30 of the user and the meeting place 32. The shooting direction control unit 12 changes the shooting direction of the image so that the shooting direction 31 of the image approaches the moving direction of the user. As a result, the image of the viewpoint close to the direction in which the user approaches the destination can be displayed, so that the user can specifically specify the meeting place from the displayed feature image. For example, the image storage unit 21 stores in advance the data of the multi-viewpoint image of the meeting place 32. The information presentation control unit 3 transmits the data of the multi-viewpoint image of the meeting place 32 to the user terminal, and the shooting direction control unit 12 controls the viewpoint of the multi-viewpoint image displayed on the display 22 via wireless communication. May be good.

図3に示すように、ユーザの現在位置30が北側から待合せ場所32へ接近している場合、撮影方向制御部12は、撮像位置が待合せ場所32の北側に位置する画像を選択してディスプレイ22に表示する。あるいは、撮影方向制御部12は、ディスプレイ22に表示された複数視点画像の視点が待合せ場所32の北側に位置するように、複数視点画像の視点を制御してもよい。 As shown in FIG. 3, when the user's current position 30 is approaching the meeting place 32 from the north side, the shooting direction control unit 12 selects an image whose imaging position is located on the north side of the meeting place 32 and displays 22. Display on. Alternatively, the shooting direction control unit 12 may control the viewpoint of the multi-viewpoint image so that the viewpoint of the multi-viewpoint image displayed on the display 22 is located on the north side of the meeting place 32.

一方、図4に示すように、ユーザの現在位置30が南西側から待合せ場所32へ接近している場合、撮影方向制御部12は、撮像位置が待合せ場所32の南西側に位置する画像を選択してディスプレイ22に表示する。複数視点画像の視点が待合せ場所32の南西側に位置するように、複数視点画像の視点を制御してもよい。 On the other hand, as shown in FIG. 4, when the user's current position 30 is approaching the meeting place 32 from the southwest side, the shooting direction control unit 12 selects an image whose imaging position is located on the southwest side of the meeting place 32. Then, it is displayed on the display 22. The viewpoint of the multi-view image may be controlled so that the viewpoint of the multi-view image is located on the southwest side of the meeting place 32.

図3及び図4のいずれの画像にも、同じ待合せ場所32が含まれているが、画像の視点の向き、即ち画像の撮影方向が異なる。画像の撮影方向を待合せ場所32に接近するユーザの移動方向に近づけることにより、ユーザは、表示された画像に近い風景を見ることができるので、待合せ場所32を具体的に特定することができる。撮影方向に加えて画像の撮影位置をユーザの現在位置に近づけてもよい。これにより、ユーザは、画像の画角及び画像に写る対象物までの距離感を考慮して、更に具体的に待合せ場所32を特定することができる。 The same meeting place 32 is included in both the images of FIGS. 3 and 4, but the direction of the viewpoint of the image, that is, the shooting direction of the image is different. By bringing the shooting direction of the image closer to the moving direction of the user approaching the meeting place 32, the user can see the scenery close to the displayed image, so that the meeting place 32 can be specifically specified. In addition to the shooting direction, the shooting position of the image may be brought closer to the user's current position. As a result, the user can more specifically specify the meeting place 32 in consideration of the angle of view of the image and the sense of distance to the object reflected in the image.

表示制御部19は、図3及び図4に示すように、ディスプレイ22に表示される画像に含まれる特徴箇所33a、33bを強調表示してもよい。「特徴箇所」とは、画像に写る看板、路面表示、イルミネーション(電飾)など、待合せ場所32に向けて移動するユーザが見つけやすいマーク又は目印を示す。待合せ場所32に向けて移動するユーザは、特徴箇所33a、33bを探しながら移動することで、待合せ場所32を容易に到達することができる。図3及び図4に示す特徴画像の例では、特徴画像に含まれる看板(特徴箇所の一例)を太枠で囲むことにより強調表示している。これ以外にも、看板の全体又は一部の輝度を高める、又は輝度を周期的に変化させる等の手法により、強調表示してもよい。 As shown in FIGS. 3 and 4, the display control unit 19 may highlight the feature portions 33a and 33b included in the image displayed on the display 22. The "feature location" indicates a mark or mark that is easy for a user moving toward the meeting place 32, such as a signboard, a road surface marking, or an illumination (illumination) shown in an image. A user who moves toward the meeting place 32 can easily reach the meeting place 32 by moving while searching for the feature points 33a and 33b. In the example of the feature image shown in FIGS. 3 and 4, the signboard (an example of the feature portion) included in the feature image is highlighted by surrounding it with a thick frame. In addition to this, highlighting may be performed by a method such as increasing the brightness of all or part of the signboard or changing the brightness periodically.

なお、画像記憶部21には、1つの待合せ場所32を示す複数の画像を記憶されている。1つの待合せ場所32を示す複数の画像の中には、異なる特徴箇所を示す複数の画像が含まれ、且つ、1つの待合せ場所32及び1つの特徴箇所を異なる撮影方向から撮影した複数の画像が含まれる。これにより、特定の待合せ場所又は特定の特徴箇所を示す複数の画像の中から、ユーザの移動方向に応じた画像を選択することができる。例えば、画像記憶部21には、1つの待合せ場所32を示す2つの画像(図3及び図4)が記憶されている。図3及び図4には、異なる特徴箇所33a、33bが含まれている。図示は省略するが、複数の画像の中には、同じ待合せ場所32及び同じ特徴箇所(33a又は33b)を異なる撮影方向から撮影した複数の画像が含まれている。なお、図3及び図4は、同じ待合せ場所32を異なる撮影方向から撮影した複数の画像の例でもある。 The image storage unit 21 stores a plurality of images indicating one meeting place 32. The plurality of images showing one meeting place 32 include a plurality of images showing different feature points, and a plurality of images of one meeting place 32 and one feature point taken from different shooting directions. included. As a result, it is possible to select an image according to the moving direction of the user from a plurality of images showing a specific meeting place or a specific feature place. For example, the image storage unit 21 stores two images (FIGS. 3 and 4) showing one meeting place 32. 3 and 4 include different feature locations 33a and 33b. Although not shown, the plurality of images include a plurality of images obtained by capturing the same meeting place 32 and the same feature location (33a or 33b) from different shooting directions. Note that FIGS. 3 and 4 are examples of a plurality of images taken from the same meeting place 32 from different shooting directions.

演算部4は、少なくともユーザの位置情報(ユーザの現在位置)30、待合せ場所32、及び待合せ場所32の地理情報に基づいて、ユーザの現在位置から特徴箇所33を視認することができるか否かを予測する視認予測部14を更に備えていてもよい。視認予測部14が、所定時間後に、ユーザの現在位置30から特徴箇所33を視認することができると予測した時に、表示制御部19は、ディスプレイ22に待合せ場所32を示す画像が表示されるようにディスプレイ22を制御する。これにより、見通しを加味して画像を表示するタイミングを決めるので、実際に見える景色と画像を照合して待合せ場所32を特定することが容易になる。 Whether or not the calculation unit 4 can visually recognize the feature location 33 from the user's current position based on at least the user's position information (user's current position) 30, the meeting place 32, and the geographic information of the meeting place 32. The visual prediction unit 14 for predicting the above may be further provided. When the visual prediction unit 14 predicts that the feature location 33 can be visually recognized from the user's current position 30 after a predetermined time, the display control unit 19 displays an image showing the meeting location 32 on the display 22. Controls the display 22. As a result, since the timing of displaying the image is determined in consideration of the line-of-sight, it becomes easy to identify the meeting place 32 by collating the actually visible scenery with the image.

具体的に、視認予測部14は、ユーザの現在位置30と待合せ場所32の周囲の建物の構造とからユーザの現在位置30から特徴箇所33を見通すことができるか否かを判断する。視認予測部14は、ユーザの現在位置30及び待合せ場所32の周囲の建物の構造から、ユーザの視認範囲を特定する。視認予測部14は、地図上におけるユーザの視認範囲の時間変化から、所定時間後に、特徴箇所33が視認範囲に含まれるであろうことを予測することができる。 Specifically, the visual prediction unit 14 determines whether or not the feature portion 33 can be seen from the user's current position 30 from the user's current position 30 and the structure of the building around the meeting place 32. The visual prediction unit 14 identifies the user's visual range from the structure of the building around the user's current position 30 and the meeting place 32. The visual prediction unit 14 can predict that the feature portion 33 will be included in the visual range after a predetermined time from the time change of the user's visual range on the map.

建物の構造は二次元の構造に限らず、三次元の構造が含まれる。例えば、建物内部の階段の構造を考慮して、三次元のユーザの視認範囲を特定し、その時間変化から特徴箇所33を見通すことが可能となるタイミングを特定することができる。 The structure of a building is not limited to a two-dimensional structure, but includes a three-dimensional structure. For example, in consideration of the structure of the stairs inside the building, the three-dimensional user's visual range can be specified, and the timing at which the feature portion 33 can be seen from the time change can be specified.

演算部4は、視認予測部14の代わりに、あるいは視認予測部14に加えて、ユーザの現在位置から待合せ場所32までの距離を演算する距離演算部16を備えていてもよい。ユーザが待合せ場所32へ近づき、距離演算部16が演算する距離が所定の基準値以下になったときに、表示制御部19は、ディスプレイ22に待合せ場所32を示す画像が表示されるようにディスプレイ22を制御する。これにより、ユーザの現在位置から待合せ場所32までの距離を加味して画像を表示するタイミングを決めるので、実際に見える景色と画像を照合して待合せ場所32を特定することが容易になる。 The calculation unit 4 may include a distance calculation unit 16 that calculates the distance from the user's current position to the meeting place 32 in place of the visual prediction unit 14 or in addition to the visual prediction unit 14. When the user approaches the meeting place 32 and the distance calculated by the distance calculation unit 16 becomes equal to or less than a predetermined reference value, the display control unit 19 displays an image showing the meeting place 32 on the display 22. 22 is controlled. As a result, since the timing of displaying the image is determined in consideration of the distance from the user's current position to the meeting place 32, it becomes easy to identify the meeting place 32 by collating the actually visible scenery with the image.

実施形態に係る演算部4は、季節、時間帯、及び気象条件の少なくとも1つに応じて、特徴箇所及び画像を選択するシーン分類部17を更に備えていてもよい。例えば、季節に応じて街路樹の枝や葉の量が異なるため、看板などの特徴箇所が街路樹で覆われて見えなくなる季節がある。また、イルミネーション(電飾)は、夜間では目立つが昼間は目立たないため、時間帯に応じて特徴箇所となるか否かが変化する。更に、積雪、降雪、降水などの気象条件によって、ユーザから視認し難くなる、又は視認不可能となる特徴箇所も存在する。 The calculation unit 4 according to the embodiment may further include a scene classification unit 17 that selects a feature location and an image according to at least one of a season, a time zone, and a weather condition. For example, since the amount of branches and leaves of roadside trees varies depending on the season, there are seasons when characteristic parts such as signboards are covered with roadside trees and cannot be seen. In addition, since the illumination (illumination) is conspicuous at night but not in the daytime, whether or not it becomes a characteristic part changes depending on the time zone. Further, there are some characteristic points that are difficult or invisible to the user due to weather conditions such as snow cover, snowfall, and precipitation.

例えば、シーン分類部17は、撮影時の季節、時間帯、及び気象条件の少なくとも1つが、現在の季節、時間帯、及び気象条件と一致する画像、又は当該画像に含まれる特徴箇所を選択する。これにより、実際にユーザが視認することができる風景又は特徴箇所を選択することができる。また、シーン分類部17は、撮影時の季節、時間帯、及び気象条件に応じて、実際にユーザが視認することができる特徴箇所を選定する。表示制御部19は、選定した特徴箇所33を示す画像が表示されるようにディスプレイ22を制御する。 For example, the scene classification unit 17 selects an image in which at least one of the season, time zone, and weather condition at the time of shooting matches the current season, time zone, and weather condition, or a feature portion included in the image. .. As a result, it is possible to select a landscape or a featured portion that can be actually visually recognized by the user. Further, the scene classification unit 17 selects a feature portion that can be actually visually recognized by the user according to the season, time zone, and weather condition at the time of shooting. The display control unit 19 controls the display 22 so that an image showing the selected feature portion 33 is displayed.

表示制御部19は、図3及び図4に示すように、ディスプレイ22に画像と、待合せ場所32を示す地図とが表示されるようにディスプレイ22を制御しても構わない。すなわち、表示制御部19は、ディスプレイ22に画像のみを表示するように制御してもよいし、あるいは画像と地図とを同時にディスプレイ22に表示されるように制御しても構わない。または、ユーザが表示する形式(画像のみ/画像+地図)を自由に選択できるようにしてもよい。 As shown in FIGS. 3 and 4, the display control unit 19 may control the display 22 so that the image and the map showing the meeting place 32 are displayed on the display 22. That is, the display control unit 19 may control so that only the image is displayed on the display 22, or the image and the map may be controlled so as to be displayed on the display 22 at the same time. Alternatively, the user may be able to freely select the format to be displayed (image only / image + map).

画像と地図とを同時に表示する場合、表示制御部19は、地図に、少なくとも、画像の撮影方向31、ユーザの現在位置30、待合せ場所32、及び画像に含まれる特徴箇所33a、33bを示す第1マークを付加し、そして、画像に、少なくとも、特徴箇所33a、33b及び待合せ場所32を示す第2マークを付加する。これにより、表示制御部19は、画像と地図とを照合することができる。換言すれば、表示制御部19は、画像と地図とを同時に表示して、画像及び地図における待合せ場所32、及び画像に含まれる特徴箇所33a、33bとを対応付ける。あるいは、表示制御部19は、地図に示された待合せ場所32に対するユーザの現在位置30及び画像の撮影方向31の位置関係から、ユーザが実際に視認する風景と、地図と同時に表示された画像とを容易に照合することができる。 When the image and the map are displayed at the same time, the display control unit 19 indicates at least the shooting direction 31 of the image, the user's current position 30, the meeting place 32, and the feature points 33a and 33b included in the image on the map. One mark is added, and at least a second mark indicating the feature points 33a and 33b and the meeting place 32 is added to the image. As a result, the display control unit 19 can collate the image with the map. In other words, the display control unit 19 simultaneously displays the image and the map, and associates the image with the meeting place 32 on the map and the feature points 33a and 33b included in the image. Alternatively, the display control unit 19 sets the landscape actually viewed by the user and the image displayed at the same time as the map based on the positional relationship between the user's current position 30 and the image shooting direction 31 with respect to the meeting place 32 shown on the map. Can be easily collated.

表示制御部19は、図3及び図4に示すように、地図及び画像に、画像の撮影方向31、ユーザの現在位置30、待合せ場所32、及び特徴箇所33a、33bの各々に固有の記号を用いた第1マーク及び第2マークをそれぞれ付加することができる。ユーザは、地図及び画面上で、画像の撮影方向31、ユーザの現在位置30、待合せ場所32、及び特徴箇所33a、33bの位置関係を容易に識別することができる。 As shown in FIGS. 3 and 4, the display control unit 19 adds symbols unique to each of the image shooting direction 31, the user's current position 30, the meeting place 32, and the feature points 33a and 33b on the map and the image. The first mark and the second mark used can be added respectively. The user can easily identify the positional relationship between the image shooting direction 31, the user's current position 30, the meeting place 32, and the feature points 33a and 33b on the map and the screen.

表示制御部19は、図3及び図4に示すように、地図及び画像に、画像の撮影方向31、ユーザの現在位置30、待合せ場所32、及び特徴箇所33a、33bの各々に固有の図形を用いた第1マーク及び第2マークをそれぞれ付加してもよい。画像の撮影方向31、ユーザの現在位置30は、円の中に矢印を配置した固有の図形を用いて表現している。これにより、画像の撮影位置とユーザの現在位置30を示すと同時に、画像の撮影方向31とユーザの移動方向を示すことができる。一方、待合せ場所32の上方にランドマーク(図形)を付すことにより、ユーザが待合せ場所32を見つけ易くなる。特徴箇所33a、33bを方形状の枠(図形)で囲むことで、ユーザが見つけ易くなる。 As shown in FIGS. 3 and 4, the display control unit 19 displays a figure unique to each of the image shooting direction 31, the user's current position 30, the meeting place 32, and the feature points 33a and 33b on the map and the image. The first mark and the second mark used may be added respectively. The shooting direction 31 of the image and the current position 30 of the user are represented by using a unique figure in which an arrow is arranged in a circle. As a result, the shooting position of the image and the current position 30 of the user can be shown, and at the same time, the shooting direction 31 of the image and the moving direction of the user can be shown. On the other hand, by attaching a landmark (figure) above the meeting place 32, the user can easily find the meeting place 32. By surrounding the feature points 33a and 33b with a square frame (figure), the user can easily find them.

表示制御部19は、地図及び画像に、画像の撮影方向31、ユーザの現在位置30、待合せ場所32、及び特徴箇所33a、33bの各々に固有の色彩を用いた第1マーク及び第2マークをそれぞれ付加してもよい。ユーザは、地図及び画面上で、画像の撮影方向31、ユーザの現在位置30、待合せ場所32、及び特徴箇所33a、33bの位置関係を容易に識別することができる。 The display control unit 19 puts the first mark and the second mark on the map and the image using colors unique to each of the image shooting direction 31, the user's current position 30, the meeting place 32, and the feature points 33a and 33b. Each may be added. The user can easily identify the positional relationship between the image shooting direction 31, the user's current position 30, the meeting place 32, and the feature points 33a and 33b on the map and the screen.

視認予測部14は、ユーザの現在位置から特徴箇所33a、33bを視認することができるか否かを予測する代わりに、ユーザの現在位置から待合せ場所32を視認することができるか否かを予測しても構わない。すなわち、視認予測部14は、少なくともユーザの位置情報(ユーザの現在位置30)、待合せ場所32、及び待合せ場所32の地理情報に基づいて、ユーザの現在位置から待合せ場所32を視認することができるか否かを予測してもよい。あるいは、視認予測部14は、ユーザの現在位置から特徴箇所33a、33bを視認することができるか否か、及び、ユーザの現在位置から待合せ場所32を視認することができるか否かを同時に予測してもよい。 The visual prediction unit 14 predicts whether or not the meeting place 32 can be visually recognized from the user's current position, instead of predicting whether or not the feature locations 33a and 33b can be visually recognized from the user's current position. You may. That is, the visual prediction unit 14 can visually recognize the meeting place 32 from the user's current position based on at least the user's position information (user's current position 30), the meeting place 32, and the geographic information of the meeting place 32. You may predict whether or not. Alternatively, the visual prediction unit 14 simultaneously predicts whether or not the feature points 33a and 33b can be visually recognized from the user's current position and whether or not the meeting place 32 can be visually recognized from the user's current position. You may.

表示制御部19は、視認予測部14がユーザの現在位置30から待合せ場所32を視認することができないと予測した場合、画像に、待合せ場所32を間接的に示す第3マークを付加する。 When the display control unit 19 predicts that the visual prediction unit 14 cannot visually recognize the meeting place 32 from the user's current position 30, the display control unit 19 adds a third mark indirectly indicating the meeting place 32 to the image.

具体的に、視認予測部14は、ユーザの現在位置30と待合せ場所32の周囲の建物の構造からユーザの現在位置30から待合せ場所32を見通すことができるか否かを判断する。ユーザの現在位置30及び待合せ場所32の周囲の建物の構造からのユーザの視認範囲を特定することができる。視認予測部14は、地図上におけるユーザの視認範囲に、待合せ場所32が含まれるか否かを判断する。視認範囲に待合せ場所32が含まれれば、ユーザの現在位置30から待合せ場所32を見通すことができる。建物の構造は二次元の構造に限らず、三次元の構造が含まれる。例えば、建物の内部の階段の構造を考慮して、三次元のユーザの視認範囲を特定し、三次元のユーザの視認範囲に特徴箇所33が含まれるか否かを判断してもよい。 Specifically, the visual prediction unit 14 determines whether or not the meeting place 32 can be seen from the user's current position 30 from the structure of the building around the user's current position 30 and the meeting place 32. It is possible to specify the user's visual range from the structure of the building around the user's current position 30 and the meeting place 32. The visual prediction unit 14 determines whether or not the meeting place 32 is included in the user's visual range on the map. If the meeting place 32 is included in the viewing range, the meeting place 32 can be seen from the user's current position 30. The structure of a building is not limited to a two-dimensional structure, but includes a three-dimensional structure. For example, in consideration of the structure of the stairs inside the building, the viewing range of the three-dimensional user may be specified, and it may be determined whether or not the feature portion 33 is included in the viewing range of the three-dimensional user.

例えば、視認予測部14は、建物の階段の構造を考慮することにより、図5に示すように、建物の階段を移動するユーザの現在位置30から待合せ場所32を見通すことができないと判断することができる。図5に示す例では、ユーザの現在位置30から待合せ場所32までの間に遮蔽物が有る為、直接視認することができない。この場合、表示制御部19は、遮蔽物を回り込んだ先に待合せ場所32があることを示す矢印34を画像に付する。遮蔽物を回り込んだ先に待合せ場所32があることを示す矢印34は、待合せ場所32を間接的に示す第3マークの一例である。なお、図5に示す画像には、遮蔽物上の特徴箇所33が強調表示されている。遮蔽物上の特徴箇所33と矢印34との組み合わせから、特徴箇所33の背後に待合せ場所32があることを、分かり易く示すことができる。 For example, the visual prediction unit 14 determines that the meeting place 32 cannot be seen from the current position 30 of the user moving the stairs of the building, as shown in FIG. 5, by considering the structure of the stairs of the building. Can be done. In the example shown in FIG. 5, since there is a shield between the user's current position 30 and the meeting place 32, it cannot be directly visually recognized. In this case, the display control unit 19 attaches an arrow 34 to the image indicating that there is a meeting place 32 ahead of the shield. The arrow 34 indicating that the meeting place 32 is located ahead of the shield is an example of the third mark indirectly indicating the meeting place 32. In the image shown in FIG. 5, the feature portion 33 on the shield is highlighted. From the combination of the feature portion 33 and the arrow 34 on the shield, it can be clearly shown that the meeting place 32 is behind the feature portion 33.

演算部4は、画像に待合せ場所32が直接表示されているか否かを判断する画像分析部18を更に備えていてもよい。建物や道路の構造上、画像の撮影位置から待合せ場所32を見通すことができる場合であっても、画像を撮影した時に、車両、人間などの移動体が待合せ場所32を遮蔽してしまうことがある。このように、待合せ場所32画像に表示されているか否かを判断する必要がある。画像分析部18は、画像を分析することにより画像内に待合せ場所32が直接表示されているか否かを判断する。 The calculation unit 4 may further include an image analysis unit 18 for determining whether or not the meeting place 32 is directly displayed on the image. Even if the meeting place 32 can be seen from the image shooting position due to the structure of the building or road, moving objects such as vehicles and humans may block the meeting place 32 when the image is taken. is there. In this way, it is necessary to determine whether or not the image is displayed in the meeting place 32 image. The image analysis unit 18 analyzes the image to determine whether or not the meeting place 32 is directly displayed in the image.

例えば、画像分析部18は、地図上の画像の撮影位置及び撮影方向、及び待合せ場所32の位置から、待合せ場所32が写ることが予定される画像内の位置(座標)を特定する。そして、予め用意した待合せ場所32のテンプレート画像を用いてテンプレートマッチングを行い、待合せ場所32のテンプレート画像に類似する部分が、当該画像内の位置にあるか否かを判断すればよい。テンプレート画像に類似する部分が、当該画像内の位置にある場合、画像分析部18は、画像に待合せ場所32が直接表示されていると判断する。 For example, the image analysis unit 18 specifies the position (coordinates) in the image in which the meeting place 32 is expected to be captured from the shooting position and shooting direction of the image on the map and the position of the meeting place 32. Then, template matching may be performed using the template image of the meeting place 32 prepared in advance, and it may be determined whether or not a portion similar to the template image of the meeting place 32 is located in the image. When a portion similar to the template image is located at a position in the image, the image analysis unit 18 determines that the meeting place 32 is directly displayed on the image.

画像分析部18が画像に待合せ場所を直接表示されていないと判断した場合、表示制御部19は、画像に、待合せ場所32を間接的に示す第3マークを付加する。 When the image analysis unit 18 determines that the meeting place is not directly displayed on the image, the display control unit 19 adds a third mark indirectly indicating the meeting place 32 to the image.

例えば、図6に示すように、画像に移り込んだ車両が待合せ場所32を遮蔽している場合、画像分析部18は、待合せ場所32のテンプレート画像に類似する部分が画像内に無いため、画像に待合せ場所32が直接表示されていないと判断する。図6では、画像の視点(撮影位置)から待合せ場所32の間に遮蔽物である車両が有る為、画像に待合せ場所32を直接表示することができない。この場合、表示制御部19は、車両を回り込んだ先に待合せ場所32があることを示す矢印34を画像に付する。車両を回り込んだ先に待合せ場所32があることを示す矢印34は、待合せ場所32を間接的に示す第3マークの一例である。なお、図6に示す画像には特徴箇所33が強調表示されている。特徴箇所33と矢印34との組み合わせから、特徴箇所33の背後に待合せ場所32があることを、間接的に示すことができる。 For example, as shown in FIG. 6, when the vehicle transferred to the image shields the meeting place 32, the image analysis unit 18 does not have a portion similar to the template image of the meeting place 32 in the image, so that the image It is determined that the meeting place 32 is not directly displayed. In FIG. 6, since there is a vehicle that is a shield between the viewpoint (shooting position) of the image and the meeting place 32, the meeting place 32 cannot be directly displayed on the image. In this case, the display control unit 19 attaches an arrow 34 to the image indicating that the meeting place 32 is located ahead of the vehicle. The arrow 34 indicating that the meeting place 32 is located ahead of the vehicle is an example of the third mark indirectly indicating the meeting place 32. The feature portion 33 is highlighted in the image shown in FIG. From the combination of the feature portion 33 and the arrow 34, it can be indirectly indicated that the meeting place 32 is behind the feature portion 33.

図2を参照して、図1の待合せ場所提示システムを用いて、待合せ場所まで移動するユーザに待合せ場所を提示する待合せ場所提示方法の一例を説明する。 An example of a meeting place presenting method for presenting a meeting place to a user who moves to the meeting place will be described with reference to FIG. 2. Using the meeting place presenting system of FIG.

ステップS01において、位置情報取得部15は、ユーザ端末2の位置情報を取得する。位置情報取得部15は、位置測位部10により検出されたユーザ端末2の現在位置を、外部機器通信部7を介して取得する。 In step S01, the position information acquisition unit 15 acquires the position information of the user terminal 2. The position information acquisition unit 15 acquires the current position of the user terminal 2 detected by the position positioning unit 10 via the external device communication unit 7.

ステップS02に進み、移動方向演算部13は、少なくともユーザ端末2の位置情報及び待合せ場所に基づいて、ユーザの移動方向を演算する。移動方向演算部13は、ユーザの現在位置と待合せ場所を結ぶ線分、あるいは、ユーザの現在位置から待合せ場所までの徒歩での移動ルートを演算し、線分又は移動ルートから移動方向を特定する。移動方向演算部13は、さらにユーザ端末2の現在位置の時間変化を考慮して、ユーザの移動方向を演算してもよい。ユーザ端末2の現在位置の時間変化は、ユーザ端末2の位置情報から取得することができる。あるいは、ユーザ端末2が電子コンパスを備えている場合、電子コンパスが示す方角を更に考慮してユーザの移動方向を演算してもよい。 Proceeding to step S02, the movement direction calculation unit 13 calculates the movement direction of the user based on at least the position information of the user terminal 2 and the meeting place. The movement direction calculation unit 13 calculates a line segment connecting the user's current position and the meeting place, or a walking route from the user's current position to the meeting place, and specifies the movement direction from the line segment or the movement route. .. The movement direction calculation unit 13 may further calculate the movement direction of the user in consideration of the time change of the current position of the user terminal 2. The time change of the current position of the user terminal 2 can be obtained from the position information of the user terminal 2. Alternatively, when the user terminal 2 is provided with an electronic compass, the moving direction of the user may be calculated in consideration of the direction indicated by the electronic compass.

ステップS03に進み、情報提示制御部3は、同じ待合せ場所を示し且つ撮影方向が異なる複数の画像を予め用意し、撮影方向制御部12は、撮影方向がユーザの移動方向に最も近い画像を選択する。そして、表示制御部19は、図3及び図4に示すように、ディスプレイ22に表示される画像に含まれる特徴箇所33a、33bを強調表示する。待合せ場所32に向けて移動するユーザは、特徴箇所33a、33bを探しながら移動することで、待合せ場所32を容易に到達することができる。強調表示の方法は特に問わない。例えば、看板の全体又は一部の輝度を高める、又は輝度を周期的に変化させる等の手法により、強調表示してもよい。 Proceeding to step S03, the information presentation control unit 3 prepares in advance a plurality of images indicating the same meeting place and different shooting directions, and the shooting direction control unit 12 selects an image whose shooting direction is closest to the moving direction of the user. To do. Then, as shown in FIGS. 3 and 4, the display control unit 19 highlights the feature portions 33a and 33b included in the image displayed on the display 22. A user who moves toward the meeting place 32 can easily reach the meeting place 32 by moving while searching for the feature points 33a and 33b. The highlighting method is not particularly limited. For example, highlighting may be performed by a method such as increasing the brightness of the whole or a part of the signboard or changing the brightness periodically.

ステップS03において、表示制御部19は、視認予測部14がユーザの現在位置30から待合せ場所32を視認することができないと予測した場合、画像に、待合せ場所32を間接的に示す第3マークを付加する。あるいは、表示制御部19は、画像分析部18が画像に待合せ場所を直接表示されていないと判断した場合、画像に、待合せ場所32を間接的に示す第3マークを付加してもよい。 In step S03, when the display control unit 19 predicts that the visual prediction unit 14 cannot visually recognize the meeting place 32 from the user's current position 30, the display control unit 19 puts a third mark indirectly indicating the meeting place 32 on the image. Add. Alternatively, when the image analysis unit 18 determines that the meeting place is not directly displayed on the image, the display control unit 19 may add a third mark indirectly indicating the meeting place 32 to the image.

ステップS04に進み、視認予測部14は、少なくともユーザの位置情報(ユーザの現在位置)30、待合せ場所32、及び待合せ場所32の地理情報に基づいて、ユーザの現在位置から特徴箇所33を視認することができるか否かを予測する。 Proceeding to step S04, the visual prediction unit 14 visually recognizes the feature portion 33 from the user's current position based on at least the user's position information (user's current position) 30, the meeting place 32, and the geographic information of the meeting place 32. Predict if it can be done.

視認予測部14が、所定時間後に、ユーザの現在位置30から特徴箇所33を視認することができると予測した時(ステップS04でYES)、ステップS05へ進み、表示制御部19は、ディスプレイ22に待合せ場所32を示す画像が表示されるようにディスプレイ22を制御する。これにより、見通しを加味して画像を表示するタイミングを決めるので、実際に見える景色と画像を照合して待合せ場所32を特定することが容易になる。 When the visual prediction unit 14 predicts that the feature portion 33 can be visually recognized from the user's current position 30 after a predetermined time (YES in step S04), the process proceeds to step S05, and the display control unit 19 displays the display 22. The display 22 is controlled so that an image showing the meeting place 32 is displayed. As a result, since the timing of displaying the image is determined in consideration of the line-of-sight, it becomes easy to identify the meeting place 32 by collating the actually visible scenery with the image.

一方、視認予測部14が、所定時間後に、ユーザの現在位置30から特徴箇所33を視認することができないと予測した時(ステップS04でNO)、ステップS01に戻る。 On the other hand, when the visual prediction unit 14 predicts that the feature portion 33 cannot be visually recognized from the user's current position 30 after a predetermined time (NO in step S04), the process returns to step S01.

ステップS05の後、ステップS06へ進み、撮影方向制御部12は、ユーザの移動方向に応じてディスプレイ22に表示される画像の撮影方向を変化させる。具体的には、撮影方向制御部12は、画像の撮影方向がユーザの移動方向に近づくように、画像の撮影方向を変化させる。これにより、ユーザが目的地に近づく方向に近い視点の画像を表示することができるので、ユーザは、表示された特徴画像から、待合せ場所を具体的に特定することができる。 After step S05, the process proceeds to step S06, and the shooting direction control unit 12 changes the shooting direction of the image displayed on the display 22 according to the moving direction of the user. Specifically, the shooting direction control unit 12 changes the shooting direction of the image so that the shooting direction of the image approaches the moving direction of the user. As a result, the image of the viewpoint close to the direction in which the user approaches the destination can be displayed, so that the user can specifically specify the meeting place from the displayed feature image.

例えば、情報提示制御部3は、同じ待合せ場所を示し且つ撮影方向が異なる複数の画像を予め用意し、撮影方向制御部12は、撮影方向がユーザの移動方向に最も近い画像を選択してディスプレイ22に表示することができる。 For example, the information presentation control unit 3 prepares in advance a plurality of images indicating the same meeting place and different shooting directions, and the shooting direction control unit 12 selects and displays an image whose shooting direction is closest to the moving direction of the user. It can be displayed on 22.

あるいは、画像記憶部21に、待合せ場所32の複数視点画像のデータを予め格納しておく。情報提示制御部3が、待合せ場所32の複数視点画像のデータをユーザ端末へ送信し、撮影方向制御部12が、無線通信を介してディスプレイ22に表示される複数視点画像の視点を制御してもよい。 Alternatively, the image storage unit 21 stores in advance the data of the multi-viewpoint image of the meeting place 32. The information presentation control unit 3 transmits the data of the multi-viewpoint image of the meeting place 32 to the user terminal, and the shooting direction control unit 12 controls the viewpoint of the multi-viewpoint image displayed on the display 22 via wireless communication. May be good.

上記した実施形態において、配車サーバ1が情報提示制御部3の全体の機能を備えている場合を示した。しかし、情報提示制御部3の全体又はその一部の機能は、配車サーバ1の代わりにユーザ端末2が備えていても構わない。すなわち、待合せ場所提示システムが情報提示制御部3の機能を実現していれば、待合せ場所提示システムを構成するハードウェア(配車サーバ1及びユーザ端末2)のいずれが、情報提示制御部3の機能を実現しても構わない。 In the above-described embodiment, the case where the vehicle allocation server 1 has the entire functions of the information presentation control unit 3 is shown. However, the user terminal 2 may have all or a part of the functions of the information presentation control unit 3 instead of the vehicle allocation server 1. That is, if the meeting place presentation system realizes the function of the information presentation control unit 3, which of the hardware (vehicle allocation server 1 and user terminal 2) constituting the meeting place presentation system has the function of the information presentation control unit 3. May be realized.

例えば、ユーザ端末2としてのスマートフォンに、スマートフォン用のアプリケーション(待合せ場所提示アプリケーション)をダウンロードし、待合せ場所提示アプリケーションを実行することにより、スマートフォンを用いて情報提示制御部3を構成することができる。 For example, by downloading an application for a smartphone (meeting place presentation application) to a smartphone as a user terminal 2 and executing the meeting place presentation application, the information presentation control unit 3 can be configured using the smartphone.

一方、ユーザは、専用のアプリケーションをダウンロードせずに、ユーザ端末2を介してクラウドコンピューティングサービスを利用することにより、待合せ場所提示システムを構成することができる。この場合、情報提示制御部3はクラウド上に配置されたサーバ(配車サーバ1)により実現される。 On the other hand, the user can configure the meeting place presentation system by using the cloud computing service via the user terminal 2 without downloading the dedicated application. In this case, the information presentation control unit 3 is realized by a server (vehicle allocation server 1) arranged on the cloud.

なお、上述の実施形態は、本発明を実施する形態の例である。このため、本発明は、上述の実施形態に限定されることはなく、これ以外の形態であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計などに応じて種々の変更が可能であることは言うまでもない。 The above-described embodiment is an example of the embodiment of the present invention. Therefore, the present invention is not limited to the above-described embodiment, and even in other forms, various forms can be used depending on the design and the like as long as they do not deviate from the technical idea of the present invention. It goes without saying that it can be changed.

1 配車サーバ
2 ユーザ端末
5 メモリ
12 撮影方向制御部
13 移動方向演算部
14 視認予測部
15 位置情報取得部
17 シーン分類部
18 画像分析部
19 表示制御部
22 ディスプレイ
31 画像の撮影方向
32 待合せ場所
33a、33b、33 特徴箇所
34 第3マーク
1 Vehicle dispatch server 2 User terminal 5 Memory 12 Shooting direction control unit 13 Moving direction calculation unit 14 Visual prediction unit 15 Position information acquisition unit 17 Scene classification unit 18 Image analysis unit 19 Display control unit 22 Display 31 Image shooting direction 32 Meeting place 33a , 33b, 33 Features 34 3rd mark

Claims (15)

ユーザが車両の配車を依頼する配車リクエストを受け付けるユーザ端末と、前記ユーザ端末から送信された前記配車リクエストを取得して、前記ユーザと前記車両との待合せ場所へ車両を配車する配車サーバとを備え、前記待合せ場所まで移動する前記ユーザに前記待合せ場所を提示する待合せ場所提示システムであって、
前記配車サーバ又は前記ユーザ端末は、
前記ユーザ端末の位置情報を取得する位置情報取得部と、
少なくとも前記位置情報及び前記待合せ場所に基づいて、前記ユーザが移動する方向である移動方向を演算する移動方向演算部と、
前記ユーザ端末が備えるディスプレイに前記待合せ場所を示す画像が表示されるように前記ディスプレイを制御する表示制御部と、
前記移動方向に応じて前記ディスプレイに表示される前記画像の撮影方向を変化させる撮影方向制御部と、
を備えることを特徴とする待合せ場所提示システム。
It is provided with a user terminal that accepts a vehicle allocation request for which a user requests vehicle allocation, and a vehicle allocation server that acquires the vehicle allocation request transmitted from the user terminal and allocates the vehicle to a meeting place between the user and the vehicle. , A meeting place presentation system that presents the meeting place to the user who moves to the meeting place.
The vehicle dispatch server or the user terminal
A location information acquisition unit that acquires the location information of the user terminal, and
A movement direction calculation unit that calculates a movement direction, which is a direction in which the user moves, based on at least the position information and the meeting place.
A display control unit that controls the display so that an image indicating the meeting place is displayed on the display provided in the user terminal.
A shooting direction control unit that changes the shooting direction of the image displayed on the display according to the moving direction.
A meeting place presentation system characterized by being equipped with.
前記配車サーバが前記表示制御部を備え、前記表示制御部は、前記ディスプレイに前記画像を表示するように前記ユーザ端末へ通知する
請求項1記載の待合せ場所提示システム。
The meeting place presentation system according to claim 1, wherein the vehicle allocation server includes the display control unit, and the display control unit notifies the user terminal to display the image on the display.
前記配車サーバは、前記ディスプレイに表示される前記画像のデータを前記ユーザ端末へ送信する請求項2記載の待合せ場所提示システム。 The meeting place presentation system according to claim 2, wherein the vehicle dispatch server transmits data of the image displayed on the display to the user terminal. 前記ディスプレイに表示される前記画像に含まれる特徴箇所が強調表示されている請求項1〜3のいずれか一項に記載の待合せ場所提示システム。 The meeting place presentation system according to any one of claims 1 to 3, wherein a feature portion included in the image displayed on the display is highlighted. 前記配車サーバ又は前記ユーザ端末は、1つの前記待合せ場所を示す複数の画像を記憶したメモリを更に備え、
1つの前記待合せ場所を示す複数の画像の中には、複数の特徴箇所が含まれ、且つ、1つの特徴箇所を異なる前記撮影方向から撮影した複数の画像が含まれる
請求項1〜4のいずれか一項に記載の待合せ場所提示システム。
The vehicle dispatch server or the user terminal further includes a memory that stores a plurality of images indicating one meeting place.
Any of claims 1 to 4, wherein a plurality of feature points are included in the plurality of images showing the meeting place, and a plurality of images obtained by shooting one feature point from different shooting directions are included. The meeting place presentation system described in item 1.
前記配車サーバ又は前記ユーザ端末は、少なくとも前記位置情報、前記待合せ場所、及び前記待合せ場所の地理情報に基づいて、前記ユーザの現在位置から前記ディスプレイに表示される前記画像に含まれる特徴箇所を視認することができるか否かを予測する視認予測部を備え、
前記視認予測部が、所定時間後に、前記ユーザの現在位置から前記特徴箇所を視認することができると予測した時に、前記表示制御部は、前記ディスプレイに前記待合せ場所を示す画像が表示されるように前記ディスプレイを制御する請求項1〜5のいずれか一項に記載の待合せ場所提示システム。
The vehicle dispatch server or the user terminal visually recognizes a feature portion included in the image displayed on the display from the current position of the user based on at least the position information, the meeting place, and the geographic information of the meeting place. Equipped with a visual prediction unit that predicts whether or not it can be done
When the visual prediction unit predicts that the feature portion can be visually recognized from the current position of the user after a predetermined time, the display control unit displays an image indicating the meeting place on the display. The meeting place presentation system according to any one of claims 1 to 5, which controls the display.
前記配車サーバ又は前記ユーザ端末は、季節、時間帯、及び気象条件の少なくとも1つに応じて、前記ディスプレイに表示される前記画像に含まれる特徴箇所及び前記画像を選択するシーン分類部を備える請求項1〜6のいずれか一項に記載の待合せ場所提示システム。 The vehicle allocation server or the user terminal includes a feature portion included in the image displayed on the display and a scene classification unit for selecting the image according to at least one of a season, a time zone, and a weather condition. The meeting place presentation system according to any one of items 1 to 6. 前記表示制御部は、前記ディスプレイに前記画像と前記待合せ場所を示す地図とが表示されるように前記ディスプレイを制御し、
前記表示制御部は、
前記地図に、少なくとも、前記画像の撮影方向、前記ユーザの現在位置、前記待合せ場所、及び前記画像に含まれる特徴箇所を示す第1マークを付加し、
前記画像に、少なくとも、前記特徴箇所及び前記待合せ場所を示す第2マークを付加することにより、
前記画像と前記地図とを照合する
請求項1〜7のいずれか一項に記載の待合せ場所提示システム。
The display control unit controls the display so that the image and the map showing the meeting place are displayed on the display.
The display control unit
At least a first mark indicating the shooting direction of the image, the current position of the user, the meeting place, and the feature location included in the image is added to the map.
By adding at least a second mark indicating the feature location and the meeting location to the image,
The meeting place presentation system according to any one of claims 1 to 7, wherein the image is collated with the map.
前記表示制御部は、前記地図及び前記画像に、前記画像の撮影方向、前記ユーザの現在位置、前記待合せ場所、及び前記特徴箇所の各々に固有の記号を用いた前記第1マーク及び第2マークをそれぞれ付加する請求項8記載の待合せ場所提示システム。 The display control unit uses symbols unique to each of the map and the image, the shooting direction of the image, the current position of the user, the meeting place, and the featured part, and the first mark and the second mark. The meeting place presentation system according to claim 8, wherein each of the above is added. 前記表示制御部は、前記地図及び前記画像に、前記画像の撮影方向、前記ユーザの現在位置、前記待合せ場所、及び前記特徴箇所の各々に固有の図形を用いた前記第1マーク及び第2マークをそれぞれ付加する請求項8記載の待合せ場所提示システム。 The display control unit uses the first mark and the second mark on the map and the image using figures unique to each of the shooting direction of the image, the current position of the user, the meeting place, and the featured part. The meeting place presentation system according to claim 8, wherein each of the above is added. 前記表示制御部は、前記地図及び前記画像に、前記画像の撮影方向、前記ユーザの現在位置、前記待合せ場所、及び前記特徴箇所の各々に固有の色彩を用いた前記第1マーク及び第2マークをそれぞれ付加する請求項8記載の待合せ場所提示システム。 The display control unit uses the colors unique to each of the map and the image, the shooting direction of the image, the current position of the user, the meeting place, and the featured part, and the first mark and the second mark. The meeting place presentation system according to claim 8, wherein each of the above is added. 前記視認予測部は、少なくとも前記位置情報、前記待合せ場所、及び前記待合せ場所の地理情報に基づいて、前記ユーザの現在位置から前記待合せ場所を視認することができるか否かを予測し、
前記表示制御部は、前記視認予測部が前記ユーザの現在位置から前記待合せ場所を視認することができないと予測した場合、前記画像に、前記待合せ場所を間接的に示す第3マークを付加する
請求項6記載の待合せ場所提示システム。
The visual prediction unit predicts whether or not the meeting place can be visually recognized from the current position of the user based on at least the position information, the meeting place, and the geographic information of the meeting place.
When the display control unit predicts that the visual prediction unit cannot visually recognize the meeting place from the current position of the user, the display control unit adds a third mark indirectly indicating the meeting place to the image. Item 6. The meeting place presentation system according to item 6.
前記画像に前記待合せ場所が直接表示されているか否かを判断する画像分析部を備え、
前記画像分析部が前記画像に前記待合せ場所を直接表示されていないと判断した場合、前記表示制御部は、前記画像に、前記待合せ場所を間接的に示す第3マークを付加する
請求項6記載の待合せ場所提示システム。
An image analysis unit for determining whether or not the meeting place is directly displayed on the image is provided.
The sixth aspect of claim 6, wherein when the image analysis unit determines that the meeting place is not directly displayed on the image, the display control unit adds a third mark indirectly indicating the meeting place to the image. Meeting place presentation system.
ユーザが車両の配車を依頼する配車リクエストを受け付けるユーザ端末と、前記ユーザ端末から送信された前記配車リクエストを取得して、前記ユーザと前記車両との待合せ場所へ車両を配車する配車サーバとを備える待合せ場所提示システムを用いて、前記待合せ場所まで移動する前記ユーザに前記待合せ場所を提示する待合せ場所提示方法であって、
前記ユーザ端末の位置情報を取得し、
少なくとも前記位置情報及び前記待合せ場所に基づいて、前記ユーザが移動する方向である移動方向を演算し、
前記ユーザ端末が備えるディスプレイに前記待合せ場所を示す画像が表示されるように前記ディスプレイを制御し、
前記移動方向に応じて前記ディスプレイに表示される前記画像の撮影方向を変化させる
ことを特徴とする待合せ場所提示方法。
It includes a user terminal that accepts a vehicle allocation request for which a user requests vehicle allocation, and a vehicle allocation server that acquires the vehicle allocation request transmitted from the user terminal and allocates the vehicle to a meeting place between the user and the vehicle. A meeting place presentation method for presenting the meeting place to the user who moves to the meeting place by using the meeting place presentation system.
Acquire the location information of the user terminal and
Based on at least the location information and the meeting place, the movement direction, which is the direction in which the user moves, is calculated.
The display is controlled so that an image showing the meeting place is displayed on the display provided in the user terminal.
A method for presenting a meeting place, which comprises changing the shooting direction of the image displayed on the display according to the moving direction.
ユーザ端末から送信された、ユーザが車両の配車を依頼する配車リクエストを取得して、前記ユーザと前記車両との待合せ場所へ車両を配車する配車サーバであって、
前記配車サーバは、
前記待合せ場所まで移動する前記ユーザが保持する前記ユーザ端末の位置情報を取得し、
少なくとも前記位置情報及び前記待合せ場所に基づいて、前記ユーザが移動する方向である移動方向を演算し、
前記ユーザ端末が備えるディスプレイに前記待合せ場所を示す画像を表示するように前記ユーザ端末に通知し、
前記移動方向に応じて前記画像の撮影方向を変化させる
ことを特徴とする配車サーバ。
A vehicle allocation server that acquires a vehicle allocation request sent from a user terminal and requests the user to allocate a vehicle, and allocates the vehicle to a meeting place between the user and the vehicle.
The vehicle dispatch server
Acquire the position information of the user terminal held by the user who moves to the meeting place, and obtain the position information.
Based on at least the location information and the meeting place, the movement direction, which is the direction in which the user moves, is calculated.
Notify the user terminal to display an image showing the meeting place on the display provided in the user terminal.
A vehicle allocation server characterized in that the shooting direction of the image is changed according to the moving direction.
JP2019165997A 2019-09-12 2019-09-12 Meeting place presentation system, meeting place presentation method, and dispatch server Active JP7369571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165997A JP7369571B2 (en) 2019-09-12 2019-09-12 Meeting place presentation system, meeting place presentation method, and dispatch server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165997A JP7369571B2 (en) 2019-09-12 2019-09-12 Meeting place presentation system, meeting place presentation method, and dispatch server

Publications (2)

Publication Number Publication Date
JP2021043763A true JP2021043763A (en) 2021-03-18
JP7369571B2 JP7369571B2 (en) 2023-10-26

Family

ID=74863086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165997A Active JP7369571B2 (en) 2019-09-12 2019-09-12 Meeting place presentation system, meeting place presentation method, and dispatch server

Country Status (1)

Country Link
JP (1) JP7369571B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005017074A (en) * 2003-06-25 2005-01-20 Nissan Motor Co Ltd Device and program for transmitting/receiving information
JP2008085945A (en) * 2006-09-29 2008-04-10 Kimoto & Co Ltd Location information providing system
JP2010048824A (en) * 2001-06-05 2010-03-04 Equos Research Co Ltd Information-providing apparatus
JP2013054509A (en) * 2011-09-02 2013-03-21 Konica Minolta Business Technologies Inc Information processing system, server and display method
JP2014186037A (en) * 2014-07-01 2014-10-02 Rakuten Inc Route guide system, route guide method, route guide program, and information recording medium
JP2018054456A (en) * 2016-09-29 2018-04-05 アイシン・エィ・ダブリュ株式会社 Route guidance system, and route guidance program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010048824A (en) * 2001-06-05 2010-03-04 Equos Research Co Ltd Information-providing apparatus
JP2005017074A (en) * 2003-06-25 2005-01-20 Nissan Motor Co Ltd Device and program for transmitting/receiving information
JP2008085945A (en) * 2006-09-29 2008-04-10 Kimoto & Co Ltd Location information providing system
JP2013054509A (en) * 2011-09-02 2013-03-21 Konica Minolta Business Technologies Inc Information processing system, server and display method
JP2014186037A (en) * 2014-07-01 2014-10-02 Rakuten Inc Route guide system, route guide method, route guide program, and information recording medium
JP2018054456A (en) * 2016-09-29 2018-04-05 アイシン・エィ・ダブリュ株式会社 Route guidance system, and route guidance program

Also Published As

Publication number Publication date
JP7369571B2 (en) 2023-10-26

Similar Documents

Publication Publication Date Title
US11692842B2 (en) Augmented reality maps
US10748426B2 (en) Systems and methods for detection and presentation of occluded objects
US20200370914A1 (en) Systems and method for using visual landmarks in initial navigation
KR102534792B1 (en) Sparse map for autonomous vehicle navigation
JP4847090B2 (en) Position positioning device and position positioning method
JP2020034472A (en) Map system, method and storage medium for autonomous navigation
US11378980B2 (en) Cellular device location discovery systems and methods for autonomous vehicles
CN111801636A (en) Method for providing detailed map data and system thereof
US20210158693A1 (en) Reducing vehicular congestion at an interestion
US20160153789A1 (en) Method, apparatus and computer program product for providing a destination preview
JP2014531024A (en) How to move data from image database map service into assist system
CN102607566A (en) Road live-action navigation system and method
JP7346569B2 (en) Information processing device, information processing method, and information processing program
JP2015068828A (en) Method and system for enabling clear recognition of destination by route guidance
JP2009500765A (en) Method for determining traffic information and apparatus configured to perform the method
KR20180090610A (en) Method and apparatus for outputting information about a lane
EP3974931B1 (en) Semantic identification of pickup locations
CN112485815A (en) Distributed information generation device and method for positioning difference between accurate positioning information and GNSS positioning information
US11840173B2 (en) External facing communications for autonomous vehicles
KR102418051B1 (en) Lane traffic situation judgement apparatus, system, and method thereof
EP3827222B1 (en) Method and device for navigating two or more users to a meeting location
US20220197893A1 (en) Aerial vehicle and edge device collaboration for visual positioning image database management and updating
CN111094896B (en) Method and apparatus for creating map
CN111051818B (en) Providing navigation directions
JP2021043763A (en) Meeting place presentation system, meeting place presentation method, and ride-hailing server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7369571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150