JP2018028455A - Guide support device, guide support method, and program - Google Patents

Guide support device, guide support method, and program Download PDF

Info

Publication number
JP2018028455A
JP2018028455A JP2016159627A JP2016159627A JP2018028455A JP 2018028455 A JP2018028455 A JP 2018028455A JP 2016159627 A JP2016159627 A JP 2016159627A JP 2016159627 A JP2016159627 A JP 2016159627A JP 2018028455 A JP2018028455 A JP 2018028455A
Authority
JP
Japan
Prior art keywords
user
terminal device
virtual space
destination
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016159627A
Other languages
Japanese (ja)
Other versions
JP6773316B2 (en
Inventor
英志 山下
Hideshi Yamashita
英志 山下
康行 伊原
Yasuyuki Ihara
康行 伊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2016159627A priority Critical patent/JP6773316B2/en
Publication of JP2018028455A publication Critical patent/JP2018028455A/en
Application granted granted Critical
Publication of JP6773316B2 publication Critical patent/JP6773316B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a guide support device, a guide support method, and a program that can guide a user to a destination such that the user can intuitively understand without binding to a language used by the user.SOLUTION: A guide support device 10 is a device for supporting to guide a user to a destination by a guide. The guide support device 10 comprises an information acquisition unit 11 that acquires destination information identifying a destination of the user, a transmission unit 12 that transmits the acquired destination information to a terminal device of the guide, and a data processing unit 13 that generates data for making the user to recognize a place of the destination in a virtual space using the specified coordinate when the guide specifies the destination coordinate by the terminal device of the guide.SELECTED DRAWING: Figure 1

Description

本発明は、案内人、特には、遠隔にいる案内人によって、ユーザの目的地への案内を支援するための、案内支援装置、及び案内支援方法に関し、更には、これらを実現するためのプログラムに関する。   The present invention relates to a guidance support device and a guidance support method for supporting guidance to a user's destination by a guide, particularly a remote guide, and a program for realizing the same. About.

近年、インターネットの発達により、誰でも多くの情報を得ることができるようになっている。そのため、旅行者は、インターネットを介して、旅行先の地図をはじめ、多くの情報を得ることができ、案内ガイドの助けなしであっても、この情報を元にして観光を楽しむことができる。   In recent years, with the development of the Internet, anyone can obtain a lot of information. Therefore, a traveler can obtain a lot of information including a travel destination map via the Internet, and can enjoy sightseeing based on this information without the assistance of a guide.

但し、旅行者が初めて訪れた地においては、地図から想像していた街の様子と実際の街の様子とは異なることがあるため、旅行者は、インターネットから地図を取得していたとしても、道に迷うことはある。このような場合、案内ガイドがいると安心であるが、案内ガイドの利用には、高額の費用がかかるという問題と、旅行者のスケジュールと案内ガイドのスケジュールとのマッチングが難しいという問題とがある。   However, in places where tourists visit for the first time, the state of the city imagined from the map may differ from the state of the actual city, so even if the traveler obtained the map from the Internet, Sometimes you get lost. In such a case, it is safe to have a guide, but there are problems that it is expensive to use the guide and that it is difficult to match the schedule of the traveler with the schedule of the guide .

このような問題を解決するため、特許文献1は、案内ガイドが、遠隔からユーザに案内を行なえるようにする、システムを提案している。具体的には、特許文献1に開示されたシステムは、まず、ユーザの携帯端末から、携帯端末の位置を特定する位置データと、携帯端末の内蔵カメラで撮影された動画の動画データとを取得する。次に、当該システムは、位置データからユーザ周辺の地図データを作成し、作成した地図データと動画データとを、案内ガイドの端末装置に送る。その後、案内ガイドは、地図データと動画データとを確認しながら、ユーザに対して通話による案内を行なう。   In order to solve such a problem, Patent Document 1 proposes a system that enables a guide to guide a user from a remote location. Specifically, the system disclosed in Patent Literature 1 first acquires position data for specifying the position of the mobile terminal and moving image data of a moving image shot by the built-in camera of the mobile terminal from the user's mobile terminal. To do. Next, the system creates map data around the user from the position data, and sends the created map data and moving image data to the terminal device of the guidance guide. Thereafter, the guidance guide provides guidance by calling the user while checking the map data and the moving image data.

このように、特許文献1に開示されたシステムによれば、案内ガイドを個人的に雇うことなく、ユーザである旅行者は、案内サービスを受けることができ、初めて訪れた地であってもスムーズに目的地に到達することができる。また、特許文献1に開示されたシステムでは、案内ガイドは、案内が求められた場合にのみ、遠隔から案内できるため、上述した問題も解消される。   As described above, according to the system disclosed in Patent Document 1, a traveler who is a user can receive a guidance service without personally hiring a guidance guide, and can smoothly receive a place where he / she visited for the first time. You can reach your destination. Further, in the system disclosed in Patent Document 1, since the guidance guide can be remotely guided only when guidance is required, the above-described problems are solved.

特開2003−307430号公報JP 2003-307430 A

ところで、特許文献1に開示されたシステムでは、遠隔にいる案内ガイドは、音声によって、ユーザである旅行者を案内する必要があるため、案内ガイドが指示する方向及び場所がユーザに正確に伝わらない可能性がある。つまり、ユーザにおいては、不慣れな土地であるため、方向を把握できていない場合があり、更に、ランドマークを基準に説明されても、どれがランドマークかを理解できない場合がある。このような場合、音声による案内では、案内の内容はユーザに正確に伝わらない結果となる。   By the way, in the system disclosed in Patent Document 1, it is necessary for the remote guide to guide the traveler who is a user by voice, so the direction and location indicated by the guide are not accurately transmitted to the user. there is a possibility. That is, the user may not be able to grasp the direction because it is an unfamiliar land, and even if it is described based on the landmark, it may not be understood which is the landmark. In such a case, the guidance by voice results in the guidance not being accurately transmitted to the user.

また、ユーザが外国からの旅行者である場合は、案内ガイドが、ユーザの使用する言語を理解できない限り、案内は不可能である。外国からの旅行者に対応できるようにするためには、対応言語毎に、案内ガイドをスタンバイさせている必要がある。この場合、システムの運用にかかるコストが増大してしまう。   Further, when the user is a foreign traveler, guidance is impossible unless the guidance guide understands the language used by the user. In order to be able to handle travelers from abroad, it is necessary to have a guide guide on standby for each language supported. In this case, the cost for operating the system increases.

本発明の目的の一例は、上記問題を解消し、ユーザの使用する言語に縛られることなく、ユーザが直感的に理解できるように目的地への案内を行ない得る、案内支援装置、案内支援方法、及びプログラムを提供することにある。   An example of an object of the present invention is to provide a guidance support apparatus and a guidance support method that can provide guidance to a destination so that the user can intuitively understand without solving the above problem and being bound by the language used by the user. And providing a program.

上記目的を達成するため、本発明の一側面における第1の案内支援装置は、
案内人によるユーザの目的地への案内を支援するための装置であって、
前記ユーザの目的地を特定する行先情報を取得する、情報取得部と、
取得された前記行先情報を前記案内人の端末装置に送信する、送信部と、
前記案内人が、前記案内人の端末装置によって前記目的地の座標を指定した場合に、指定された座標を用いて、仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、データ処理部と、
を備えていることを特徴とする。
In order to achieve the above object, a first guidance support apparatus according to one aspect of the present invention includes:
An apparatus for supporting guidance to a user's destination by a guide,
An information acquisition unit for acquiring destination information for specifying the destination of the user;
A transmitter that transmits the acquired destination information to the terminal device of the guide;
When the guide designates the coordinates of the destination with the terminal device of the guide, data for causing the user to visually recognize the position of the destination on the virtual space using the designated coordinates. A data processing unit to generate;
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における第2の案内支援装置は、
ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、情報取得部と、
取得された前記位置情報から、仮想空間上での前記ユーザの位置を特定する仮想空間位置情報を生成する、データ処理部と、
案内人の端末装置に、前記仮想空間位置情報を送信する、送信部と、
を備えていることを特徴とする。
In order to achieve the above object, a second guidance support apparatus according to one aspect of the present invention includes:
An information acquisition unit that acquires position information that specifies the position of the user terminal device from the user terminal device;
A data processing unit that generates virtual space position information that identifies the position of the user on the virtual space from the acquired position information;
A transmitter that transmits the virtual space position information to the terminal device of the guide; and
It is characterized by having.

上記目的を達成するため、本発明の一側面における第1の案内支援方法は、案内人によるユーザの目的地への案内を支援するための方法であって、
(a)前記ユーザの目的地を特定する行先情報を取得する、ステップと、
(b)取得された前記行先情報を前記案内人の端末装置に送信する、ステップと、
(c)前記案内人が、前記案内人の端末装置によって前記目的地の座標を指定した場合に、指定された座標を用いて、仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、ステップと、
を有することを特徴とする。
In order to achieve the above object, a first guidance support method according to one aspect of the present invention is a method for supporting guidance to a user's destination by a guide,
(A) obtaining destination information for identifying the destination of the user;
(B) transmitting the acquired destination information to the terminal device of the guide;
(C) When the guide designates the coordinates of the destination using the terminal device of the guide, in order to make the user visually recognize the position of the destination on the virtual space using the designated coordinates. Generating the data of, and
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における第2の案内支援方法は、
(a)ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、ステップと、
(b)前記(a)のステップで取得された前記位置情報から、仮想空間上での前記ユーザの位置を特定する仮想空間位置情報を生成する、ステップと、
(c)案内人の端末装置に、前記(b)のステップで生成された前記仮想空間位置情報を送信する、ステップと、
を有することを特徴とする。
In order to achieve the above object, a second guidance support method according to one aspect of the present invention includes:
(A) acquiring from the user's terminal device position information specifying the position of the user's terminal device;
(B) generating virtual space position information for specifying the position of the user on the virtual space from the position information acquired in the step (a);
(C) transmitting the virtual space position information generated in the step (b) to the terminal device of the guide;
It is characterized by having.

上記目的を達成するため、本発明の一側面における第1のプログラムは、コンピュータによって、案内人によるユーザの目的地への案内を支援するためのプログラムであって、
前記コンピュータに、
(a)前記ユーザの目的地を特定する行先情報を取得する、ステップと、
(b)取得された前記行先情報を前記案内人の端末装置に送信する、ステップと、
(c)前記案内人が、前記案内人の端末装置によって前記目的地の座標を指定した場合に、指定された座標を用いて、仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、ステップと、
を実行させることを特徴とする。
In order to achieve the above object, a first program according to one aspect of the present invention is a program for supporting guidance by a guide to a user's destination by a computer,
In the computer,
(A) obtaining destination information for identifying the destination of the user;
(B) transmitting the acquired destination information to the terminal device of the guide;
(C) When the guide designates the coordinates of the destination using the terminal device of the guide, in order to make the user visually recognize the position of the destination on the virtual space using the designated coordinates. Generating the data of, and
Is executed.

また、上記目的を達成するため、本発明の一側面における第2のプログラムは、
コンピュータに、
(a)ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、ステップと、
(b)前記(a)のステップで取得された前記位置情報から、仮想空間上での前記ユーザの位置を特定する仮想空間位置情報を生成する、ステップと、
(c)案内人の端末装置に、前記(b)のステップで生成された前記仮想空間位置情報を送信する、ステップと、
を実行させることを特徴とする。
In order to achieve the above object, the second program according to one aspect of the present invention includes:
On the computer,
(A) acquiring from the user's terminal device position information specifying the position of the user's terminal device;
(B) generating virtual space position information for specifying the position of the user on the virtual space from the position information acquired in the step (a);
(C) transmitting the virtual space position information generated in the step (b) to the terminal device of the guide;
Is executed.

以上のように、本発明によれば、ユーザの使用する言語に縛られることなく、ユーザが直感的に理解できるように目的地への案内を行なうことができる。   As described above, according to the present invention, it is possible to provide guidance to a destination so that the user can intuitively understand without being bound by the language used by the user.

図1は、本発明の実施の形態1における案内支援装置の概略構成を示すブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a guidance support apparatus according to Embodiment 1 of the present invention. 図2は、本発明の実施の形態1における案内支援装置の構成を具体的に示すブロック図である。FIG. 2 is a block diagram specifically showing the configuration of the guidance support apparatus according to Embodiment 1 of the present invention. 図3(a)は、案内人の端末装置の画面に表示される2次元地図の一例を示す図であり、図3(b)は、ユーザの端末装置の画面に表示される仮想空間の一例を示す図である。FIG. 3A is a diagram illustrating an example of a two-dimensional map displayed on the screen of the guide terminal device, and FIG. 3B is an example of a virtual space displayed on the screen of the user terminal device. FIG. 図4は、本発明の実施の形態1における案内支援装置の動作を示すフロー図である。FIG. 4 is a flowchart showing the operation of the guidance support apparatus according to Embodiment 1 of the present invention. 図5は、本発明の実施の形態1における案内支援装置の変形例を具体的に示すブロック図である。FIG. 5 is a block diagram specifically showing a modification of the guidance support apparatus according to Embodiment 1 of the present invention. 図6は、本発明の実施の形態2における案内支援装置の動作を示すフロー図である。FIG. 6 is a flowchart showing the operation of the guidance support apparatus according to Embodiment 2 of the present invention. 図7は、本発明の実施の形態1及び2における案内支援装置を実現するコンピュータの一例を示すブロック図である。FIG. 7 is a block diagram illustrating an example of a computer that implements the guidance support apparatus according to Embodiments 1 and 2 of the present invention.

(実施の形態1)
以下、本発明の実施の形態1における、案内支援装置、案内支援方法、及びプログラムについて、図1〜図5を参照しながら説明する。
(Embodiment 1)
Hereinafter, a guidance support apparatus, a guidance support method, and a program according to Embodiment 1 of the present invention will be described with reference to FIGS.

[装置構成]
最初に、図1を用いて、本実施の形態1における案内支援装置の概略構成について説明する。図1は、本発明の実施の形態1における案内支援装置の概略構成を示すブロック図である。
[Device configuration]
First, a schematic configuration of the guidance support apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a schematic configuration of a guidance support apparatus according to Embodiment 1 of the present invention.

図1に示す、本実施の形態1における案内支援装置10は、案内人によるユーザの目的地への案内を支援するための装置である。図1に示すように、案内支援装置10は、情報取得部11と、送信部12と、データ処理部13とを備えている。   A guidance support apparatus 10 according to the first embodiment shown in FIG. 1 is an apparatus for supporting guidance by a guide to a user's destination. As shown in FIG. 1, the guidance support apparatus 10 includes an information acquisition unit 11, a transmission unit 12, and a data processing unit 13.

情報取得部11は、ユーザの目的地を特定する行先情報を取得する。送信部12は、取得された行先情報を案内人の端末装置に送信する。データ処理部13は、案内人が、案内人の端末装置によって目的地の座標を特定した場合に、特定された座標を用いて、仮想空間上で目的地の位置をユーザに視認させるためのデータを生成する。   The information acquisition unit 11 acquires destination information that identifies the user's destination. The transmission unit 12 transmits the acquired destination information to the terminal device of the guide. The data processing unit 13 is a data for allowing the user to visually recognize the position of the destination in the virtual space using the specified coordinates when the guide specifies the coordinates of the destination using the terminal device of the guide. Is generated.

このように、本実施の形態1では、案内支援装置10により、ユーザが指定した目的地は、街等を模した仮想空間上で、ユーザに対して示される。このため、案内支援装置10によれば、ユーザの使用する言語に縛られることなく、ユーザが直感的に理解できるように目的地への案内を行なうことができる。   As described above, in the first embodiment, the destination specified by the user is shown to the user on the virtual space imitating the town by the guidance support apparatus 10. For this reason, according to the guidance assistance apparatus 10, it can guide to the destination so that a user can understand intuitively, without being tied to the language which a user uses.

続いて、図2を用いて、本実施の形態1における案内支援装置10の構成を更に具体的に説明する。図2は、本発明の実施の形態1における案内支援装置の構成を具体的に示すブロック図である。   Next, the configuration of the guidance support apparatus 10 according to the first embodiment will be described more specifically with reference to FIG. FIG. 2 is a block diagram specifically showing the configuration of the guidance support apparatus according to Embodiment 1 of the present invention.

図2に示すように、本実施の形態1における案内支援装置10は、情報取得部11、送信部12、及びデータ処理部13に加えて、地図データベース14を備えている。地図データベース14には、3次元の電子地図が格納されている。なお、地図データベース14は、案内支援装置10の外に構築されていても良い。   As shown in FIG. 2, the guidance support apparatus 10 according to the first embodiment includes a map database 14 in addition to the information acquisition unit 11, the transmission unit 12, and the data processing unit 13. The map database 14 stores a three-dimensional electronic map. The map database 14 may be constructed outside the guidance support apparatus 10.

また、案内支援装置10は、インターネット等のネットワークを介して、ユーザ21の端末装置20と、案内人31の端末装置30とに接続されている。ユーザ21が、端末装置20で実行されているアプリケーションプログラムを介して、目的地を入力すると、端末装置20は、入力された目的地を特定する行先情報を、案内支援装置10に送信する。   The guidance support device 10 is connected to the terminal device 20 of the user 21 and the terminal device 30 of the guide 31 via a network such as the Internet. When the user 21 inputs a destination via an application program executed on the terminal device 20, the terminal device 20 transmits destination information for specifying the input destination to the guidance support device 10.

情報取得部11は、本実施の形態1では、端末装置20から送信されてきた行先情報を受信して、これを取得する。また、送信部12は、情報取得部11から、受信された行先情報を受け取り、受け取った行先情報を、案内人31の端末装置30に送信する。   In the first embodiment, the information acquisition unit 11 receives the destination information transmitted from the terminal device 20 and acquires it. In addition, the transmission unit 12 receives the received destination information from the information acquisition unit 11, and transmits the received destination information to the terminal device 30 of the guide 31.

端末装置30は、行先情報を受信すると、受信した行先情報からユーザ21の目的地を特定し、特定した目的地を画面上に表示する。そして、案内人31が、端末装置30で実行されているアプリケーションプログラムを用いて、提示された目的地の位置を指定すると、端末装置30は、指定された位置の座標を算出し、算出した座標を特定する座標情報を、案内支援装置10に送信する。   When receiving the destination information, the terminal device 30 specifies the destination of the user 21 from the received destination information and displays the specified destination on the screen. Then, when the guide 31 designates the position of the presented destination using an application program executed on the terminal device 30, the terminal device 30 calculates the coordinates of the designated position, and calculates the calculated coordinates. Is transmitted to the guidance support apparatus 10.

また、この場合のアプリケーションプログラムとしては、画面上に、2次元地図を表示し、2次元地図上において案内人による任意の位置の指定を受け付けるプログラムが挙げられる。アプリケーションプログラムは、案内人が、画面の2次元地図上の任意の位置をクリック又はタッチ等すると、その位置の2次元座標を算出し、算出した2次元座標が目的地の座標として指定されたとみなす。そして、アプリケーションプログラムは、算出した2次元座標を特定する座標情報を、案内支援装置10に送信する。   In addition, the application program in this case includes a program that displays a two-dimensional map on a screen and receives designation of an arbitrary position by a guide on the two-dimensional map. When the guide clicks or touches an arbitrary position on the two-dimensional map on the screen, the application program calculates the two-dimensional coordinates of the position and regards the calculated two-dimensional coordinates as the destination coordinates. . Then, the application program transmits coordinate information for specifying the calculated two-dimensional coordinates to the guidance support apparatus 10.

データ処理部13は、座標情報が送信されてくると、座標情報によって特定される2次元座標から、ユーザ21の端末装置20に構築される仮想空間上で目的地の位置をユーザに視認させるためのデータ(以下「目的地視認データ」と表記する。)を生成する。   When the coordinate information is transmitted, the data processing unit 13 causes the user to visually recognize the destination position in the virtual space constructed in the terminal device 20 of the user 21 from the two-dimensional coordinates specified by the coordinate information. Data (hereinafter referred to as “destination viewing data”).

具体的には、データ処理部13は、座標情報によって特定される2次元座標に対して、2次元地図の座標系から地図データベース14に格納されている電子地図の座標系へのアフィン変換を行なって、2次元座標の電子地図上でのアフィン写像(3次元座標)を算出する。そして、データ処理部13は、算出したアフィン写像を特定するデータを、目的地視認データとする。   Specifically, the data processing unit 13 performs affine transformation from the coordinate system of the two-dimensional map to the coordinate system of the electronic map stored in the map database 14 with respect to the two-dimensional coordinates specified by the coordinate information. Then, an affine map (three-dimensional coordinates) on the two-dimensional coordinate electronic map is calculated. Then, the data processing unit 13 sets the data for specifying the calculated affine mapping as destination visual recognition data.

その後、本実施の形態1では、送信部12は、更に、目的地視認データをユーザ21の端末装置20に送信する。これにより、ユーザ21の端末装置20は、目的地視認データで特定されるアフィン写像に対して、電子地図の座標系から、そこで構築される仮想立体空間の座標系へのアフィン変換を行なって、仮想空間上でのアフィン写像を算出する。算出されたアフィン写像は、ユーザ21の目的地の仮想空間での座標に相当する。   Thereafter, in the first embodiment, the transmission unit 12 further transmits the destination visual recognition data to the terminal device 20 of the user 21. Thereby, the terminal device 20 of the user 21 performs affine transformation from the coordinate system of the electronic map to the coordinate system of the virtual three-dimensional space constructed there for the affine map specified by the destination visual recognition data, An affine map in the virtual space is calculated. The calculated affine map corresponds to the coordinates of the destination of the user 21 in the virtual space.

そして、端末装置20は、算出したアフィン写像の仮想空間上での位置を特定し、仮想空間内における、特定した位置とその周辺とを表示する画像デーを作成し、作成した画像データを用いて、画面上に、仮想空間と目的地の位置とを表示させる。これにより、ユーザ21は、目的地の位置を仮想空間上で把握することができる。   Then, the terminal device 20 identifies the position of the calculated affine map in the virtual space, creates image data that displays the identified position and its surroundings in the virtual space, and uses the created image data The virtual space and the position of the destination are displayed on the screen. Thereby, the user 21 can grasp the position of the destination in the virtual space.

ここで、具体例について説明する。図3(a)は、案内人の端末装置の画面に表示される2次元地図の一例を示す図であり、図3(b)は、ユーザの端末装置の画面に表示される仮想空間の一例を示す図である。   Here, a specific example will be described. FIG. 3A is a diagram illustrating an example of a two-dimensional map displayed on the screen of the guide terminal device, and FIG. 3B is an example of a virtual space displayed on the screen of the user terminal device. FIG.

例えば、ユーザによって指定された目的地が、特定のビルの入口であったとする。この場合、図3(a)に示すように、案内人は、2次元地図上の特定のビルの入口を指定する。図3(a)において、指定された位置は丸印で示されている。   For example, it is assumed that the destination designated by the user is the entrance of a specific building. In this case, as shown in FIG. 3A, the guide designates the entrance of a specific building on the two-dimensional map. In FIG. 3A, the designated position is indicated by a circle.

そして、指定された位置に対応して、図3(b)に示すように、ユーザの端末装置の画面には、仮想空間と指定された位置とが表示される。図3(b)においても、指定された位置は丸印で示されている。   Then, corresponding to the designated position, as shown in FIG. 3B, the virtual space and the designated position are displayed on the screen of the user terminal device. Also in FIG. 3B, the designated position is indicated by a circle.

[装置動作]
次に、本発明の実施の形態1における案内支援装置10の動作について図4を用いて説明する。図4は、本発明の実施の形態1における案内支援装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態1では、案内支援装置10を動作させることによって、案内支援方法が実施される。よって、本実施の形態1における案内支援方法の説明は、以下の案内支援装置10の動作説明に代える。
[Device operation]
Next, operation | movement of the guidance assistance apparatus 10 in Embodiment 1 of this invention is demonstrated using FIG. FIG. 4 is a flowchart showing the operation of the guidance support apparatus according to Embodiment 1 of the present invention. In the following description, FIGS. Moreover, in this Embodiment 1, the guidance assistance method is implemented by operating the guidance assistance apparatus 10. FIG. Therefore, the description of the guidance support method in the first embodiment is replaced with the following description of the operation of the guidance support apparatus 10.

まず、前提として、ユーザ21が、端末装置20で実行されているアプリケーションプログラムを介して、目的地を入力する。これにより、端末装置20が、入力された目的地を特定する行先情報を、案内支援装置10に送信する。   First, as a premise, the user 21 inputs a destination via an application program executed on the terminal device 20. Thereby, the terminal device 20 transmits the destination information for specifying the input destination to the guidance support device 10.

図2に示すように、行先情報が送信されてくると、情報取得部11は、送信されてきた行先情報を取得する(ステップA1)。そして、情報取得部11は、取得した行先情報を送信部12に渡す。   As shown in FIG. 2, when the destination information is transmitted, the information acquisition unit 11 acquires the transmitted destination information (step A1). Then, the information acquisition unit 11 passes the acquired destination information to the transmission unit 12.

次に、送信部12は、ステップA1で取得された行先情報を、案内人31の端末装置30に送信する(ステップA2)。これにより、端末装置30は、行先情報を受信し、受信した行先情報からユーザ21の目的地を特定し、特定した目的地を画面上に表示すると共に、画面上に2次元地図も表示する(図3(a)参照)。そして、案内人31が、2次元地図上で目的地の位置を指定すると、端末装置30は、目的地の2次元座標を算出し、算出した2次元座標を特定する座標情報を、案内支援装置10に送信する。   Next, the transmission part 12 transmits the destination information acquired at step A1 to the terminal device 30 of the guide 31 (step A2). Thereby, the terminal device 30 receives the destination information, specifies the destination of the user 21 from the received destination information, displays the specified destination on the screen, and also displays a two-dimensional map on the screen ( (See FIG. 3 (a)). Then, when the guide 31 specifies the position of the destination on the two-dimensional map, the terminal device 30 calculates the two-dimensional coordinates of the destination, and provides the coordinate information for specifying the calculated two-dimensional coordinates as the guidance support device. 10 to send.

次に、データ処理部13は、端末装置30から送信されてきた座標情報を受信(ステップA3)。続いて、データ処理部13は、ステップA3で受信した座標情報によって特定される2次元座標から、2次元座標の電子地図上でのアフィン写像を算出し、算出したアフィン写像を特定する目的地視認データを生成する(ステップA4)。   Next, the data processing unit 13 receives the coordinate information transmitted from the terminal device 30 (step A3). Subsequently, the data processing unit 13 calculates an affine map on the electronic map of the two-dimensional coordinates from the two-dimensional coordinates specified by the coordinate information received in step A3, and the destination visual recognition for specifying the calculated affine maps. Data is generated (step A4).

次に、送信部12は、ステップA4で生成された目的地視認データを、ユーザ21の端末装置20に送信する(ステップA5)。ステップA5の実行により、案内支援装置10での処理は一旦終了する。   Next, the transmission part 12 transmits the destination visual recognition data produced | generated by step A4 to the terminal device 20 of the user 21 (step A5). By executing step A5, the processing in the guidance support apparatus 10 is temporarily terminated.

また、ステップA5の実行後、端末装置20は、算出したアフィン写像の仮想空間上での位置を特定し、仮想空間内における、特定した位置とその周辺とを表示する画像データを作成する。そして、端末装置20は、作成した画像データを用いて、画面上に、仮想空間と目的地の位置とを表示させる(図3(b)参照)。   Moreover, after execution of step A5, the terminal device 20 specifies the position of the calculated affine map in the virtual space, and creates image data that displays the specified position and its surroundings in the virtual space. Then, the terminal device 20 displays the virtual space and the position of the destination on the screen using the created image data (see FIG. 3B).

[実施の形態1における効果]
以上のように本実施の形態1によれば、ユーザ21は、自身の端末装置20上で目的地を入力するだけで、実際の街等を模した仮想空間上で、目的地を確認することができる。従って、ユーザ21は、自身の言語とは関係無く、直感的に理解できる案内を受けることができる。
[Effect in Embodiment 1]
As described above, according to the first embodiment, the user 21 confirms the destination on the virtual space imitating an actual town only by inputting the destination on the terminal device 20 of the user 21. Can do. Therefore, the user 21 can receive an intuitively understandable guide regardless of his / her language.

また、目的地の位置は、機械的に指定されるわけではなく、案内人31によって指定されるので、本実施の形態1では、「AAビルの入口」、「BBBビルに一番近い地下鉄C駅の出口」といった、ピンポイントでの指定も可能なる。   Further, since the destination position is not mechanically specified but specified by the guide 31, in the first embodiment, “the entrance of the AA building” and “the subway C closest to the BBB building”. Pinpoint designations such as “station exit” are also possible.

[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図4に示すステップA1〜A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における案内支援装置10と案内支援方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、情報取得部11、送信部12、及びデータ処理部13として機能し、処理を行なう。また、本実施の形態1では、地図データベース14は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現されている。
[program]
The program in the first embodiment may be a program that causes a computer to execute steps A1 to A5 shown in FIG. By installing and executing this program on a computer, the guidance support apparatus 10 and the guidance support method according to the first embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as an information acquisition unit 11, a transmission unit 12, and a data processing unit 13, and performs processing. Moreover, in this Embodiment 1, the map database 14 is implement | achieved by storing the data file which comprises these in memory | storage devices, such as a hard disk with which the computer was equipped.

また、本実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、情報取得部11、送信部12、及びデータ処理部13のいずれかとして機能しても良い。また、地図データベース14は、本実施の形態1におけるプログラムを実行するコンピュータとは別のコンピュータ上に構築されていても良い。   In addition, the program in the first embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any one of the information acquisition unit 11, the transmission unit 12, and the data processing unit 13, respectively. The map database 14 may be constructed on a computer different from the computer that executes the program according to the first embodiment.

[変形例]
続いて、本実施の形態1における変形例について図5を用いて説明する。図5は、本発明の実施の形態1における案内支援装置の変形例を具体的に示すブロック図である。
[Modification]
Subsequently, a modification example of the first embodiment will be described with reference to FIG. FIG. 5 is a block diagram specifically showing a modification of the guidance support apparatus according to Embodiment 1 of the present invention.

図5に示すように、本変形例では、案内人31の端末装置30に、案内人31が装着するVR(Virtual Reality)ゴーグル32が接続されている。また、VRゴーグル32には、図5には図示していないが、案内人の手の座標を検出するデバイスが接続されている。このようなデバイスとしては、例えば、ユーザが手に持って使用するコントローラタイプのもの、ユーザの手の位置及び指の動きを赤外線センサ等によってトラッキングするタイプのものが挙げられる。   As shown in FIG. 5, in this modification, a VR (Virtual Reality) goggle 32 worn by the guide 31 is connected to the terminal device 30 of the guide 31. The VR goggles 32 are connected to a device that detects the coordinates of the guide's hand, which is not shown in FIG. As such a device, for example, a controller type device that a user uses with a hand, and a device type that tracks the position of the user's hand and the movement of a finger with an infrared sensor or the like can be cited.

また、端末装置30で実行されるアプリケーションプログラムとして、仮想空間を構築し、構築した仮想空間をVRゴーグル32の画面に表示するプログラムが用いられている。このアプリケーションプログラムは、仮想空間において、上記のデバイスを介して、案内人による指さしによる任意の位置の指定を受け付け、更に、VRゴーグル32を介して、案内人の向きを示す方向ベクトルを特定する。   In addition, as an application program executed on the terminal device 30, a program that constructs a virtual space and displays the constructed virtual space on the screen of the VR goggles 32 is used. In the virtual space, the application program accepts designation of an arbitrary position by pointing with the guide through the above-described device, and further specifies a direction vector indicating the direction of the guide through the VR goggles 32.

具体的には、アプリケーションプログラムは、上記のデバイスからの情報に基づいて、VRゴーグル32を基準とした座標系における、案内人が位置を指定した際の手の座標を特定する。更に、アプリケーションプログラムは、VRゴーグル32からの情報に基づいて、VRゴーグル32の向き(案内人の向き)を示す方向ベクトルを特定する。   Specifically, the application program specifies the coordinates of the hand when the guide designates the position in the coordinate system based on the VR goggles 32 based on the information from the device. Furthermore, the application program specifies a direction vector indicating the direction of the VR goggles 32 (the direction of the guide) based on the information from the VR goggles 32.

そして、アプリケーションプログラムは、特定した手の座標と方向ベクトルとに対して、VRゴーグル32を基準とした座標系から仮想空間の座標系へのアフィン変換を行なって、仮想空間上でのアフィン写像(3次元座標及び方向ベクトル)を特定する。更に、アプリケーションプログラムは、算出したアフィン写像を特定するデータを座標情報として、案内支援装置10に送信する。   Then, the application program performs an affine transformation from the coordinate system based on the VR goggles 32 to the coordinate system of the virtual space with respect to the specified hand coordinate and the direction vector, and the affine mapping (in the virtual space ( 3D coordinates and direction vector) are specified. Furthermore, the application program transmits the data specifying the calculated affine map to the guidance support apparatus 10 as coordinate information.

本変形例では、データ処理部13は、座標情報が送信されてくると、座標情報によって特定されるアフィン写像から、ユーザ21の端末装置20に構築される仮想空間上で目的地の位置をユーザに視認させるためのデータ(以下「目的地視認データ」と表記する。)を生成する。   In the present modification, when the coordinate information is transmitted, the data processing unit 13 determines the position of the destination on the virtual space constructed in the terminal device 20 of the user 21 from the affine map specified by the coordinate information. Data for visual recognition (hereinafter referred to as “destination visual recognition data”) is generated.

具体的には、データ処理部13は、座標情報によって特定されるアフィン写像(3次元座標及び方向ベクトル)に対して、端末装置30における仮想空間の座標系から地図データベース14に格納されている電子地図の座標系へのアフィン変換を行なって、電子地図上でのアフィン写像(3次元座標及び方向ベクトル)を算出する。そして、データ処理部13は、算出したアフィン写像を特定するデータを、目的地視認データとする。   Specifically, the data processing unit 13 performs electronic processing stored in the map database 14 from the coordinate system of the virtual space in the terminal device 30 for the affine mapping (three-dimensional coordinates and direction vector) specified by the coordinate information. An affine transformation to the coordinate system of the map is performed to calculate an affine map (three-dimensional coordinates and direction vector) on the electronic map. Then, the data processing unit 13 sets the data for specifying the calculated affine mapping as destination visual recognition data.

その後、送信部12は、更に、目的地視認データをユーザ21の端末装置20に送信する。これにより、ユーザ21の端末装置20は、目的地視認データで特定されるアフィン写像(3次元座標及び方向ベクトル)に対して、電子地図の座標系から、端末装置20に構築される仮想立体空間の座標系へのアフィン変換を行なって、この仮想空間上でのアフィン写像(3次元座標及び方向ベクトル)を算出する。   Thereafter, the transmission unit 12 further transmits the destination visual recognition data to the terminal device 20 of the user 21. Thereby, the terminal device 20 of the user 21 is a virtual three-dimensional space constructed in the terminal device 20 from the coordinate system of the electronic map with respect to the affine map (three-dimensional coordinates and direction vector) specified by the destination visual recognition data. The affine transformation (three-dimensional coordinates and direction vector) in the virtual space is calculated by performing affine transformation into the coordinate system.

そして、端末装置20は、算出したアフィン写像の三次元座標から、仮想空間上での位置を特定し、更に、算出したアフィン写像の方向ベクトルに沿って、仮想空間内に視点を設定する。
続いて、端末装置20は、設定された視点で仮想空間が画面上に表示されるように、特定した位置とその周辺とを表示する画像データを作成し、作成した画像データを用いて、画面上に、仮想空間と目的地の位置とを表示させる。この場合、ユーザ21は、案内人と同じ視点で、目的地の位置を仮想空間上で把握することができる。
Then, the terminal device 20 specifies a position in the virtual space from the calculated three-dimensional coordinates of the affine map, and further sets a viewpoint in the virtual space along the calculated direction vector of the affine map.
Subsequently, the terminal device 20 creates image data that displays the specified position and its periphery so that the virtual space is displayed on the screen from the set viewpoint, and the screen data is displayed using the created image data. Above, the virtual space and the location of the destination are displayed. In this case, the user 21 can grasp the position of the destination on the virtual space from the same viewpoint as the guide.

このように、本変形例によれば、ユーザ21は、仮想空間において、案内人31と同じ視点から目的地を視認することができるので、ユーザ21に対してより理解のしやすい案内を提供することができる。   As described above, according to the present modification, the user 21 can visually recognize the destination from the same viewpoint as the guide 31 in the virtual space, and therefore provides easy-to-understand guidance to the user 21. be able to.

(実施の形態2)
次に、本発明の実施の形態2における、案内支援装置、案内支援方法、及びプログラムについて、図6を参照しながら説明する。
(Embodiment 2)
Next, a guidance support apparatus, a guidance support method, and a program according to Embodiment 2 of the present invention will be described with reference to FIG.

[装置構成]
本実施の形態2における案内支援装置は、図1及び図2に示した実施の形態1における案内支援装置10と同様の構成を備えている。従って、以下の説明では、適宜図1及び図2を参酌する。また、以下においては、実施の形態1との相違点を中心に説明する。
[Device configuration]
The guidance support apparatus according to the second embodiment has the same configuration as the guidance support apparatus 10 according to the first embodiment shown in FIGS. Therefore, in the following description, FIGS. 1 and 2 are referred to as appropriate. In the following description, differences from the first embodiment will be mainly described.

まず、本実施の形態2においては、情報取得部11は、ユーザ21の端末装置20から、ユーザ21の端末装置20の位置を特定する位置情報を取得する。データ処理部13は、取得された位置情報から、仮想空間上でのユーザの位置を特定する仮想空間位置情報を生成する。送信部12は、案内人31の端末装置30に、仮想空間位置情報を送信する。   First, in the second embodiment, the information acquisition unit 11 acquires position information that specifies the position of the terminal device 20 of the user 21 from the terminal device 20 of the user 21. The data processing unit 13 generates virtual space position information that identifies the position of the user in the virtual space from the acquired position information. The transmission unit 12 transmits the virtual space position information to the terminal device 30 of the guide 31.

また、端末装置30は、仮想空間位置情報を受信すると、受信した仮想空間位置情報から、仮想空間上でのユーザ21の位置を特定する。更に、端末装置30は、仮想空間内における、特定したユーザ21の位置とその周辺とを表示する画像データを作成し、作成した画像データを用いて、画面上に、仮想空間と特定したユーザ21の位置とを表示させる。   In addition, when receiving the virtual space position information, the terminal device 30 specifies the position of the user 21 in the virtual space from the received virtual space position information. Further, the terminal device 30 creates image data that displays the position of the identified user 21 and its surroundings in the virtual space, and the user 21 identified as the virtual space on the screen using the created image data. And the position of.

これにより、案内人31は、ユーザ21の位置を仮想空間上で把握することができる。また、端末装置30の画面に表示される画像は、図3(b)に示した画像と同様のものとなる。本実施の形態2では、丸印はユーザ21の位置を表すことになる。   Thereby, the guide 31 can grasp | ascertain the position of the user 21 on virtual space. The image displayed on the screen of the terminal device 30 is the same as the image shown in FIG. In the second embodiment, the circle represents the position of the user 21.

また、本実施の形態2においては、情報取得部11は、ユーザ21の端末装置20から、更に、端末装置20に備えられた撮像装置で撮影された画像の画像データを取得することもできる。この場合、データ処理部13は、位置情報で特定された仮想空間上でのユーザの位置を、画像データを用いて補正し、補正後のユーザ20の位置を特定する仮想空間位置情報を生成する。   In the second embodiment, the information acquisition unit 11 can also acquire image data of an image captured by the imaging device provided in the terminal device 20 from the terminal device 20 of the user 21. In this case, the data processing unit 13 corrects the position of the user on the virtual space specified by the position information using the image data, and generates virtual space position information that specifies the corrected position of the user 20. .

また、データ処理部13は、画像データに基づいて、仮想空間内でのユーザの向きを特定し、特定したユーザの向きを、仮想空間位置情報に付加することもできる。この場合、仮想空間位置情報から、仮想空間内でのユーザの位置及び向きが特定可能となる。   Further, the data processing unit 13 can specify the orientation of the user in the virtual space based on the image data, and can add the specified orientation of the user to the virtual space position information. In this case, the position and orientation of the user in the virtual space can be specified from the virtual space position information.

具体的には、データ処理部13は、画像データで特定される画像を、地図データベース14に格納されている3次元の電子地図に照合し、照合結果に基づいて、電子地図における該当する位置及び向きを特定する。そして、データ処理部13は、特定した位置及び向きに対して、電子地図の座標系から仮想空間の座標系へのアフィン変換を行なって、仮想空間上の位置及び向きを算出する。   Specifically, the data processing unit 13 collates the image specified by the image data with a three-dimensional electronic map stored in the map database 14, and based on the collation result, the corresponding position on the electronic map and Identify the orientation. Then, the data processing unit 13 performs affine transformation from the coordinate system of the electronic map to the coordinate system of the virtual space with respect to the specified position and orientation, and calculates the position and orientation in the virtual space.

そして、この態様では、端末装置30は、仮想空間上のユーザ21の位置及び向きに沿って、仮想空間内に視点を設定し、設定された視点で仮想空間が画面上に表示されるように、ユーザ21の位置とその周辺とを表示する画像データを作成する。このため、案内人は、ユーザ21がどちらを向いているかを把握でき、より適切な案内を提供できる。   In this aspect, the terminal device 30 sets the viewpoint in the virtual space along the position and orientation of the user 21 in the virtual space, and the virtual space is displayed on the screen from the set viewpoint. Then, image data for displaying the position of the user 21 and its surroundings is created. For this reason, the guide can grasp which direction the user 21 is facing and can provide more appropriate guidance.

また、情報取得部11は、ユーザ21の端末装置20から、端末装置20の向きを特定する方位データを取得することもできる。この場合、データ処理部13は、方位データを用いて、画像データから特定されたユーザの向きを補正する。この結果、ユーザの向きはより正確なものとなる。   Further, the information acquisition unit 11 can also acquire azimuth data that specifies the orientation of the terminal device 20 from the terminal device 20 of the user 21. In this case, the data processing unit 13 corrects the orientation of the user specified from the image data using the orientation data. As a result, the orientation of the user is more accurate.

[装置動作]
次に、本発明の実施の形態2における案内支援装置の動作について図6を用いて説明する。図6は、本発明の実施の形態2における案内支援装置の動作を示すフロー図である。以下の説明においては、適宜図1〜図3を参酌する。また、本実施の形態2では、案内支援装置を動作させることによって、案内支援方法が実施される。よって、本実施の形態2における案内支援方法の説明は、以下の案内支援装置の動作説明に代える。
[Device operation]
Next, operation | movement of the guidance assistance apparatus in Embodiment 2 of this invention is demonstrated using FIG. FIG. 6 is a flowchart showing the operation of the guidance support apparatus according to Embodiment 2 of the present invention. In the following description, FIGS. Moreover, in this Embodiment 2, a guidance assistance method is implemented by operating a guidance assistance apparatus. Therefore, the description of the guidance support method in the second embodiment is replaced with the following description of the operation of the guidance support apparatus.

最初に、図6に示すように、情報取得部11は、ユーザ21の端末装置20から、ユーザ21の端末装置20の位置を特定する位置情報、端末装置20の周辺の画像データ、方位データを取得する(ステップB1)。   First, as illustrated in FIG. 6, the information acquisition unit 11 obtains, from the terminal device 20 of the user 21, position information that specifies the position of the terminal device 20 of the user 21, image data around the terminal device 20, and azimuth data. Obtain (step B1).

次に、データ処理部13は、ステップB1で取得された位置情報から、端末装置20に構築される仮想空間上でのユーザ21の位置を特定する(ステップB2)。   Next, the data processing unit 13 specifies the position of the user 21 in the virtual space constructed in the terminal device 20 from the position information acquired in Step B1 (Step B2).

次に、データ処理部13は、ステップB1で取得された画像データに基づいて、仮想空間上でのユーザの位置を算出し、算出したユーザの位置を用いて、ステップB2で特定されたユーザ21の位置を補正する(ステップB3)。   Next, the data processing unit 13 calculates the position of the user in the virtual space based on the image data acquired in Step B1, and uses the calculated user position, the user 21 specified in Step B2. Is corrected (step B3).

次に、データ処理部13は、ステップB1で取得された方位データを用いて、ステップB4で特定されたユーザの向きを特定する(ステップB4)。   Next, the data processing unit 13 specifies the orientation of the user specified in step B4 using the azimuth data acquired in step B1 (step B4).

次に、データ処理部13は、ステップB1で取得された画像データに基づいて、仮想空間上でのユーザの向きを補正する(ステップB5)。   Next, the data processing unit 13 corrects the orientation of the user in the virtual space based on the image data acquired in Step B1 (Step B5).

次に、データ処理部14は、ステップB3による補正後のユーザ21の位置と、ステップB5による補正後のユーザ21の向きとを特定する仮想空間位置情報を生成する(ステップB6)。   Next, the data processing unit 14 generates virtual space position information that identifies the position of the user 21 corrected in step B3 and the direction of the user 21 corrected in step B5 (step B6).

その後、送信部12は、案内人31の端末装置30に、ステップB6で生成された仮想空間位置情報を送信する(ステップB7)。   Then, the transmission part 12 transmits the virtual space position information produced | generated by step B6 to the terminal device 30 of the guide 31 (step B7).

ステップB7の実行により、端末装置30は、ユーザ21の向きに沿って、仮想空間内に視点を設定し、設定された視点で仮想空間を画面上に表示し、更に、その上に、ユーザ21の位置も表示する。   By executing Step B7, the terminal device 30 sets the viewpoint in the virtual space along the direction of the user 21, displays the virtual space on the screen from the set viewpoint, and further displays the virtual space on the user 21. The position of is also displayed.

[実施の形態2における効果]
以上のように、本実施の形態2では、ユーザ21が、自身の端末装置20から位置情報を送信すれば、案内人31は、街等を模した仮想空間上で、ユーザ21の位置を把握することができる。従って、案内人31においては、ユーザ21に対する案内の提供が容易なものとなる。
[Effects of Embodiment 2]
As described above, in the second embodiment, if the user 21 transmits position information from his / her terminal device 20, the guide 31 grasps the position of the user 21 in a virtual space imitating a city or the like. can do. Therefore, the guide 31 can easily provide guidance to the user 21.

[プログラム]
本実施の形態2におけるプログラムは、コンピュータに、図6に示すステップB1〜B7を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における案内支援装置と案内支援方法とを実現することができる。この場合、コンピュータのCPU(Central Processing Unit)は、情報取得部11、送信部12、及びデータ処理部13として機能し、処理を行なう。また、本実施の形態2においも、地図データベース14は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現されている。
[program]
The program in the second embodiment may be a program that causes a computer to execute steps B1 to B7 shown in FIG. By installing and executing this program on a computer, the guidance support apparatus and the guidance support method according to the second embodiment can be realized. In this case, a CPU (Central Processing Unit) of the computer functions as an information acquisition unit 11, a transmission unit 12, and a data processing unit 13, and performs processing. Also in the second embodiment, the map database 14 is realized by storing data files constituting these in a storage device such as a hard disk provided in the computer.

また、本実施の形態2におけるプログラムも、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、情報取得部11、送信部12、及びデータ処理部13のいずれかとして機能しても良い。また、地図データベース14は、本実施の形態2におけるプログラムを実行するコンピュータとは別のコンピュータ上に構築されていても良い。   Further, the program according to the second embodiment may also be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer may function as any one of the information acquisition unit 11, the transmission unit 12, and the data processing unit 13, respectively. The map database 14 may be constructed on a computer different from the computer that executes the program according to the second embodiment.

[変形例]
本実施の形態2における案内支援装置は、実施の形態1における案内支援装置10の機能を備えていても良い。即ち、本実施の形態2においても、情報取得部11は、ユーザの目的地を特定する行先情報を取得しても良い。送信部12は、取得された行先情報を案内人の端末装置に送信しても良い。データ処理部13は、案内人が、案内人の端末装置によって目的地の座標を特定した場合に、特定された座標を用いて、仮想空間上で目的地の位置をユーザに視認させるためのデータを生成しても良い。この態様によれば、実施の形態1及び2における効果を全て得ることができる。
[Modification]
The guidance support apparatus according to the second embodiment may have the function of the guidance support apparatus 10 according to the first embodiment. That is, also in the second embodiment, the information acquisition unit 11 may acquire destination information that specifies a user's destination. The transmission unit 12 may transmit the acquired destination information to the terminal device of the guide. The data processing unit 13 is a data for allowing the user to visually recognize the position of the destination in the virtual space using the specified coordinates when the guide specifies the coordinates of the destination using the terminal device of the guide. May be generated. According to this aspect, all the effects in Embodiments 1 and 2 can be obtained.

(物理構成)
ここで、実施の形態1及び2におけるプログラムを実行することによって、案内支援装置を実現するコンピュータについて図7を用いて説明する。図7は、本発明の実施の形態1及び2における案内支援装置を実現するコンピュータの一例を示すブロック図である。
(Physical configuration)
Here, a computer that realizes the guidance support apparatus by executing the programs in the first and second embodiments will be described with reference to FIG. FIG. 7 is a block diagram illustrating an example of a computer that implements the guidance support apparatus according to Embodiments 1 and 2 of the present invention.

図7に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。   As shown in FIG. 7, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. These units are connected to each other via a bus 121 so that data communication is possible.

CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。   The CPU 111 performs various calculations by developing the program (code) in the present embodiment stored in the storage device 113 in the main memory 112 and executing them in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. Note that the program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。   Specific examples of the storage device 113 include a hard disk drive and a semiconductor storage device such as a flash memory. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse. The display controller 115 is connected to the display device 119 and controls display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。   The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, and reads a program from the recording medium 120 and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。   Specific examples of the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as a flexible disk, or CD- An optical recording medium such as ROM (Compact Disk Read Only Memory) can be used.

また、本実施の形態1及び2における案内支援装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、案内支援装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。   In addition, the guidance support apparatus according to the first and second embodiments can be realized by using hardware corresponding to each unit instead of a computer in which a program is installed. Furthermore, a part of the guidance support apparatus may be realized by a program, and the remaining part may be realized by hardware.

以上のように、本発明によれば、ユーザの使用する言語に縛られることなく、ユーザが直感的に理解できるように目的地への案内を行なうことができる。本発明は、特に外国人への案内が必要な分野に有用である。   As described above, according to the present invention, it is possible to provide guidance to a destination so that the user can intuitively understand without being bound by the language used by the user. The present invention is particularly useful in fields that require guidance to foreigners.

10 案内支援装置
11 情報取得部
12 送信部
13 データ処理部
14 地図データベース
20 ユーザの端末装置
21 ユーザ
30 案内人の端末装置
31 案内人
32 VRゴーグル
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
DESCRIPTION OF SYMBOLS 10 Guide assistance apparatus 11 Information acquisition part 12 Transmission part 13 Data processing part 14 Map database 20 User terminal device 21 User 30 Guider's terminal device 31 Guider 32 VR goggles 110 Computer 111 CPU
112 Main Memory 113 Storage Device 114 Input Interface 115 Display Controller 116 Data Reader / Writer 117 Communication Interface 118 Input Device 119 Display Device 120 Recording Medium 121 Bus

Claims (27)

案内人によるユーザの目的地への案内を支援するための装置であって、
前記ユーザの目的地を特定する行先情報を取得する、情報取得部と、
取得された前記行先情報を前記案内人の端末装置に送信する、送信部と、
前記案内人が、前記案内人の端末装置によって前記目的地の座標を指定した場合に、指定された座標を用いて、仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、データ処理部と、
を備えていることを特徴とする案内支援装置。
An apparatus for supporting guidance to a user's destination by a guide,
An information acquisition unit for acquiring destination information for specifying the destination of the user;
A transmitter that transmits the acquired destination information to the terminal device of the guide;
When the guide designates the coordinates of the destination with the terminal device of the guide, data for causing the user to visually recognize the position of the destination on the virtual space using the designated coordinates. A data processing unit to generate;
It is provided with the guidance assistance apparatus characterized by the above-mentioned.
前記案内人が、前記案内人の端末装置によって、2次元地図上で前記目的地の位置を指定することによって、前記目的地の2次元座標を指定した場合に、前記データ処理部が、指定された2次元座標から、前記ユーザの端末装置に構築される仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、
請求項1に記載の案内支援装置。
When the guide designates the two-dimensional coordinates of the destination by designating the position of the destination on the two-dimensional map by the guide device of the guide, the data processing unit is designated. From the two-dimensional coordinates, data for causing the user to visually recognize the position of the destination on a virtual space constructed on the terminal device of the user is generated.
The guidance support device according to claim 1.
前記送信部が、更に、生成された前記データを前記ユーザの端末装置に送信して、前記ユーザの端末装置の画面上に、前記仮想空間と前記目的地の位置とを表示させる、
請求項1に記載の案内支援装置。
The transmitting unit further transmits the generated data to the user terminal device to display the virtual space and the location of the destination on the screen of the user terminal device;
The guidance support device according to claim 1.
前記情報取得部が、更に、前記ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得し、
前記データ処理部が、取得された前記位置情報から、前記仮想空間上でのユーザの位置を特定する仮想空間位置情報を生成し、
前記送信部が、前記案内人の端末装置に、前記仮想空間位置情報を送信する、
請求項1〜3のいずれかに記載の案内支援装置。
The information acquisition unit further acquires position information for specifying a position of the user terminal device from the user terminal device;
The data processing unit generates virtual space position information that identifies the position of the user on the virtual space from the acquired position information,
The transmitting unit transmits the virtual space position information to the terminal device of the guide;
The guidance assistance apparatus in any one of Claims 1-3.
前記情報取得部が、前記ユーザの端末装置から、更に、前記ユーザの端末装置に備えられた撮像装置で撮影された画像の画像データを取得し、
前記データ処理部が、取得された前記位置情報で特定された、前記仮想空間上での前記ユーザの位置を、前記画像データを用いて補正し、補正後の前記ユーザの位置を特定する前記仮想空間位置情報を生成する、
請求項4に記載の案内支援装置。
The information acquisition unit acquires image data of an image taken by an imaging device provided in the user terminal device from the user terminal device;
The virtual processing unit is configured to correct the position of the user in the virtual space specified by the acquired position information using the image data, and specify the corrected position of the user. Generate spatial location information,
The guidance support device according to claim 4.
前記情報取得部が、前記ユーザの端末装置から、更に、前記ユーザの端末装置の向きを特定する方位データを取得し、
前記データ処理部が、取得された前記方位データに基づいて、前記仮想空間内での前記ユーザの向きを特定し、更に、前記画像データを用いて、前記仮想空間上での前記ユーザの向きを補正し、補正後の前記ユーザの向きを前記仮想空間位置情報に付加する、
請求項5に記載の案内支援装置。
The information acquisition unit further acquires orientation data specifying the orientation of the user terminal device from the user terminal device,
The data processing unit identifies the orientation of the user in the virtual space based on the acquired orientation data, and further uses the image data to determine the orientation of the user in the virtual space. Correct and add the corrected orientation of the user to the virtual space position information,
The guidance support device according to claim 5.
ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、情報取得部と、
取得された前記位置情報から、仮想空間上での前記ユーザの位置を特定する仮想空間位置情報を生成する、データ処理部と、
案内人の端末装置に、前記仮想空間位置情報を送信する、送信部と、
を備えていることを特徴とする案内支援装置。
An information acquisition unit that acquires position information that specifies the position of the user terminal device from the user terminal device;
A data processing unit that generates virtual space position information that identifies the position of the user on the virtual space from the acquired position information;
A transmitter that transmits the virtual space position information to the terminal device of the guide; and
It is provided with the guidance assistance apparatus characterized by the above-mentioned.
前記情報取得部が、前記ユーザの端末装置から、更に、前記ユーザの端末装置に備えられた撮像装置で撮影された画像の画像データを取得し、
前記データ処理部が、取得された前記位置情報で特定された、前記仮想空間上での前記ユーザの位置を、前記画像データを用いて補正し、補正後の前記ユーザの位置を特定する前記仮想空間位置情報を生成する、
請求項7に記載の案内支援装置。
The information acquisition unit acquires image data of an image taken by an imaging device provided in the user terminal device from the user terminal device;
The virtual processing unit is configured to correct the position of the user in the virtual space specified by the acquired position information using the image data, and specify the corrected position of the user. Generate spatial location information,
The guidance support apparatus according to claim 7.
前記情報取得部が、前記ユーザの端末装置から、更に、前記ユーザの端末装置の向きを特定する方位データを取得し、
前記データ処理部が、取得された前記方位データに基づいて、前記仮想空間内での前記ユーザの向きを特定し、更に、前記画像データを用いて、前記仮想空間上での前記ユーザの向きを補正し、補正後の前記ユーザの向きを前記仮想空間位置情報に付加する、
請求項8に記載の案内支援装置。
The information acquisition unit further acquires orientation data specifying the orientation of the user terminal device from the user terminal device,
The data processing unit identifies the orientation of the user in the virtual space based on the acquired orientation data, and further uses the image data to determine the orientation of the user in the virtual space. Correct and add the corrected orientation of the user to the virtual space position information,
The guidance support device according to claim 8.
案内人によるユーザの目的地への案内を支援するための方法であって、
(a)前記ユーザの目的地を特定する行先情報を取得する、ステップと、
(b)取得された前記行先情報を前記案内人の端末装置に送信する、ステップと、
(c)前記案内人が、前記案内人の端末装置によって前記目的地の座標を指定した場合に、指定された座標を用いて、仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、ステップと、
を有することを特徴とする案内支援方法。
A method for supporting a guide to a user's destination by a guide,
(A) obtaining destination information for identifying the destination of the user;
(B) transmitting the acquired destination information to the terminal device of the guide;
(C) When the guide designates the coordinates of the destination using the terminal device of the guide, in order to make the user visually recognize the position of the destination on the virtual space using the designated coordinates. Generating the data of, and
A guide support method characterized by comprising:
前記案内人が、前記案内人の端末装置によって、2次元地図上で前記目的地の位置を指定することによって、前記目的地の2次元座標を指定した場合に、前記(c)のステップにおいて、指定された2次元座標から、前記ユーザの端末装置に構築される仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、
請求項10に記載の案内支援方法。
When the guide designates the two-dimensional coordinates of the destination by designating the position of the destination on the two-dimensional map by the guide device of the guide, in the step (c), From the specified two-dimensional coordinates, generate data for allowing the user to visually recognize the position of the destination on a virtual space constructed in the terminal device of the user.
The guidance support method according to claim 10.
(d)前記ステップ(c)で生成された前記データを前記ユーザの端末装置に送信して、前記ユーザの端末装置の画面上に、前記仮想空間と前記目的地の位置とを表示させる、ステップを、
更に有している請求項10に記載の案内支援方法。
(D) transmitting the data generated in the step (c) to the terminal device of the user and displaying the virtual space and the position of the destination on the screen of the terminal device of the user; The
The guidance support method according to claim 10, further comprising:
(e)前記ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、ステップと、
(f)前記(e)のステップで取得された前記位置情報から、前記仮想空間上でのユーザの位置を特定する仮想空間位置情報を生成する、ステップと、
(g)前記案内人の端末装置に、前記(f)のステップで生成した前記仮想空間位置情報を送信する、ステップと、
を更に有する、請求項10〜12のいずれかに記載の案内支援方法。
(E) obtaining from the terminal device of the user position information specifying the position of the terminal device of the user;
(F) generating virtual space position information for specifying the position of the user on the virtual space from the position information acquired in the step (e);
(G) transmitting the virtual space position information generated in the step (f) to the terminal device of the guide;
The guidance support method according to claim 10, further comprising:
前記(e)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置に備えられた撮像装置で撮影された画像の画像データを取得し、
前記(f)のステップで、取得された前記位置情報で特定された、前記仮想空間上での前記ユーザの位置を、前記画像データを用いて補正し、補正後の前記ユーザの位置を特定する前記仮想空間位置情報を生成する、
請求項13に記載の案内支援方法。
In the step (e), image data of an image taken by an imaging device provided in the user terminal device is further acquired from the user terminal device;
The position of the user in the virtual space specified by the acquired position information in the step (f) is corrected using the image data, and the corrected position of the user is specified. Generating the virtual space position information;
The guidance support method according to claim 13.
前記(e)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置の向きを特定する方位データを取得し、
前記(f)のステップで、前記(e)のステップによって取得された前記方位データに基づいて、前記仮想空間内での前記ユーザの向きを特定し、更に、前記画像データを用いて、前記仮想空間上での前記ユーザの向きを補正し、補正後の前記ユーザの向きを前記仮想空間位置情報に付加する、
請求項14に記載の案内支援方法。
In the step (e), from the user's terminal device, further acquiring azimuth data for specifying the orientation of the user's terminal device,
In the step (f), the orientation of the user in the virtual space is specified based on the azimuth data acquired in the step (e), and further, the virtual data is used using the image data. Correcting the orientation of the user in space, and adding the corrected orientation of the user to the virtual space position information;
The guidance support method according to claim 14.
(a)ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、ステップと、
(b)前記(a)のステップで取得された前記位置情報から、仮想空間上での前記ユーザの位置を特定する仮想空間位置情報を生成する、ステップと、
(c)案内人の端末装置に、前記(b)のステップで生成された前記仮想空間位置情報を送信する、ステップと、
を有することを特徴とする案内支援方法。
(A) acquiring from the user's terminal device position information specifying the position of the user's terminal device;
(B) generating virtual space position information for specifying the position of the user on the virtual space from the position information acquired in the step (a);
(C) transmitting the virtual space position information generated in the step (b) to the terminal device of the guide;
A guide support method characterized by comprising:
前記(a)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置に備えられた撮像装置で撮影された画像の画像データを取得し、
前記(b)のステップで、取得された前記位置情報で特定された、前記仮想空間上での前記ユーザの位置を、前記画像データを用いて補正し、補正後の前記ユーザの位置を特定する前記仮想空間位置情報を生成する、
請求項16に記載の案内支援方法。
In the step (a), image data of an image taken by an imaging device provided in the user terminal device is further acquired from the user terminal device;
In the step (b), the position of the user in the virtual space specified by the acquired position information is corrected using the image data, and the corrected position of the user is specified. Generating the virtual space position information;
The guidance support method according to claim 16.
前記(a)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置の向きを特定する方位データを取得し、
前記(b)のステップで、(a)のステップによって取得された前記方位データに基づいて、前記仮想空間内での前記ユーザの向きを特定し、更に、前記画像データを用いて、前記仮想空間上での前記ユーザの向きを補正し、補正後の前記ユーザの向きを前記仮想空間位置情報に付加する、
請求項17に記載の案内支援方法。
In the step (a), from the user's terminal device, further obtain azimuth data for specifying the orientation of the user's terminal device,
In the step (b), the orientation of the user in the virtual space is specified based on the azimuth data acquired in the step (a), and further, the virtual space is used using the image data. Correcting the orientation of the user above, and adding the corrected orientation of the user to the virtual space position information;
The guidance support method according to claim 17.
コンピュータによって、案内人によるユーザの目的地への案内を支援するためのプログラムであって、
前記コンピュータに、
(a)前記ユーザの目的地を特定する行先情報を取得する、ステップと、
(b)取得された前記行先情報を前記案内人の端末装置に送信する、ステップと、
(c)前記案内人が、前記案内人の端末装置によって前記目的地の座標を指定した場合に、指定された座標を用いて、仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、ステップと、
を実行させる、プログラム。
A program for supporting guidance to a user's destination by a guide by a computer,
In the computer,
(A) obtaining destination information for identifying the destination of the user;
(B) transmitting the acquired destination information to the terminal device of the guide;
(C) When the guide designates the coordinates of the destination using the terminal device of the guide, in order to make the user visually recognize the position of the destination on the virtual space using the designated coordinates. Generating the data of, and
A program that executes
前記案内人が、前記案内人の端末装置によって、2次元地図上で前記目的地の位置を指定することによって、前記目的地の2次元座標を指定した場合に、前記(c)のステップにおいて、指定された2次元座標から、前記ユーザの端末装置に構築される仮想空間上で前記目的地の位置を前記ユーザに視認させるためのデータを生成する、
請求項19に記載のプログラム。
When the guide designates the two-dimensional coordinates of the destination by designating the position of the destination on the two-dimensional map by the guide device of the guide, in the step (c), From the specified two-dimensional coordinates, generate data for allowing the user to visually recognize the position of the destination on a virtual space constructed in the terminal device of the user.
The program according to claim 19.
前記コンピュータに、
(d)前記ステップ(c)で生成された前記データを前記ユーザの端末装置に送信して、前記ユーザの端末装置の画面上に、前記仮想空間と前記目的地の位置とを表示させる、ステップを、
更に実行させる、請求項19に記載のプログラム。
In the computer,
(D) transmitting the data generated in the step (c) to the terminal device of the user and displaying the virtual space and the position of the destination on the screen of the terminal device of the user; The
The program according to claim 19, further executed.
前記コンピュータに、
(e)前記ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、ステップと、
(f)前記(e)のステップで取得された前記位置情報から、前記仮想空間上でのユーザの位置を特定する仮想空間位置情報を生成する、ステップと、
(g)前記案内人の端末装置に、前記(f)のステップで生成した前記仮想空間位置情報を送信する、ステップと、
を更に実行させる、請求項19〜21のいずれかに記載のプログラム。
In the computer,
(E) obtaining from the terminal device of the user position information specifying the position of the terminal device of the user;
(F) generating virtual space position information for specifying the position of the user on the virtual space from the position information acquired in the step (e);
(G) transmitting the virtual space position information generated in the step (f) to the terminal device of the guide;
The program according to any one of claims 19 to 21, wherein the program is further executed.
前記(e)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置に備えられた撮像装置で撮影された画像の画像データを取得し、
前記(f)のステップで、取得された前記位置情報で特定された、前記仮想空間上での前記ユーザの位置を、前記画像データを用いて補正し、補正後の前記ユーザの位置を特定する前記仮想空間位置情報を生成する、
請求項22に記載のプログラム。
In the step (e), image data of an image taken by an imaging device provided in the user terminal device is further acquired from the user terminal device;
The position of the user in the virtual space specified by the acquired position information in the step (f) is corrected using the image data, and the corrected position of the user is specified. Generating the virtual space position information;
The program according to claim 22.
前記(e)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置の向きを特定する方位データを取得し、
前記(f)のステップで、前記(e)のステップによって取得された前記方位データに基づいて、前記仮想空間内での前記ユーザの向きを特定し、更に、前記画像データを用いて、前記仮想空間上での前記ユーザの向きを補正し、補正後の前記ユーザの向きを前記仮想空間位置情報に付加する、
請求項23に記載のプログラム。
In the step (e), from the user's terminal device, further acquiring azimuth data for specifying the orientation of the user's terminal device,
In the step (f), the orientation of the user in the virtual space is specified based on the azimuth data acquired in the step (e), and further, the virtual data is used using the image data. Correcting the orientation of the user in space, and adding the corrected orientation of the user to the virtual space position information;
The program according to claim 23.
コンピュータに、
(a)ユーザの端末装置から、前記ユーザの端末装置の位置を特定する位置情報を取得する、ステップと、
(b)前記(a)のステップで取得された前記位置情報から、仮想空間上での前記ユーザの位置を特定する仮想空間位置情報を生成する、ステップと、
(c)案内人の端末装置に、前記(b)のステップで生成された前記仮想空間位置情報を送信する、ステップと、
を実行させる、プログラム。
On the computer,
(A) acquiring from the user's terminal device position information specifying the position of the user's terminal device;
(B) generating virtual space position information for specifying the position of the user on the virtual space from the position information acquired in the step (a);
(C) transmitting the virtual space position information generated in the step (b) to the terminal device of the guide;
A program that executes
前記(a)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置に備えられた撮像装置で撮影された画像の画像データを取得し、
前記(b)のステップで、取得された前記位置情報で特定された、前記仮想空間上での前記ユーザの位置を、前記画像データを用いて補正し、補正後の前記ユーザの位置を特定する前記仮想空間位置情報を生成する、、
請求項25に記載のプログラム。
In the step (a), image data of an image taken by an imaging device provided in the user terminal device is further acquired from the user terminal device;
In the step (b), the position of the user in the virtual space specified by the acquired position information is corrected using the image data, and the corrected position of the user is specified. Generating the virtual space position information;
The program according to claim 25.
前記(a)のステップで、前記ユーザの端末装置から、更に、前記ユーザの端末装置の向きを特定する方位データを取得し、
前記(b)のステップで、(a)のステップによって取得された前記方位データに基づいて、前記仮想空間内での前記ユーザの向きを特定し、更に、前記画像データを用いて、前記仮想空間上での前記ユーザの向きを補正し、補正後の前記ユーザの向きを前記仮想空間位置情報に付加する、
請求項26に記載のプログラム。
In the step (a), from the user's terminal device, further obtain azimuth data for specifying the orientation of the user's terminal device,
In the step (b), the orientation of the user in the virtual space is specified based on the azimuth data acquired in the step (a), and further, the virtual space is used using the image data. Correcting the orientation of the user above, and adding the corrected orientation of the user to the virtual space position information;
The program according to claim 26.
JP2016159627A 2016-08-16 2016-08-16 Guidance support device, guidance support method, and program Active JP6773316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016159627A JP6773316B2 (en) 2016-08-16 2016-08-16 Guidance support device, guidance support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016159627A JP6773316B2 (en) 2016-08-16 2016-08-16 Guidance support device, guidance support method, and program

Publications (2)

Publication Number Publication Date
JP2018028455A true JP2018028455A (en) 2018-02-22
JP6773316B2 JP6773316B2 (en) 2020-10-21

Family

ID=61247896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016159627A Active JP6773316B2 (en) 2016-08-16 2016-08-16 Guidance support device, guidance support method, and program

Country Status (1)

Country Link
JP (1) JP6773316B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253377A (en) * 1997-03-11 1998-09-25 Zexel:Kk Navigation system for automobile using remote down load of data
JP2001033269A (en) * 1999-07-23 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional road guidance image presenting method, three-dimensional guidance image presenting device and recording medium having three-dimensional guidance image presentation program recorded thereon
JP2003076267A (en) * 2001-09-06 2003-03-14 Nec Eng Ltd 3d-map distribution guidance system
JP2004144602A (en) * 2002-10-24 2004-05-20 Nec Corp Route guidance service system for cellular phone
JP2006337192A (en) * 2005-06-02 2006-12-14 Nec Fielding Ltd Road guidance system and program for same
WO2007077613A1 (en) * 2005-12-28 2007-07-12 Fujitsu Limited Navigation information display system, navigation information display method and program for the same
JP2008070705A (en) * 2006-09-15 2008-03-27 Cad Center:Kk Picture providing system and picture providing server device
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2013149190A (en) * 2012-01-23 2013-08-01 Zenrin Datacom Co Ltd Guide service management server apparatus, guide service management method, guide service management program, and guide service mediation system
WO2014017200A1 (en) * 2012-07-25 2014-01-30 ソニー株式会社 Information processing device and program
JP2015227869A (en) * 2014-05-07 2015-12-17 アクセラス株式会社 Voice guide support system and program thereof

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253377A (en) * 1997-03-11 1998-09-25 Zexel:Kk Navigation system for automobile using remote down load of data
JP2001033269A (en) * 1999-07-23 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional road guidance image presenting method, three-dimensional guidance image presenting device and recording medium having three-dimensional guidance image presentation program recorded thereon
JP2003076267A (en) * 2001-09-06 2003-03-14 Nec Eng Ltd 3d-map distribution guidance system
JP2004144602A (en) * 2002-10-24 2004-05-20 Nec Corp Route guidance service system for cellular phone
JP2006337192A (en) * 2005-06-02 2006-12-14 Nec Fielding Ltd Road guidance system and program for same
WO2007077613A1 (en) * 2005-12-28 2007-07-12 Fujitsu Limited Navigation information display system, navigation information display method and program for the same
JP2008070705A (en) * 2006-09-15 2008-03-27 Cad Center:Kk Picture providing system and picture providing server device
JP2010118019A (en) * 2008-11-14 2010-05-27 Sharp Corp Terminal device, distribution device, control method of terminal device, control method of distribution device, control program, and recording medium
JP2013149190A (en) * 2012-01-23 2013-08-01 Zenrin Datacom Co Ltd Guide service management server apparatus, guide service management method, guide service management program, and guide service mediation system
WO2014017200A1 (en) * 2012-07-25 2014-01-30 ソニー株式会社 Information processing device and program
JP2015227869A (en) * 2014-05-07 2015-12-17 アクセラス株式会社 Voice guide support system and program thereof

Also Published As

Publication number Publication date
JP6773316B2 (en) 2020-10-21

Similar Documents

Publication Publication Date Title
JP6635037B2 (en) Information processing apparatus, information processing method, and program
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
US10225506B2 (en) Information processing apparatus and information processing method
JP6296056B2 (en) Image processing apparatus, image processing method, and program
US20120210254A1 (en) Information processing apparatus, information sharing method, program, and terminal device
US9268410B2 (en) Image processing device, image processing method, and program
CN112074797A (en) System and method for anchoring virtual objects to physical locations
CN105659295A (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
JP2013080326A (en) Image processing device, image processing method, and program
US10229543B2 (en) Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method
US9857177B1 (en) Personalized points of interest for mapping applications
US9459115B1 (en) Unobstructed map navigation using animation
US20140152562A1 (en) Display controller, display system, storage medium and method
JPWO2018034053A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
CN113289327A (en) Display control method and device of mobile terminal, storage medium and electronic equipment
KR20190047922A (en) System for sharing information using mixed reality
US10895913B1 (en) Input control for augmented reality applications
US20120281102A1 (en) Portable terminal, activity history depiction method, and activity history depiction system
JP6872193B2 (en) Server equipment, electronic content management system, and control method
JP6773316B2 (en) Guidance support device, guidance support method, and program
KR101162703B1 (en) Method, terminal and computer-readable recording medium for remote control on the basis of 3d virtual space
JP6543515B2 (en) Guidance information display device, guidance information display system, and program
KR102033587B1 (en) Method, apparratus and computer program for navigation using augmented reality
KR102566039B1 (en) Apparatus and method for providing contents for route guidance
KR101939530B1 (en) Method and apparatus for displaying augmented reality object based on geometry recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200924

R150 Certificate of patent or registration of utility model

Ref document number: 6773316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150