JP7459020B2 - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP7459020B2 JP7459020B2 JP2021101353A JP2021101353A JP7459020B2 JP 7459020 B2 JP7459020 B2 JP 7459020B2 JP 2021101353 A JP2021101353 A JP 2021101353A JP 2021101353 A JP2021101353 A JP 2021101353A JP 7459020 B2 JP7459020 B2 JP 7459020B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- voice
- location
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 48
- 238000003672 processing method Methods 0.000 title claims description 10
- 230000006399 behavior Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000009434 installation Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000015654 memory Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000003287 bathing Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000035622 drinking Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
ユーザの行動に関する履歴情報から、ユーザの通常の行動から外れる外れ行動を示す情報である外れ情報を抽出し、抽出された外れ情報に基づいて、ユーザの特性であって、外れ行動により顕在化される特性であるユーザ特性を推定する技術が開示されている。 Outlier information, which is information indicating deviant behavior that deviates from the user's normal behavior, is extracted from historical information regarding user behavior, and based on the extracted deviant information, user characteristics that are manifested by deviant behavior are extracted. A technique has been disclosed for estimating user characteristics, which are characteristics associated with a given user.
しかしながら、上記の従来技術では、普段国内で行動しており履歴情報から行動を追うことが可能な国内のユーザの特性は推定できるが、インバウンド(Inbound)等で一時的に海外から訪れたユーザの履歴情報は存在せず行動を追うことはできないため、初めて日本を訪れた海外在住の訪日客(来訪者)等のユーザ特性は推定できない。 However, with the above-mentioned conventional technology, it is possible to estimate the characteristics of domestic users who are usually active in Japan and whose actions can be tracked from historical information, but it is possible to estimate the characteristics of domestic users who are usually active in Japan and whose actions can be tracked from historical information. Since there is no historical information and it is not possible to track the user's behavior, it is not possible to estimate the user characteristics of a foreign visitor (visitor) visiting Japan for the first time.
本願は、上記に鑑みてなされたものであって、インバウンドの来訪者のデータを適切に取得することを目的とする。 This application was made in view of the above, and aims to appropriately acquire data on inbound visitors.
本願に係る情報処理装置は、複数の場所に設置されたスマートスピーカのうちいずれかのスマートスピーカを介してユーザと対話した際の前記ユーザの音声を取得する取得部と、前記ユーザの音声を用いた音声認識により、異なる場所又は日時に対話した前記ユーザが同一人物であることを特定する特定部と、前記ユーザの音声を取得した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する管理部と、前記ユーザの音声を用いた音声認識により、前記ユーザの使用言語を推定し、前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定部と、前記ユーザの音声を取得した場所に設置されたスマートスピーカ又は表示装置を介して前記ユーザの使用言語に応じた情報提供をする提供部と、を備えることを特徴とする。 The information processing device according to the present application includes an acquisition unit that acquires the user's voice when interacting with the user through one of the smart speakers installed at a plurality of locations , and a an identifying unit that identifies that the users who interacted with the user at different locations or at different times are the same person through voice recognition; a management unit, an estimation unit that estimates the language used by the user through voice recognition using the user's voice, and estimates that the user is a foreigner visiting Japan based on the language used by the user; The present invention is characterized by comprising a provision unit that provides information according to the language used by the user via a smart speaker or display device installed at the acquired location .
実施形態の一態様によれば、インバウンドの来訪者のデータを適切に取得することができる。 According to one aspect of the embodiment, data on inbound visitors can be appropriately acquired.
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same components in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.
〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、海外からの訪日客(来訪者)への情報提供及び行動追跡をする場合を例に挙げて説明する。
[1. Overview of information processing method]
First, with reference to FIG. 1, an overview of an information processing method performed by an information processing apparatus according to an embodiment will be described. FIG. 1 is an explanatory diagram showing an overview of an information processing method according to an embodiment. In addition, in FIG. 1, a case will be described as an example in which information is provided to and behavior tracking is performed for visitors to Japan from overseas.
図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とスマートスピーカ200とカメラ300とを含む。情報提供装置100とスマートスピーカ200とカメラ300とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。本実施形態では、情報提供装置100は、スマートスピーカ200及びカメラ300と連携する。スマートスピーカ200及びカメラ300はそれぞれ複数の場所に設置されている。
As shown in FIG. 1, the information processing system 1 includes a
端末装置10は、海外からの訪日客(来訪者)等である利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、ノートPC(Personal Computer)等の可搬式の情報処理装置であってもよい。
The
本実施形態では、端末装置10は必須ではない。利用者Uは、端末装置10を所持していない人(例えば子供など)であってもよい。
In this embodiment, the
情報提供装置100は、海外からの訪日客(来訪者)等である利用者Uに関する情報を収集する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。本実施形態では、情報提供装置100は、スマートスピーカ200及びカメラ300と連携し、スマートスピーカ200及びカメラ300から利用者Uに関する情報を収集する。
The
スマートスピーカ200は、対話型の音声操作に対応したAIアシスタント機能を持つスピーカであり、内蔵されているマイクで音声を認識する。また、スマートスピーカ200は、利用者Uとの対話により得られた音声データから、音声認識により利用者Uを特定する。さらに、スマートスピーカ200は、利用者Uとの対話により、利用者Uに対して情報提供を行う。
The
また、スマートスピーカ200は、対話した利用者Uの使用言語により利用者Uが訪日外国人であると推定する。例えば、スマートスピーカ200は、利用者Uの音声データから利用者Uの使用言語を推定し、利用者Uが当該使用言語を公用語とする国や地域から来訪した訪日外国人であると推定する。但し、使用言語と国とは必ずしも1対1の関係にはない(例えば、英語、スペイン語、アラビア語等は多くの国や地域で公用語となっている)ため、使用言語からの利用者Uの出身地(母国等)の推定は必須ではない。
The
また、スマートスピーカ200は、利用者Uとの対話(会話)の中で、利用者Uから出身地(母国等)に関連する情報を聞き出してもよい。例えば、出身地(母国等)の名称等に関する直接的な質問はせず、出身地(母国等)に関連する話題(流行、著名人、特産品/名産品等)に触れてもよい。あるいは、スマートスピーカ200は、利用者Uとの会話の内容から利用者Uの出身地を推定してもよい。
The
また、スマートスピーカ200は、同じ使用言語であっても、方言や訛り等の違いにより、さらに細分化してもよい。すなわち、使用言語は、標準語に限らず、地域言語(地方言語)であってもよい。例えば、スマートスピーカ200は、広義には同じ使用言語であっても、利用者Uの出身地に応じた方言や訛り等の違いがある場合、別の使用言語として扱ってもよい。また、スマートスピーカ200は、使用言語に含まれる方言や訛り等から、利用者Uの出身国(アメリカ、中国等)や地域(アメリカのどの地域か等)を推定してもよい。
Furthermore, even if the
また、スマートスピーカ200は、利用者Uとの対話に先立って、利用者Uに使用言語又は出身地を指定(選択)させるようにしてもよい。一般的に、利用者Uは使い慣れている自身の使用言語での対話や案内を望むものと推測される。
Further, the
また、スマートスピーカ200は、利用者Uとの対話(会話)の内容から、利用者Uの訪日の目的がビジネスか観光かを推定してもよい。そして、利用者Uの訪日の目的に応じて、利用者Uへの情報提供の内容を変更してもよい。訪日の目的によって、利用者Uの求める情報は異なると推測される。
Furthermore, the
なお、実際には、スマートスピーカ200は、対話した利用者Uの音声データを情報提供装置100に提供し、情報提供装置100が利用者Uの音声データから、音声認識により利用者Uを特定し、利用者Uの使用言語を推定し、利用者Uが訪日外国人であると推定してもよい。
Note that in reality, the
カメラ300は、スマートスピーカ200に搭載、又はスマートスピーカ200の近傍に設置された撮像装置であり、スマートスピーカ200と対話中の利用者Uを撮影する。また、カメラ300は、撮影された利用者Uの画像データから、画像認識により利用者Uを特定する。但し、画像認識は一例に過ぎない。実際には、画像認識に限らず、指紋認証、顔認証、虹彩認証、静脈認証等の生体認証であってもよい。
The
例えば、同一人物であっても複数の言語を使用する能力をもっている人(バイリンガル、トライリンガル等)も存在する。また、出身地が英語圏でなくても英語を使用してコミュニケーションをとろうとする人もいる。たとえ同一人物が異なる言語を使用した場合でも、画像認識により同一人物と推定された場合には、同一人物として扱ってもよい。例えば、利用者Uが場所によって異なる言語を使用したとしても、カメラ300が画像認識により利用者Uであると特定した場合には、使用言語にかかわらず利用者Uとして扱う。
For example, there are some people (bilingual, trilingual, etc.) who are the same person but have the ability to use multiple languages. There are also people who try to communicate using English even if they are not from an English-speaking country. Even if the same person uses different languages, if it is estimated that they are the same person through image recognition, they may be treated as the same person. For example, even if the user U uses different languages depending on the location, if the
さらに、カメラ300は、利用者Uの画像データを用いた画像認識により、利用者Uの容姿、衣装及び所持品を判別し、利用者Uの容姿、衣装及び所持品から、利用者Uが訪日外国人であると推定してもよい。また、カメラ300は、利用者Uの容姿、衣装及び所持品、あるいは挙動から、利用者Uの嗜好(興味・関心の対象)を推定してもよい。そして、スマートスピーカ200は、カメラ300と連携し、推定された利用者Uの嗜好に応じて、利用者Uへの情報提供の内容を変更してもよい。例えば、スマートスピーカ200は、推定された利用者Uの嗜好に合わせた商品提案をしてもよい。
Furthermore, the
また、カメラ300は、利用者Uの容姿、衣装及び所持品等から、利用者Uの出身国(アメリカ、中国等)や地域(アメリカのどの地域か等)を推定してもよい。例えば、カメラ300は、利用者Uが所定のメーカーのサングラスを持っていたら、販売元地域から来たと推定する。また、カメラ300は、利用者Uが主に一部地域の住民しか所持していない物品を持っていたら、当該地域から来たと推定する。
Furthermore, the
なお、実際には、カメラ300は、撮影された利用者Uの画像データを情報提供装置100に提供し、情報提供装置100が利用者Uの画像データから、画像認識により利用者Uを特定し、利用者Uが訪日外国人であると推定してもよい。
Note that in reality, the
図1に示す例において、識別のため、便宜上、場所Aに設置されたスマートスピーカ200及びカメラ300をスマートスピーカ200A及びカメラ300A、場所Bに設置されたスマートスピーカ200及びカメラ300をスマートスピーカ200B及びカメラ300B、場所Cに設置されたスマートスピーカ200及びカメラ300をスマートスピーカ200C及びカメラ300Cと称する。
In the example shown in FIG. 1, for convenience, the
ここで、図1に示す例では、全ての場所でスマートスピーカ200及びカメラ300の組を示しているが、実際には、スマートスピーカ200及びカメラ300は、最初に利用者Uと接触する場所(場所A)で両方そろっていれば十分であり、2回目以降に利用者Uと接触する場所(場所B,場所C)では、スマートスピーカ200及びカメラ300のうち、少なくとも一方があればよい。スマートスピーカ200のみが設置されている場所では、利用者Uとの対話による音声認識のみで利用者Uを特定する。カメラ300のみが設置されている場所では、利用者Uの撮影による画像認識のみで利用者Uを特定する。
Here, in the example shown in FIG. 1, pairs of
また、カメラ300は、スマートスピーカ200に接近してきた利用者Uを撮影して画像認識のみで利用者Uを特定し、特定された利用者Uに関する情報(識別情報等)をスマートスピーカ200に提供してもよい。これにより、スマートスピーカ200は、接近してきた利用者Uの使用言語で、当該利用者Uに話しかけることができる。
The
なお、上記のスマートスピーカ200及びカメラ300は、可搬式のものであって、各場所に簡易設置されているものであってもよい。例えば、スマートスピーカ200及びカメラ300は、スマートデバイスやノートPC等に搭載又は接続されたものであってもよい。また、スマートスピーカ200及びカメラ300は、ワイヤレスデバイスであってもよい。
Note that the
また、上記のスマートスピーカ200及びカメラ300は同一の店頭設置端末又はデジタルサイネージ(電子看板)に搭載されていてもよい。また、スマートスピーカ200及びカメラ300はAI(Artificial Intelligence:人工知能)を搭載したロボット(自律型会話ロボット等)に搭載されていてもよい。
Furthermore, the above
また、利用者Uの端末装置10が上記のスマートスピーカ200及びカメラ300の役割を果たしてもよい。例えば、利用者Uの端末装置10が、店頭や特定の場所に配置(又は店頭設置端末に表示)されたQRコード(登録商標)等の二次元コードを読み取ることで、端末装置10が上記のスマートスピーカ200及びカメラ300としての機能を発揮するためのアプリ(app:application program)を導入(インストール)するようにしてもよい。
Further, the
また、スマートスピーカ200及びカメラ300が設置される場所(場所A、場所B、場所C)は、例えばコンビニエンスストアやスーパーマーケット、ドラッグストア、ホームセンター、ディスカウントストア等の小売店、カフェやレストラン、酒場等の飲食店等の個々の店舗である。また、場所は、例えば大型商業施設(ショッピングセンター/アウトレットモール/地下街)、娯楽施設(テーマパーク/遊園地/遊戯場/映画館/動物園/水族館/プール/入浴施設)、文化施設(ホール/劇場/図書館/美術館/博物館)、複合施設、スポーツ施設、駐車場、サービスエリア(SA)やパーキングエリア(PA)、又は鉄道駅や道の駅、空港、港湾(乗船場)等であってもよい。また、場所は、例えば観光案内所、観光スポット、ランドマーク、城・城跡、寺社仏閣、公園、庭園、名所、旧跡、景勝地、温泉、キャンプ場/コテージ/ロッジ/バンガロー、山/海岸/湖畔/河川敷の周辺施設、観光農園や観光牧場等であってもよい。特に、海外からの訪日客等が訪れる可能性がある場所や人気の場所であると好ましい。
The locations (location A, location B, location C) where the
また、上記以外にも、スマートスピーカ200及びカメラ300が設置される場所は、例えばマンション・アパート等の集合住宅や戸建住宅、企業等のオフィスビル、店舗等の商業施設、ホテル等の宿泊施設、学校等の教育機関、病院等の医療機関、研究所等の研究機関、工場等の産業プラント、配送センター等の物流拠点等であってもよい。
In addition to the above, places where the
〔1-1.海外からの訪日客への情報提供及び行動追跡〕
ここで、図1を参照して、海外からの訪日客への情報提供及び行動追跡について説明する。
[1-1. Providing information to and tracking the behavior of overseas visitors to Japan]
Now, with reference to FIG. 1, the provision of information to and behavior tracking of visitors from overseas to Japan will be described.
図1に示すように、場所Aに設置されたスマートスピーカ200が対話した利用者Uの音声データを取得し、場所Aに設置されたカメラ300が撮影した利用者Uの画像データを取得する(ステップS1)。このとき、スマートスピーカ200及びカメラ300はそれぞれ取得された利用者Uの音声データ及び画像データを情報提供装置100に送信してもよい。
As shown in FIG. 1, the
続いて、スマートスピーカ200は利用者Uの音声データを用いた音声認識により、カメラ300は利用者Uの画像データを用いた画像認識により、利用者Uを特定する(ステップS2)。なお、実際には、情報提供装置100が、利用者Uの音声データ及び画像データを用いた音声認識及び画像認識により、利用者Uを特定してもよい。また、特定された利用者Uを識別するための識別情報が設定される。
Next, the
続いて、情報提供装置100は、スマートスピーカ200及びカメラ300が利用者Uの音声データ及び画像データを取得した場所Aの識別情報(位置情報でも可)と、データが取得された日時に関する情報とを、特定された利用者Uの識別情報に紐づけて、利用者Uの行動履歴として蓄積する(ステップS3)。
Next, the
なお、実際には、情報提供装置100は、対話した利用者Uの端末装置10と近距離無線通信を行ったスマートスピーカ200(店頭設置端末でも可)から、スマートスピーカ200の位置情報(又は設置場所の情報)と利用者Uの端末装置10の識別情報とを取得し、利用者Uの端末装置10の識別情報から利用者Uを特定し、スマートスピーカ200の位置情報と利用者Uの端末装置10の識別情報を取得した日時とを紐づけて利用者Uの行動履歴として蓄積してもよい。
Note that, in reality, the
続いて、スマートスピーカ200は、利用者Uの音声データを用いた音声認識により、利用者Uの使用言語を推定し、使用言語から利用者Uが訪日外国人であると推定する(ステップS4)。なお、実際には、情報提供装置100が、スマートスピーカ200から送信された利用者Uの音声データを用いた音声認識により、利用者Uの使用言語を推定し、使用言語から利用者Uが訪日外国人であると推定してもよい。さらに、カメラ300は、利用者Uの画像データを用いた画像認識により、利用者Uの容姿、衣装及び所持品を判別し、利用者Uの容姿、衣装及び所持品から、利用者Uが訪日外国人であると推定してもよい。
Next, the
続いて、スマートスピーカ200は、情報提供装置100と連携し、利用者Uの使用言語に応じた情報提供を行う(ステップS5)。すなわち、スマートスピーカ200は、利用者Uの使用言語ごとに異なる内容の情報提供を行う(使用言語ごとに情報提供の内容を変更する)。利用者Uの使用言語に応じた利用者Uへの情報提供は、例えば当該使用言語を使用する訪日客におすすめの観光地や商品及びサービスの案内等である。あるいは、対話の中で挙げられた利用者Uの要望(要求)に応じた店舗や施設等の案内等であってもよい。本実施形態では、スマートスピーカ200は、当該使用言語を使用する訪日客を対象とした情報提供を行う。
Next, the
例えば、利用者Uへの情報提供は、他の場所(場所B、場所C等)への案内や商品及びサービスの広告提示又はクーポン発行等であってもよい。また、当該使用言語を使用する訪日客に人気のアクティビティ(遊び・体験)等に関する情報提供であってもよい。また、当該使用言語を使用する訪日客があまりいない場所(穴場等)に関する情報提供であってもよい。同邦(同国)の人が集まる場所を避けたい訪日客もいると推測される。また、情報提供は、当該使用言語を使用する訪日客に対する緊急速報や注意喚起等であってもよい。 For example, the provision of information to user U may include guidance to other locations (location B, location C, etc.), presentation of advertisements for products and services, or issuance of coupons. Alternatively, information may be provided regarding activities (plays/experiences) that are popular among visitors to Japan who use the language concerned. Alternatively, the information may be provided regarding places (such as hidden spots) where there are not many visitors to Japan who use the language concerned. It is assumed that some visitors to Japan want to avoid places where people from the same country gather. Further, the information provision may be an emergency alert or a warning for visitors to Japan who use the language concerned.
ここでは、スマートスピーカ200は、利用者Uの使用言語による音声案内で利用者Uへの情報提供を行う。なお、実際には、情報提供装置100がスマートスピーカ200を介して、利用者Uの使用言語による音声案内で利用者Uへの情報提供を行うようにしてもよい。また、スマートスピーカ200は、表示装置がスマートスピーカ200に搭載又は接続されている場合には、当該表示装置に案内表示を行うことで情報提供してもよい。すなわち、利用者Uの使用言語による案内は、音声案内であってもよいし、文字及び画像による案内表示であってもよい(両方でもよい)。
Here, the
このとき、情報提供装置100は、利用者Uと同じ使用言語を使用する他の利用者の行動履歴について機械学習を行い、利用者Uに適した情報を推定してもよい。例えば、使用言語と、その使用言語を使用する利用者が訪問している場所とをデータセットとして、ニューラルネットワークによる機械学習の手法等を用いて学習モデルを構築する。そして、情報提供装置100は、構築された学習モデルに利用者Uの使用言語を入力して、学習モデルからの出力として案内すべき場所に関する情報を取得する。ここでは、情報提供装置100は、例えばRNN(Recurrent Neural Network)やLSTM(Long short-term memory)等を用いた機械学習を経て生成される案内先推定モデルに利用者Uの使用言語を入力し、案内先推定モデルからの出力として案内すべき場所に関する情報を取得する。
At this time, the
なお、RNNやLSTMは、アテンション(Attention)の仕組みに基づくニューラルネットワークであってもよい。アテンションは、文章のような前後の並びが重要なデータを扱うことができる。また、情報提供装置100は、同様の自然言語処理モデルを用いてもよい。このようなモデルを用いて、利用者Uの使用言語を含む各種情報から案内すべき場所を推定することにより、より情報の順序に重点を置いた案内すべき場所の推定を実現することができる。
Note that the RNN and LSTM may be neural networks based on an attention mechanism. Attention can handle data such as sentences where the order in which they come before and after is important. Further, the
また、情報提供装置100は、利用者Uの音声データや画像データから利用者Uを特定する精度を向上させるために機械学習を行ってもよい。音声データや画像データは、機械学習の手法と相性が良い。利用者Uの識別情報と利用者Uの音声データや画像データとの組を正解データとして学習を重ねることで、利用者Uを特定する精度が向上してくことが期待できる。利用者Uの音声データから、利用者Uの使用言語を推定する場合についても同様である。
Further, the
これにより、海外からの訪日客等の言語コミュニケーションギャップや情報不足を解決するとともに、国内でサービスを展開する企業等が取得できない海外からの訪日客等の人流やニーズを取得することができる。 This will resolve the language communication gap and lack of information faced by overseas visitors to Japan, and will also enable companies providing services domestically to obtain information on the flow of people and their needs.
また、本実施形態では、利用者Uの属性等の個人情報は収集しない。そのため、仮に利用者Uの特定や使用言語の推定に失敗したとしても、利用者Uの個人情報の流出や漏洩の心配はない。利用者Uの特定や使用言語の推定に失敗した場合には、利用者Uに対する情報提供の精度が低下するだけである。 Furthermore, in this embodiment, personal information such as attributes of the user U is not collected. Therefore, even if identification of the user U or estimation of the language used fails, there is no need to worry about leakage or leak of personal information of the user U. If identification of the user U or estimation of the language used fails, the accuracy of information provided to the user U will simply decrease.
〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、情報提供装置100とスマートスピーカ200とカメラ300とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
[2. Configuration example of information processing system]
Next, the configuration of the information processing system 1 including the
また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、スマートスピーカ200とカメラ300とをそれぞれ3台だけ示したが、これはあくまでも例示であって限定されるものではなく、4台以上であってもよい。
Furthermore, the number of devices included in the information processing system 1 shown in FIG. 2 is not limited to what is illustrated. For example, in FIG. 2, only three
また、かかるスマートスピーカ200及びカメラ300は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することも可能である。また、スマートスピーカ200は、近距離無線通信を介して端末装置10と通信することも可能である。
Furthermore, the
情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。
The
〔3.情報提供装置の構成例〕
次に、図3を用いて、実施形態に係る情報提供装置100の構成について説明する。図3は、実施形態に係る情報提供装置100の構成例を示す図である。図3に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
[3. Configuration example of information providing device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). Further, the communication unit 110 is connected to the network N (see FIG. 2) by wire or wirelessly.
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、訪日客情報データベース121と、提供情報データベース122とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk. Ru. As shown in FIG. 3, the storage unit 120 includes a
(訪日客情報データベース121)
訪日客情報データベース121は、海外からの訪日客(来訪者)等である利用者Uに関する各種情報を記憶する。図4は、訪日客情報データベース121の一例を示す図である。図4に示した例では、訪日客情報データベース121は、「利用者ID(Identifier)」、「音声」、「画像」、「取得場所」、「取得日時」、「使用言語」といった項目を有する。
(Visitor information database 121)
The
「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、情報提供装置100、又はスマートスピーカ200及びカメラ300が自動的に割り当てた識別番号であってもよい。
“User ID” indicates identification information for identifying user U. Note that the "user ID" may be an identification number automatically assigned by the
また、「音声」は、利用者Uと対話したスマートスピーカ200により取得された利用者Uの音声データを示す。なお、実際には、その音声データの所在(格納場所:ディレクトリ及びファイル名、URL(Uniform Resource Locator)等)を示す情報であってもよい。
Moreover, "audio" indicates the user U's voice data acquired by the
また、「画像」は、利用者Uを撮影したカメラ300により取得された利用者Uの画像データを示す。なお、実際には、その画像データの所在(格納場所:ディレクトリ及びファイル名、URL等)を示す情報であってもよい。
In addition, "image" refers to image data of user U acquired by the
また、「取得場所」は、スマートスピーカ200が音声データを取得した場所や、カメラ300が画像データを取得した場所に関する情報を示す。すなわち、スマートスピーカ200及びカメラ300の設置場所に関する情報を示す。なお、場所に関する情報は、位置情報や住所等であってもよいし、設置場所の名称や識別情報等であってもよい。
Further, "acquisition location" indicates information regarding the location where the
また、「取得日時」は、スマートスピーカ200が音声データを取得した日時や、カメラ300が画像データを取得した日時に関する情報を示す。ここでは、取得場所と取得日時とに関する情報は紐づけられている。
Furthermore, the “acquisition date and time” indicates information regarding the date and time when the
また、「使用言語」は、利用者Uの音声データ等から推定された利用者Uの使用言語の種別を示す。使用言語は、例えば、英語、フランス語、スペイン語、中国語、ロシア語、アラビア語等、各国又は各地域で使用されている言語である。また、使用言語は、方言や訛り等の違いにより、さらに細分化されてもよい。ここでは、音声データを取得した場所ごとに、使用言語を毎回推定するものとしているが、実際には最初の1回だけでもよい。また、利用者Uが複数の言語を使用した場合には、使用言語は複数であってもよい。 Furthermore, "language used" indicates the type of language used by user U that is estimated from user U's voice data, etc. Examples of languages used include English, French, Spanish, Chinese, Russian, Arabic, and other languages used in each country or region. Languages used may also be further subdivided based on differences in dialects, accents, and the like. Here, the language used is estimated each time for each location where voice data is obtained, but in reality it may be estimated only the first time. Furthermore, if user U uses multiple languages, the number of languages used may be multiple.
例えば、図4に示す例において、利用者ID「U1」により識別される利用者Uの音声データ「音声#1A」及び画像データ「画像#1A」が取得された場所は「場所A」であり、取得された日時は「2021/6/5」であり、利用者Uの使用言語は「中国語」であることを示す。なお、中国語は、北京語や広東語のようにさらに細分化されていてもよい。 For example, in the example shown in FIG. 4, the location where the audio data "audio #1A" and the image data "image #1A" of the user U identified by the user ID "U1" are acquired is "location A". , the acquired date and time is "2021/6/5", indicating that the language used by user U is "Chinese". Note that Chinese may be further subdivided into Mandarin and Cantonese.
ここで、図4に示す例では、「U1」、「音声#1A」、「画像#1A」及び「場所A」といった抽象的な値を用いて図示するが、「U1」、「音声#1A」、「画像#1A」及び「場所A」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 4, abstract values such as "U1", "audio #1A", "image #1A", and "location A" are used for illustration, but "U1", "audio #1A" ", "Image #1A" and "Location A" store information such as specific character strings and numerical values. Below, abstract values may be illustrated in diagrams related to other information as well.
なお、訪日客情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、訪日客情報データベース121は、利用者Uの端末装置10に関する各種情報を記憶してもよい。また、訪日客情報データベース121は、利用者Uの使用言語や容姿等から推定された利用者Uの出身地(母国等)に関する情報を記憶してもよい。
Note that the
(提供情報データベース122)
提供情報データベース122は、同じ言語を使用する訪日客に対して提供すべき情報を記憶する。図5は、提供情報データベース122の一例を示す図である。図5に示した例では、提供情報データベース122は、「使用言語」、「滞在地」、「訪問先」、「情報」といった項目を有する。
(Provided information database 122)
The provided
「使用言語」は、海外からの訪日客(来訪者)等が使用する言語を示す。 “Language used” indicates the language used by foreign visitors to Japan (visitors).
また、「滞在地」は、過去に当該使用言語を使用する訪日客がスマートスピーカ200と対話した場所を示す。すなわち、滞在地は、過去に当該使用言語を使用する他の訪日客に対して情報提供を行った場所を示す。なお、「滞在地」は、現在、当該使用言語を使用して訪日客と対話中のスマートスピーカ200の所在地(当該使用言語で対話している訪日客の現在地)と照合される。
Furthermore, the “place of stay” indicates a place where a visitor to Japan who uses the relevant language has interacted with the
また、「訪問先」は、過去に当該使用言語を使用する訪日客が滞在地から次に向かった場所(目的地等)を示す。すなわち、訪問先は、過去に当該使用言語を使用する他の訪日客が滞在地から次に向かった場所を示す。なお、訪問先は、過去に当該使用言語を使用する訪日客の集団の行動履歴から抽出される。このとき、各訪問先へ向かった過去の訪日客の人数等から、各訪問先に順位をつけて順位の高い順に並べてもよい(訪問先のランキング)。 Furthermore, the "visited destination" indicates the next place (destination, etc.) that a visitor to Japan who uses the language used in the past went from the place of stay. That is, the visited destination indicates the next place where other visitors to Japan who used the language used in the past went from their place of stay. Note that the visited destinations are extracted from the behavior history of a group of visitors to Japan who used the language in question in the past. At this time, each destination may be ranked based on the number of visitors to Japan who have visited each destination in the past, and arranged in descending order (destination ranking).
また、「情報」は、現在対話している訪日客(当該使用言語を使用している訪日客)が滞在地から次に向かうと予想される場所(訪問先)に関する情報を示す。すなわち、情報は、現在対話している訪日客に提供すべき情報を示す。このとき、情報も訪問先のランキングの順に並べて、訪問先のランキングの順に訪日客に情報提供されるようにしてもよい。なお、情報は、次に向かうと予想される場所(訪問先)に関する情報に限らず、旬な情報やおすすめ情報等であってもよい。また、情報は、当該使用言語を使用する訪日客に対する緊急速報や注意喚起等であってもよい。 Further, "information" indicates information regarding the place (visit destination) where the visitor to Japan with whom the visitor is currently interacting (the visitor who uses the language concerned) is expected to go next from the place of stay. That is, the information indicates information to be provided to the visitor to Japan with whom the visitor is currently interacting. At this time, the information may also be arranged in the order of the ranking of the visited destinations, so that the information is provided to the visitors to Japan in the order of the ranking of the visited destinations. Note that the information is not limited to information about the place where the user is expected to go next (destination to visit), but may also be current information, recommended information, or the like. Further, the information may be an emergency alert or a warning for visitors to Japan who use the language concerned.
例えば、図5に示す例において、使用言語「中国語」を使用する訪日客は、滞在地が「場所A」である場合、次の訪問先として「場所B」に向かう傾向にあるため、情報提供として場所Bの最新情報や場所Aから場所Bまでのルート案内及びその周辺の店舗・施設等に関する「情報B」を提供すると好ましいことを示す。また、情報Bは、場所Bと直接関係なく、場所Bに関連するカテゴリーの情報であってもよい。 For example, in the example shown in Figure 5, if a visitor to Japan whose language is "Chinese" stays at "Location A," he/she tends to head to "Location B" as his/her next destination. This indicates that it is preferable to provide the latest information on location B, route guidance from location A to location B, and "information B" regarding surrounding stores and facilities. Further, the information B may be information of a category related to the place B without being directly related to the place B.
ここで、図5に示す例では、「場所A」、「場所B」及び「情報B」といった抽象的な値を用いて図示するが、「場所A」、「場所B」及び「情報B」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。 Here, in the example shown in FIG. 5, abstract values such as "location A", "location B", and "information B" are used for illustration, but "location A", "location B", and "information B" It is assumed that information such as specific character strings and numerical values is stored in . Below, abstract values may be illustrated in diagrams related to other information as well.
なお、提供情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、提供情報データベース122は、情報提供される訪問先の人気度(訪問人数)に関する情報を記憶してもよい。また、提供情報データベース122は、当該使用言語を使用する訪日客のうち、情報提供された訪問先へ実際に訪れた訪日客の人数や割合に関する情報を記憶してもよい。また、提供情報データベース122は、訪問先に限らず、当該使用言語を使用する訪日客に人気のサービスやアクティビティ(遊び・体験)等に関する情報を記憶してもよい。また、提供情報データベース122は、当該使用言語を使用する訪日客があまりいない場所(穴場等)に関する情報を記憶してもよい。また、提供情報データベース122は、当該使用言語を使用する訪日客に関する情報を、訪日の目的(ビジネス/観光)によって分類して記憶してもよい。
The provided
(制御部130)
図3に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図3に示す例では、制御部130は、取得部131と、特定部132と、管理部133と、推定部134と、提供部135とを有する。
(Control unit 130)
Returning to FIG. 3, the explanation will be continued. The control unit 130 is a controller, and controls the
(取得部131)
取得部131は、スマートスピーカ200が利用者U(ユーザ)と対話した際に、スマートスピーカ200及びカメラ300から、通信部110を介して、利用者Uの音声データ及び画像データを取得する。例えば、取得部131は、利用者Uと対話した店頭設置端末から利用者Uの音声データ及び画像データを取得する。あるいは、取得部131は、スマートスピーカ200及びカメラ300としての機能を有する利用者Uの端末装置10を介して利用者Uと対話した際に、利用者Uの端末装置10から利用者Uの音声データ及び画像データを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires audio data and image data of the user U from the
また、取得部131は、利用者Uの端末装置10と近距離無線通信を行った店頭設置端末から、店頭設置端末の所在情報(位置情報、識別情報)と利用者Uの端末装置10の識別情報とを取得してもよい。
In addition, the acquisition unit 131 obtains the location information (position information, identification information) of the in-store terminal and the identification of the
(特定部132)
特定部132は、利用者Uの音声データに基づく音声認識、及び利用者Uの画像データに基づく画像認識により、利用者Uを特定する。また、特定部132は、利用者Uの端末装置10の識別情報から利用者Uを特定してもよい。
(Specific unit 132)
The identification unit 132 identifies the user U through voice recognition based on the user U's voice data and image recognition based on the user U's image data. Further, the identifying unit 132 may identify the user U from the identification information of the user U's
(管理部133)
管理部133は、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積する。すなわち、管理部133は、利用者Uの音声データ及び画像データを取得した場所及び日時を紐づけて利用者Uの行動履歴として蓄積する。このとき、管理部133は、利用者Uを特定した場所ごとに、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積することで、利用者Uが提供部135による情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する。
(Management Department 133)
The management unit 133 associates the location where the user U was identified with the date and time and stores the location as the user U's action history. That is, the management unit 133 associates the location and date and time at which the user U's audio data and image data were acquired, and stores them as the user's U action history. At this time, the management unit 133 associates the location where the user U is identified with the date and time and stores it as the action history of the user U. The history information indicating that the user has visited a place guided by the information provided by 135 is accumulated.
また、管理部133は、店頭設置端末の所在情報と利用者Uの端末装置10の識別情報を取得した日時とを紐づけて利用者Uの行動履歴として蓄積してもよい。
Further, the management unit 133 may associate the location information of the in-store terminal with the date and time when the identification information of the
(推定部134)
推定部134は、利用者Uの音声データから、利用者Uの使用言語を推定する。このとき、推定部134は、利用者Uとの対話(会話)の内容から、利用者Uの使用言語を推定してもよい。また、推定部134は、利用者Uが入力又は指定(選択)した文字の画像データから、利用者Uの使用言語を推定してもよい。あるいは、推定部134は、利用者Uが手にしているガイドブックや観光パンフレット等に記載されている言語から、利用者Uの使用言語を推定してもよい。また、推定部134は、利用者Uが入力又は指定(選択)した使用言語又は出身地に関する情報から、利用者Uの使用言語を推定してもよい。
(Estimation unit 134)
The estimation unit 134 estimates the language used by the user U from the voice data of the user U. At this time, the estimation unit 134 may estimate the language used by the user U from the content of the dialogue (conversation) with the user U. The estimation unit 134 may also estimate the language used by the user U from image data of characters input or specified (selected) by the user U. Alternatively, the estimation unit 134 may estimate the language used by the user U from the language written in a guidebook, tourist pamphlet, or the like held by the user U. The estimation unit 134 may also estimate the language used by the user U from the language used or information related to the place of origin input or specified (selected) by the user U.
また、推定部134は、利用者Uの使用言語により利用者Uが訪日外国人であると推定する。このとき、推定部134は、利用者Uの使用言語と利用者Uの容姿とにより利用者Uが訪日外国人であると推定してもよい。なお、容姿は、利用者Uの年齢層(年代)や性別、人種、その他の利用者Uの身体的特徴を含む。また、推定部134は、利用者Uの使用言語と利用者Uの衣装及び所持品とにより利用者Uが訪日外国人であると推定してもよい。なお、衣装は、衣服、被り物(帽子等)、履物(靴等)等、身にまとうもの全般を含む。また、所持品は、鞄や小物、装飾品、携行品も含む。例えば、推定部134は、所持品に付帯する記号(マーク)や象徴(シンボル)、所持品の形状や模様等から利用者Uが訪日外国人であると推定してもよい。 Furthermore, the estimation unit 134 estimates that the user U is a foreigner visiting Japan based on the language used by the user U. At this time, the estimation unit 134 may estimate that the user U is a foreigner visiting Japan based on the language used by the user U and the user U's appearance. Note that the appearance includes the user U's age group (generation), gender, race, and other physical characteristics of the user U. Furthermore, the estimation unit 134 may estimate that the user U is a foreigner visiting Japan based on the language used by the user U and the clothes and belongings of the user U. Note that costumes include all things worn by the person, such as clothes, headgear (hats, etc.), footwear (shoes, etc.). In addition, belongings include bags, accessories, accessories, and personal belongings. For example, the estimating unit 134 may estimate that the user U is a foreigner visiting Japan from the marks and symbols attached to the belongings, the shape and pattern of the belongings, and the like.
(提供部135)
提供部135は、利用者Uの使用言語による案内で利用者Uに情報提供する。このとき、提供部135は、利用者Uの使用言語による音声案内及び案内表示のうち少なくとも一方で利用者Uに情報提供してもよい。また、提供部135は、利用者Uの使用言語と、利用者Uの容姿、衣装及び所持品のうち少なくとも1つとに応じて、利用者Uへの情報提供の内容を変更する。
(Providing Unit 135)
The providing unit 135 provides information to the user U by guidance in the language used by the user U. At this time, the providing unit 135 may provide information to the user U by at least one of voice guidance and displayed guidance in the language used by the user U. In addition, the providing unit 135 changes the content of the information provided to the user U depending on the language used by the user U and at least one of the appearance, clothing, and belongings of the user U.
〔4.処理手順〕
次に、図6を用いて実施形態に係る情報提供装置100、スマートスピーカ200及びカメラ300による処理手順について説明する。図6は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報提供装置100、スマートスピーカ200及びカメラ300によって繰り返し実行される。
[4. Processing procedure]
Next, a processing procedure by the
図6に示すように、スマートスピーカ200は、海外からの訪日客等である利用者Uと対話する(ステップS101)。このとき、スマートスピーカ200は、情報提供装置100と連携して、利用者Uとの対話の内容を情報提供装置100に通知してもよい。例えば、情報提供装置100がスマートスピーカ200を介して利用者Uと対話してもよい。
As shown in FIG. 6, the
続いて、スマートスピーカ200は、利用者Uと対話することにより、利用者Uの音声データを取得する(ステップS102)。このとき、情報提供装置100の取得部131は、通信部110を介して、スマートスピーカ200から利用者Uの音声データを取得する。
Next, the
続いて、カメラ300は、スマートスピーカ200と対話中の利用者Uを撮影することにより、利用者Uの画像データを取得する(ステップS103)。このとき、情報提供装置100の取得部131は、通信部110を介して、カメラ300から利用者Uの画像データを取得する。
Subsequently, the
続いて、スマートスピーカ200は利用者Uの音声データに基づく音声認識により、カメラ300は利用者Uの画像データ基づく画像認識により、利用者Uを特定する(ステップS104)。このとき、情報提供装置100の特定部132は、利用者Uの音声データに基づく音声認識、及び利用者Uの画像データに基づく画像認識により、利用者Uを特定してもよい。また、取得部131は、対話した利用者Uの端末装置10と近距離無線通信を行ったスマートスピーカ200及び/又はカメラ300から、利用者Uの端末装置10の識別情報を取得してもよい。そして、特定部132は、利用者Uの端末装置10の識別情報から利用者Uを特定してもよい。あるいは、取得部131は、利用者Uを特定したスマートスピーカ200及び/又はカメラ300から、特定された利用者Uに関する情報を取得してもよい。
Next, the
続いて、情報提供装置100の管理部133は、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積する(ステップS105)。このとき、管理部133は、利用者Uを特定した場所ごとに、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積することで、利用者Uが情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する。
Subsequently, the management unit 133 of the
続いて、情報提供装置100の推定部134は、利用者Uの音声データから、利用者Uの使用言語を推定する(ステップS106)。このとき、推定部134は、利用者Uとの対話(会話)の内容から、利用者Uの使用言語を推定してもよい。また、推定部134は、利用者Uが入力又は指定(選択)した文字の画像データから、利用者Uの使用言語を推定してもよい。
Subsequently, the estimation unit 134 of the
続いて、情報提供装置100の推定部134は、利用者Uの使用言語により利用者Uが訪日外国人であると推定する(ステップS107)。このとき、推定部134は、利用者Uの使用言語と利用者Uの容姿、衣装及び所持品とにより利用者Uが訪日外国人であると推定してもよい。
Subsequently, the estimation unit 134 of the
続いて、情報提供装置100の提供部135は、利用者Uの使用言語に応じた情報提供を行う(ステップS108)。本実施形態では、提供部135は、当該使用言語を使用する訪日客を対象とした情報提供を行う。例えば、提供部135は、スマートスピーカ200を介して、利用者Uの使用言語による音声案内で利用者Uに情報提供する。このとき、提供部135は、スマートスピーカ200に対して、利用者Uへの情報提供に用いられるデータを提供する。また、スマートスピーカ200は、表示装置がスマートスピーカ200に搭載又は接続されている場合には、当該表示装置に案内表示を行うことで情報提供してもよい。すなわち、利用者Uの使用言語による案内は、音声案内であってもよいし、文字及び画像による案内表示であってもよい(両方でもよい)。
Then, the providing unit 135 of the
〔5.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
[5. Modified example]
The
上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、スマートスピーカ200が実行してもよい。例えば、スタンドアローン(Stand-alone)で(スマートスピーカ200単体で)処理が完結してもよい。この場合、スマートスピーカ200に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、スマートスピーカ200は、ネットワークNを介して、他のスマートスピーカ200と連携している。なお、上記の実施形態では、スマートスピーカ200は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理もスマートスピーカ200が実行しているように見える。すなわち、他の観点では、スマートスピーカ200は、情報提供装置100を備えているともいえる。
In the above embodiment, some or all of the processing performed by the
また、上記の実施形態において、スマートスピーカ200や情報提供装置100は、対話における利用者Uの音声データから利用者Uの使用言語を推定しているが、実際は、カメラ300や情報提供装置100が、筆談等において利用者Uが記載又は選択した文字に関するデータから利用者Uの使用言語を推定してもよい。例えば、タッチパネル式の店頭設置端末等が、利用者Uから指やスタイラス等により文字入力(又は文字選択)を受け付けた際に、当該文字から利用者Uの使用言語を推定してもよい。
Furthermore, in the above embodiment, the
また、上記の実施形態において、カメラ300や情報提供装置100が、訪日客である利用者Uが手にしているガイドブックや観光パンフレット等に記載されている言語から、利用者Uの使用言語を推定してもよい。訪日客は、自身の使用言語に対応したガイドブックや観光パンフレット等を利用するものと推測される。
In addition, in the above embodiment, the
〔6.効果〕
上述してきたように、本願に係る情報処理装置(情報提供装置100)は、利用者U(ユーザ)と対話した際の利用者Uの音声を取得する取得部131と、音声認識により利用者Uを特定する特定部132と、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積する管理部133と、利用者Uの使用言語により利用者Uが訪日外国人であると推定する推定部134と、利用者Uの使用言語に応じた情報提供をする提供部135と、を備える。
[6. effect〕
As described above, the information processing device (information providing device 100) according to the present application includes the acquisition unit 131 that acquires the voice of the user U (user) when interacting with the user, and the acquisition unit 131 that acquires the voice of the user U when interacting with the user an identification unit 132 that identifies the user U; a management unit 133 that associates the location and date and time at which the user U was identified and accumulates the action history of the user U; , and a providing section 135 that provides information according to the language used by the user U.
さらに、取得部131は、利用者Uと対話した際の利用者Uの画像を取得する。特定部132は、画像認識により利用者Uを特定する。 Further, the acquisition unit 131 acquires an image of the user U when interacting with the user U. The identification unit 132 identifies the user U through image recognition.
例えば、推定部134は、利用者Uの使用言語と利用者Uの容姿とにより利用者Uが訪日外国人であると推定する。 For example, the estimation unit 134 estimates that the user U is a foreigner visiting Japan based on the language used by the user U and the user U's appearance.
また、推定部134は、利用者Uの使用言語と利用者Uの衣装及び所持品とにより利用者Uが訪日外国人であると推定する。 Furthermore, the estimating unit 134 estimates that the user U is a foreigner visiting Japan based on the language used by the user U and the costume and belongings of the user U.
また、提供部135は、利用者Uの使用言語と、利用者Uの容姿、衣装及び所持品のうち少なくとも1つとに応じて、利用者Uへの情報提供の内容を変更する。 In addition, the providing unit 135 changes the content of the information provided to the user U depending on the language used by the user U and at least one of the user U's appearance, clothing, and belongings.
また、提供部135は、利用者Uの使用言語による音声案内及び案内表示のうち少なくとも一方で利用者Uに情報提供する。 Further, the providing unit 135 provides information to the user U at least through audio guidance and guidance display in the language used by the user U.
また、管理部133は、利用者Uを特定した場所ごとに、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積することで、利用者Uが提供部135による情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する。 In addition, the management unit 133 stores the location where the user U was identified as the user U's behavior history by linking the location where the user U was identified with the date and time for each location where the user U was identified, thereby storing the history information indicating that the user U visited the location guided by the information provided by the provision unit 135.
また、取得部131は、利用者Uと対話した店頭設置端末から利用者Uの音声を取得する。 Furthermore, the acquisition unit 131 acquires the voice of the user U from the in-store terminal with which the user U interacted.
また、取得部131は、利用者Uの端末装置を介して利用者Uと対話した際に、利用者Uの端末装置から利用者Uの音声を取得する。 The acquisition unit 131 also acquires the voice of the user U from the user U's terminal device when the user U interacts with the user U via the user's U terminal device.
また、取得部131は、利用者Uの端末装置と近距離無線通信を行った店頭設置端末から、店頭設置端末の所在情報と利用者Uの端末装置の識別情報とを取得する。特定部132は、利用者Uの端末装置の識別情報から利用者Uを特定する。管理部133は、店頭設置端末の所在情報と利用者Uの端末装置の識別情報を取得した日時とを紐づけて利用者Uの行動履歴として蓄積する。推定部134は、利用者Uが指定した使用言語により利用者Uが訪日外国人であると推定する。提供部135は、利用者Uが指定した使用言語による案内で利用者Uに情報提供する。 Further, the acquisition unit 131 acquires the location information of the in-store terminal and the identification information of the user U's terminal device from the in-store terminal that has performed short-range wireless communication with the user U's terminal device. The identification unit 132 identifies the user U from the identification information of the user U's terminal device. The management unit 133 associates the location information of the in-store terminal with the date and time when the identification information of the user U's terminal device was acquired, and stores the information as the user U's action history. The estimation unit 134 estimates that the user U is a foreigner visiting Japan based on the language specified by the user U. The providing unit 135 provides information to the user U with guidance in the language specified by the user U.
上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、インバウンドの来訪者のデータを適切に取得することができる。 Through any one or a combination of the above-described processes, the information processing device according to the present application can appropriately acquire data on inbound visitors.
〔7.ハードウェア構成〕
また、上述した実施形態に係る情報提供装置100は、例えば図7に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置100を例に挙げて説明する。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
[7. Hardware configuration]
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
The
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that primarily stores data used by the
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。
The output I/
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
Further, the output I/
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
Moreover, the output device 1010 and the
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
Note that the
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
Network I/
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
For example, when the computer 1000 functions as the
〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[8. others〕
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. Furthermore, the above-mentioned components include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those that are in a so-called equivalent range. Furthermore, the aforementioned components can be combined as appropriate. Furthermore, various omissions, substitutions, or modifications of the constituent elements can be made without departing from the gist of the embodiments described above.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Further, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or the processes described as being performed manually can be performed manually. All or part of this can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.
例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
For example, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
10 端末装置
100 情報提供装置
110 通信部
120 記憶部
121 訪日客情報データベース
122 提供情報データベース
130 制御部
131 取得部
132 特定部
133 管理部
134 推定部
135 提供部
1
Claims (12)
前記ユーザの音声を用いた音声認識により、異なる場所又は日時に対話した前記ユーザが同一人物であることを特定する特定部と、
前記ユーザの音声を取得した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する管理部と、
前記ユーザの音声を用いた音声認識により、前記ユーザの使用言語を推定し、前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定部と、
前記ユーザの音声を取得した場所に設置されたスマートスピーカ又は表示装置を介して前記ユーザの使用言語に応じた情報提供をする提供部と、
を備えることを特徴とする情報処理装置。 an acquisition unit that acquires the user's voice when interacting with the user through one of the smart speakers installed at a plurality of locations ;
an identification unit that identifies that the users who interacted with the user at different locations or at different times are the same person through voice recognition using the user's voice ;
a management unit that associates the location and date and time at which the user 's voice was acquired and stores it as the user's action history;
an estimation unit that estimates the language used by the user through voice recognition using the user's voice, and estimates that the user is a foreigner visiting Japan based on the language used by the user;
a providing unit that provides information according to the language used by the user via a smart speaker or display device installed at a location where the user's voice is acquired ;
An information processing device comprising:
前記特定部は、さらに前記ユーザの画像を用いた画像認識により、異なる場所又は日時に対話した前記ユーザが同一人物であることを特定し、
前記推定部は、さらに前記ユーザの画像を用いた画像認識により、前記ユーザの容姿、衣装及び所持品を判別し、前記ユーザの容姿、衣装及び所持品から、前記ユーザが訪日外国人であると推定する
ことを特徴とする請求項1に記載の情報処理装置。 The acquisition unit is further configured to capture an image of the user through a camera installed together with the smart speaker when the user interacts with the smart speaker through one of the smart speakers installed at the plurality of locations. Acquired,
The identification unit further identifies that the users who interacted with the user at different locations or at different times are the same person through image recognition using the image of the user ;
The estimating unit further determines the user's appearance, costume, and belongings through image recognition using the user's image, and determines that the user is a foreigner visiting Japan from the user's appearance, costume, and belongings. The information processing device according to claim 1, wherein the information processing device estimates .
ことを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2 , wherein the identification unit treats the same person as if they use different languages, when the identification unit determines that the person is the same person through image recognition .
前記提供部は、推定された前記ユーザの興味・関心の対象に応じて、前記ユーザへの情報提供の内容を変更する
ことを特徴とする請求項2又は3に記載の情報処理装置。 The estimation unit estimates the object of interest of the user from the user's appearance , costume, belongings, or behavior ,
The information processing apparatus according to claim 2 or 3 , wherein the providing unit changes the content of information provision to the user according to the estimated object of interest of the user .
ことを特徴とする請求項1~4のうちいずれか1つに記載の情報処理装置。 The provision unit may provide the user with information on places, products or services recommended for visitors to Japan who speak the language used, issue coupons, and provide information on places and products that meet the user's requests raised during dialogue. Or providing information about services, providing information on popular activities for visitors to Japan who use the language mentioned above, providing information about hidden places where there are not many visitors who use the language mentioned above, or providing emergency information to visitors who use the language mentioned above. Provide breaking news and alerts
The information processing device according to any one of claims 1 to 4.
前記提供部は、前記ユーザに適した情報を提供する
ことを特徴とする請求項1~5のうちいずれか1つに記載の情報処理装置。 The estimation unit performs machine learning on the behavior history of other users who use the same language as the user, and estimates information suitable for the user,
The information processing device according to any one of claims 1 to 5, wherein the providing unit provides information suitable for the user.
ことを特徴とする請求項1~6のうちいずれか1つに記載の情報処理装置。 The management unit associates the location and date and time of the user 's voice for each location where the user 's voice was acquired, and stores it as the user's action history, so that the user receives the information. The location and the location visited by the user after receiving the information are accumulated, indicating that the user visited the location as a result of the user being guided to the recommended location by the information provision by the providing unit. The information processing device according to any one of claims 1 to 6, wherein the information processing device stores history information.
前記管理部は、前記ユーザの音声を取得した店頭設置端末の設置場所と前記ユーザの音声を取得した日時とを紐づけて前記ユーザの行動履歴として蓄積する
ことを特徴とする請求項1~7のうちいずれか1つに記載の情報処理装置。 The acquisition unit acquires the user's voice from an in-store terminal that has interacted with the user,
Claims 1 to 7, wherein the management unit associates the installation location of the in-store terminal that acquired the user's voice with the date and time when the user's voice was acquired, and stores the result as the user's action history. The information processing device according to any one of the above.
前記管理部は、前記ユーザの端末装置が前記ユーザの音声を取得した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する
ことを特徴とする請求項1~8のうちいずれか1つに記載の情報処理装置。 The acquisition unit acquires the user's voice from the user's terminal device when interacting with the user via the user's terminal device ,
According to any one of claims 1 to 8 , the management unit associates a date and time with a place where the user's terminal device acquired the user's voice and stores the same as the user's action history. The information processing device described in .
ことを特徴とする請求項1~9のうちいずれか1つに記載の情報処理装置。 If the provision unit estimates that the user is a foreigner visiting Japan at the first location, and the user moves from the first location to a second location where a smart speaker is installed, The information processing device according to any one of claims 1 to 9, wherein the information processing device provides information via a smart speaker or a display device installed at the second location .
複数の場所に設置されたスマートスピーカのうちいずれかのスマートスピーカを介してユーザと対話した際の前記ユーザの音声を取得する取得工程と、
前記ユーザの音声を用いた音声認識により、異なる場所又は日時に対話した前記ユーザが同一人物であることを特定する特定工程と、
前記ユーザの音声を取得した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する管理工程と、
前記ユーザの音声を用いた音声認識により、前記ユーザの使用言語を推定し、前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定工程と、
前記ユーザの音声を取得した場所に設置されたスマートスピーカ又は表示装置を介して前記ユーザの使用言語に応じた情報提供をする提供工程と、
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing device,
An acquisition step of acquiring a voice of a user when the user interacts with the user through any one of smart speakers installed in a plurality of locations ;
a step of identifying the users who have had conversations at different locations or dates and times as the same person through speech recognition using the voices of the users ;
A management process of linking the location and date and time of acquiring the user's voice to accumulate the user's behavior history;
an estimation step of estimating a language used by the user through speech recognition using the user's voice and estimating that the user is a foreign visitor to Japan based on the language used by the user;
A providing step of providing information according to the language used by the user via a smart speaker or a display device installed at a location where the user's voice is acquired ;
13. An information processing method comprising:
前記ユーザの音声を用いた音声認識により、異なる場所又は日時に対話した前記ユーザが同一人物であることを特定する特定手順と、
前記ユーザの音声を取得した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する管理手順と、
前記ユーザの音声を用いた音声認識により、前記ユーザの使用言語を推定し、前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定手順と、
前記ユーザの音声を取得した場所に設置されたスマートスピーカ又は表示装置を介して前記ユーザの使用言語に応じた情報提供をする提供手順と、
をコンピュータに実行させるための情報処理プログラム。 An acquisition step of acquiring a voice of a user when the user interacts with the user through one of smart speakers installed in a plurality of locations ;
a step of identifying that the users who have had conversations at different locations or dates and times are the same person by using voice recognition using the voice of the users ;
A management procedure for linking the location and date and time of acquisition of the user's voice with each other and accumulating the user's behavior history;
an estimation step of estimating a language used by the user through speech recognition using the user's voice, and estimating that the user is a foreign visitor to Japan based on the language used by the user;
A provision step of providing information according to the language used by the user via a smart speaker or a display device installed at a location where the user's voice is acquired ;
An information processing program for causing a computer to execute the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021101353A JP7459020B2 (en) | 2021-06-18 | 2021-06-18 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021101353A JP7459020B2 (en) | 2021-06-18 | 2021-06-18 | Information processing device, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023000493A JP2023000493A (en) | 2023-01-04 |
JP7459020B2 true JP7459020B2 (en) | 2024-04-01 |
Family
ID=84687659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021101353A Active JP7459020B2 (en) | 2021-06-18 | 2021-06-18 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7459020B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010191530A (en) | 2009-02-16 | 2010-09-02 | Fujifilm Corp | Nationality decision device and method, and program |
JP2015127884A (en) | 2013-12-27 | 2015-07-09 | Necパーソナルコンピュータ株式会社 | Information processing device, information processing method, and program |
JP2017041120A (en) | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | Information processing device, information processing system, information processing method and program |
JP2019135629A (en) | 2018-02-05 | 2019-08-15 | 株式会社東芝 | Guide apparatus and guide system |
JP2020201322A (en) | 2019-06-06 | 2020-12-17 | 株式会社日立製作所 | Guide robot system and conversation generation method |
-
2021
- 2021-06-18 JP JP2021101353A patent/JP7459020B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010191530A (en) | 2009-02-16 | 2010-09-02 | Fujifilm Corp | Nationality decision device and method, and program |
JP2015127884A (en) | 2013-12-27 | 2015-07-09 | Necパーソナルコンピュータ株式会社 | Information processing device, information processing method, and program |
JP2017041120A (en) | 2015-08-20 | 2017-02-23 | カシオ計算機株式会社 | Information processing device, information processing system, information processing method and program |
JP2019135629A (en) | 2018-02-05 | 2019-08-15 | 株式会社東芝 | Guide apparatus and guide system |
JP2020201322A (en) | 2019-06-06 | 2020-12-17 | 株式会社日立製作所 | Guide robot system and conversation generation method |
Also Published As
Publication number | Publication date |
---|---|
JP2023000493A (en) | 2023-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200322754A1 (en) | Methods and systems for developing a personalized non-profit venue experience and presenting personalized multimedia to a mobile computing device | |
Balandina et al. | IoT use cases in healthcare and tourism | |
Neal et al. | The effect of tourism services on travelers' quality of life | |
Mattson | Style and the value of gay nightlife: Homonormative placemaking in San Francisco | |
MacKay et al. | An exploration of cross-cultural destination image assessment | |
US20210295837A1 (en) | Non-Transitory Computer Readable Medium, Information Processing Method, Information Processing Device, and Information Processing System | |
KR102388442B1 (en) | Apparatus for Augmented Reality-based Metaverse Service and Driving Method Thereof | |
JP2011215964A (en) | Server apparatus, client apparatus, content recommendation method and program | |
Josiam et al. | Using structural equation modeling to understand the impact of Bollywood movies on destination image, tourist activity, and purchasing behavior of Indians | |
US9607094B2 (en) | Information communication method and information communication apparatus | |
JP2015230512A (en) | User interface screen creation support system | |
Wilken et al. | Placemaking through mobile social media platform Snapchat | |
Liu et al. | International anime tourists’ experiences: a netnography of popular Japanese anime tourism destinations | |
US10963938B2 (en) | Systems and methods for providing an interactive virtual environment | |
Zhao | Linguistic landscapes as discursive frame: Chinatown in Paris in the eyes of new Chinese migrants | |
JP7459020B2 (en) | Information processing device, information processing method, and information processing program | |
Boutsiouki et al. | Is the museum going digital? Experiences from the websites of Greek museums | |
JP7417877B2 (en) | Method and system for generating special sale events based on user intent of search queries | |
TW201629796A (en) | Information multilingual conversion system | |
Niculescu et al. | Designing muse: a multimodal user experience for a shopping mall kiosk | |
JP7106500B2 (en) | Provision device, provision method and provision program | |
Hunter | Social VR and the continuing reinvention of local in theatre and performance | |
Wolkowitz | Flesh and stone revisited: The body work landscape of South Florida | |
Husain | Ambedkarization and Dalit Assertion: Notes from Banaras District in East Uttar Pradesh | |
US20240048635A1 (en) | Method and system for transforming and integrating mobile device shopping interfaces across multiple shopping venues and carriers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230113 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7459020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |