JP2023000493A - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP2023000493A
JP2023000493A JP2021101353A JP2021101353A JP2023000493A JP 2023000493 A JP2023000493 A JP 2023000493A JP 2021101353 A JP2021101353 A JP 2021101353A JP 2021101353 A JP2021101353 A JP 2021101353A JP 2023000493 A JP2023000493 A JP 2023000493A
Authority
JP
Japan
Prior art keywords
user
information
information processing
unit
language used
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021101353A
Other languages
English (en)
Other versions
JP7459020B2 (ja
Inventor
浩二 西田
Koji Nishida
安昭 兵藤
Yasuaki Hyodo
瑠衣 有地
Rui Arichi
康大 助光
Yasuhiro Sukemitsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021101353A priority Critical patent/JP7459020B2/ja
Publication of JP2023000493A publication Critical patent/JP2023000493A/ja
Application granted granted Critical
Publication of JP7459020B2 publication Critical patent/JP7459020B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】インバウンドの来訪者のデータを適切に取得する。【解決手段】情報処理装置は、ユーザと対話した際のユーザの音声を取得する取得部と、音声認識によりユーザを特定する特定部と、ユーザを特定した場所と日時とを紐づけてユーザの行動履歴として蓄積する管理部と、ユーザの使用言語によりユーザが訪日外国人であると推定する推定部と、ユーザの使用言語に応じた情報提供をする提供部と、を備える。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
ユーザの行動に関する履歴情報から、ユーザの通常の行動から外れる外れ行動を示す情報である外れ情報を抽出し、抽出された外れ情報に基づいて、ユーザの特性であって、外れ行動により顕在化される特性であるユーザ特性を推定する技術が開示されている。
特開2019-49946号公報
しかしながら、上記の従来技術では、普段国内で行動しており履歴情報から行動を追うことが可能な国内のユーザの特性は推定できるが、インバウンド(Inbound)等で一時的に海外から訪れたユーザの履歴情報は存在せず行動を追うことはできないため、初めて日本を訪れた海外在住の訪日客(来訪者)等のユーザ特性は推定できない。
本願は、上記に鑑みてなされたものであって、インバウンドの来訪者のデータを適切に取得することを目的とする。
本願に係る情報処理装置は、ユーザと対話した際の前記ユーザの音声を取得する取得部と、音声認識により前記ユーザを特定する特定部と、前記ユーザを特定した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する管理部と、前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定部と、前記ユーザの使用言語に応じた情報提供をする提供部と、を備えることを特徴とする。
実施形態の一態様によれば、インバウンドの来訪者のデータを適切に取得することができる。
図1は、実施形態に係る情報処理方法の概要を示す説明図である。 図2は、実施形態に係る情報処理システムの構成例を示す図である。 図3は、実施形態に係る情報提供装置の構成例を示す図である。 図4は、訪日客情報データベースの一例を示す図である。 図5は、提供情報データベースの一例を示す図である。 図6は、実施形態に係る処理手順を示すフローチャートである。 図7は、ハードウェア構成の一例を示す図である。
以下に、本願に係る情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.情報処理方法の概要〕
まず、図1を参照し、実施形態に係る情報処理装置が行う情報処理方法の概要について説明する。図1は、実施形態に係る情報処理方法の概要を示す説明図である。なお、図1では、海外からの訪日客(来訪者)への情報提供及び行動追跡をする場合を例に挙げて説明する。
図1に示すように、情報処理システム1は、端末装置10と情報提供装置100とスマートスピーカ200とカメラ300とを含む。情報提供装置100とスマートスピーカ200とカメラ300とは、それぞれネットワークN(図2参照)を介して有線又は無線で互いに通信可能に接続される。本実施形態では、情報提供装置100は、スマートスピーカ200及びカメラ300と連携する。スマートスピーカ200及びカメラ300はそれぞれ複数の場所に設置されている。
端末装置10は、海外からの訪日客(来訪者)等である利用者U(ユーザ)により使用されるスマートフォンやタブレット等のスマートデバイスであり、4G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置10は、液晶ディスプレイ等の画面であって、タッチパネルの機能を有する画面を有し、利用者Uから指やスタイラス等によりタップ操作、スライド操作、スクロール操作等、コンテンツ等の表示データに対する各種の操作を受付ける。なお、画面のうち、コンテンツが表示されている領域上で行われた操作を、コンテンツに対する操作としてもよい。また、端末装置10は、スマートデバイスのみならず、ノートPC(Personal Computer)等の可搬式の情報処理装置であってもよい。
本実施形態では、端末装置10は必須ではない。利用者Uは、端末装置10を所持していない人(例えば子供など)であってもよい。
情報提供装置100は、海外からの訪日客(来訪者)等である利用者Uに関する情報を収集する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。本実施形態では、情報提供装置100は、スマートスピーカ200及びカメラ300と連携し、スマートスピーカ200及びカメラ300から利用者Uに関する情報を収集する。
スマートスピーカ200は、対話型の音声操作に対応したAIアシスタント機能を持つスピーカであり、内蔵されているマイクで音声を認識する。また、スマートスピーカ200は、利用者Uとの対話により得られた音声データから、音声認識により利用者Uを特定する。さらに、スマートスピーカ200は、利用者Uとの対話により、利用者Uに対して情報提供を行う。
また、スマートスピーカ200は、対話した利用者Uの使用言語により利用者Uが訪日外国人であると推定する。例えば、スマートスピーカ200は、利用者Uの音声データから利用者Uの使用言語を推定し、利用者Uが当該使用言語を公用語とする国や地域から来訪した訪日外国人であると推定する。但し、使用言語と国とは必ずしも1対1の関係にはない(例えば、英語、スペイン語、アラビア語等は多くの国や地域で公用語となっている)ため、使用言語からの利用者Uの出身地(母国等)の推定は必須ではない。
また、スマートスピーカ200は、利用者Uとの対話(会話)の中で、利用者Uから出身地(母国等)に関連する情報を聞き出してもよい。例えば、出身地(母国等)の名称等に関する直接的な質問はせず、出身地(母国等)に関連する話題(流行、著名人、特産品/名産品等)に触れてもよい。あるいは、スマートスピーカ200は、利用者Uとの会話の内容から利用者Uの出身地を推定してもよい。
また、スマートスピーカ200は、同じ使用言語であっても、方言や訛り等の違いにより、さらに細分化してもよい。すなわち、使用言語は、標準語に限らず、地域言語(地方言語)であってもよい。例えば、スマートスピーカ200は、広義には同じ使用言語であっても、利用者Uの出身地に応じた方言や訛り等の違いがある場合、別の使用言語として扱ってもよい。また、スマートスピーカ200は、使用言語に含まれる方言や訛り等から、利用者Uの出身国(アメリカ、中国等)や地域(アメリカのどの地域か等)を推定してもよい。
また、スマートスピーカ200は、利用者Uとの対話に先立って、利用者Uに使用言語又は出身地を指定(選択)させるようにしてもよい。一般的に、利用者Uは使い慣れている自身の使用言語での対話や案内を望むものと推測される。
また、スマートスピーカ200は、利用者Uとの対話(会話)の内容から、利用者Uの訪日の目的がビジネスか観光かを推定してもよい。そして、利用者Uの訪日の目的に応じて、利用者Uへの情報提供の内容を変更してもよい。訪日の目的によって、利用者Uの求める情報は異なると推測される。
なお、実際には、スマートスピーカ200は、対話した利用者Uの音声データを情報提供装置100に提供し、情報提供装置100が利用者Uの音声データから、音声認識により利用者Uを特定し、利用者Uの使用言語を推定し、利用者Uが訪日外国人であると推定してもよい。
カメラ300は、スマートスピーカ200に搭載、又はスマートスピーカ200の近傍に設置された撮像装置であり、スマートスピーカ200と対話中の利用者Uを撮影する。また、カメラ300は、撮影された利用者Uの画像データから、画像認識により利用者Uを特定する。但し、画像認識は一例に過ぎない。実際には、画像認識に限らず、指紋認証、顔認証、虹彩認証、静脈認証等の生体認証であってもよい。
例えば、同一人物であっても複数の言語を使用する能力をもっている人(バイリンガル、トライリンガル等)も存在する。また、出身地が英語圏でなくても英語を使用してコミュニケーションをとろうとする人もいる。たとえ同一人物が異なる言語を使用した場合でも、画像認識により同一人物と推定された場合には、同一人物として扱ってもよい。例えば、利用者Uが場所によって異なる言語を使用したとしても、カメラ300が画像認識により利用者Uであると特定した場合には、使用言語にかかわらず利用者Uとして扱う。
さらに、カメラ300は、利用者Uの画像データを用いた画像認識により、利用者Uの容姿、衣装及び所持品を判別し、利用者Uの容姿、衣装及び所持品から、利用者Uが訪日外国人であると推定してもよい。また、カメラ300は、利用者Uの容姿、衣装及び所持品、あるいは挙動から、利用者Uの嗜好(興味・関心の対象)を推定してもよい。そして、スマートスピーカ200は、カメラ300と連携し、推定された利用者Uの嗜好に応じて、利用者Uへの情報提供の内容を変更してもよい。例えば、スマートスピーカ200は、推定された利用者Uの嗜好に合わせた商品提案をしてもよい。
また、カメラ300は、利用者Uの容姿、衣装及び所持品等から、利用者Uの出身国(アメリカ、中国等)や地域(アメリカのどの地域か等)を推定してもよい。例えば、カメラ300は、利用者Uが所定のメーカーのサングラスを持っていたら、販売元地域から来たと推定する。また、カメラ300は、利用者Uが主に一部地域の住民しか所持していない物品を持っていたら、当該地域から来たと推定する。
なお、実際には、カメラ300は、撮影された利用者Uの画像データを情報提供装置100に提供し、情報提供装置100が利用者Uの画像データから、画像認識により利用者Uを特定し、利用者Uが訪日外国人であると推定してもよい。
図1に示す例において、識別のため、便宜上、場所Aに設置されたスマートスピーカ200及びカメラ300をスマートスピーカ200A及びカメラ300A、場所Bに設置されたスマートスピーカ200及びカメラ300をスマートスピーカ200B及びカメラ300B、場所Cに設置されたスマートスピーカ200及びカメラ300をスマートスピーカ200C及びカメラ300Cと称する。
ここで、図1に示す例では、全ての場所でスマートスピーカ200及びカメラ300の組を示しているが、実際には、スマートスピーカ200及びカメラ300は、最初に利用者Uと接触する場所(場所A)で両方そろっていれば十分であり、2回目以降に利用者Uと接触する場所(場所B,場所C)では、スマートスピーカ200及びカメラ300のうち、少なくとも一方があればよい。スマートスピーカ200のみが設置されている場所では、利用者Uとの対話による音声認識のみで利用者Uを特定する。カメラ300のみが設置されている場所では、利用者Uの撮影による画像認識のみで利用者Uを特定する。
また、カメラ300は、スマートスピーカ200に接近してきた利用者Uを撮影して画像認識のみで利用者Uを特定し、特定された利用者Uに関する情報(識別情報等)をスマートスピーカ200に提供してもよい。これにより、スマートスピーカ200は、接近してきた利用者Uの使用言語で、当該利用者Uに話しかけることができる。
なお、上記のスマートスピーカ200及びカメラ300は、可搬式のものであって、各場所に簡易設置されているものであってもよい。例えば、スマートスピーカ200及びカメラ300は、スマートデバイスやノートPC等に搭載又は接続されたものであってもよい。また、スマートスピーカ200及びカメラ300は、ワイヤレスデバイスであってもよい。
また、上記のスマートスピーカ200及びカメラ300は同一の店頭設置端末又はデジタルサイネージ(電子看板)に搭載されていてもよい。また、スマートスピーカ200及びカメラ300はAI(Artificial Intelligence:人工知能)を搭載したロボット(自律型会話ロボット等)に搭載されていてもよい。
また、利用者Uの端末装置10が上記のスマートスピーカ200及びカメラ300の役割を果たしてもよい。例えば、利用者Uの端末装置10が、店頭や特定の場所に配置(又は店頭設置端末に表示)されたQRコード(登録商標)等の二次元コードを読み取ることで、端末装置10が上記のスマートスピーカ200及びカメラ300としての機能を発揮するためのアプリ(app:application program)を導入(インストール)するようにしてもよい。
また、スマートスピーカ200及びカメラ300が設置される場所(場所A、場所B、場所C)は、例えばコンビニエンスストアやスーパーマーケット、ドラッグストア、ホームセンター、ディスカウントストア等の小売店、カフェやレストラン、酒場等の飲食店等の個々の店舗である。また、場所は、例えば大型商業施設(ショッピングセンター/アウトレットモール/地下街)、娯楽施設(テーマパーク/遊園地/遊戯場/映画館/動物園/水族館/プール/入浴施設)、文化施設(ホール/劇場/図書館/美術館/博物館)、複合施設、スポーツ施設、駐車場、サービスエリア(SA)やパーキングエリア(PA)、又は鉄道駅や道の駅、空港、港湾(乗船場)等であってもよい。また、場所は、例えば観光案内所、観光スポット、ランドマーク、城・城跡、寺社仏閣、公園、庭園、名所、旧跡、景勝地、温泉、キャンプ場/コテージ/ロッジ/バンガロー、山/海岸/湖畔/河川敷の周辺施設、観光農園や観光牧場等であってもよい。特に、海外からの訪日客等が訪れる可能性がある場所や人気の場所であると好ましい。
また、上記以外にも、スマートスピーカ200及びカメラ300が設置される場所は、例えばマンション・アパート等の集合住宅や戸建住宅、企業等のオフィスビル、店舗等の商業施設、ホテル等の宿泊施設、学校等の教育機関、病院等の医療機関、研究所等の研究機関、工場等の産業プラント、配送センター等の物流拠点等であってもよい。
〔1-1.海外からの訪日客への情報提供及び行動追跡〕
ここで、図1を参照して、海外からの訪日客への情報提供及び行動追跡について説明する。
図1に示すように、場所Aに設置されたスマートスピーカ200が対話した利用者Uの音声データを取得し、場所Aに設置されたカメラ300が撮影した利用者Uの画像データを取得する(ステップS1)。このとき、スマートスピーカ200及びカメラ300はそれぞれ取得された利用者Uの音声データ及び画像データを情報提供装置100に送信してもよい。
続いて、スマートスピーカ200は利用者Uの音声データを用いた音声認識により、カメラ300は利用者Uの画像データを用いた画像認識により、利用者Uを特定する(ステップS2)。なお、実際には、情報提供装置100が、利用者Uの音声データ及び画像データを用いた音声認識及び画像認識により、利用者Uを特定してもよい。また、特定された利用者Uを識別するための識別情報が設定される。
続いて、情報提供装置100は、スマートスピーカ200及びカメラ300が利用者Uの音声データ及び画像データを取得した場所Aの識別情報(位置情報でも可)と、データが取得された日時に関する情報とを、特定された利用者Uの識別情報に紐づけて、利用者Uの行動履歴として蓄積する(ステップS3)。
なお、実際には、情報提供装置100は、対話した利用者Uの端末装置10と近距離無線通信を行ったスマートスピーカ200(店頭設置端末でも可)から、スマートスピーカ200の位置情報(又は設置場所の情報)と利用者Uの端末装置10の識別情報とを取得し、利用者Uの端末装置10の識別情報から利用者Uを特定し、スマートスピーカ200の位置情報と利用者Uの端末装置10の識別情報を取得した日時とを紐づけて利用者Uの行動履歴として蓄積してもよい。
続いて、スマートスピーカ200は、利用者Uの音声データを用いた音声認識により、利用者Uの使用言語を推定し、使用言語から利用者Uが訪日外国人であると推定する(ステップS4)。なお、実際には、情報提供装置100が、スマートスピーカ200から送信された利用者Uの音声データを用いた音声認識により、利用者Uの使用言語を推定し、使用言語から利用者Uが訪日外国人であると推定してもよい。さらに、カメラ300は、利用者Uの画像データを用いた画像認識により、利用者Uの容姿、衣装及び所持品を判別し、利用者Uの容姿、衣装及び所持品から、利用者Uが訪日外国人であると推定してもよい。
続いて、スマートスピーカ200は、情報提供装置100と連携し、利用者Uの使用言語に応じた情報提供を行う(ステップS5)。すなわち、スマートスピーカ200は、利用者Uの使用言語ごとに異なる内容の情報提供を行う(使用言語ごとに情報提供の内容を変更する)。利用者Uの使用言語に応じた利用者Uへの情報提供は、例えば当該使用言語を使用する訪日客におすすめの観光地や商品及びサービスの案内等である。あるいは、対話の中で挙げられた利用者Uの要望(要求)に応じた店舗や施設等の案内等であってもよい。本実施形態では、スマートスピーカ200は、当該使用言語を使用する訪日客を対象とした情報提供を行う。
例えば、利用者Uへの情報提供は、他の場所(場所B、場所C等)への案内や商品及びサービスの広告提示又はクーポン発行等であってもよい。また、当該使用言語を使用する訪日客に人気のアクティビティ(遊び・体験)等に関する情報提供であってもよい。また、当該使用言語を使用する訪日客があまりいない場所(穴場等)に関する情報提供であってもよい。同邦(同国)の人が集まる場所を避けたい訪日客もいると推測される。また、情報提供は、当該使用言語を使用する訪日客に対する緊急速報や注意喚起等であってもよい。
ここでは、スマートスピーカ200は、利用者Uの使用言語による音声案内で利用者Uへの情報提供を行う。なお、実際には、情報提供装置100がスマートスピーカ200を介して、利用者Uの使用言語による音声案内で利用者Uへの情報提供を行うようにしてもよい。また、スマートスピーカ200は、表示装置がスマートスピーカ200に搭載又は接続されている場合には、当該表示装置に案内表示を行うことで情報提供してもよい。すなわち、利用者Uの使用言語による案内は、音声案内であってもよいし、文字及び画像による案内表示であってもよい(両方でもよい)。
このとき、情報提供装置100は、利用者Uと同じ使用言語を使用する他の利用者の行動履歴について機械学習を行い、利用者Uに適した情報を推定してもよい。例えば、使用言語と、その使用言語を使用する利用者が訪問している場所とをデータセットとして、ニューラルネットワークによる機械学習の手法等を用いて学習モデルを構築する。そして、情報提供装置100は、構築された学習モデルに利用者Uの使用言語を入力して、学習モデルからの出力として案内すべき場所に関する情報を取得する。ここでは、情報提供装置100は、例えばRNN(Recurrent Neural Network)やLSTM(Long short-term memory)等を用いた機械学習を経て生成される案内先推定モデルに利用者Uの使用言語を入力し、案内先推定モデルからの出力として案内すべき場所に関する情報を取得する。
なお、RNNやLSTMは、アテンション(Attention)の仕組みに基づくニューラルネットワークであってもよい。アテンションは、文章のような前後の並びが重要なデータを扱うことができる。また、情報提供装置100は、同様の自然言語処理モデルを用いてもよい。このようなモデルを用いて、利用者Uの使用言語を含む各種情報から案内すべき場所を推定することにより、より情報の順序に重点を置いた案内すべき場所の推定を実現することができる。
また、情報提供装置100は、利用者Uの音声データや画像データから利用者Uを特定する精度を向上させるために機械学習を行ってもよい。音声データや画像データは、機械学習の手法と相性が良い。利用者Uの識別情報と利用者Uの音声データや画像データとの組を正解データとして学習を重ねることで、利用者Uを特定する精度が向上してくことが期待できる。利用者Uの音声データから、利用者Uの使用言語を推定する場合についても同様である。
これにより、海外からの訪日客等の言語コミュニケーションギャップや情報不足を解決するとともに、国内でサービスを展開する企業等が取得できない海外からの訪日客等の人流やニーズを取得することができる。
また、本実施形態では、利用者Uの属性等の個人情報は収集しない。そのため、仮に利用者Uの特定や使用言語の推定に失敗したとしても、利用者Uの個人情報の流出や漏洩の心配はない。利用者Uの特定や推定に使用言語の失敗した場合には、利用者Uに対する情報提供の精度が低下するだけである。
〔2.情報処理システムの構成例〕
次に、図2を用いて、実施形態に係る情報提供装置100が含まれる情報処理システム1の構成について説明する。図2は、実施形態に係る情報処理システム1の構成例を示す図である。図2に示すように、実施形態に係る情報処理システム1は、情報提供装置100とスマートスピーカ200とカメラ300とを含む。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。ネットワークNは、例えば、LAN(Local Area Network)や、インターネット等のWAN(Wide Area Network)である。
また、図2に示す情報処理システム1に含まれる各装置の数は図示したものに限られない。例えば、図2では、図示の簡略化のため、スマートスピーカ200とカメラ300とをそれぞれ3台だけ示したが、これはあくまでも例示であって限定されるものではなく、4台以上であってもよい。
また、かかるスマートスピーカ200及びカメラ300は、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation:第5世代移動通信システム)等の無線通信網や、Bluetooth(登録商標)、無線LAN(Local Area Network)等の近距離無線通信を介してネットワークNに接続し、情報提供装置100と通信することも可能である。また、スマートスピーカ200は、近距離無線通信を介して端末装置10と通信することも可能である。
情報提供装置100は、例えばPCやサーバ装置、あるいはメインフレーム又はワークステーション等である。なお、情報提供装置100は、クラウドコンピューティングにより実現されてもよい。
〔3.情報提供装置の構成例〕
次に、図3を用いて、実施形態に係る情報提供装置100の構成について説明する。図3は、実施形態に係る情報提供装置100の構成例を示す図である。図3に示すように、情報提供装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。また、通信部110は、ネットワークN(図2参照)と有線又は無線で接続される。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、訪日客情報データベース121と、提供情報データベース122とを有する。
(訪日客情報データベース121)
訪日客情報データベース121は、海外からの訪日客(来訪者)等である利用者Uに関する各種情報を記憶する。図4は、訪日客情報データベース121の一例を示す図である。図4に示した例では、訪日客情報データベース121は、「利用者ID(Identifier)」、「音声」、「画像」、「取得場所」、「取得日時」、「使用言語」といった項目を有する。
「利用者ID」は、利用者Uを識別するための識別情報を示す。なお、「利用者ID」は、情報提供装置100、又はスマートスピーカ200及びカメラ300が自動的に割り当てた識別番号であってもよい。
また、「音声」は、利用者Uと対話したスマートスピーカ200により取得された利用者Uの音声データを示す。なお、実際には、その音声データの所在(格納場所:ディレクトリ及びファイル名、URL(Uniform Resource Locator)等)を示す情報であってもよい。
また、「画像」は、利用者Uを撮影したカメラ300により取得された利用者Uの画像データを示す。なお、実際には、その画像データの所在(格納場所:ディレクトリ及びファイル名、URL等)を示す情報であってもよい。
また、「取得場所」は、スマートスピーカ200が音声データを取得した場所や、カメラ300が画像データを取得した場所に関する情報を示す。すなわち、スマートスピーカ200及びカメラ300の設置場所に関する情報を示す。なお、場所に関する情報は、位置情報や住所等であってもよいし、設置場所の名称や識別情報等であってもよい。
また、「取得日時」は、スマートスピーカ200が音声データを取得した日時や、カメラ300が画像データを取得した日時に関する情報を示す。ここでは、取得場所と取得日時とに関する情報は紐づけられている。
また、「使用言語」は、利用者Uの音声データ等から推定された利用者Uの使用言語の種別を示す。使用言語は、例えば、英語、フランス語、スペイン語、中国語、ロシア語、アラビア語等、各国又は各地域で使用されている言語である。また、使用言語は、方言や訛り等の違いにより、さらに細分化されてもよい。ここでは、音声データを取得した場所ごとに、使用言語を毎回推定するものとしているが、実際には最初の1回だけでもよい。また、利用者Uが複数の言語を使用した場合には、使用言語は複数であってもよい。
例えば、図4に示す例において、利用者ID「U1」により識別される利用者Uの音声データ「音声#1A」及び画像データ「画像#1A」が取得された場所は「場所A」であり、取得された日時は「2021/6/5」であり、利用者Uの使用言語は「中国語」であることを示す。なお、中国語は、北京語や広東語のようにさらに細分化されていてもよい。
ここで、図4に示す例では、「U1」、「音声#1A」、「画像#1A」及び「場所A」といった抽象的な値を用いて図示するが、「U1」、「音声#1A」、「画像#1A」及び「場所A」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。
なお、訪日客情報データベース121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、訪日客情報データベース121は、利用者Uの端末装置10に関する各種情報を記憶してもよい。また、訪日客情報データベース121は、利用者Uの使用言語や容姿等から推定された利用者Uの出身地(母国等)に関する情報を記憶してもよい。
(提供情報データベース122)
提供情報データベース122は、同じ言語を使用する訪日客に対して提供すべき情報を記憶する。図5は、提供情報データベース122の一例を示す図である。図5に示した例では、提供情報データベース122は、「使用言語」、「滞在地」、「訪問先」、「情報」といった項目を有する。
「使用言語」は、海外からの訪日客(来訪者)等が使用する言語を示す。
また、「滞在地」は、過去に当該使用言語を使用する訪日客がスマートスピーカ200と対話した場所を示す。すなわち、滞在地は、過去に当該使用言語を使用する他の訪日客に対して情報提供を行った場所を示す。なお、「滞在地」は、現在、当該使用言語を使用して訪日客と対話中のスマートスピーカ200の所在地(当該使用言語で対話している訪日客の現在地)と照合される。
また、「訪問先」は、過去に当該使用言語を使用する訪日客が滞在地から次に向かった場所(目的地等)を示す。すなわち、訪問先は、過去に当該使用言語を使用する他の訪日客が滞在地から次に向かった場所を示す。なお、訪問先は、過去に当該使用言語を使用する訪日客の集団の行動履歴から抽出される。このとき、各訪問先へ向かった過去の訪日客の人数等から、各訪問先に順位をつけて順位の高い順に並べてもよい(訪問先のランキング)。
また、「情報」は、現在対話している訪日客(当該使用言語を使用している訪日客)が滞在地から次に向かうと予想される場所(訪問先)に関する情報を示す。すなわち、情報は、現在対話している訪日客に提供すべき情報を示す。このとき、情報も訪問先のランキングの順に並べて、訪問先のランキングの順に訪日客に情報提供されるようにしてもよい。なお、情報は、次に向かうと予想される場所(訪問先)に関する情報に限らず、旬な情報やおすすめ情報等であってもよい。また、情報は、当該使用言語を使用する訪日客に対する緊急速報や注意喚起等であってもよい。
例えば、図5に示す例において、使用言語「中国語」を使用する訪日客は、滞在地が「場所A」である場合、次の訪問先として「場所B」に向かう傾向にあるため、情報提供として場所Bの最新情報や場所Aから場所Bまでのルート案内及びその周辺の店舗・施設等に関する「情報B」を提供すると好ましいことを示す。また、情報Bは、場所Bと直接関係なく、場所Bに関連するカテゴリーの情報であってもよい。
ここで、図5に示す例では、「場所A」、「場所B」及び「情報B」といった抽象的な値を用いて図示するが、「場所A」、「場所B」及び「情報B」には、具体的な文字列や数値等の情報が記憶されるものとする。以下、他の情報に関する図においても、抽象的な値を図示する場合がある。
なお、提供情報データベース122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、提供情報データベース122は、情報提供される訪問先の人気度(訪問人数)に関する情報を記憶してもよい。また、提供情報データベース122は、当該使用言語を使用する訪日客のうち、情報提供された訪問先へ実際に訪れた訪日客の人数や割合に関する情報を記憶してもよい。また、提供情報データベース122は、訪問先に限らず、当該使用言語を使用する訪日客に人気のサービスやアクティビティ(遊び・体験)等に関する情報を記憶してもよい。また、提供情報データベース122は、当該使用言語を使用する訪日客があまりいない場所(穴場等)に関する情報を記憶してもよい。また、提供情報データベース122は、当該使用言語を使用する訪日客に関する情報を、訪日の目的(ビジネス/観光)によって分類して記憶してもよい。
(制御部130)
図3に戻り、説明を続ける。制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等によって、情報提供装置100の内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等の記憶領域を作業領域として実行されることにより実現される。図3に示す例では、制御部130は、取得部131と、特定部132と、管理部133と、推定部134と、提供部135とを有する。
(取得部131)
取得部131は、スマートスピーカ200が利用者U(ユーザ)と対話した際に、スマートスピーカ200及びカメラ300から、通信部110を介して、利用者Uの音声データ及び画像データを取得する。例えば、取得部131は、利用者Uと対話した店頭設置端末から利用者Uの音声データ及び画像データを取得する。あるいは、取得部131は、スマートスピーカ200及びカメラ300としての機能を有する利用者Uの端末装置10を介して利用者Uと対話した際に、利用者Uの端末装置10から利用者Uの音声データ及び画像データを取得する。
また、取得部131は、利用者Uの端末装置10と近距離無線通信を行った店頭設置端末から、店頭設置端末の所在情報(位置情報、識別情報)と利用者Uの端末装置10の識別情報とを取得してもよい。
(特定部132)
特定部132は、利用者Uの音声データに基づく音声認識、及び利用者Uの画像データに基づく画像認識により、利用者Uを特定する。また、特定部132は、利用者Uの端末装置10の識別情報から利用者Uを特定してもよい。
(管理部133)
管理部133は、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積する。すなわち、管理部133は、利用者Uの音声データ及び画像データを取得した場所及び日時を紐づけて利用者Uの行動履歴として蓄積する。このとき、管理部133は、利用者Uを特定した場所ごとに、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積することで、利用者Uが提供部135による情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する。
また、管理部133は、店頭設置端末の所在情報と利用者Uの端末装置10の識別情報を取得した日時とを紐づけて利用者Uの行動履歴として蓄積してもよい。
(推定部134)
推定部134は、利用者Uの音声データから、利用者Uの使用言語を推定する。このとき、推定部134は、利用者Uとの対話(会話)の内容から、利用者Uの使用言語を推定してもよい。また、推定部134は、利用者Uが入力又は指定(選択)した文字の画像データから、利用者Uの使用言語を推定してもよい。あるいは、推定部134は、利用者Uが手にしているガイドブックや観光パンフレット等に記載されている言語から、利用者Uの使用言語を推定してもよい。また、推定部134は、利用者Uが入力又は指定(選択)した使用言語又は出身地に関する情報から、利用者Uの使用言語を推定してもよい。
また、推定部134は、利用者Uの使用言語により利用者Uが訪日外国人であると推定する。このとき、推定部134は、利用者Uの使用言語と利用者Uの容姿とにより利用者Uが訪日外国人であると推定してもよい。なお、容姿は、利用者Uの年齢層(年代)や性別、人種、その他の利用者Uの身体的特徴を含む。また、推定部134は、利用者Uの使用言語と利用者Uの衣装及び所持品とにより利用者Uが訪日外国人であると推定してもよい。なお、衣装は、衣服、被り物(帽子等)、履物(靴等)等、身にまとうもの全般を含む。また、所持品は、鞄や小物、装飾品、携行品も含む。例えば、推定部134は、所持品に付帯する記号(マーク)や象徴(シンボル)、所持品の形状や模様等から利用者Uが訪日外国人であると推定してもよい。
(提供部135)
提供部135は、利用者Uの使用言語による案内で利用者Uに情報提供する。このとき、提供部135は、利用者Uの使用言語による音声案内及び案内表示のうち少なくとも一方で利用者Uに情報提供してもよい。また、提供部135は、利用者Uの使用言語と、利用者Uの容姿、衣装及び所持品のうち少なくとも1つとに応じて、利用者Uへの情報提供の内容を変更する。
〔4.処理手順〕
次に、図6を用いて実施形態に係る情報提供装置100、スマートスピーカ200及びカメラ300による処理手順について説明する。図6は、実施形態に係る処理手順を示すフローチャートである。なお、以下に示す処理手順は、情報提供装置100、スマートスピーカ200及びカメラ300によって繰り返し実行される。
図6に示すように、スマートスピーカ200は、海外からの訪日客等である利用者Uと対話する(ステップS101)。このとき、スマートスピーカ200は、情報提供装置100と連携して、利用者Uとの対話の内容を情報提供装置100に通知してもよい。例えば、情報提供装置100がスマートスピーカ200を介して利用者Uと対話してもよい。
続いて、スマートスピーカ200は、利用者Uと対話することにより、利用者Uの音声データを取得する(ステップS102)。このとき、情報提供装置100の取得部131は、通信部110を介して、スマートスピーカ200から利用者Uの音声データを取得する。
続いて、カメラ300は、スマートスピーカ200と対話中の利用者Uを撮影することにより、利用者Uの画像データを取得する(ステップS103)。このとき、情報提供装置100の取得部131は、通信部110を介して、カメラ300から利用者Uの画像データを取得する。
続いて、スマートスピーカ200は利用者Uの音声データに基づく音声認識により、カメラ300は利用者Uの画像データ基づく画像認識により、利用者Uを特定する(ステップS104)。このとき、情報提供装置100の特定部132は、利用者Uの音声データに基づく音声認識、及び利用者Uの画像データに基づく画像認識により、利用者Uを特定してもよい。また、取得部131は、対話した利用者Uの端末装置10と近距離無線通信を行ったスマートスピーカ200及び/又はカメラ300から、利用者Uの端末装置10の識別情報を取得してもよい。そして、特定部132は、利用者Uの端末装置10の識別情報から利用者Uを特定してもよい。あるいは、取得部131は、利用者Uを特定したスマートスピーカ200及び/又はカメラ300から、特定された利用者Uに関する情報を取得してもよい。
続いて、情報提供装置100の管理部133は、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積する(ステップS105)。このとき、管理部133は、利用者Uを特定した場所ごとに、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積することで、利用者Uが情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する。
続いて、情報提供装置100の推定部134は、利用者Uの音声データから、利用者Uの使用言語を推定する(ステップS106)。このとき、推定部134は、利用者Uとの対話(会話)の内容から、利用者Uの使用言語を推定してもよい。また、推定部134は、利用者Uが入力又は指定(選択)した文字の画像データから、利用者Uの使用言語を推定してもよい。
続いて、情報提供装置100の推定部134は、利用者Uの使用言語により利用者Uが訪日外国人であると推定する(ステップS107)。このとき、推定部134は、利用者Uの使用言語と利用者Uの容姿、衣装及び所持品とにより利用者Uが訪日外国人であると推定してもよい。
続いて、情報提供装置100の提供部135は、利用者Uの使用言語に応じた情報提供を行う(ステップS108)。本実施形態では、提供部135は、当該使用言語を使用する訪日客を対象とした情報提供を行う。例えば、提供部135は、スマートスピーカ200を介して、利用者Uの使用言語による音声案内で利用者Uに情報提供する。このとき、提供部135は、スマートスピーカ200に対して、利用者Uへの情報提供に用いられるデータを提供する。また、スマートスピーカ200は、表示装置がスマートスピーカ200に搭載又は接続されている場合には、当該表示装置に案内表示を行うことで情報提供してもよい。すなわち、利用者Uの使用言語による案内は、音声案内であってもよいし、文字及び画像による案内表示であってもよい(両方でもよい)。
〔5.変形例〕
上述した端末装置10及び情報提供装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、実施形態の変形例について説明する。
上記の実施形態において、情報提供装置100が実行している処理の一部又は全部は、実際には、スマートスピーカ200が実行してもよい。例えば、スタンドアローン(Stand-alone)で(スマートスピーカ200単体で)処理が完結してもよい。この場合、スマートスピーカ200に、上記の実施形態における情報提供装置100の機能が備わっているものとする。また、スマートスピーカ200は、ネットワークNを介して、他のスマートスピーカ200と連携している。なお、上記の実施形態では、スマートスピーカ200は情報提供装置100と連携しているため、利用者Uから見れば、情報提供装置100の処理もスマートスピーカ200が実行しているように見える。すなわち、他の観点では、スマートスピーカ200は、情報提供装置100を備えているともいえる。
また、上記の実施形態において、スマートスピーカ200や情報提供装置100は、対話における利用者Uの音声データから利用者Uの使用言語を推定しているが、実際は、カメラ300や情報提供装置100が、筆談等において利用者Uが記載又は選択した文字に関するデータから利用者Uの使用言語を推定してもよい。例えば、タッチパネル式の店頭設置端末等が、利用者Uから指やスタイラス等により文字入力(又は文字選択)を受け付けた際に、当該文字から利用者Uの使用言語を推定してもよい。
また、上記の実施形態において、カメラ300や情報提供装置100が、訪日客である利用者Uが手にしているガイドブックや観光パンフレット等に記載されている言語から、利用者Uの使用言語を推定してもよい。訪日客は、自身の使用言語に対応したガイドブックや観光パンフレット等を利用するものと推測される。
〔6.効果〕
上述してきたように、本願に係る情報処理装置(情報提供装置100)は、利用者U(ユーザ)と対話した際の利用者Uの音声を取得する取得部131と、音声認識により利用者Uを特定する特定部132と、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積する管理部133と、利用者Uの使用言語により利用者Uが訪日外国人であると推定する推定部134と、利用者Uの使用言語に応じた情報提供をする提供部135と、を備える。
さらに、取得部131は、利用者Uと対話した際の利用者Uの画像を取得する。特定部132は、画像認識により利用者Uを特定する。
例えば、推定部134は、利用者Uの使用言語と利用者Uの容姿とにより利用者Uが訪日外国人であると推定する。
また、推定部134は、利用者Uの使用言語と利用者Uの衣装及び所持品とにより利用者Uが訪日外国人であると推定する。
また、提供部135は、利用者Uの使用言語と、利用者Uの容姿、衣装及び所持品のうち少なくとも1つとに応じて、利用者Uへの情報提供の内容を変更する。
また、提供部135は、利用者Uの使用言語による音声案内及び案内表示のうち少なくとも一方で利用者Uに情報提供する。
また、管理部133は、利用者Uを特定した場所ごとに、利用者Uを特定した場所と日時とを紐づけて利用者Uの行動履歴として蓄積することで、利用者Uが提供部135による情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する。
また、取得部131は、利用者Uと対話した店頭設置端末から利用者Uの音声を取得する。
また、取得部131は、利用者Uの端末装置を介して利用者Uと対話した際に、利用者Uの端末装置から利用者Uの音声を取得する。
また、取得部131は、利用者Uの端末装置と近距離無線通信を行った店頭設置端末から、店頭設置端末の所在情報と利用者Uの端末装置の識別情報とを取得する。特定部132は、利用者Uの端末装置の識別情報から利用者Uを特定する。管理部133は、店頭設置端末の所在情報と利用者Uの端末装置の識別情報を取得した日時とを紐づけて利用者Uの行動履歴として蓄積する。推定部134は、利用者Uが指定した使用言語により利用者Uが訪日外国人であると推定する。提供部135は、利用者Uが指定した使用言語による案内で利用者Uに情報提供する。
上述した各処理のいずれかもしくは組合せにより、本願に係る情報処理装置は、インバウンドの来訪者のデータを適切に取得することができる。
〔7.ハードウェア構成〕
また、上述した実施形態に係る情報提供装置100は、例えば図7に示すような構成のコンピュータ1000によって実現される。以下、情報提供装置100を例に挙げて説明する。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USB(Universal Serial Bus)メモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェースであり、例えば、USB等により実現される。
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が情報提供装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
〔8.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
例えば、上述した情報提供装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットフォーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
10 端末装置
100 情報提供装置
110 通信部
120 記憶部
121 訪日客情報データベース
122 提供情報データベース
130 制御部
131 取得部
132 特定部
133 管理部
134 推定部
135 提供部

Claims (12)

  1. ユーザと対話した際の前記ユーザの音声を取得する取得部と、
    音声認識により前記ユーザを特定する特定部と、
    前記ユーザを特定した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する管理部と、
    前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定部と、
    前記ユーザの使用言語に応じた情報提供をする提供部と、
    を備えることを特徴とする情報処理装置。
  2. 前記取得部は、前記ユーザと対話した際の前記ユーザの画像を取得し、
    前記特定部は、画像認識により前記ユーザを特定する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記推定部は、前記ユーザの使用言語と前記ユーザの容姿とにより前記ユーザが訪日外国人であると推定する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記推定部は、前記ユーザの使用言語と前記ユーザの衣装及び所持品とにより前記ユーザが訪日外国人であると推定する
    ことを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記提供部は、前記ユーザの使用言語と、前記ユーザの容姿、衣装及び所持品のうち少なくとも1つとに応じて、前記ユーザへの情報提供の内容を変更する
    ことを特徴とする請求項2~4のうちいずれか1つに記載の情報処理装置。
  6. 前記提供部は、前記ユーザの使用言語による音声案内及び案内表示のうち少なくとも一方で前記ユーザに情報提供する
    ことを特徴とする請求項1~5のうちいずれか1つに記載の情報処理装置。
  7. 前記管理部は、前記ユーザを特定した場所ごとに、前記ユーザを特定した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積することで、前記ユーザが前記提供部による情報提供で案内された場所を訪れたことを示す履歴情報を蓄積する
    ことを特徴とする請求項1~6のうちいずれか1つに記載の情報処理装置。
  8. 前記取得部は、前記ユーザと対話した店頭設置端末から前記ユーザの音声を取得する
    ことを特徴とする請求項1~7のうちいずれか1つに記載の情報処理装置。
  9. 前記取得部は、前記ユーザの端末装置を介して前記ユーザと対話した際に、前記ユーザの端末装置から前記ユーザの音声を取得する
    ことを特徴とする請求項1~8のうちいずれか1つに記載の情報処理装置。
  10. 前記取得部は、前記ユーザの端末装置と近距離無線通信を行った店頭設置端末から、前記店頭設置端末の所在情報と前記ユーザの端末装置の識別情報とを取得し、
    前記特定部は、前記ユーザの端末装置の識別情報から前記ユーザを特定し、
    前記管理部は、前記店頭設置端末の所在情報と前記ユーザの端末装置の識別情報を取得した日時とを紐づけて前記ユーザの行動履歴として蓄積し、
    前記推定部は、前記ユーザが指定した使用言語により前記ユーザが訪日外国人であると推定し、
    前記提供部は、前記ユーザが指定した使用言語に応じた情報提供をする
    ことを特徴とする請求項1~9のうちいずれか1つに記載の情報処理装置。
  11. 情報処理装置が実行する情報処理方法であって、
    ユーザと対話した際の前記ユーザの音声を取得する取得工程と、
    音声認識により前記ユーザを特定する特定工程と、
    前記ユーザを特定した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する蓄積工程と、
    前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定工程と、
    前記ユーザの使用言語に応じた情報提供をする提供工程と、
    を含むことを特徴とする情報処理方法。
  12. ユーザと対話した際の前記ユーザの音声を取得する取得手順と、
    音声認識により前記ユーザを特定する特定手順と、
    前記ユーザを特定した場所と日時とを紐づけて前記ユーザの行動履歴として蓄積する蓄積手順と、
    前記ユーザの使用言語により前記ユーザが訪日外国人であると推定する推定手順と、
    前記ユーザの使用言語に応じた情報提供をする提供手順と、
    をコンピュータに実行させるための情報処理プログラム。
JP2021101353A 2021-06-18 2021-06-18 情報処理装置、情報処理方法及び情報処理プログラム Active JP7459020B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021101353A JP7459020B2 (ja) 2021-06-18 2021-06-18 情報処理装置、情報処理方法及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021101353A JP7459020B2 (ja) 2021-06-18 2021-06-18 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2023000493A true JP2023000493A (ja) 2023-01-04
JP7459020B2 JP7459020B2 (ja) 2024-04-01

Family

ID=84687659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021101353A Active JP7459020B2 (ja) 2021-06-18 2021-06-18 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7459020B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5180116B2 (ja) 2009-02-16 2013-04-10 富士フイルム株式会社 国籍判定装置、方法およびプログラム
JP2015127884A (ja) 2013-12-27 2015-07-09 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017041120A (ja) 2015-08-20 2017-02-23 カシオ計算機株式会社 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2019135629A (ja) 2018-02-05 2019-08-15 株式会社東芝 案内装置および案内システム
JP2020201322A (ja) 2019-06-06 2020-12-17 株式会社日立製作所 案内ロボットシステム及び会話作成方法

Also Published As

Publication number Publication date
JP7459020B2 (ja) 2024-04-01

Similar Documents

Publication Publication Date Title
US10839605B2 (en) Sharing links in an augmented reality environment
US20210295837A1 (en) Non-Transitory Computer Readable Medium, Information Processing Method, Information Processing Device, and Information Processing System
Dadwal et al. The augmented reality marketing: A merger of marketing and technology in tourism
KR101687927B1 (ko) 이벤트 리뷰들을 획득하는 방법 및 시스템
US10540707B2 (en) Commercial information providing system and commercial information providing method
US11030422B2 (en) Information display device and information display system
US20230297608A1 (en) Method and system for producing story video
JP2011215964A (ja) サーバ装置、クライアント装置、コンテンツ推薦方法及びプログラム
US10636207B1 (en) Systems and methods for generating a three-dimensional map
García-Crespo et al. CESARSC: Framework for creating cultural entertainment systems with augmented reality in smart cities
US9607094B2 (en) Information communication method and information communication apparatus
WO2020240838A1 (ja) 会話制御プログラム、会話制御方法および情報処理装置
Abdelmoaty et al. Smart Technology Applications in Tourism and Hospitality Industry of The New Administrative Capital, Egypt.
US20200013101A1 (en) Systems and methods for providing an interactive virtual environment
US20210374199A1 (en) A data communication system and method for use of the data communication system
US20230033675A1 (en) Systems and methods for localized information provision using wireless communication
JP7459020B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
TW201629796A (zh) 資訊多語言轉換系統
Niculescu et al. Designing muse: a multimodal user experience for a shopping mall kiosk
Paschou et al. Intelligent mobile recommendations for exhibitions using indoor location services
Wolkowitz Flesh and stone revisited: The body work landscape of South Florida
JP7481773B1 (ja) 情報出力装置、情報出力プログラム、情報出力方法、及び情報出力システム
US20240048635A1 (en) Method and system for transforming and integrating mobile device shopping interfaces across multiple shopping venues and carriers
US20160117698A1 (en) System and Method for Context Dependent Streaming Services
Bakar et al. Augmented reality meets artificial intelligence towards personalised user experience in cultural heritage sites

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230113

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R150 Certificate of patent or registration of utility model

Ref document number: 7459020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150