JP2017152913A - Communication system, communication terminal, server device, and information processing method - Google Patents
Communication system, communication terminal, server device, and information processing method Download PDFInfo
- Publication number
- JP2017152913A JP2017152913A JP2016033333A JP2016033333A JP2017152913A JP 2017152913 A JP2017152913 A JP 2017152913A JP 2016033333 A JP2016033333 A JP 2016033333A JP 2016033333 A JP2016033333 A JP 2016033333A JP 2017152913 A JP2017152913 A JP 2017152913A
- Authority
- JP
- Japan
- Prior art keywords
- communication terminal
- server device
- image data
- imaging
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、サーバ装置および通信端末を備えた通信システムと、当該通信端末と、当該サーバ装置と、これらのシステム、端末および装置における情報処理方法とに関する。 The present invention relates to a communication system including a server device and a communication terminal, the communication terminal, the server device, and an information processing method in these systems, terminals, and devices.
従来、音声認識システムが知られている。音声認識システムでは、音声認識用の辞書データが用いられる。 Conventionally, a voice recognition system is known. In the speech recognition system, dictionary data for speech recognition is used.
たとえば、特開2015−079237号公報(特許文献1)に開示された音声認識システムは、場所に関する辞書データである場所ボキャブラリを生成し、当該生成された場所ボキャブラリを用いて音声認識が行われる。 For example, a speech recognition system disclosed in Japanese Patent Laying-Open No. 2015-079237 (Patent Document 1) generates a location vocabulary that is dictionary data related to a location, and performs speech recognition using the generated location vocabulary.
また、特開2006−195302号公報(特許文献2)に開示された音声認識システムは、車両が走行している場所(詳しくは、市街地、山間部、および高速道路の各区分)と、当該車両の搭乗者の口元の動きを撮像することにより得られた画像データとに基づいて、音声認識用の辞書データを切り替える構成が開示されている。 In addition, the speech recognition system disclosed in Japanese Patent Application Laid-Open No. 2006-195302 (Patent Document 2) includes a place where a vehicle is traveling (specifically, each of an urban area, a mountainous area, and an expressway) and the vehicle. A configuration is disclosed in which dictionary data for voice recognition is switched based on image data obtained by imaging the movement of the passenger's mouth.
また、特開2001−154693号公報(特許文献3)には、可搬かつ会話可能なロボットが開示されている。当該ロボットは、音声認識結果に基づいて行動する。また、当該ロボットは、ロボットの周囲を撮像し、撮像により得られた画像を認識する。さらに、当該ロボットは、画像認識結果に基づいて、音声認識の対象となっている単語に対する重み付けを制御する。 Japanese Unexamined Patent Application Publication No. 2001-154893 (Patent Document 3) discloses a portable and conversational robot. The robot acts based on the voice recognition result. In addition, the robot captures an image of the surroundings of the robot and recognizes an image obtained by the imaging. Further, the robot controls the weighting for the word that is the target of speech recognition based on the image recognition result.
しかしながら、従来のシステム等では、現在いる場所に適した会話をユーザと行なうことはできない。 However, in a conventional system or the like, a conversation suitable for the current location cannot be performed with the user.
本発明は、上記の問題点に鑑みなされたものであって、その目的は、現在いる場所に適した会話を通信端末がユーザと行なうことが可能な通信システムと、当該通信システムを構成する通信端末およびサーバ装置と、当該通信システム、通信端末、およびサーバ装置における情報処理方法を提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a communication system in which a communication terminal can carry out a conversation suitable for a current location with a user, and communication constituting the communication system. An object is to provide a terminal and a server device, and an information processing method in the communication system, the communication terminal, and the server device.
本発明のある局面に従うと、通信システムは、サーバ装置と、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末とを備える。前記通信端末は、前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断する。通信端末は、前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像する。通信端末は、前記予め定められた場所の位置情報と、前記撮像により得られた第1の画像データとを、前記サーバ装置に送信する。 According to an aspect of the present invention, a communication system includes a server device and a portable communication terminal that can talk and autonomously image the surroundings. The communication terminal determines whether the communication terminal has arrived at a predetermined location based on position information indicating the current position of the communication terminal. The communication terminal images the surroundings of the communication terminal with a camera at the predetermined location. The communication terminal transmits the position information of the predetermined location and the first image data obtained by the imaging to the server device.
前記サーバ装置は、前記通信端末から送られてきた前記位置情報および前記第1の画像データに基づいて、音声認識用の辞書データを生成する。サーバ装置は、生成された前記辞書データを前記通信端末に送信する。前記通信端末は、前記辞書データを受信したことに基づき、前記辞書データを用いて前記通信端末のユーザと会話を行なう。 The server device generates dictionary data for speech recognition based on the position information and the first image data sent from the communication terminal. The server device transmits the generated dictionary data to the communication terminal. The communication terminal has a conversation with the user of the communication terminal using the dictionary data based on the reception of the dictionary data.
本発明の他の局面に従うと、通信端末は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の端末である。通信端末は、音声入力部と音声出力部とを用いて、前記通信端末のユーザと会話を行なうように構成された会話制御手段と、前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断する判断手段と、前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像する撮像手段と、前記予め定められた場所の位置情報と、前記撮像により得られた画像データとを、サーバ装置に送信する送信手段と、前記位置情報および前記画像データに基づいて生成された音声認識用の辞書データを、前記サーバ装置から受信する受信手段とを備える。前記会話制御手段は、前記辞書データを用いて前記通信端末のユーザと会話を行なう。 According to another aspect of the present invention, the communication terminal is a portable terminal capable of talking and autonomously imaging the surroundings. The communication terminal uses the voice input unit and the voice output unit, based on the conversation control means configured to have a conversation with the user of the communication terminal, and the position information indicating the current position of the communication terminal. Determination means for determining whether or not the terminal has arrived at a predetermined location; imaging means for imaging the periphery of the communication terminal with a camera at the predetermined location; and the position of the predetermined location Transmitting means for transmitting information and image data obtained by the imaging to the server device, and dictionary data for speech recognition generated based on the position information and the image data are received from the server device. Receiving means. The conversation control means has a conversation with the user of the communication terminal using the dictionary data.
本発明のさらに他の局面に従うと、サーバ装置は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末と通信する。サーバ装置は、前記通信端末が予め定められた場所において撮像した被写体の画像データと、前記予め定められた場所の位置情報とを、前記通信端末から受信する受信手段と、前記通信端末から送られてきた前記位置情報および前記画像データに基づいて、音声認識用の辞書データを生成する辞書データ生成手段と、生成された前記辞書データを前記通信端末に送信する送信手段とを備える。 According to still another aspect of the present invention, the server device communicates with a portable communication terminal that can talk and autonomously image the surroundings. The server device receives the image data of the subject imaged at the predetermined location by the communication terminal and the position information of the predetermined location from the communication terminal, and is sent from the communication terminal. Based on the received position information and the image data, there is provided dictionary data generating means for generating dictionary data for speech recognition, and transmitting means for transmitting the generated dictionary data to the communication terminal.
本発明のさらに他の局面に従うと、情報処理方法は、サーバ装置と、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末とを備えた通信システムにおいて実行される。情報処理方法は、前記通信端末が、前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断するステップと、前記通信端末が、前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像するステップと、前記通信端末が、前記予め定められた場所の位置情報と、前記撮像により得られた第1の画像データとを、前記サーバ装置に送信するステップと、前記サーバ装置が、前記通信端末から送られてきた前記位置情報および前記第1の画像データに基づいて、音声認識用の辞書データを生成するステップと、前記サーバ装置が、生成された前記辞書データを前記通信端末に送信するステップと、前記通信端末が、前記辞書データを受信したことに基づき、前記辞書データを用いて前記通信端末のユーザと会話を行なうステップとを備える。 If the further another situation of this invention is followed, the information processing method will be performed in the communication system provided with the server apparatus and the portable communication terminal in which the conversation is possible and the surroundings can be imaged autonomously. The information processing method includes the step of determining whether or not the communication terminal has arrived at a predetermined location based on position information indicating a current position of the communication terminal; In a predetermined place, the step of imaging the surroundings of the communication terminal with a camera, the communication terminal, the position information of the predetermined place, and the first image data obtained by the imaging, Transmitting to the server device, the server device generating dictionary data for speech recognition based on the position information and the first image data sent from the communication terminal, and the server A device transmitting the generated dictionary data to the communication terminal; and the communication terminal receiving the dictionary data based on the dictionary data. And a step of performing user and conversation of the communication terminal using the.
本発明のさらに他の局面に従うと、情報処理方法は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末において実行される。情報処理方法は、音声入力部と音声出力部とを用いて、前記通信端末のユーザと会話を行なうステップと、前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断するステップと、前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像するステップと、前記予め定められた場所の位置情報と、前記撮像により得られた画像データとを、サーバ装置に送信するステップと、前記位置情報および前記画像データに基づいて生成された音声認識用の辞書データを、前記サーバ装置から受信するステップとを備える。前記会話を行なうステップでは、前記辞書データを用いて前記通信端末のユーザと会話を行なう。 According to still another aspect of the present invention, the information processing method is executed in a portable communication terminal capable of conversation and autonomously imaging the surroundings. According to an information processing method, the communication terminal is predetermined based on a step of having a conversation with a user of the communication terminal using a voice input unit and a voice output unit, and position information indicating a current position of the communication terminal. A step of determining whether or not the vehicle has arrived; a step of capturing an image of the surroundings of the communication terminal by a camera at the predetermined location; position information of the predetermined location; and Transmitting the received image data to the server device, and receiving dictionary data for speech recognition generated based on the position information and the image data from the server device. In the conversation step, the dictionary data is used to perform a conversation with the user of the communication terminal.
本発明のさらに他の局面に従うと、情報処理方法は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末と通信するサーバ装置において実行される。情報処理方法は、前記通信端末が予め定められた場所において撮像した被写体の画像データと、前記予め定められた場所の位置情報とを、前記通信端末から受信するステップと、前記通信端末から送られてきた前記位置情報および前記画像データに基づいて、音声認識用の辞書データを生成するステップと、生成された前記辞書データを前記通信端末に送信するステップとを備える。 If the further another situation of this invention is followed, the information processing method will be performed in the server apparatus which communicates with the portable communication terminal in which the conversation is possible and the surroundings can be imaged autonomously. An information processing method includes: receiving from the communication terminal image data of a subject imaged at a predetermined location by the communication terminal; and position information of the predetermined location from the communication terminal; Based on the received position information and the image data, there are provided a step of generating dictionary data for speech recognition, and a step of transmitting the generated dictionary data to the communication terminal.
本発明によれば、現在いる場所に適した会話を通信端末がユーザと行なうことが可能となる。 According to the present invention, it becomes possible for a communication terminal to perform a conversation suitable for a current location with a user.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
[実施の形態1]
<A.システム構成>
図1は、本実施の形態にかかる通信システムの概略構成を説明するための図である。図1を参照して、通信システム1は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末100と、サーバ装置200とを含んで構成される。以下では、通信端末100として、プログラムの実行により、筐体を構成する可動部を自動的に動かすことが可能な端末(いわゆる、ロボット型の端末)を例に挙げて説明する。
[Embodiment 1]
<A. System configuration>
FIG. 1 is a diagram for explaining a schematic configuration of a communication system according to the present embodiment. Referring to FIG. 1, the
具体的には、通信端末100は、手、足、頭部、胴部等を備える。通信端末100は、典型的には、歩行可能な自律型の移動体として構成されている。頭部は、胴部に対して所定の角度内において回転可能に構成されている。また、頭部には、カメラが内蔵されている。なお、通信端末100は、上記のような人型のロボットに限定されるものではない。
Specifically, the
通信端末100は、ユーザ700によって持ち運ばれることにより、様々な場所で利用される。通信端末100は、基地局500およびネットワーク600を介して、サーバ装置200と通信する。
The
<B.処理の概要>
以下、通信システム1における処理の概要について説明する。通信端末100は、通信端末100の現在地を表す位置情報に基づき、通信端末100が予め定められた場所に到着したか否かを判断する。以下では、予め定められた場所として、ユーザ700の目的地の一つであるレストラン300を例に挙げて説明する。
<B. Outline of processing>
Hereinafter, an outline of processing in the
図2は、通信端末100がレストラン300に到着した場合の処理を説明するための図である。図2を参照して、通信端末100は、レストラン300において、通信端末100の周囲を内蔵カメラによって撮像する。
FIG. 2 is a diagram for explaining processing when the
通信端末100は、内蔵されたカメラの向きを変えることにより、レストラン300の店内を撮像する。このような撮像により、通信端末100は、たとえば、テーブル911に置かれたメニュー921、壁に掛けられたメニュー923、テーブルに置かれた料理、テーブルに置かれた皿、テーブルに置かれたグラス、スタッフの名札、その他、店内の状況等が写り込んだ画像データを得ることができる。
The
なお、通信端末100は、カメラを内蔵した頭部を胴部に対して回転することにより、歩行を伴うことなくカメラの向きを変えることができる。また、通信端末100は、歩行と頭部の回転等との組み合わせにより、カメラの位置および向きを変更してもよい。
Note that the
図3は、レストラン300で行われる処理を詳しく説明するための図である。図3を参照して、通信端末100がレストラン300に到着すると、予め定められた報知処理を実行する。
FIG. 3 is a diagram for explaining in detail the processing performed in the
具体的には、通信端末100は、カメラによる撮像許可を通信端末100のユーザ700から得るための発話を行なう。詳しくは、通信端末100は、通信端末100の周囲の撮像許可をユーザ700から得るための発話を行なう。
Specifically,
たとえば、ユーザ700が所持するバックあるいは衣服のポケットに通信端末100が入っているため、通信端末100が発話してもユーザ700に音声が届かないような場合には、通信端末100は、発話の前に、内蔵されたバイブレータによって振動してもよい。あるいは、このような場合、通信端末100は、所定のアラームを鳴動させてもよい。通信端末100がバック内であるか否かは、一例として、通信端末100の周囲の明るさによって判定することができる。
For example, since the
ユーザ700が通信端末100に対して撮像許可を与える発話を行った場合、通信端末100は、通信端末100の周囲の撮像を開始する。なお、撮像条件は、事前に、適宜設定可能である。たとえば、撮像の時間間隔(撮像周期)を、予め設定された時間間隔とすることができる。当該時間間隔は、カメラの向きの変更時間に基づき設定されていてもよい。また、撮像枚数の上限を規定することも可能である。さらには、撮像を許可する前に、発話により、撮像条件を設定可能なように、通信端末100を構成してもよい。
When the
なお、撮像許可を与える発話は、通常使用される言葉(たとえば、“良いよ”、“OK”等)のみならず、予め設定された特別なフレーズであってもよい。 Note that the utterance giving the imaging permission may be a special phrase set in advance, as well as a commonly used word (for example, “good”, “OK”, etc.).
通信端末100は、撮像を行なうと、通信端末100の現在地の位置情報とともに、当該撮像により得られた画像データを、サーバ装置200に送信する。画像データの送信は、位置情報に関連付けられていればよく、全ての撮像が終了してから全ての画像データを一括してサーバ装置に送ってもよいし、あるいは撮像ごとに画像データを逐次、サーバ装置200に送信してもよい。
When imaging is performed, the
サーバ装置200は、通信端末100から送られてきた位置情報および画像データに基づいて、音声認識用のユーザ辞書データを生成する。サーバ装置200は、生成されたユーザ辞書データを通信端末100に送信する。
The
詳しくは、サーバ装置200は、位置情報と画像データとを用いて、予め定められた場所であるレストラン300に関連するキーワードを決定する。より詳しくは、サーバ装置200は、位置情報と画像データと予め用意されたデータベース(図10)とを用いて、レストラン300に関連するキーワードを決定する。さらに、サーバ装置200は、決定されたキーワードを用いてユーザ辞書データを生成し、当該ユーザ辞書データを通信端末100に送信する。
Specifically, the
通信端末100は、ユーザ辞書データをサーバ装置200から受信する。通信端末100は、当該ユーザ辞書データを用いた音声認識を行なうことにより、ユーザ700と会話を行なう。
The
以上のように、サーバ装置200は、予め定められた場所の位置情報と当該場所の画像データとに基づいて決定されたキーワードを利用してユーザ辞書データを生成する。それゆえ、サーバ装置200は、当該位置情報および当該画像データの少なくとも一方を利用せずにキーワードを決定する構成よりも、予め定められた場所に関連するデータを多く含んだユーザ辞書データを生成することが可能となる。
As described above, the
したがって、通信端末100は、このようなユーザ辞書データを利用することにより、当該ユーザ辞書データを使用しない構成に比べて、予め定められた場所に適した会話をユーザと行なうことが可能となる。
Therefore, by using such user dictionary data, the
なお、上記においては、レストラン300内のみを撮像する場合を例に挙げているがこれに限定されるものではない。通信端末100がレストラン300の前に到着した時点で、ユーザ700に対して撮像許可を得るための発話を行なってもよい。
In addition, in the above, the case where only the inside of the
また、撮影許可の発話を行なう場所は、レストラン300から離れていた場所であってもよい。すなわち、通信端末100が撮像開始する場所は、レストラン300から離れた場所であってもよい。
Further, the place where the utterance of permission for photographing is performed may be a place away from the
以下では、上記のように、通信端末100がレストラン300の前に到着するよりも前に、ユーザ700に対して撮像許可を得るための発話を行なう構成について説明する。詳しくは、通信端末100がレストラン300から所定の距離だけ離れた場所に到達した場合、通信端末100が、撮像許可を得たことを条件に、撮像を開始する構成について説明する。
Hereinafter, as described above, a description will be given of a configuration in which an utterance for obtaining imaging permission is given to the
<C.ハードウェア構成>
図4は、通信端末100のハードウェア構成の典型例を表した図である。図4を参照して、通信端末100は、主たる構成要素として、プログラムを実行するCPU151と、データを不揮発的に格納するROM152と、CPU151によるプログラムの実行により生成されたデータ、又は入力装置を介して入力されたデータを揮発的に格納するRAM153と、データを不揮発的に格納するフラッシュメモリ154と、LED155と、操作キー156と、スイッチ157と、GPS(Global Positioning System)受信機158と、通信IF159と、電源回路160と、タッチスクリーン161と、マイク162と、スピーカ163と、カメラ164と、駆動装置165と、アンテナ1581,1591とを含む。各構成要素は、相互にデータバスによって接続されている。
<C. Hardware configuration>
FIG. 4 is a diagram illustrating a typical example of the hardware configuration of the
タッチスクリーン161は、ディスプレイ1611と、タッチパネル1612により構成される。アンテナ1581は、GPS受信機158用のアンテナである。アンテナ1591は、通信IF159用のアンテナである。
The
LED155は、通信端末100の動作状態を表す各種の表示ランプである。たとえば、LED155は、通信端末100の主電源のオンまたはオフ状態、およびフラッシュメモリ154への読み出しまたは書き込み状態等を表す。
The
操作キー156は、通信端末100のユーザが主電源のオンまたはオフ等するためのキー(操作ボタン)である。スイッチ157は、電源回路160に給電を行なうか否かを切替えるための主電源用のスイッチ、およびその他の各種の押しボタンスイッチである。
The
GPS受信機158は、GPS衛星からの電波に基づき、通信端末100の現在位置の位置情報を取得する。GPS受信機158によって取得された位置情報は、通信ID159を介して、サーバ装置200に送信される。通信端末100による位置情報の取得の開始タイミングについては、後述する。
The
通信IF159は、サーバ装置200に対するデータの送信処理およびサーバ装置200から送信されたデータの受信処理を行なう。
The communication IF 159 performs processing for transmitting data to the
電源回路160は、コンセントを介して受信した商用電源の電圧を降圧し、通信端末100の各部に電源供給を行なう回路である。
The
タッチスクリーン161は、各種のデータを表示および入力を受け付けるためのデバイスである。ディスプレイ1611は、画像を表示するための画面を含んで構成されている。
The
マイク162は、通信端末100の周囲の音を集音する。たとえば、マイク162は、ユーザ700の発話に基づく音声を集音する。
The
スピーカ163は、音声を出力する。スピーカ163は、ある局面においては、ユーザ等とのコミュニケーションのために、発話を行なう。
The
カメラ164は、通信端末100の周囲の被写体を撮像するための撮像装置である。カメラ164による撮像により得られた画像データは、通信ID159を介して、サーバ装置200に送信される。
The
駆動装置165は、通信端末100の手、足、頭部を駆動させるための駆動機構である。なお、駆動装置165により足が駆動されることにより、通信端末100は歩行する。また、駆動装置165によって頭部が胴部に対して回転することにより、カメラ164の向きが代わる。
The
通信端末100における処理は、各ハードウェアおよびCPU151により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ154に予め記憶されている場合がある。また、ソフトウェアは、その他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、読取装置によりその記憶媒体から読み取られて、あるいは、通信IF159等を介してダウンロードされた後、フラッシュメモリ154に一旦格納される。そのソフトウェアは、CPU151によってフラッシュメモリ154から読み出され、RAM153に実行可能なプログラムの形式で格納される。CPU151は、そのプログラムを実行する。
The processing in the
同図に示される通信端末100を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM153、フラッシュメモリ154、記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、通信端末100の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
Each component which comprises the
なお、記録媒体としては、DVD−RAMに限られず、DVD-ROM、CD−ROM、FD、ハードディスク、磁気テープ、カセットテープ、光ディスク、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The recording medium is not limited to a DVD-RAM, and a fixed program such as a semiconductor memory such as a DVD-ROM, a CD-ROM, an FD, a hard disk, a magnetic tape, a cassette tape, an optical disk, an EEPROM, and a flash ROM is supported. It may be a medium for The recording medium is a non-temporary medium that can be read by the computer. The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
図5は、サーバ装置200のハードウェア構成の典型例を表した図である。図5を参照して、サーバ装置200は、主たる構成要素として、プログラムを実行するCPU251と、データを不揮発的に格納するROM252と、CPU251によるプログラムの実行により生成されたデータ、又は入力装置を介して入力されたデータを揮発的に格納するRAM253と、データを不揮発的に格納するHDD254と、LED255と、スイッチ256と、通信IF(Interface)257と、電源回路258と、ディスプレイ259と、操作キー260とを含む。各構成要素は、相互にデータバスによって接続されている。
FIG. 5 is a diagram illustrating a typical example of the hardware configuration of the
電源回路258は、コンセントを介して受信した商用電源の電圧を降圧し、サーバ装置200の各部に電源供給を行なう回路である。スイッチ256は、電源回路258に給電を行なうか否かを切替えるための主電源用のスイッチ、およびその他の各種の押しボタンスイッチである。ディスプレイ259は、各種のデータを表示するためのデバイスである。
The
通信IF257は、通信端末100に対するデータの送信処理および通信端末100から送信されたデータの受信処理を行なう。
Communication IF 257 performs a data transmission process for
LED255は、サーバ装置200の動作状態を表す各種の表示ランプである。たとえば、LED255は、サーバ装置200の主電源のオンまたはオフ状態、およびHDD254への読み出しまたは書き込み状態等を表す。操作キー260は、サーバ装置200のユーザがサーバ装置200へデータを入力するための用いるキー(キーボード)である。
The
サーバ装置200における処理は、各ハードウェアおよびCPU251により実行されるソフトウェアによって実現される。このようなソフトウェアは、HDD254に予め記憶されている場合がある。また、ソフトウェアは、その他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、読取装置によりその記憶媒体から読み取られて、あるいは、通信IF257等を介してダウンロードされた後、HDD254に一旦格納される。そのソフトウェアは、CPU251によってHDD254から読み出され、RAM253に実行可能なプログラムの形式で格納される。CPU251は、そのプログラムを実行する。
The processing in the
同図に示されるサーバ装置200を構成する各構成要素は、一般的なものである。したがって、本発明の本質的な部分は、RAM253、HDD254、記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、サーバ装置200の各ハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
Each component which comprises the
なお、記録媒体としては、DVD−RAMに限られず、DVD-ROM、CD−ROM、FD、ハードディスク、磁気テープ、カセットテープ、光ディスク、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。 The recording medium is not limited to a DVD-RAM, and a fixed program such as a semiconductor memory such as a DVD-ROM, a CD-ROM, an FD, a hard disk, a magnetic tape, a cassette tape, an optical disk, an EEPROM, and a flash ROM is supported. It may be a medium for The recording medium is a non-temporary medium that can be read by the computer. The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.
<D.処理の詳細>
(d1.通信端末100のデータ送信)
図6は、スケジュールデータに従って、ユーザ700が自宅800から目的地(予め定められた場所)であるレストラン300に向かっている状態を表した図である。
<D. Details of processing>
(D1. Data transmission of communication terminal 100)
FIG. 6 is a diagram showing a state in which the
図6を参照して、ユーザ700は、通信端末100を所持した状態で、レストラン300に向かうために自宅800を出る(位置P0)。なお、図6は、ユーザ700が通信端末100を専用のケース400に入れた状態で所持している状態を示している。
Referring to FIG. 6,
通信端末100は、現在時刻T1とスケジュール帳に登録した予定時刻T0(たとえば、レストラン300の予約時間)との時間差tが閾値Th1以下になったと判断すると(位置P1)、通信端末100は、予め定められた周期で位置情報の取得を開始する。さらに、通信端末100は、目的地の名称と、当該目的地を過去に訪れた回数を表す回数情報と、前回訪れた日からの経過日数を表す日数情報とを、サーバ装置200に送信する。なお、目的地の名称と回数情報と日数情報との送信は、一回でよい。
When the
通信端末100は、現在地と目的地との間の距離Dが閾値Th2以下になったと判断すると(位置P2)、撮像の許可を得るための発話(報知処理)を行なう。通信端末100は、撮像の許可をユーザ700から得たことを条件に、1分あたりM枚(Mは自然数)の撮像が行われる周期(タイミング)で、通信端末100の周囲を撮像する。
If the
通信端末100は、サーバ装置200に対して、撮像を行なった時の位置情報と、当該撮像により得られた複数の画像データとの送信を開始する。また、位置情報と画像データの送信は、通信端末100が目的地に到着するまで行われる。
さらに詳しくは、通信端末100は、通信端末100の移動速度Vmと閾値Th2とから、目的地到着までの所要時間T2を算出し、(N−M)/T2の割合で、1分あたりの撮像枚数を増加させる。なお、Nは、Mよりも大きい自然数である。
More specifically, the
(d2.通信端末100の機能的構成)
図7は、通信端末100の機能的構成を説明するための機能ブロック図である。図7を参照して、通信端末100は、制御部111と、記憶部112と、位置情報取得部113と、撮像部114と、駆動部115と、音声入力部116と、音声出力部117と、通信処理部118とを備えている。
(D2. Functional configuration of communication terminal 100)
FIG. 7 is a functional block diagram for explaining a functional configuration of the
制御部111は、通信端末100の全体の動作を制御する。制御部111は、表示制御部1111と、会話制御部1112と、駆動制御部1113と、間隔算出部1114と、判断部1115とを有する。
The
通信処理部118は、ネットワーク600を介したサーバ装置200との通信に用いられる。通信処理部118は、データをサーバ装置200に送信するための送信部1181と、データをサーバ装置200から受信するための受信部1182とを有する。
The
記憶部112は、オペレーティングシステム、複数のアプリケーションプログラム、訪問履歴情報D8、目的地の位置情報、スケジュールデータ、閾値Th1,Th2を記憶している。さらに、記憶部112は、撮像部114によって撮像された被写体の画像データを記憶する。また、記憶部112は、サーバ装置200から音声認識用のユーザ辞書データを受信したことに基づき、当該ユーザ辞書データを記憶する。なお、ユーザ辞書データが記憶部112に既に記憶されている場合には、サーバ装置200から新たに受信したユーザ辞書データによって、記憶部112に既に記憶されているユーザ辞書データが更新される。ユーザ辞書データの更新は、ユーザ辞書データの置換であってもよいし、あるいはデータの差分の追加であってもよい。
The
スケジュールデータは、ユーザがスケジュール帳のアプリケーション等を用いて入力したデータである。スケジュールデータには、日時の情報、目的地の情報等が記載されている。たとえば、スケジュールデータには、「2016年3月1日の13時にレストラン300で食事」といった内容が記述されている。
The schedule data is data input by the user using a schedule book application or the like. The schedule data includes date and time information, destination information, and the like. For example, in the schedule data, contents such as “meal at the
目的地の位置情報には、一例として、スケジュールデータで設定された訪問場所(たとえば、レストラン300)の位置情報が記憶されている。当該位置情報は、通信処理部118を介して、ネットワーク600を介して各種のサーバ装置から取得される。具体的には、制御部111がスケジュールデータに記載の訪問場所を読み出して、当該訪問場所の位置情報を取得する。なお、訪問場所の位置情報は、緯度および経度情報であってもよいし、住所情報であってもよい。
In the destination location information, as an example, location information of a visited location (for example, restaurant 300) set in the schedule data is stored. The position information is acquired from various server devices via the
訪問履歴情報D8は、スケジュールデータと、目的地の位置情報とに基づき、生成される。訪問履歴情報D8には、過去に訪問した場所の名称に対して、訪問日時と位置情報とが関連付けて記憶されている(図8)。 The visit history information D8 is generated based on the schedule data and the location information of the destination. In the visit history information D8, the visit date / time and position information are stored in association with the name of the place visited in the past (FIG. 8).
位置情報取得部113は、上述した時間差tが閾値Th1以下になると、通信端末100の現在位置の位置情報の取得を開始する。位置情報取得部113は、取得された位置情報を、制御部111に送る。この場合、制御部111の判断部1115は、取得された位置情報に基づき、通信端末100が予め定められた場所(たとえば、レストラン300等の目的地)に到着したか否かを判断する。
The position
撮像部114は、距離Dが閾値Th2以下になると、通信端末100の周囲の撮像を開始し、当該撮像により得られた画像データを制御部111に送る。なお、撮像部114による撮像処理は、制御部111からの指令に基づき行われる。たとえば、制御部111は撮像部114の向きを逐次変更して、撮像部114に撮像を行なわせる。また、制御部111は、撮像のタイミングを上述したように制御する。
When the distance D becomes equal to or smaller than the threshold Th2, the
撮像部114による撮像が開始されると、制御部111は、送信部1181を介して、撮像により得られた画像データと当該撮像が行われた場所の位置情報とを互いに関連付けて、サーバ装置200に送信する処理を開始する。
When imaging by the
音声入力部116は、通信端末100の周囲の音声を集音し、集音された音声をデジタルデータとして制御部111に送る。
The
制御部111の表示制御部1111は、表示部119に各種の情報を表示させる。
駆動制御部1113、駆動部115を駆動する制御を実行する。これにより、通信端末100は、可動部を動かすことが可能となる。たとえば、通信端末100が目的地(たとえば、レストラン300)に着いた場合、通信端末100は、歩行あるいは頭部を胴部に対して回転させることができる。これにより、通信端末100は、撮像部114の位置および向きを変更可能となる。
The
Control for driving the
制御部111は、訪問履歴情報D8に基づいて、今回の目的地を過去に訪問した回数を算出する。算出された結果は、記憶部112に記憶される。このように、通信端末100は、ユーザが目的地を過去に訪れた回数を表す回数情報を記憶する。
Based on the visit history information D8, the
間隔算出部1114は、今回の訪問と、前回の訪問との間の日にちの間隔を算出する。つまり、間隔算出部1114は、前回訪れた日からの経過日数を算出する。
The
制御部111は、回数情報と、前回訪れた日からの経過日数を表す日数情報とを、撮像により得られた画像データと当該撮像が行われた場所の位置情報とに関連付けて、通信処理部118を介して、サーバ装置200に送信する。
The
また、制御部111は、上述した各データおよび情報をサーバ装置200に送信した後に、これらのデータおよび情報に基づいてサーバ装置200で生成されたユーザ辞書データを、受信部1182を介してサーバ装置200から受信する。ユーザ辞書データは、記憶部112に記憶される。
Further, the
会話制御部1112は、ユーザとの間の会話を制御する。また、会話制御部1112は、音声入力部116から入力された音声データを解析し、解析結果に基づいた内容を音声出力部117に出力(発話)させる。詳しくは、会話制御部1112は、サーバ装置200から取得した上記ユーザ辞書データを利用した会話を開始する。
The
なお、位置情報取得部113、撮像部114、駆動部115、音声入力部116、音声出力部117、通信処理部118、表示部119は、それぞれ、図4における、GPS受信機158、カメラ164、駆動装置165、マイク162、スピーカ163、通信IF159、ディスプレイ1611に対応する。また、制御部111は、CPU151がメモリに格納されたオペレーティングシステムおよび各種のプログラムを実行することにより実現される。なお、記憶部112は、図4のメモリに対応する。また、閾値Th1,Th2の利用の仕方については後述する。
Note that the position
図8は、記憶部112に記憶されている訪問履歴情報D8の概略構成を説明するための図である。図8を参照して、訪問履歴情報D8は、訪問先の名称と、訪問日時と、緯度経度情報とを含む。なお、訪問履歴情報D8は、緯度経度情報とともに、あるいは緯度経度情報の代わりに、住所情報を含んでいてもよい。上述したように、制御部111は、訪問履歴情報D8に基づき、回数情報および日数情報を生成する。
FIG. 8 is a diagram for explaining a schematic configuration of the visit history information D8 stored in the
(d3.サーバ装置200の機能的構成)
図9は、サーバ装置200の機能的構成を説明するための機能ブロック図である。図9を参照して、サーバ装置200は、制御部211と、記憶部212と、通信処理部213とを備える。
(D3. Functional configuration of server device 200)
FIG. 9 is a functional block diagram for explaining a functional configuration of the
制御部211は、サーバ装置200の全体の動作を制御する。制御部211は、キーワード決定部2111と、辞書データ生成部2112とを有する。
The
記憶部212は、オペレーティングシステム、複数のアプリケーションプログラム、データテーブルD10、辞書データテーブルを記憶している。
The
通信処理部213は、ネットワーク600を介した、通信端末100との間の通信処理を行なう。通信処理部213は、送信部2131と、受信部2132とを有する。具体的には、ある局面において、受信部2132は、通信端末100から、位置情報、画像データ、回数情報、および日数情報を受信する。これらのデータ(位置情報、画像データ、回数情報、日数情報)は、制御部211によって記憶部212に記憶される。
The
制御部211のキーワード決定部2111は、通信端末100から受信した各種のデータ(位置情報、画像データ、回数情報、および日数情報)と、データテーブルD10(図10)とを利用して、キーワードを決定する。キーワードの決定方法の具体例については、後述する。
The
辞書データ生成部2112は、キーワード決定部2111によって決定されたキーワードと、記憶部212に記憶された辞書データベースとに基づいて、ユーザ辞書データを生成する。なお、キーワードからユーザ辞書データを生成することは、従来知られている手法を用いるため、ここでは説明しない。
The dictionary
制御部211は、生成されたユーザ辞書データを、送信部2131を介して、通信端末100に送信する。
The
図10は、サーバ装置200の記憶部212に記憶されているデータテーブルD10の概略構成を説明するための図である。図10を参照して、データテーブルD10は、ジャンル毎にデータテーブルを備えている。
FIG. 10 is a diagram for explaining a schematic configuration of the data table D10 stored in the
各データテーブルは、日数の間隔と訪問回数とに基づき、区分けされている。たとえば、各データテーブルでは、日数の間隔として、一ヶ月未満、一ヶ月以上かつ一年未満、一年以上の3つの区分に分かれている。また、各データテーブルでは、訪問回数として、初回、二回、三回目以上の3つの区分に分かれている。すなわち、各データテーブルでは、9つに区分され、かつ各区分においては、原則、複数の項目が記憶されている。 Each data table is divided based on the number of days and the number of visits. For example, in each data table, the interval of days is divided into three categories of less than one month, more than one month, less than one year, and more than one year. In each data table, the number of visits is divided into three categories: first time, second time, third time or more. That is, each data table is divided into nine sections, and in principle, a plurality of items are stored in each section.
1つの区分に着目すると、複数の項目に対して、優先順位が付されている。たとえば、一ヶ月未満かつ初回の区分(左上の欄)では、「建物周辺の風景」の優先順位が一位となっており、「建物の外観」の優先順位が二位となっている。 Focusing on one category, priorities are assigned to a plurality of items. For example, in less than one month and the first division (upper left column), the priority of “landscape around the building” is first and the priority of “appearance of the building” is second.
データテーブルD10を用いたキーワードの決定方法の詳細については、後述する。
(d4.制御構造)
図11は、通信システム1における処理の流れを説明するためのシーケンスチャートである。図11を参照して、シーケンスSQ2において、通信端末100は、時間差tが閾値Th1以下になったと判断すると、予め定められた周期で位置情報の取得を開始する。シーケンスSQ4において、通信端末100は、距離Dが閾値Th2以下になったと判断すると、周囲の撮像を開始する。シーケンスSQ6において、通信端末100は、位置情報と画像データと回数情報と日数情報とを、サーバ装置200に送信する。
Details of the keyword determination method using the data table D10 will be described later.
(D4. Control structure)
FIG. 11 is a sequence chart for explaining the flow of processing in the
シーケンスSQ8において、サーバ装置200は、位置情報、画像データ、回数情報、および日数情報と、データテーブルD10とを用いて、キーワードの決定を行なう。シーケンスSQ10において、サーバ装置200は、キーワードを用いてユーザ辞書データの生成を行なう。シーケンスSQ12において、サーバ装置200は、生成されたユーザ辞書データを通信端末100に送信する。
In sequence SQ8,
シーケンスSQ14において、通信端末100は、サーバ装置200から受信したユーザ辞書データを用いた会話を行なう。
In sequence SQ14,
図12は、通信端末100で行われる処理の流れを説明するためのフローチャートである。図12を参照して、ステップS102において、通信端末100は、現在時刻T1と予定時刻T0との時間差tが閾値Th1以下になったか否かを判断する。通信端末100は、時間差tが閾値Th1以下になったと判断すると(ステップS102においてYES)、ステップS104において、現在地の位置情報の取得を開始する。通信端末100は、時間差tが閾値Th1以下でないと判断すると(ステップS102においてNO)、処理をステップS102に戻す。
FIG. 12 is a flowchart for explaining the flow of processing performed in
ステップS106において、通信端末100は、目的地の名称と、目的地を過去に訪れた回数と、前回訪れた日からの経過日数とを算出し、算出結果をサーバ装置200に送信する。つまり、通信端末100は、回数情報と日数情報とをサーバ装置200に送信する。なお、回数情報と日数情報の送信タイミングは、このタイミングに限定されるものではない。たとえば、位置情報および画像データとともに、目的地の名称と回数情報と日数情報とを送信するように、通信端末100を構成してもよい。
In step S <b> 106, the
ステップS108において、通信端末100は、現在位置と目的地との間の距離Dが閾値Th2以下であるか否かを判断する。通信端末100は、距離Dが閾値Th2以下であると判断すると(ステップS108においてYES)、ステップS110において、撮像の許可を得るための発話を行なう。通信端末100は、距離Dが閾値Th2以下でないと判断すると(ステップS108においてNO)、処理をステップS108に戻す。
In step S108, the
ステップS112において、通信端末100は、撮像の許可を得たことを条件に、1分あたりM枚の周期で通信端末100の周囲を撮像する。ステップS114において、通信端末100は、サーバ装置200に対する、取得した位置情報の送信と、撮像により得られた画像データの送信とを開始する。
In step S112, the
ステップS116において、通信端末100は、通信端末100の移動速度Vmと閾値Th2とから、目的地到着までの所要時間T2を算出し、(N−M)/T2の割合で、1分あたりの撮像枚数を増加させる。
In step S116, the
ステップS118において、通信端末100は、サーバ装置200から、ユーザ辞書データを受信する。ステップS120において、通信端末100は、受信したユーザ辞書データを用いた会話を開始する。
In step S <b> 118, the
ステップS122において、通信端末100は、目的地から所定距離離れたか否かを、現在地の位置情報を利用して判断する。通信端末100は、所定距離離れたと判断すると(ステップS122においてYES)、ステップS124において、現在地の位置情報の取得と撮像とを終了する。通信端末100は、所定距離離れていないと判断すると(ステップS122においてNO)、処理をステップS122に戻す。
In step S122, the
図13は、サーバ装置200で行われる処理の流れを説明するためのフローチャートである。図13を参照して、ステップS202において、サーバ装置200は、通信端末100から、目的地の名称と、ユーザ700が目的地を過去に訪れた回数(具体的には、回数情報)と、前回訪れた日からの経過日数(具体的には、日数情報)とを受信する。
FIG. 13 is a flowchart for explaining the flow of processing performed in the
ステップS204において、サーバ装置200は、通信端末100から送られてきた、目的地の名称と位置情報と画像データとの受信を開始する。なお、目的地の名称には、ジャンルが含まれていてもよい。ステップS206において、サーバ装置200は、位置情報と画像データとを受信してから所定の時間が経過したか否かを判断する。サーバ装置200は、所定の時間が経過したと判断すると(ステップS206においてYES)、ステップS208において、目的地の名称と、データテーブルD10と、訪問回数(回数情報)および経過日数(日数情報)とを用いて、受信した画像データの中から、予め定められた数(K個)の画像データを抽出する。サーバ装置200は、所定の時間が経過していないと判断すると(ステップS206においてNO)、処理をステップS206に戻す。
In step S <b> 204, the
ステップS208の処理の詳細について説明すると、以下のとおりである。
サーバ装置200は、目的地の名称から、場所に関するジャンル(レストラン、遊園地、病院、…)を特定する。サーバ装置200は、特定されたジャンルのデータテーブル(図10)を利用する。たとえば、レストランのジャンルが選択された場合、サーバ装置200は、図10に示したデータテーブルを利用する。なお、サーバ装置200は、目的地の名称だけではジャンルを特定できない場合には、通信端末100から取得した位置情報を利用してジャンルを特定してもよい。
The details of the processing in step S208 will be described as follows.
The
サーバ装置200は、ジャンルが特定されると、データテーブルの9つの区分の中から、回数情報に示された回数および日数情報に示された日数に対応する、1つの区分を参照する。具体的には、サーバ装置200は、当該1つの区分に記載された複数の項目を読み出す。
When the genre is specified, the
サーバ装置200は、受信した複数の画像データの中から、読み出した複数の項目に該当する画像データを判断する。詳しくは、サーバ装置200は、上記複数の画像データのうち、上記複数の項目における該当するものを、優先順位に基づいて予め定められた数(K個)だけ抽出する。一例を挙げて説明すれば、以下のとおりである。
The
たとえば、訪問回数が二回で、訪問間隔が一ヶ月未満であったとする。また、Kの値を3とする。この場合において、複数の画像データに、優先度が1番のメニュー(おすすめ)に関する画像データと、優先度が3番の目前にある料理に関する画像データと、優先度が6番の食器に関する画像データと、優先度が7番の名札に関する画像データと、訪問回数が二回かつ訪問間隔が一ヶ月未満の欄に記載されていない物に関する複数の画像データとが含まれていたとする。この場合、サーバ装置200は、受信した複数の画像データのうちから、優先度の高いものから順に3つの画像データを抽出する。具体的には、サーバ装置200は、優先度が1番のニュー(おすすめ)に関する画像データと、優先度が3番の目前にある料理に関する画像データと、優先度が6番の食器に関する画像データとを抽出する。
For example, assume that the number of visits is two and the visit interval is less than one month. The value of K is set to 3. In this case, the image data relating to the menu (recommendation) having the first priority, the image data relating to the dish having the priority of the third priority, and the image data relating to the tableware having the priority of the sixth are included in the plurality of image data. Suppose that image data related to the name tag with the priority of 7 and a plurality of image data related to items not listed in the column where the number of visits is twice and the visit interval is less than one month are included. In this case, the
ステップS210において、サーバ装置200は、抽出された画像データと、位置情報とを用いて、キーワードを決定する。なお、サーバ装置200には、画像データに関連付けて位置情報が逐次送られてくるが、サーバ装置200は、これらの複数の位置情報のうち、少なくとも目的地(予め定められた場所)の位置情報を用いてキーワードを決定することが好ましい。また、抽出された画像データと、当該画像データが得られた場所(撮影場所)の位置情報とを利用して、キーワードを決定するように、サーバ装置200(具体的には、キーワード決定部2111)を構成してもよい。
In step S210, the
キーワードの決定について、より詳しく説明すると以下のとおりである。サーバ装置200は、抽出したK個の画像データを解析する。たとえば、サーバ装置200は、K個の画像データに対して、文字認識処理、あるいはパターンマッチング処理を施す。これにより、サーバ装置200は、典型的には、複数のキーワードを得る。
The keyword determination will be described in more detail as follows. The
さらに、サーバ装置200は、位置情報を利用して、これらの複数のキーワードからユーザ辞書データの作成に用いるキーワードを抽出する。たとえば、サーバ装置200は、位置情報で特定される場所がレストランであると判断し得る場合に、複数のキーワードからレストランに関連する度合いの高いキーワードを抽出する。一例として、サーバ装置200は、複数の語句に関し、語句と語句との関連度合いを記憶しており、当該関連度合いが高い語句(キーワード)を除外する。
Further, the
あるいは、サーバ装置200は、位置情報を利用して、これらのキーワードから不要なキーワードを削除してもよい。たとえば、サーバ装置200は、位置情報で特定される場所がレストランであると判断し得る場合に、キーワードとして病院が含まれているときには、複数のキーワードから病院を除外する。一例として、サーバ装置200は、複数の語句に関し、語句と語句との関連度合いを記憶しており、当該関連度合いが低い語句(キーワード)を除外する。
Alternatively, the
ステップS212において、サーバ装置200は、辞書データベースと、決定されたキーワードとを用いてユーザ辞書データを生成する。ステップS214において、サーバ装置200は、生成されたユーザ辞書データを、通信端末100に送信する。ステップS216において、サーバ装置200は、位置情報と画像データとを通信端末100から受信しなくなったか否かを判断する。
In step S212, the
サーバ装置200は、受信しなくなったと判断すると(ステップS216においてYES)、一連の処理を終了する。サーバ装置200は、受信していると判断すると(ステップS216においてNO)、ステップS218において、目的地の名称と、データテーブルD10と、訪問回数(回数情報)および経過日数(日数情報)とを用いて、受信した画像データの中(既に抽出された画像データを除く)から、予め定められた数(K個)の画像データを抽出する。サーバ装置200は、その後、処理をステップS210に進める。
When
[実施の形態2]
上記においては、予め定められた場所(目的地)は、通信端末100のユーザ700による入力操作によって指定された場所である。たとえば、予め定められた場所は、上述したように、ユーザ700がスケジュール帳に入力した場所である。
[Embodiment 2]
In the above, the predetermined place (destination) is a place specified by an input operation by the
しかしながら、これに限定されるものではない。通信端末100は、サーバ装置200から、おすすめのスポットあるいはネットワークにおいて話題となっているスポットを、上記予め定められた場所の情報として取得してもよい。
However, the present invention is not limited to this. The
[実施の形態3]
上記においては、通信端末100が自動的にカメラ164の向きを変更しつつ、撮像を行なう構成を例に挙げて説明したが、これに限定されるものではない。通信端末100は、会話が可能であるため、通信端末100がユーザに対して、カメラ164の向きを変更するように指示してもよい。この場合、指示に応じた向きにカメラ164の向きが変更されたことを条件に撮像するように、通信端末100を構成してもよい。
[Embodiment 3]
In the above description, the configuration in which the
[実施の形態4]
上述した報知処理は、振動、発話のみならず、腕の上げ下げ等の可動部の動作を含んでもよい。
[Embodiment 4]
The notification process described above may include not only vibration and speech, but also movements of the movable part such as raising and lowering arms.
[実施の形態5]
通信端末100が撮像の許可を得るための発話を行なった場合に、ユーザ700から撮像の許可が得られなかったときには、所定のタイミングで(たとえば、発話から所定時間経過後に)、撮像の許可を得るための発話を再度行なうように、通信端末100を構成することが好ましい。この場合、2回目以降の発話(撮像の許可を得るための発話)は、発話の中身および発話の調子(抑揚)を最初の発話(撮像の許可を得るための発話)から変更してもよい。
[Embodiment 5]
When
[実施の形態6]
撮像の許可が得られないまま通信端末100が目的地に到着した場合には、通信端末100は、撮像の許可を得るための発話を行なうことが好ましい。
[Embodiment 6]
When the
[まとめ]
以下、上述した処理のうち主要な処理と、当該処理により得られる利点とについて記載する。
(1)通信端末100は、通信端末100の現在位置を表す位置情報に基づき、通信端末100が予め定められた場所(たとえば、レストラン300等の目的地)に到着したか否かを判断する。通信端末100は、予め定められた場所において、通信端末100の周囲をカメラ164(撮像部114)によって撮像する。通信端末100は、少なくとも、予め定められた場所の位置情報と、撮像により得られた画像データ(以下、「第1の画像データ」とも称する)を、サーバ装置200に送信する。
[Summary]
Hereinafter, main processes among the processes described above and advantages obtained by the processes will be described.
(1) The
サーバ装置200は、通信端末100から送られてきた位置情報および第1の画像データに基づいて、音声認識用のユーザ辞書データを生成する。サーバ装置200は、生成されたユーザ辞書データを通信端末100に送信する。
通信端末100は、少なくとも予め定められた場所においては、サーバ装置200から送信されたユーザ辞書データを用いて通信端末100のユーザと会話を行なう。
上記の構成によれば、サーバ装置200は、予め定められた場所の位置情報と当該場所の画像データとに基づいて決定されたキーワードを利用してユーザ辞書データを生成する。それゆえ、サーバ装置200は、当該位置情報および当該画像データの少なくとも一方を利用せずにキーワードを決定する構成よりも、予め定められた場所に関連するデータを多く含んだユーザ辞書データを生成することが可能となる。
According to said structure, the
したがって、通信端末100は、このようなユーザ辞書データを利用することにより、当該ユーザ辞書データを使用しない構成に比べて、予め定められた場所に適した会話をユーザと行なうことが可能となる。
(2)通信端末100は、通信端末100のユーザが予め定められた場所を過去に訪れた回数を表す回数情報をサーバ装置200にさらに送信する。サーバ装置200は、上記位置情報と上記第1の画像データと上記回数情報とに基づいて、ユーザ辞書データを生成する。
Therefore, by using such user dictionary data, the
(2) The
上記構成によれば、サーバ装置200は、ユーザの訪問回数を考慮してユーザ辞書データを生成する。したがって、サーバ装置200が回数情報を利用しないでユーザ辞書データを生成する場合よりも、ユーザ700との会話が密になるユーザ辞書データを生成することができる。
(3)通信端末100は、ユーザ700が予め定められた場所を過去に訪れた日を表わす日にち情報をさらに記憶している。通信端末100は、日にち情報に基づいて、予め定められた場所を前回訪れた日からの経過日数を算出する。通信端末100は、算出された経過日数を表す日数情報を、サーバ装置200にさらに送信する。サーバ装置200は、位置情報と第1の画像データと回数情報と日数情報とに基づいて、ユーザ辞書データを生成する。
According to the above configuration, the
(3) The
上記の構成によれば、サーバ装置200は、さらに、前回訪れた日からの経過日数を考慮してユーザ辞書データを生成する。したがって、サーバ装置200が経過日数(日数情報)を利用しないでユーザ辞書データを生成する場合よりも、ユーザ700との会話が密になるユーザ辞書データを生成することができる。
(4)通信端末100は、通信端末100と予め定められた場所との間の距離が閾値以下となったことを条件に、通信端末100の周囲の撮像を開始する。通信端末100は、予め定められた場所に到達するまでの撮像により得られた第2の画像データを、サーバ装置200にさらに送信する、サーバ装置200は、位置情報と第1の画像データと第2の画像データと回数情報と日数情報とに基づいて、ユーザ辞書データを生成する。
According to said structure, the
(4) The
上記の構成によれば、サーバ装置200は、予め定められた場所の周囲の撮像により得られた第2の画像データを考慮して、ユーザ辞書データを生成する。したがって、サーバ装置200が第2の画像データを利用しないでユーザ辞書データを生成する場合よりも、ユーザ700との会話が密になるユーザ辞書データを生成することができる。
(5)通信端末100は、予め定められた場所に近づくほど、撮像の時間間隔を短くする。
According to said structure, the
(5) The
上記の構成によれば、サーバ装置200は、予め定められた場所に近い場所の画像データを遠い場所よりも多く受信することができる。それゆえ、サーバ装置200は、通信端末100が同じ時間間隔で撮像する構成よりも、予め定められた場所に関連するデータを多く含んだユーザ辞書データを生成することが可能となる。
(6)サーバ装置200は、位置情報と第1の画像データと第2の画像データとを用いて、予め定められた場所に関連するキーワードを決定する。サーバ装置200は、決定されたキーワードを用いて、ユーザ辞書データを生成する。
According to said structure, the
(6) The
上記の構成によれば、予め定められた場所の位置情報と、予め定められた場所での撮像により得られた第1の画像データと、当該場所に近い場所での撮像により得られた第2の画像データとを用いて、ユーザ辞書データの生成に用いる予め定められた場所に関連するキーワードを生成できる。
(7)サーバ装置200は、回数と日にちの間隔との複数の組み合わせの各々に対して、複数の項目を優先順位を付けて記憶したデータベースを記憶している。サーバ装置200は、少なくとも、データテーブルD10と、通信端末100から送信された回数情報および日数情報とを用いて、第1の画像データおよび第2の画像データの中から、予め定められた数の画像データを抽出する。サーバ装置200は、抽出された画像データと、位置情報とを用いて、キーワードを決定する。
According to the above configuration, the position information of the predetermined location, the first image data obtained by imaging at the predetermined location, and the second obtained by imaging at the location close to the location. Using this image data, it is possible to generate a keyword related to a predetermined location used for generating user dictionary data.
(7) The
上記の構成によれば、サーバ装置200は、回数情報および日数情報に応じた画像データを優先度の高いものから順に抽出できる。それゆえ、サーバ装置200は、このように回数情報および日数情報に応じた画像データを抽出しない構成に比べて、ユーザ700との会話が密になるユーザ辞書データを生成することができる。
(8)通信端末100は、通信端末100と予め定められた場所との間の距離が閾値以下となったと判断すると、予め定められた報知処理を実行する。
According to said structure, the
(8) When the
上記の構成によれば、通信端末100のユーザは、予め定められた場所に近づいたことを知ることができる。すなわち、通信端末100による撮像開始のタイミングとなったことを知ることができる。それゆえ、ユーザ700は、通信端末100によってユーザ700の周囲の風景の撮像が可能なように、通信端末100の状態を変更することが可能となる。たとえば、通信端末100を鞄にしまっている場合には、上記報知処理が、鞄から取り出す動機付けになる。
(9)予め定められた報知処理は、通信端末100の周囲の撮像許可を通信端末100のユーザから得るための発話を含んでいる。通信端末100は、ユーザ700から撮像の許可を得たことを条件に、通信端末100の周囲をカメラによって撮像する。
According to said structure, the user of the
(9) The predetermined notification process includes an utterance for obtaining permission for imaging around the
上記の構成によれば、ユーザ700から許可が得られない状態で、通信端末100が撮像を行なうことを防止できる。また、通信端末100による発話により、ユーザ700は、撮像を行なう必要性を認識することができる。
(10)通信端末100は、予め定められた場所の位置情報を、サーバ装置200から受信する。
(11)予め定められた場所は、通信端末100のユーザによる入力操作によって指定された場所である。
(12)通信端末100は、カメラ164の向きを変更可能である。通信端末100は、通信端末100が予め定められた場所に到着したと判断すると、通信端末100の周囲をカメラの向きを変更して複数枚撮像する。通信端末100は、予め定められた場所の位置情報と、複数の第1の画像データとを、サーバ装置200に送信する。
According to the above configuration, it is possible to prevent the
(10) The
(11) The predetermined place is a place designated by an input operation by the user of the
(12) The
上記の構成によれば、サーバ装置200は、予め定められた場所を複数のアングルから撮像することにより得られた複数の画像データを用いて、ユーザ辞書データを生成することができる。
(13)通信端末100は、予め定められた場所において通信端末100の周囲をカメラによって撮像すると、通信端末100の向きをユーザに変更させるための発話を行なう。
According to said structure, the
(13) When the
上記の構成によれば、ユーザが通信端末100の向きを変更することにより、通信端末100は、予め定められた場所を複数のアングルから撮像することが可能となる。
(14)通信端末100は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の端末である。通信端末100は、音声入力部116と音声出力部117とを用いて、通信端末100のユーザと会話を行なうように構成された会話制御部1112と、通信端末100の現在位置を表す位置情報に基づき、通信端末100が予め定められた場所に到着したか否かを判断する判断部1115と、予め定められた場所において、通信端末100の周囲をカメラによって撮像する撮像部114と、予め定められた場所の位置情報と、撮像により得られた画像データとを、サーバ装置200に送信する送信部1181と、位置情報および画像データに基づいて生成された音声認識用のユーザ辞書データを、サーバ装置200から受信する受信部1182とを備える。会話制御部1112は、ユーザ辞書データを用いて通信端末100のユーザと会話を行なう。
(15)サーバ装置200は、会話が可能であるとともに自律的に周囲を撮像可能な可搬型の通信端末100と通信する。サーバ装置200は、通信端末100が予め定められた場所において撮像した被写体の画像データと、予め定められた場所の位置情報とを、通信端末100から受信する受信部2132と、通信端末100から送られてきた位置情報および画像データに基づいて、音声認識用のユーザ辞書データを生成する辞書データ生成部2112と、生成されたユーザ辞書データを通信端末100に送信する送信部2131とを備える。
According to said structure, when a user changes direction of the
(14) The
(15) The
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1 通信システム、100 通信端末、111,211 制御部、112,212 記憶部、113 位置情報取得部、114 撮像部、115 駆動部、116 音声入力部、117 音声出力部、118,213 通信処理部、119 表示部、158 GPS受信機、162 マイク、163 スピーカ、164 カメラ、165 駆動装置、200 サーバ装置、300 レストラン、400 ケース、500 基地局、600 ネットワーク、700 ユーザ、800 自宅、911 テーブル、921 メニュー、1112 会話制御部、1113 駆動制御部、1114 間隔算出部、1115 判断部、1181,2131 送信部、1182,2132 受信部、2111 キーワード決定部、2112 辞書データ生成部、D8 訪問履歴情報、D10 データテーブル、P0,P1,P2 位置。
DESCRIPTION OF
Claims (18)
前記通信端末は、
前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断し、
前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像し、
前記予め定められた場所の位置情報と、前記撮像により得られた第1の画像データとを、前記サーバ装置に送信し、
前記サーバ装置は、
前記通信端末から送られてきた前記位置情報および前記第1の画像データに基づいて、音声認識用の辞書データを生成し、
生成された前記辞書データを前記通信端末に送信し、
前記通信端末は、
前記辞書データを受信したことに基づき、前記辞書データを用いて前記通信端末のユーザと会話を行なう、通信システム。 A communication system comprising a server device and a portable communication terminal capable of talking and autonomously imaging the surroundings,
The communication terminal is
Based on the location information representing the current location of the communication terminal, determine whether the communication terminal has arrived at a predetermined location,
In the predetermined place, the surroundings of the communication terminal are imaged by a camera,
Transmitting the position information of the predetermined location and the first image data obtained by the imaging to the server device;
The server device
Based on the position information and the first image data sent from the communication terminal, generate dictionary data for speech recognition,
Transmitting the generated dictionary data to the communication terminal;
The communication terminal is
A communication system for carrying out a conversation with a user of the communication terminal using the dictionary data based on reception of the dictionary data.
前記サーバ装置は、前記位置情報と前記第1の画像データと前記回数情報とに基づいて、前記辞書データを生成する、請求項1に記載の通信システム。 The communication terminal further transmits frequency information representing the number of times the user of the communication terminal has visited the predetermined place in the past to the server device,
The communication system according to claim 1, wherein the server device generates the dictionary data based on the position information, the first image data, and the frequency information.
前記ユーザが前記予め定められた場所を過去に訪れた日を表わす日にち情報をさらに記憶しており、
前記日にち情報に基づいて、前記予め定められた場所を前回訪れた日からの経過日数を算出し、
算出された前記経過日数を表す日数情報を、前記サーバ装置にさらに送信し、
前記サーバ装置は、
前記位置情報と前記第1の画像データと前記回数情報と前記日数情報とに基づいて、前記辞書データを生成する、請求項2に記載の通信システム。 The communication terminal is
Further storing date information representing a date the user has visited the predetermined location in the past;
Based on the date information, calculate the number of days elapsed since the previous visit to the predetermined place,
Further transmitting days information representing the calculated elapsed days to the server device,
The server device
The communication system according to claim 2, wherein the dictionary data is generated based on the position information, the first image data, the frequency information, and the days information.
前記通信端末と前記予め定められた場所との間の距離が閾値以下となったことを条件に、前記通信端末の周囲の撮像を開始し、
前記予め定められた場所に到達するまでの撮像により得られた第2の画像データを、前記サーバ装置にさらに送信し、
前記サーバ装置は、
前記位置情報と前記第1の画像データと前記第2の画像データと前記回数情報と前記日数情報とに基づいて、前記辞書データを生成する、請求項3に記載の通信システム。 The communication terminal is
On the condition that the distance between the communication terminal and the predetermined location is equal to or less than a threshold, start imaging around the communication terminal,
The second image data obtained by imaging until reaching the predetermined location is further transmitted to the server device,
The server device
The communication system according to claim 3, wherein the dictionary data is generated based on the position information, the first image data, the second image data, the number-of-times information, and the number-of-days information.
前記位置情報と前記第1の画像データと前記第2の画像データとを用いて、前記予め定められた場所に関連するキーワードを決定し、
決定された前記キーワードを用いて、前記辞書データを生成する、請求項5に記載の通信システム。 The server device
Using the position information, the first image data, and the second image data, a keyword related to the predetermined location is determined,
The communication system according to claim 5, wherein the dictionary data is generated using the determined keyword.
回数と日にちの間隔との複数の組み合わせの各々に対して、複数の項目を優先順位を付けて記憶したデータベースを記憶しており、
前記データベースと、前記通信端末から送信された前記回数情報および前記日数情報とを用いて、前記第1の画像データおよび前記第2の画像データの中から、予め定められた数の画像データを抽出し、
抽出された前記画像データと、前記位置情報とを用いて、前記キーワードを決定する、請求項6に記載の通信システム。 The server device
For each of a plurality of combinations of the number of times and the interval of dates, a database storing a plurality of items with priorities is stored.
Extracting a predetermined number of image data from the first image data and the second image data using the database and the number-of-times information and the number-of-days information transmitted from the communication terminal And
The communication system according to claim 6, wherein the keyword is determined using the extracted image data and the position information.
前記通信端末は、前記ユーザから撮像の許可を得たことを条件に、前記通信端末の周囲を前記カメラによって撮像する、請求項8に記載の通信システム。 The predetermined notification process includes an utterance for obtaining permission for imaging around the communication terminal from a user of the communication terminal,
The communication system according to claim 8, wherein the communication terminal captures an image of the surroundings of the communication terminal with the camera on the condition that permission for imaging is obtained from the user.
前記カメラの向きを変更可能であって、
前記通信端末が予め定められた場所に到着したと判断すると、前記通信端末の周囲を前記カメラの向きを変更して複数枚撮像し、
前記予め定められた場所の位置情報と、複数の前記第1の画像データとを、前記サーバ装置に送信する、請求項1から11のいずれか1項に記載の通信システム。 The communication terminal is
The orientation of the camera can be changed,
When it is determined that the communication terminal has arrived at a predetermined location, a plurality of images are captured by changing the orientation of the camera around the communication terminal,
The communication system according to any one of claims 1 to 11, wherein position information of the predetermined location and a plurality of the first image data are transmitted to the server device.
音声入力部と音声出力部とを用いて、前記通信端末のユーザと会話を行なうように構成された会話制御手段と、
前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断する判断手段と、
前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像する撮像手段と、
前記予め定められた場所の位置情報と、前記撮像により得られた画像データとを、サーバ装置に送信する送信手段と、
前記位置情報および前記画像データに基づいて生成された音声認識用の辞書データを、前記サーバ装置から受信する受信手段とを備え、
前記会話制御手段は、前記辞書データを用いて前記通信端末のユーザと会話を行なう、通信端末。 A portable communication terminal capable of talking and autonomously imaging the surroundings,
Conversation control means configured to have a conversation with the user of the communication terminal using a voice input unit and a voice output unit;
Determining means for determining whether or not the communication terminal has arrived at a predetermined location based on position information indicating the current position of the communication terminal;
Imaging means for imaging the periphery of the communication terminal by a camera at the predetermined location;
Transmitting means for transmitting the position information of the predetermined location and the image data obtained by the imaging to a server device;
Receiving means for receiving dictionary data for speech recognition generated based on the position information and the image data from the server device;
The conversation control means is a communication terminal that has a conversation with a user of the communication terminal using the dictionary data.
前記通信端末が予め定められた場所において撮像した被写体の画像データと、前記予め定められた場所の位置情報とを、前記通信端末から受信する受信手段と、
前記通信端末から送られてきた前記位置情報および前記画像データに基づいて、音声認識用の辞書データを生成する辞書データ生成手段と、
生成された前記辞書データを前記通信端末に送信する送信手段とを備える、サーバ装置。 A server device that communicates with a portable communication terminal capable of talking and autonomously imaging the surroundings,
Receiving means for receiving, from the communication terminal, image data of a subject imaged at a predetermined location by the communication terminal and position information of the predetermined location;
Dictionary data generating means for generating dictionary data for speech recognition based on the position information and the image data sent from the communication terminal;
A server apparatus comprising: a transmission unit that transmits the generated dictionary data to the communication terminal.
前記通信端末が、前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断するステップと、
前記通信端末が、前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像するステップと、
前記通信端末が、前記予め定められた場所の位置情報と、前記撮像により得られた第1の画像データとを、前記サーバ装置に送信するステップと、
前記サーバ装置が、前記通信端末から送られてきた前記位置情報および前記第1の画像データに基づいて、音声認識用の辞書データを生成するステップと、
前記サーバ装置が、生成された前記辞書データを前記通信端末に送信するステップと、
前記通信端末が、前記辞書データを受信したことに基づき、前記辞書データを用いて前記通信端末のユーザと会話を行なうステップとを備える、情報処理方法。 An information processing method in a communication system comprising a server device and a portable communication terminal capable of conversation and autonomously imaging the surroundings,
Determining whether the communication terminal has arrived at a predetermined location based on position information representing a current position of the communication terminal; and
The communication terminal imaging the surroundings of the communication terminal with a camera at the predetermined location;
The communication terminal transmitting the position information of the predetermined location and the first image data obtained by the imaging to the server device;
The server device generating speech recognition dictionary data based on the position information and the first image data sent from the communication terminal;
The server device transmitting the generated dictionary data to the communication terminal;
An information processing method comprising: a step of having a conversation with a user of the communication terminal using the dictionary data based on the communication terminal receiving the dictionary data.
音声入力部と音声出力部とを用いて、前記通信端末のユーザと会話を行なうステップと、
前記通信端末の現在位置を表す位置情報に基づき、前記通信端末が予め定められた場所に到着したか否かを判断するステップと、
前記予め定められた場所において、前記通信端末の周囲をカメラによって撮像するステップと、
前記予め定められた場所の位置情報と、前記撮像により得られた画像データとを、サーバ装置に送信するステップと、
前記位置情報および前記画像データに基づいて生成された音声認識用の辞書データを、前記サーバ装置から受信するステップとを備え、
前記会話を行なうステップでは、前記辞書データを用いて前記通信端末のユーザと会話を行なう、情報処理方法。 An information processing method in a portable communication terminal capable of talking and autonomously imaging the surroundings,
Using a voice input unit and a voice output unit to perform a conversation with the user of the communication terminal;
Determining whether the communication terminal has arrived at a predetermined location based on position information representing a current position of the communication terminal;
Imaging the surroundings of the communication terminal with a camera at the predetermined location;
Transmitting the position information of the predetermined location and the image data obtained by the imaging to a server device;
Receiving dictionary data for speech recognition generated based on the position information and the image data from the server device,
An information processing method of performing a conversation with a user of the communication terminal using the dictionary data in the conversation step.
前記通信端末が予め定められた場所において撮像した被写体の画像データと、前記予め定められた場所の位置情報とを、前記通信端末から受信するステップと、
前記通信端末から送られてきた前記位置情報および前記画像データに基づいて、音声認識用の辞書データを生成するステップと、
生成された前記辞書データを前記通信端末に送信するステップとを備える、情報処理方法。 An information processing method in a server device that communicates with a portable communication terminal capable of conversation and being able to autonomously image the surroundings,
Receiving from the communication terminal image data of a subject imaged at a predetermined location by the communication terminal and position information of the predetermined location;
Generating dictionary data for speech recognition based on the position information and the image data sent from the communication terminal;
Transmitting the generated dictionary data to the communication terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033333A JP2017152913A (en) | 2016-02-24 | 2016-02-24 | Communication system, communication terminal, server device, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033333A JP2017152913A (en) | 2016-02-24 | 2016-02-24 | Communication system, communication terminal, server device, and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017152913A true JP2017152913A (en) | 2017-08-31 |
Family
ID=59742007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016033333A Pending JP2017152913A (en) | 2016-02-24 | 2016-02-24 | Communication system, communication terminal, server device, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017152913A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020250434A1 (en) * | 2019-06-14 | 2020-12-17 |
-
2016
- 2016-02-24 JP JP2016033333A patent/JP2017152913A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020250434A1 (en) * | 2019-06-14 | 2020-12-17 | ||
WO2020250434A1 (en) * | 2019-06-14 | 2020-12-17 | 株式会社ロボ・ガレージ | Thin portable communication terminal, and control method and control program thereof |
JP7317395B2 (en) | 2019-06-14 | 2023-07-31 | 株式会社ロボ・ガレージ | THIN PORTABLE COMMUNICATION TERMINAL, CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101870052B1 (en) | Navigation method and device, program and recording medium | |
JP6594646B2 (en) | Robot, robot control method, and robot system | |
CN104303177B (en) | Execute the method and earphone computing device of real-time phonetic translation | |
EP2581901B1 (en) | Server device, searching system and corresponding searching method | |
CN109819041B (en) | System and method for controlling external device connected with equipment | |
JP2019220194A (en) | Information processing device, information processing method and program | |
KR101917648B1 (en) | Terminal and method of controlling the same | |
US11343613B2 (en) | Prioritizing delivery of location-based personal audio | |
CN106776999A (en) | Multi-medium data recommends method and device | |
JP2019109510A (en) | Method and system for controlling artificial intelligence device using plural wake words | |
CN110827810A (en) | Apparatus and method for recognizing speech and text | |
JPWO2018155116A1 (en) | Information processing apparatus, information processing method, and computer program | |
CN108326875B (en) | Communication control method and apparatus, telepresence robot, and storage medium | |
CN103916473A (en) | Travel information processing method and relative device | |
JP2013110569A (en) | Image processing system, position information addition method and program | |
CN108803444A (en) | Control method, device and the storage medium of smart machine | |
US11874876B2 (en) | Electronic device and method for predicting an intention of a user | |
CN109388699A (en) | Input method, device, equipment and storage medium | |
JP6527182B2 (en) | Terminal device, control method of terminal device, computer program | |
KR102334299B1 (en) | Voice information processing method, apparatus, program and storage medium | |
WO2020116026A1 (en) | Response processing device, response processing method, and response processing program | |
US10049558B2 (en) | Information processing system, terminal, information processing method, information processing method of terminal, and program | |
JP2017152913A (en) | Communication system, communication terminal, server device, and information processing method | |
CN107395691A (en) | Information acquisition method and device | |
CN105302335B (en) | Vocabulary recommends method and apparatus and computer readable storage medium |