JP2014010816A - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP2014010816A JP2014010816A JP2012149424A JP2012149424A JP2014010816A JP 2014010816 A JP2014010816 A JP 2014010816A JP 2012149424 A JP2012149424 A JP 2012149424A JP 2012149424 A JP2012149424 A JP 2012149424A JP 2014010816 A JP2014010816 A JP 2014010816A
- Authority
- JP
- Japan
- Prior art keywords
- information
- data
- word
- output
- next action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は情報処理装置に関し、特に、取得した発話による音声から識別される情報をメモリから読出し提示する情報処理装置に関する。 The present invention relates to an information processing apparatus, and more particularly, to an information processing apparatus that reads information from a memory and presents the information identified from acquired speech.
従来、ユーザは自己のスケジュールを管理するために携帯電話のスケジュール機能などを使用することが多い。このスケジュール機能によれば、登録された時間に登録された情報を携帯電話からアラームでお知らせするような機能が提供される。 Conventionally, a user often uses a schedule function of a mobile phone in order to manage his / her schedule. According to this schedule function, a function of notifying information registered at a registered time by an alarm from a mobile phone is provided.
たとえば、特許文献1(特開2010−72677号公報)では、ユーザに対する外出時の携行品の忘れ物チェック機能が示される。つまり、端末装置は、複数の予定情報を記憶するスケジュール機能を有し、予定情報それぞれに物品の識別情報を関連付けて記憶し、近接する物品から当該物品に取付られたICタグによる識別情報を取得し、スケジュール機能に記憶されている予定情報を特定し、取得された識別情報を、特定された予定情報に関連付けて記憶されている識別情報と比較し、比較結果に応じた処理を行う。 For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2010-72677) discloses a left-behind item check function for carried items when the user goes out. That is, the terminal device has a schedule function for storing a plurality of schedule information, stores the identification information of the article in association with each schedule information, and acquires identification information by an IC tag attached to the article from a nearby article Then, the schedule information stored in the schedule function is specified, the acquired identification information is compared with the identification information stored in association with the specified schedule information, and processing according to the comparison result is performed.
特許文献1の端末装置は、ユーザが外出するときに、携行品の忘れ物チェックをし、その結果を提示するが、使い勝手に優れない。つまり、ユーザは持物に予めICタグを付けておく必要がありわずらわしい。また予定情報に関連付けされた識別情報に対応する持物を携行していたとしても当該持物にICタグを付け忘れている場合には、忘れ物としてチェックされることになり、ユーザは混乱してしまう。 Although the terminal device of patent document 1 performs the thing left behind check of a carried item when a user goes out and shows the result, it is not excellent in usability. That is, it is troublesome for the user to attach an IC tag to the belongings in advance. Further, even if a belonging corresponding to the identification information associated with the schedule information is carried, if the IC tag is forgotten to be attached to the belonging, it will be checked as a forgotten thing and the user will be confused.
それゆえに本発明の目的は、簡単な構成でユーザに対し行動に関する必要な情報を出力する情報処理装置を提供することである。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an information processing apparatus that outputs necessary information regarding actions to a user with a simple configuration.
この発明のある局面に従う情報処理装置は、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とを関連付けて格納するためのメモリと、発話の音声を取得するための音声取得手段と、取得された音声から、声紋を抽出するための抽出手段と、取得された音声の文字データを取得する発話文字取得手段と、抽出手段により抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、発話文字取得手段により取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出す情報読出手段と、情報読出手段により読出された情報を出力部に出力させるための情報出力手段と、を備える。 An information processing apparatus according to an aspect of the present invention stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information related to the next action corresponding to the word data in association with each other. Memory, voice acquisition means for acquiring voice of speech, extraction means for extracting voiceprint from the acquired voice, speech character acquisition means for acquiring character data of the acquired voice, and extraction means Information read out from the memory for information on the next action corresponding to the word data that matches the character data acquired by the spoken character acquisition means among the word data associated with the voice print data that matches the voice print extracted by And information output means for causing the output unit to output the information read by the information reading means.
好ましくは、情報処理装置は、音声が取得される時間を計時するための計時手段を、さらに備える。メモリには、さらに、次の行動に関する情報に対応し当該情報が出力されるべき時間を示す時間データが格納される。情報読出手段は、抽出された声紋を示す声紋データに関連付けされた少なくとも1つの言葉データのうち、発話文字取得手段により取得された文字データと一致する言葉データに対応する次の行動に関する情報であって、且つ、計時手段が計時した時間が、該次の行動に関する情報に対応する時間データと一致または範囲内に入っている場合に、該行動に関する情報を読出す。 Preferably, the information processing apparatus further includes a time measuring unit for measuring a time when the sound is acquired. The memory further stores time data indicating the time at which the information should be output corresponding to the information on the next action. The information reading means is information on the next action corresponding to the word data that matches the character data acquired by the utterance character acquisition means among at least one word data associated with the voice print data indicating the extracted voice print. If the time measured by the time measuring means coincides with or falls within the time data corresponding to the information related to the next action, the information related to the action is read out.
好ましくは、少なくとも1つの言葉データには、発話者の出発に際し発せられる言葉を示す第1言葉データが含まれ、メモリの第1言葉データに対応する次の行動に関する情報には、出発に際し携帯するべき携帯物品を示す物品情報が含まれる。情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示すとき、当該言葉を示す第1言葉データに対応する物品情報を読出す物品情報読出手段を含む。 Preferably, the at least one word data includes first word data indicating a word uttered upon departure of the speaker, and information on a next action corresponding to the first word data in the memory is carried on departure. Item information indicating a portable item to be included is included. The information reading means includes article information reading means for reading the article information corresponding to the first word data indicating the word when the character data acquired by the spoken character acquiring means indicates a word uttered upon departure.
好ましくは、メモリの第1言葉データに対応する次の行動に関する情報は、天気または降水確率の少なくとも何れか一方を示す複数種類の天候のそれぞれに対応して当該天候のもとで携帯するべき物品を示す物品情報を含み、音声取得手段により音声が取得されるときの天候、またはその後に予測される天候に関する天候データを取得するための天候取得手段を、さらに備える。物品情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示すとき、当該言葉を示す第1言葉データに対応する天候のもとで携帯するべき物品を示す物品情報のうち、天候取得手段が取得する天候データによって示される天候の種類に対応する情報を読出す手段を含む。 Preferably, the information regarding the next action corresponding to the first word data in the memory is an article to be carried under the weather corresponding to each of a plurality of types of weather indicating at least one of weather and a probability of precipitation. Weather acquisition means for acquiring weather data relating to the weather when the voice is acquired by the voice acquisition means or the weather predicted thereafter is included. When the character data acquired by the spoken character acquisition unit indicates a word uttered at the time of departure, the item information reading unit stores the item information indicating the item to be carried under the weather corresponding to the first word data indicating the word. Among these, a means for reading out information corresponding to the type of weather indicated by the weather data acquired by the weather acquisition means is included.
好ましくは、携帯物品は、携帯端末を含み、情報処理装置は、携帯端末の位置を示す位置情報を取得するための位置取得手段と、取得される位置情報から、携帯端末は情報処理装置から予め定められた距離以上離れているか否かを判定するための距離判定手段と、をさらに備え、物品情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示し、且つ距離判定手段により離れていると判定されるとき、当該言葉を示す第1言葉データに対応する携帯端末を含む携帯物品を示す物品情報を読出す手段を含む。 Preferably, the portable article includes a portable terminal, and the information processing apparatus obtains position information for acquiring position information indicating the position of the portable terminal and the acquired position information. Distance determining means for determining whether or not the distance is equal to or more than a predetermined distance, the article information reading means indicates the words that the character data acquired by the spoken character acquisition means indicates when starting, and the distance And a means for reading article information indicating a portable article including a portable terminal corresponding to the first word data indicating the word when it is determined that the distance is determined by the determination means.
好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納される。情報処理装置は、さらに、情報出力手段により次の行動に関する情報が出力部に出力されると、その後、当該次の行動に関する情報に対応する声紋データについてメモリに格納される通信アドレスのデータを用いて、通信端末に当該次の行動に関する情報を送信するための情報送信手段を備える。 Preferably, the memory further stores data of a communication address of the communication terminal for each of at least one type of voiceprint data. The information processing apparatus further uses the data of the communication address stored in the memory for the voice print data corresponding to the information on the next action when the information on the next action is output to the output unit by the information output unit. And an information transmission means for transmitting information on the next action to the communication terminal.
好ましくは、発話者が情報処理装置から離れているか否かを検出するための離れ検出手段を、さらに備える。情報送信手段は、情報出力手段により次の行動に関する情報が出力部に出力されると、その後、離れ検出手段により発話者が離れていることが検出されるとき、当該次の行動に関する情報に対応する声紋データについてメモリに格納される通信アドレスのデータを用いて、通信端末に当該次の行動に関する情報を送信するための手段を備える。 Preferably, the apparatus further includes a distance detecting means for detecting whether or not the speaker is away from the information processing apparatus. The information transmitting means responds to the information related to the next action when the information output means outputs information related to the next action to the output unit and then detects that the speaker is away by the distance detecting means. Means for transmitting information on the next action to the communication terminal using the data of the communication address stored in the memory for the voiceprint data to be transmitted.
好ましくは、出力部は、情報を表示するための画面を含み、情報処理装置は、人の予め定められた動作を検出するための動作検出手段を、さらに備える。情報出力手段は、次の行動に関する情報が出力部に出力されるとき、動作検出手段により予め定められた動作が検出される場合に、当該次の行動に関する情報の出力態様を変更させるための手段を含む。 Preferably, the output unit includes a screen for displaying information, and the information processing apparatus further includes operation detection means for detecting a predetermined operation of the person. The information output means is means for changing the output mode of the information related to the next action when the predetermined action is detected by the action detection means when the information related to the next action is output to the output unit. including.
好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納される。情報処理装置は、次の行動に関する情報が出力部に出力されるとき動作検出手段により予め定められた動作が検出されない場合に、当該次の行動に関する情報を、抽出された声紋を示す声紋データについてのメモリの通信アドレスのデータを用いて、通信端末に送信する。 Preferably, the memory further stores data of a communication address of the communication terminal for each of at least one type of voiceprint data. When information related to the next action is output to the output unit, if the predetermined action is not detected by the action detection unit, the information processing apparatus displays the information related to the next action on the voice print data indicating the extracted voice print. Is transmitted to the communication terminal using the data of the communication address of the memory.
好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれに対応し、さらに人物を識別するための識別データが格納される。情報処理装置は、さらに、次の行動に関する情報が出力部に出力されるとき動作検出手段により予め定められた動作が検出されない場合に、メモリに、当該次の行動に関する情報に関連して当該動作が検知されない旨を示す情報を書込む書込手段と、動作が検知されない旨を示す情報が関連付けされた次の行動に関する情報と、当該次の行動に関する情報が関連付けされた声紋データに対応の識別データとをメモリから読出し、読出した情報を出力部に出力させる手段とを含む。 Preferably, the memory stores identification data for identifying each person corresponding to each of at least one type of voiceprint data. The information processing apparatus further includes, in the memory, when the predetermined action is not detected by the action detection unit when the information related to the next action is output to the output unit, the action related to the information related to the next action Writing means for writing information indicating that no action is detected, information on the next action associated with information indicating that no action is detected, and identification corresponding to voiceprint data associated with information on the next action Means for reading data from the memory and outputting the read information to an output unit.
好ましくは、少なくとも1つの言葉データは、発話者の帰着に際し発せられる言葉を示す第2言葉データを含み、メモリの第2言葉データに対応する次の行動に関する情報は、伝言の情報を含み、情報読出手段は、発話文字取得手段が取得する文字データが帰着に際しに発せられる言葉を示すとき、当該言葉を示す第2言葉データに対応する伝言の情報を読出す手段を含む。 Preferably, the at least one word data includes second word data indicating a word uttered upon the speaker's return, and information on the next action corresponding to the second word data in the memory includes message information, The reading means includes means for reading information of a message corresponding to the second word data indicating the word when the character data acquired by the spoken character acquiring means indicates a word uttered at the time of return.
この発明の他の局面に従う情報処理方法は、メモリから情報を読出す情報処理方法であって、メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、発話の音声から、声紋を抽出するステップと、発話の音声の文字データを取得するステップと、抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、取得するステップにおいて取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出すステップと、読出すステップにおいて読出された情報を出力部に出力させるステップと、を備える。 An information processing method according to another aspect of the present invention is an information processing method for reading information from a memory, wherein the memory includes at least one type of voiceprint data, at least one word data composed of a plurality of characters, Information relating to the next action corresponding to the word data is stored in association with each other, and the step of extracting the voiceprint from the voice of the utterance, the step of acquiring the character data of the voice of the utterance, and the voiceprint extracted in the step of extracting Of the word data associated with the matching voiceprint data, the information on the next action corresponding to the word data that matches the character data acquired in the acquiring step is read in the memory and the reading step. And outputting the information to the output unit.
この発明のさらに他の局面に従うと、メモリから情報を読出す情報処理方法をプロセッサに実行させるためのプログラムが提供される。 According to still another aspect of the present invention, a program for causing a processor to execute an information processing method for reading information from a memory is provided.
メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納される。プログラムは、プロセッサに、発話の音声から、声紋を抽出するステップと、発話の音声の文字データを取得するステップと、抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、取得するステップにおいて取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出すステップと、読出すステップにおいて読出された情報を出力部に出力させるステップと、を実行させる。 The memory stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information on the next action corresponding to the word data in association with each other. The program causes the processor to extract a voiceprint from speech speech, to acquire character data of speech speech, and to extract word data associated with voiceprint data that matches the voiceprint extracted in the extraction step. Among them, the step of reading from the memory information about the next action corresponding to the word data that matches the character data acquired in the step of acquiring, the step of outputting the information read in the step of reading to the output unit, Is executed.
本発明によれば、発話による音声から声紋データと発話の音声の文字データが表す言葉データを取得することで発話した人を判別し、メモリに登録された当該言葉が発せられる際にとられるべき当該人物の次の行動に関する情報を出力する。したがって、簡単な構成でユーザに対し行動に関する必要な情報を出力することができる。 According to the present invention, a person who speaks is determined by acquiring word data represented by voiceprint data and character data of speech voice from speech voice, and should be taken when the word registered in the memory is spoken. Output information about the person's next action. Therefore, it is possible to output necessary information regarding the behavior to the user with a simple configuration.
以下、本発明の実施の形態について図面を参照し詳細に説明する。なお、同一の構成要素には各図において同一の符号を付し、詳細な説明は繰返さない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the same components are denoted by the same reference symbols in the respective drawings, and detailed description thereof will not be repeated.
本発明の実施の形態では、情報処理装置は、ユーザの出発時または帰着時の発話から取得された発話内容に対応する当該発話者の行動に関する情報をメモリから読出し出力する。 In the embodiment of the present invention, the information processing apparatus reads out and outputs information related to the behavior of the speaker corresponding to the utterance content acquired from the utterance at the time of departure or return of the user from the memory.
<ハードウェア構成>
図1および図2を参照して本実施の形態に係る情報処理装置100の構成について説明する。図1は、情報処理装置100の外観を表わす図である。図2は情報処理装置100のハードウェア構成を表わすブロック図である。
<Hardware configuration>
A configuration of
情報処理装置100の機能は、たとえば家庭内のサーバ装置の機能のうちの1つとして提供されてもよく、専用装置として提供されてもよい。
The function of the
情報処理装置100は、プロセッサ10、記憶部を構成するROM(Read Only Memory)15、RAM(Random Access Memory)16およびHDD(Hard Disk Drive)17、アンテナ19を接続する通信部18およびメモリドライバ20を含む。プロセッサ10は、CPU11および時間を計測するためのタイマ12を有する。
The
通信部18は、電話回線による通信のための電話通信部181および無線による近距離通信のための近距離通信部182を含む。情報処理装置100は、電話通話部181を介し電子メールの送信など、外部ネットワーク(図示せず)を経由した通信をすることができる。
The
メモリドライバ20は、外部から着脱自在にCD−ROM(Compact Disk Read Only Memory)21などの各種の記憶媒体が装着されて、装着された記憶媒体をアクセスすることにより、そこに記憶されたデータを読出すとともに、記憶媒体に対しプロセッサ10からのデータを書込む。
The
プロセッサ10には、タブレット2に関連する表示ドライバ14が接続されたグラフィックメモリ13、カメラ4、マイク5およびスピーカ6が接続される。プロセッサ10は、図示しないがカメラ4が撮像して出力する被写体画像およびマイク5が集音した音声を入力するための入力インターフェイスを有する。入力インターフェイスは、入力する画像および音声についてA/D(Analog/Digital)変換などする機能を有する。また、音声をD/A(Digital/Analog)変換しスピーカ6に出力する出力インターフェイスを有する。入力インターフェイスは、マイク5を用いて発話の音声を取得するための音声取得部に相当する。また、出力インターフェイスの機能およびグラフィックメモリ13に表示用データを書込む機能は、出力部(マイク5、表示部202)に情報を出力させるための情報出力部に相当する。
The
タブレット2は、タッチパネル201と表示部202を一体的に備える。表示部202はLCD(Liquid Crystal Display)パネルなどに相当し、その表示画面上にはタッチパネル201が載置される。表示部202に対する表示用データはプロセッサ10によってグラフィックメモリ13に書込まれ、表示ドライバ14は、グラフィックメモリ13の表示用データを用いて表示部202を駆動することにより、表示部202に表示用データに従う画像を表示させる。表示画面に表示される画像はタッチパネル201を介して視認可能な可視画像である。つまり、ユーザは表示部202による表示画像を透明部材からなるタッチパネル201を介して外部から視認することができる。
The
カメラ4は、タブレット2の表示部202が表示する情報を確認するユーザが位置する方向に撮像方向が向けられている。マイク5は、少なくとも情報処理装置100周辺の、より特定的にはタブレット2周辺の音声を集音可能な機能を有する。スピーカ6からの音声は、情報処理装置100周辺に、より特定的にはタブレット2周辺に出力される。
The imaging direction of the
ここでは、カメラ4、マイク5およびスピーカ6はタブレット2と一体的に備えられているが、それぞれ個別に設置されるとしてもよい。
Here, the
なお、情報処理装置100には、キーボード3が有線または無線で接続されるとしてもよい。
The
<機能構成>
本実施の形態では、図1に示すタブレット2は、たとえば玄関などに載置されると想定する。情報処理装置100は、玄関を通って出発する際または玄関を通って外出先から帰着する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉が発せられる際にとられるべき当該ユーザの次の行動に関する情報を出力する。
<Functional configuration>
In the present embodiment, it is assumed that the
具体的には、玄関を通って出発する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉(たとえば、「行ってきます」)からユーザに対応の携帯物品を示す物品情報が、タブレット2により表示される。これにより、外出時に忘れ物がないように注意を促す(リマインドする)ことができる。また、玄関を通って外出先から家に帰着する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉(たとえば、「ただいま」)から当該ユーザに対し残されている伝言が、タブレット2により表示される。これにより、帰着時には伝言の確認が促される。
Specifically, an article that identifies a user from the voice of the user's utterance when leaving the entrance, and indicates a portable article corresponding to the user from the words (for example, “I will go”) indicated by the contents of the utterance Information is displayed by the
ここでは、発話の内容が示す言葉が発せられる際にとられるべきユーザの次の行動に関する情報として、外出時に携帯すべき物品または帰着時に確認するべき伝言の情報としているが、これら情報に限定されるものではない。 Here, as the information about the next action of the user to be taken when the word indicated by the utterance is issued, it is the information of the article to be carried when going out or the message to be confirmed when returning, but it is limited to this information. It is not something.
図3は、本発明の実施の形態に係る情報処理装置100が有する機能構成を示す概略図である。図3では、プロセッサ10が有する機能と、それら機能に関連する周辺部とを示す。図3のプロセッサ10が有する機能は、プログラムまたはプログラムと回路の組合せにより実現される。プログラムは、予めROM15などの記憶領域に格納されており、後述のCPU11がプログラムを記憶領域から読出し実行することにより、その機能が実現される。
FIG. 3 is a schematic diagram illustrating a functional configuration of the
上記の周辺部には、持物リスト記憶部431および伝言記憶部432が格納されるRAM16が含まれる。持物リスト記憶部431および伝言記憶部432は書換え可能であって、RAM16の不揮発性記憶領域に格納されると想定する。
The peripheral portion includes the
プロセッサ10は、タッチパネル201の出力から、ユーザ操作による情報処理装置100に対する入力を受付けるための入力受付部101、持物リスト記憶部431および伝言記憶部432に対し情報の書込を行なうための情報格納部102、持物リスト記憶部431および伝言記憶部432を検索し、これら記憶部から情報を読出すための情報読出部105、ならびに情報読出部105に対し記憶部の検索に必要なデータを与える検索用データ取得部を含む。
The
さらに、情報読出部105により読出された情報を出力部(表示部202またはスピーカ6)に出力させるための情報出力部113、情報読出部105が読出した情報を外部の通信端末に送信するための情報送信部115、持物リスト記憶部431に対し後述するチェックデータ62を書込むための書込部116、およびチェックデータ62に関連付けされた情報を持物リスト記憶部431から読出し出力部(表示部202またはスピーカ6)により出力させるための関連付情報出力部117、動作検出部118および離れ検出部119を含む。
Furthermore, an
情報出力部113は、表示される情報の出力態様を変更するための出力態様変更部114を含む。動作検出部118は、情報出力部113から情報が出力されるとき人の予め定められた動作を検出する。予め定められた動作は、たとえばタッチパネル201をタッチ、または予め定められた内容(たとえば、“持った”の言葉)の発話などである。タッチ動作は、入力受付部101を介したタッチパネル201からの出力により判定する。また、発話内容は、発話文字取得部104から出力される発話内容が示す言葉により判定する。
The
離れ検出部119は発話者であるユーザが情報処理装置100から、より特定的にはタブレット2から離れつつあるか否かを検出する。
The
情報読出部105は、持物リスト記憶部431から物品情報を読出すための物品情報読出部106を含む。物品情報読出部106は、持物リスト記憶部431から天候毎の物品情報を読出すための天候別情報読出部107、および伝言記憶部432から伝言を示す情報を読出すための伝言情報読出部108を有する。
The
上述の検索用データ取得部は、抽出部103、発話文字取得部104、距離判定部109、位置取得部110、天候取得部111および計時部112を備える。これら各部の詳細は後述する。
The search data acquisition unit described above includes an
本実施の形態では、“天候”とは、天気の種類(晴れ、雨、曇りなど)または降水確率の少なくとも何れか一方を示すものとする。 In this embodiment, “weather” indicates at least one of the type of weather (sunny, rainy, cloudy, etc.) and the probability of precipitation.
<記憶部の情報>
図4は、本発明の実施の形態に係る持物リスト記憶部431の情報の一例を示す図であり、図5は本発明の実施の形態に係る伝言記憶部432の情報の一例を示す図である。
<Information of storage unit>
FIG. 4 is a diagram showing an example of information in the belonging
図4を参照して持物リスト記憶部431は、少なくとも1種類の声紋データ50と、複数の文字からなる少なくとも1つの言葉データ51と、言葉データ51に対応した次の行動に関する情報とを関連付けて記憶する。
Referring to FIG. 4, belonging
より具体的には、1人以上の人物のそれぞれについて、当該人物の音声特徴である声紋を示す声紋データ50、言葉を表わす1つ以上の言葉データ51、当該人物の識別データ(名前、ニックネームなどを示すデータ)52、持物リスト53、当該持物リストを出力するべき時間を示す日付データ54および時刻データ55、サブ持物リスト60、チェックデータ62および当該人物が所有する通信端末の通信アドレスのデータ63を関連付けて記憶する。
More specifically, for each of one or more persons,
持物リスト53は、対応の人物が言葉データ51の言葉を発した際に、人物が携帯するべき携帯物品を示す物品情報を示す。サブ持物リスト60は、対応の人物が言葉データ51の言葉を発した際に、場合によって当該人物が携帯するべき携帯物品を示す物品情報を示す。距離別持物リスト61および天候別持物リスト70を含む。距離別持物リスト61は、対応する人物が言葉データ51を示す言葉を発した際に当該人物が携帯するべき1つ以上の端末(以下、携帯端末という)の情報を示す。距離別持物リスト61は、これら携帯端末と情報処理装置100とが予め定められた距離以上離れたときに出力される。距離別持物リスト61の各携帯端末の情報は、当該携帯端末の種類(携帯(携帯電話の略)、防犯ブザーの端末、タブレット端末など)と当該携帯端末の通信用アドレスを含む。
The
なお、本実施の形態では、ユーザは携帯端末を常時携帯しているものと想定している。したがって、持物リスト53が示す物品は携帯端末を含まないとするが、含むようにしてもよい。
In the present embodiment, it is assumed that the user always carries the mobile terminal. Therefore, although the article indicated by the belonging
天候別持物リスト70は、雨データ71、注意報データ72、雪データ73、低温データ74を含む。
The personal belongings list 70 according to the weather includes
天候別持物リスト70のこれらデータは、天候の種類ごとに当該天候のもとで携帯するべき携帯物品の情報(傘、レインコート、長靴など)を示す。つまり、天候の種類に基づいて携帯すべき携帯物品の情報(傘、レインコート、長靴など)を対応付けて記憶するリストである。たとえば、天気の種類が雨ならば、傘などを対応付けて記憶するが、天気の種類に限らず、降水確率に基づいて、「降水確率が何%以上」であるならば、傘などを対応付けておくという記憶の仕方でも構わない。 These data in the personal belongings list 70 according to the weather indicate information (such as umbrellas, raincoats, boots, etc.) of portable articles to be carried under the weather for each type of weather. That is, it is a list that stores information on portable articles (umbrellas, raincoats, boots, etc.) that should be carried based on the type of weather in association with each other. For example, if the type of weather is rain, an umbrella is associated and stored, but not only the type of weather, but if the precipitation probability is `` what percentage or more of rain '', an umbrella is supported It doesn't matter how you remember it.
チェックデータ62は、持物リスト53またはサブ持物リスト60が出力部に出力された場合に、ユーザが出力された情報を確認したことを示す予め定められた動作(タッチパネル201へのタッチ、または「持った」という言葉の発話)が検出されたか否かを示すためのものであって、初期値は“F”(未検出)が格納されるが、予め定められた動作が検出された場合には書込部116によりチェックデータ62の値は“F”→“T”に書換えられる。
The
図5を参照して伝言記憶部432は、少なくとも1種類の声紋データ80と、複数の文字からなる少なくとも1つの言葉データ81と、言葉データ81に対応した次の行動に関する情報とを関連付けて記憶する。
Referring to FIG. 5,
より具体的には、1人以上の人物のそれぞれについて、当該人物の音声特徴である声紋を示す声紋データ80、言葉を表わす1つ以上の言葉データ81、当該人物の識別データ(名前、ニックネームなどを示すデータ)82、当該人物に対しての伝言を示す伝言データ83、当該伝言を残した人の名前などを示す伝言者データ84および日付データ85を記憶する。日付データ85は、対応する伝言データ83が示す伝言を出力部から出力するべき日付を示す。
More specifically, for each of one or more persons,
図4と図5では、説明のために、持物リスト記憶部431と伝言記憶部432は別のものとして示されているが、両者は関連付けされている。具体的には、これら2つの記憶部は、図中の実線矢印で示されるような紐付け機能(ポインタP1とP2などの機能)を用いて、同一人物すなわち同一の声紋を示す声紋データ50と声紋データ80とを紐付けする。これにより、1つの声紋データが取得されたとき、持物リスト記憶部431および伝言記憶部432の両方において、当該声紋データに該当する人物に対応付けされている情報を検索することができる。
In FIG. 4 and FIG. 5, for the sake of explanation, the belonging
<各機能の説明>
図4と図5に示した持物リスト記憶部431および伝言記憶部432を参照しながら、図3に示す各部の機能について説明する。
<Description of each function>
The function of each unit shown in FIG. 3 will be described with reference to the belonging
情報格納部102は、入力受付部101が受付けたユーザ入力に従う情報を持物リスト記憶部431または伝言記憶部432に格納する。
The
抽出部103は、集音部であるマイク5により集音された人物の音声から、当該人物に固有の声紋を抽出する機能を有する。たとえば、マイク5により集音した音声から、当該音声が有する周波数に基づき、声紋を抽出する。発話文字取得部104は、マイク5が集音した音声から、音声認識により、認識結果を複数の仮名文字からなる文字列に変換する。音声認識により取得された仮名文字列により、マイク5が集音した音声が示す発話の内容を表す言葉が取得される。発話文字取得部104は、音声認識の結果が示す仮名文字列と、予め定められた言葉(“行ってきます”、“ただいま”、“持った”など)を表す仮名文字列とを比較することにより、発話の内容が、これら言葉を表すか否かを判定する。なお、上記の予め定められた言葉は、一例であり、これに限定されない。
The
情報読出部105は、抽出された声紋を示す声紋データ50(または80)に関連付けされた言葉データ51(または81)のうち、発話文字取得部104により取得された言葉の文字列に一致する文字列を示す言葉データ51(または81)に対応する情報(持物リスト53、サブ持物リスト60、伝言データ83など)を、持物リスト記憶部431および伝言記憶部432から読出す。
The
計時部112は、マイク5を介して発話の音声が取得される時間をタイマ12を用いて計時する。物品情報読出部106は、抽出部103が抽出する声紋を示す声紋データ50に関連付けされた1つ以上の言葉データ51のうち、発話文字取得部104が取得した発話内容を表す言葉データに対応する持物リスト53またはサブ持物リスト60を読出す。また、言葉データに対応して時間データ(日付データ54および時刻データ55)が格納されている場合には、計時部112が計時した時間を示す時間データに対応する持物リスト53またはサブ持物リスト60を読出す。
The
伝言情報読出部108は、抽出部103が抽出する声紋を示す声紋データ80に関連付けされた言葉データ81のうち、発話文字取得部104が取得した発話内容を表す言葉データに対応する伝言データ83を読出す。また、言葉データに対応して時間データ(日付データ85)が格納されている場合には、計時部112が計時した時間を示す日付データ85に対応する伝言データ83を読出す。なお、伝言データ83とともに対応の伝言者データ84も読出すようにしてもよい。
The message
これにより、同一の言葉が発せられた場合であっても、その言葉が発せられた時間または天候によって、出力するべき情報を異ならせることができる。たとえば、ユーザが夜勤などシフト勤務に従事している場合には、夕方時間であっても“行ってきます”と発話することから、同一の言葉データであっても、時間によって出力するべき情報を異ならせることは有効である。 Thereby, even if the same word is emitted, the information to be output can be varied depending on the time or the weather when the word is emitted. For example, if the user is engaged in shift work such as night shift, he / she will say “I will go” even during evening hours. It is effective to make them different.
(天候に応じた持物情報の提示)
天候別情報読出部107は天候取得部111からの天候データを用いて天候別持物リスト70が示す情報を読出す。ここで、天候取得部111は、マイク5により発話されたときの音声が集音されるときの予め定めた地域の天候、またはその後に予測される天候に関する天候データを、通信部18を介して、図示しない外部サーバから取得する。天候別情報読出部107は、発話文字取得部104が取得する発話内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)を示すと判定したとき、当該言葉を示す言葉データ51に対応する天候別持物リスト70のうち、天候取得部111が取得した天候データが示す天候の種類に対応した情報(雨データ71〜低温データ74のいずれか1つ以上)を読出す。なお、予め定めた地域は、情報処理装置100が位置する出発地域、および目的地を含む。
(Presentation of information on belongings according to the weather)
The weather-specific
これにより、発話したユーザが出発しようとしているときに、天候に応じた携帯物品の情報を提示することができる。 Thereby, when the user who has spoken is going to leave, the information of the portable article according to the weather can be presented.
(携帯端末の情報提示)
さらに、物品情報読出部106は、距離判定部109の判定結果に基づき、距離別持物リスト61による携帯端末の情報を読出す。ここでは、各ユーザの携帯端末は、自己の位置情報をGPS(Global Positioning System)機能を利用して取得し、取得した位置情報を情報処理装置100に送信すると想定する。
(Information presentation on mobile devices)
Further, the article
位置取得部110は、近距離通信部182を介して携帯端末からの位置情報を取得する。取得される位置情報は送信元の当該携帯端末を示すアドレスが付加されている。位置取得部110は、当該ユーザの距離別持物リスト61に登録された携帯端末のアドレスと位置情報に付加されたアドレスを比較することにより、取得する位置情報が当該ユーザの携帯端末から送信されたものか否かを判定する。当該携帯端末から送信されたものと判定すると、位置取得部110は位置情報を距離判定部109に出力する。
The
距離判定部109は、位置情報から当該携帯端末は情報処理装置100から予め定められた距離以上離れているか否かを判定する。具体的には、携帯端末の位置情報と情報処理装置100の予め取得されている位置情報とから、両者間の距離を算出し、算出された距離と予め定められた距離とを比較し、比較結果から、携帯端末は予め定められた距離以上離れているか否を判定し、その判定結果を物品情報読出部106に出力する。
The
物品情報読出部106は、対応するユーザについて発話文字取得部104が取得した発話内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)であって、かつ距離判定部109からの判定結果が“予め定められた距離以上離れている”を示す場合は、当該ユーザについての言葉データ51に対応する距離別持物リスト61を読出す。
The article
これにより、発話したユーザが出発しようとしているときに、携帯端末が情報処理装置100から離れていると判定されるとき、すなわちユーザが所持していないときは、出力される携帯物品の情報に携帯端末の情報を含めることができる。これにより、ユーザに携帯端末を忘れている旨の注意を喚起することができる。
Thereby, when it is determined that the mobile terminal is away from the
(携帯物品情報の転送)
また、情報読出部105が読出した情報は出力部を介して出力されるとともに、発話したユーザが所有する通信端末宛てに送信されるようにしてもよい。
(Transfer of mobile goods information)
Further, the information read by the
情報送信部115は、情報読出部105により読出された情報が情報出力部113により出力部に出力されると、当該情報に対応する人物についての持物リスト記憶部431のアドレスのデータ63を用いて、当該情報を通信部18を介し人物の通信端末宛てに転送する。これにより、ユーザは、出力部による情報の確認とともに、自己の通信端末を介して情報を確認することができる。
When the information read by the
携帯物品情報は、必要に応じてユーザの通信端末に転送されるとしてもよい。つまり、離れ検出部119が、発話後において発話者が情報処理装置100から離れていると検出するときに、情報を転送するとしてもよい。
The portable article information may be transferred to the user's communication terminal as necessary. That is, information may be transferred when the
具体的には、離れ検出部119は、カメラ4からの撮像画像データを用いて発話者が情報処理装置100から離れ続けているか否かを判定する。ここでは、発話者は発話するとき、カメラ4の撮像方向に位置し、その被写体像は十分に撮像範囲に収まるものと想定する。離れ検出部119は、マイク5から音声が取得されたときの画像データをカメラ4から入力し、当該画像データから顔特徴(目、鼻、口、眉など)データを用いたパターンマッチングにより部分画像である人の顔画像データを抽出する。これにより、発話者の顔画像データが抽出される。抽出した顔画像データと撮像画像データとを用いて、当該顔画像が撮像範囲外に移動し、その後予め定めた時間経過しても撮像範囲内に戻って来ないことを検出すると、発話者が情報処理装置100から離れ続けていると判定する。
Specifically, the
また、発話者は携帯端末を携帯していると想定する場合には、離れ検出部119は、上述したGPS機能を用いて算出した携帯端末と情報処理装置100との距離から判定するようにしてもよい。つまり、離れ検出部119は、マイク5を介し音声が取得されたときから携帯端末と情報処理装置100との距離の取得を開始し、取得する距離が時間の経過に伴って大きくなると判定する場合には、発話者が情報処理装置100から離れ続けていると検出する。
When it is assumed that the speaker is carrying the mobile terminal, the
携帯物品情報は、動作検出部118が人の予め定められた動作を検出するときに、ユーザの通信端末に情報が転送されるとしてもよい。予め定められた動作は、出力部により出力された携帯物品の情報をユーザが確認したことを表す動作である。たとえば、入力受付部101が受付けた入力に基づき、タッチパネル201の画面へのタッチ、または物品を携帯したことを表す言葉(たとえば、“持った”)の発話などである。動作検出部118は、入力受付部101の出力から上記のタッチ動作を検出し、また発話文字取得部104から上記の携帯したことを表す言葉(“持った”)の発話を検出する。
The portable article information may be transferred to the user's communication terminal when the
情報送信部115は、情報出力部113によって情報が出力部を介し出力されるとき、動作検出部118により上記の予め定められた動作が検出されない場合には、出力される情報を、通信端末に転送する。
When the
なお、予め定められた動作を、上記の発話および画面へのタッチのいずれにするかは、ユーザ毎に予め選択的に指定できるとしてもよい。また、予め定められる動作の種類は、これらに限定されない。 It should be noted that it may be possible to selectively specify in advance for each user whether the predetermined operation is the above-mentioned utterance or touch on the screen. In addition, the types of operations determined in advance are not limited to these.
これにより、情報送信部115による情報の転送によれば、携帯物品の情報を出力したときにユーザによって出力した情報に対する確認の動作がされないときは、当該情報をユーザの通信端末に転送することで、ユーザが出力された情報を未確認のまま出発したとしても、出先においてユーザに対し情報を提供することができる。具体的には、ユーザは通信端末で転送された情報を表示して確認し、忘れた物に気付いたときは、出先で購入することもできる。
Thus, according to the information transfer by the
(情報の出力態様の変更)
情報出力部113は、携帯物品の情報を出力部により出力させるとき、動作検出部118からの出力に基づき、情報の出力態様を変更してもよい。
(Change of information output mode)
The
つまり、動作検出部118により予め定められた動作が検出されたときには、出力態様変更部114は、画面に表示されている携帯物品の情報の表示態様を変更させる。たとえば、情報を画面から消去する、または反転表示する、または特別なチェックマークを付加して表示する。また、スピーカ6から音声で情報が出力され場合には、たとえば、当該情報の音声出力を停止するなどである。
That is, when a predetermined motion is detected by the
このように出力態様を変更することにより、ユーザは提示された携帯物品の情報を確認済みであるか、未だ確認していないかを視覚または聴覚で感覚的に知ることができる。 By changing the output mode in this way, the user can sensuously know visually or audibly whether the information on the presented portable article has been confirmed or not yet confirmed.
(フォロー処理)
本実施の形態では、出力された携帯物品の情報に対する上記の確認のための予め定められた動作がされたか否かをフォロー(追跡)することができる。フォローするために書込部116および関連付情報出力部117が用いられる。
(Follow processing)
In the present embodiment, it is possible to follow (track) whether or not a predetermined operation for the above confirmation on the information of the output portable article has been performed. The
具体的には、書込部116は、動作検出部118からの出力に基づき、出力された携帯物品の情報に対し、上記の予め定められた動作が検出されたと判定した場合には、持物リスト記憶部431の当該情報に関連したチェックデータ62に“T”に書込む。したがって、上記の予め定められた動作が検出されないと判定された場合には、持物リスト記憶部431の当該情報に関連したチェックデータ62は“F”のままであり、“T”に更新されない。
Specifically, when the
その後、ユーザがタッチパネル201を操作してチェックの指令を入力すると、関連付情報出力部117は、入力受付部101の出力が示す当該指令に基づき、“F”を示すチェックデータ62に関連付けされた持物リスト53(またはサブ持物リスト60)と識別データ52とを、持物リスト記憶部431から読出し、読出したこれら情報を出力部に出力させる。
Thereafter, when the user operates the
このように、ユーザによって確認の動作がされなかった携帯物品の情報については、当該情報が示す携帯物品と識別データ52が示す名前などを出力部に出力させて確認することができる。これにより、たとえば、母親が、子供が持って行くのを忘れたであろう物品の情報を確認して、当該物品を出先の子供に届けることが可能になる。
As described above, the information on the portable article that has not been confirmed by the user can be confirmed by outputting the portable article indicated by the information and the name indicated by the
この「出力部」による出力方法は、タブレット2の表示部202に情報を表示する方法と、通信部18を介して予め指定されたメールアドレス宛てに情報を送信して通知する方法などを含む。
The output method by the “output unit” includes a method of displaying information on the
(伝言情報の出力)
上述の例では、発話の内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)の場合に持物リスト記憶部431の情報を出力するものであったが、帰着に際し発せられる言葉(たとえば、“ただいま”を示す場合)には、伝言記憶部432の伝言の情報が出力される。
(Output of message information)
In the above example, when the word represented by the content of the utterance is a word that is uttered at the time of departure (for example, “I will go”), the information in the belonging
情報読出部105は、発話文字取得部104の出力に基づき取得された発話の内容が帰着時の言葉を示すと判定したときは、伝言情報読出部108は、抽出部103、発話文字取得部104および計時部112の出力に基づき伝言記憶部432を検索する。検索により、抽出部103により取得された発話者の声紋を示す声紋データ80、発話文字取得部104により取得された発話の内容が表す言葉データ81、および計時部112からの出力を示す日付データ85に関連付けされた伝言データ83(または伝言データ83および伝言者データ84)が伝言記憶部432から読出されて、情報出力部113に与えられる。情報出力部113は、伝言データ83(または伝言データ83および伝言者データ84)を出力部に出力させる。
When the
なお、本実施の形態では、伝言データ83には日付データ85が関連付けされており、帰着した日が日付データ85が示す日を示すときのみ伝言データ83が出力されるとしているが、伝言データ83は日付けにかかわらず、帰着時の言葉を表す発話が取得されたときは出力されるとしてもよい。
In this embodiment, the
伝言情報読出部108を用いることにより、ユーザが帰着した場合には、当該ユーザに対して残された伝言が出力されることから、伝えるべきメッセージを帰着時のユーザに確実に提示することができる。
By using the message
図6は、上述した出発時および帰着時の情報の出力例を示す図であるが、この詳細は後述する。 FIG. 6 is a diagram showing an output example of information at the time of departure and return described above, and details thereof will be described later.
<データ登録処理>
図7は、本発明の実施の形態に係る情報の登録のための処理フローチャートである。このフローチャートに従って、情報の登録処理について説明する。
<Data registration process>
FIG. 7 is a process flowchart for information registration according to the embodiment of the present invention. Information registration processing will be described with reference to this flowchart.
ここでは、情報処理装置100は複数種類の動作モードを有し、動作モードには、ユーザの操作により、持物リスト記憶部431および伝言記憶部432に情報を格納するための登録モードを含む。
Here, the
まず、情報処理装置100の動作モードが持物リスト記憶部431への情報の登録モードに設定されると想定する。
First, it is assumed that the operation mode of the
各ユーザはマイク5に向かって発話することにより、声紋データ50と言葉データ51が取得される(ステップS1)。つまり、抽出部103および発話文字取得部104は、マイク5で集音された発話の音声から声紋データおよび発話の内容が表す言葉(“行ってきます”など)のデータを取得し、これらを情報格納部102に出力する。
Each user speaks into the
また、ユーザはタッチパネル201を操作して、自分の名前またはニックネームなどを入力する(ステップS3)。入力受付部101は入力した情報を情報格納部102に出力する。
In addition, the user operates the
情報格納部102は、抽出部103、発話文字取得部104および入力受付部101からの出力を声紋データ50、言葉データ51および識別データ52と関連付けて、持物リスト記憶部431に格納する(ステップS5)。
The
続いて、ユーザはタッチパネル201を操作して、さらに情報を入力する(ステップS7)。具体的には、出発時に携帯するべき物品の情報を示した持物リスト53、当該持物リスト53を提示してほしい日付および時間のデータ54および55を入力するとともに、サブ持物リスト60のためのデータを入力する。さらに、ユーザが所持している携帯端末の通信用のアドレスのデータ63を入力する。
Subsequently, the user operates the
情報格納部102は、ステップS7でユーザが入力するデータを入力受付部101を介して受理し、これらデータを持物リスト記憶部431において、ステップS3で格納した声紋データ50、言葉データ51および識別データ52に関連付けて格納する(ステップS9)。これにより、当該ユーザについての持物リスト記憶部431におけるデータ50〜63が格納されることになる。なお、このときチェックデータ62には“F”がセットされる。
The
このように、各ユーザについて図7のフローチャートに従って同様にデータの格納が行なわれることにより、持物リスト記憶部431が完成する。
In this manner, the data list is similarly stored for each user according to the flowchart of FIG. 7, thereby completing the belonging
ここでは、持物リスト記憶部431のデータの格納動作を示したが、伝言記憶部432についても同様にして、ユーザが発話することにより情報格納部102は声紋データ80、言葉データ81および識別データ82を格納することができる。そして、伝言記憶部432に登録されたユーザに対し伝言を残したい人は、タッチパネル201を操作し、当該ユーザの名前と伝言メッセージを入力する。
Here, the storing operation of the data in the belonging
情報格納部102は、入力受付部101を介してユーザの名前と伝言メッセージを入力すると、ユーザの名前に基づき伝言記憶部432を検索し、当該ユーザの名前を示す識別データ82に関連付けて当該伝言メッセージを伝言データ83として格納する。また、伝言を残したい人は、タッチパネル201を操作して自分の名前および伝言を出力させたい日付を入力することで、情報格納部102に、伝言者データ84および日付データ85を伝言記憶部432に格納させることができる。
When the user name and message message are input via the
本実施の形態では、情報格納部102は、タッチパネル201を介した入力から、持物リスト記憶部431および伝言記憶部432の情報を書換(削除・変更・追加など)することもできる。たとえば、外出先から伝言データを格納するようにしてもよい。つまり、情報処理装置100宛てに外出先から伝言データを送信し、情報処理装置100の情報格納部102は通信部18を介し伝言データを受信すると伝言記憶部432に格納する。
In the present embodiment, the
<情報の出力処理>
図8は、本発明の実施の形態に係る情報の出力処理のフローチャートである。ここでは、当該情報処理装置100のユーザの全てについてマイク5に、持物リスト記憶部431および伝言記憶部432に対応の情報が登録済みであると想定する。
<Information output processing>
FIG. 8 is a flowchart of the information output process according to the embodiment of the present invention. Here, it is assumed that information corresponding to the inventory
なお、本実施の形態ではカメラ4は常時電源ONされており、マイク5および表示部202は通常は省電力のために電源OFFされているが、情報処理装置100に人物が近付いてきたことが検出されると電源OFF→電源ONに切替えられる。その後、持物リスト記憶部431または伝言記憶部432から読出された情報が出力された後に、マイク5および表示部202の電源はOFFされるものとする。
In the present embodiment, the
まず、CPU11は、情報処理装置100への人の接近を、より特定的にはタブレット2への人の接近を検出する(ステップS11)。具体的には、カメラ4が撮像する時系列の被写体画像から、カメラ4の撮像範囲に人物が入ったか否かを判定する。この判定は、被写体画像に顔特徴(目、鼻、口、眉)などを含む顔画像が検出されるか否かにより行う。
First, the CPU 11 detects the approach of a person to the
なお、人物の検知は、カメラ4からの撮像画像を用いるものに限定されず、人感センサにより、人体から放射される赤外線の検知結果を利用して人物の不在→在の変化を判定するようにしてもよい。
The detection of a person is not limited to using a captured image from the
人の接近が検出されない(ステップS11でNO)、ステップS11の処理が繰返されるが、接近を検出すると(ステップS11でYES)、CPU11は、マイク5および表示部202を電源ONする(ステップS13)。なお、表示部202は、予め電源ONされているとしてもよい。
If the approach of a person is not detected (NO in step S11), the process of step S11 is repeated, but if the approach is detected (YES in step S11), the CPU 11 turns on the
次に、プロセッサ10は、マイク5の出力に基づき、音声が入力されたか否かを判定する(ステップS15)。音声が入力されないと判定される(ステップS15でNO)間は、ステップS15の処理が繰返されるが、音声が入力されると判定されると(ステップS15でYES)、処理はステップS17に移る。
Next, the
抽出部103は、マイク5が出力する発話による音声から、声紋データを抽出する(ステップS17)。CPU11は、抽出された声紋データに基づき、持物リスト記憶部431および伝言記憶部432を検索し、当該声紋データに関連付けられた識別データ52を読出す(ステップS19)。これにより、当該音声を発した人物を判別することができる。
The
続いて、発話文字取得部104は、マイク5が出力する発話の音声から、発話の内容が表す言葉データを取得する(ステップS21)。
Subsequently, the utterance
続いて、計時部112は、発話による音声をマイク5から取得した時間を、タイマ12を用いて取得する(ステップS23)。
Subsequently, the
続いて、情報読出部105は、発話文字取得部104の出力に基づき、取得された言葉が出発時の言葉(たとえば、“行ってきます”)を示すか否かを判定する(ステップS25)。出発に際して発せられる言葉を示すと判定すると(ステップS25でYES)、情報読出部105は、持物リスト記憶部431を、ステップS17で取得した声紋データ、またはステップS19で判別された識別データ52に基づき検索し、当該声紋データまたは識別データ52に関連付けられた情報を読出す。
Subsequently, based on the output of the utterance
具体的には、関連付けされた日付および時刻データ54および55が示す時間のうち、ステップS23で取得された時間に該当するものがあるか否かを判定する(ステップS27)。該当する日付および時刻のデータ54および55はないと判定される場合には(ステップS27でNO)、後述するステップS31の処理に移る。
Specifically, it is determined whether there is a time corresponding to the time acquired in step S23 among the times indicated by the associated date and
一方、該当する日付および時刻のデータ54および55が格納されていると判定すると(ステップS27でYES)、情報読出部105は、当該日付および時刻のデータ54および55に関連付けられた持物リスト53を読出し情報出力部113に与える(ステップS29)。
On the other hand, if it is determined that the corresponding date and
天候取得部111は天候に関するデータを取得する(ステップS31)。天候別情報読出部107は、天候取得部111からの出力に基づき持物リスト記憶部431の、当該人物のサブ持物リスト60を検索し、検索により取得した天候に関するデータに対応の天候別持物リスト70が格納されているか否かを判定する(ステップS33)。
The
たとえば、取得された天候に関するデータが、たとえば“晴天”を示す場合には、図5の持物リスト記憶部431によれば天候別持物リスト70は格納されていないことになるので(ステップS33でNO)、そのような場合には処理はステップS37に移る。
For example, if the acquired data regarding weather indicates, for example, “sunny”, according to the belonging
なお、このとき物品情報読出部106により距離別持物リスト61が読出されるとしてもよい。距離別持物リスト61が読出された場合の出力例が図6の(A)に示される。この出力例では、“行ってきます”と発話したユーザに対し、距離別持物リスト61による物品が出力されている。
At this time, the article
一方、取得した天候に関するデータが、たとえば“雨”を示す場合には、図5の持物リスト記憶部431によれば天候別持物リスト70の雨データ71が読出される(ステップS33でYES、ステップS35)。読出された天候別持物リスト70は、情報出力部113に与えられる。
On the other hand, if the acquired data relating to the weather indicates, for example, “rain”, the
情報出力部113は、情報読出部105からの天候別情報読出部107を含む情報を出力部に出力させ(ステップS37)。具体的には、情報読出部105からの情報を表示用データに変換しグラフィックメモリ13に書込む、またはスピーカ6を介して音声により出力させる。これにより、携帯物品を示す情報が、表示用データとして表示部202に表示されるとともに、スピーカ6から音声で出力される(ステップS37)。
The
このときの出力例が図6の(B)に示される。出力例では、“行ってきます”と発話したユーザに対し持物リスト53とともに天候別持物リスト70として“傘”が出力されている。また、図6の(C)では、図6の(B)のように出力された情報を確認したユーザが、情報出力に対する応答として“持った”と発話した状態が示される。
An output example at this time is shown in FIG. In the output example, “umbrella” is output as the weather-specific personal belonging list 70 together with the
ステップS25の処理に戻る。取得された発話の内容が表す言葉が“行ってきます”を示さないと判定されると(ステップS25でNO)、情報読出部105は、発話文字取得部104の出力に基づき、当該言葉が帰着時に発せれる言葉(たとえば“ただいま”)を表すか否かがを判定する(ステップS39)。
The process returns to step S25. If it is determined that the word represented by the acquired utterance content does not indicate “I will go” (NO in step S25), the
帰着時の言葉ではないと判定されると(ステップS39でNO)、その他の音声処理が行なわれ(ステップS47)、ステップS15の処理に戻る。 If it is determined that the word is not a return word (NO in step S39), other voice processing is performed (step S47), and the process returns to step S15.
ここで、その他の音声処理としては、たとえば、“この言葉は登録されていません”などのメッセージ出力を含む。 Here, the other voice processing includes, for example, a message output such as “This word is not registered”.
一方、情報読出部105が、発話文字取得部104の出力に基づき発話内容が表す言葉は帰着時に発せられる言葉(たとえば、“ただいま”)であると判定すると(ステップS39でYES)、伝言情報読出部108は、伝言記憶部432をステップS17で取得した声紋データ、またはステップS19で判別された名前データに基づき検索し、当該声紋データまたは名前データに関連付けられた情報を読出す。
On the other hand, when the
具体的には、関連付けされた日付データ85が示す日付のうち、ステップS23で取得された時間に該当する日付を示すものがあるか否かを判定する(ステップS41)。ないと判定されると(ステップS41でNO)、処理は終了するが、格納されていると判定すされると(ステップS41でYES)、伝言情報読出部108は、伝言記憶部432から対応する伝言データ83(または伝言データ83および伝言者データ84)を読出し、読出したデータを情報出力部113に与える(ステップS43)。
Specifically, it is determined whether there is a date indicating the date corresponding to the time acquired in step S23 among the dates indicated by the associated date data 85 (step S41). If it is determined that the message is not stored (NO in step S41), the process ends, but if it is determined that the message is stored (YES in step S41), the message
情報出力部113は、伝言情報読出部108から出力される伝言データ83などを、表示用データに変換しグラフィックメモリ13に格納し、またはスピーカ6から音声として出力させる(ステップS45)。これにより、帰着したユーザに対する伝言が表示部202に表示され、またはスピーカ6から音声出力される。
The
このときの出力例が図6の(D)に示される。出力例では、“ただいま”と発話したユーザに対し伝言が出力されている。 An output example at this time is shown in FIG. In the output example, a message is output to the user who has spoken “I'm right”.
(実施の形態による効果)
本実施の形態によれば、発話による音声から声紋データを取得することで発話した人を判別し、事前に持物リスト記憶部431に登録されたそれぞれに適切・必要な出発時に携帯するべき物品情報を自動的にお知らせできるから、忘れ物を防止することができる。
(Effects of the embodiment)
According to the present embodiment, the person who speaks by acquiring voiceprint data from the voice of the utterance is discriminated, and the article information to be carried appropriately and necessary for each of the items registered in the belonging
さらには、天気予報など、外部から取得する天候の予測情報から携帯するべき物品情報を提示することにより、出先で天候に応じた快適な生活を送ることが可能となる。 Furthermore, by presenting article information to be carried from weather forecast information acquired from the outside such as a weather forecast, it becomes possible to live a comfortable life according to the weather on the go.
また、情報処理装置100による情報出力機能を子供向けに使用する際には、保護者が不在であっても、必要な情報を提供することが可能になり、子供に対し忘れ物がないかの注意を促すことができる。
Further, when the information output function of the
また、音声認識を採用することで、立ち位置などの場所を限定されずに、人の認識が可能になる。たとえば、顔認証の場合のように、カメラに顔を向けなければ認証されないといったような限定条件を外すことができ使い勝手に優れる。 Further, by adopting voice recognition, it is possible to recognize a person without limiting a place such as a standing position. For example, as in the case of face authentication, it is possible to remove a limiting condition that authentication is not performed unless the face is directed to the camera, which is excellent in usability.
[他の実施の形態]
上述した実施の形態では、各フローチャートに従うプログラムは予めROM15に格納されており、CPU11が当該プログラムをROM15から読出し実行するが、このようなプログラムは、情報処理装置100に付属するCD−ROM21などのように、プロセッサ10のCPU11が読取り可能な一時的ではない記録媒体に記録させて、プログラム製品として提供することもできる。あるいは、図示しないネットワークを介してアンテナ19及び通信部18を介して受信しRAM16またはHDD17の記憶領域へのダウンロードによって、プログラムを提供することもできる。
[Other embodiments]
In the above-described embodiment, the program according to each flowchart is stored in the
提供されるプログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。 The provided program product includes the program itself and a recording medium on which the program is recorded.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
2 タブレット、4 カメラ、5 マイク、6 スピーカ、10 プロセッサ、12 タイマ、13 グラフィックメモリ、14 表示ドライバ、50,80 声紋データ、51,81 言葉データ、52,82 識別データ、53 持物リスト、54 日付データ、55 時刻データ、60 サブ持物リスト、61 距離別持物リスト、62 チェックデータ、70 天候別持物リスト、83 伝言データ、84 伝言者データ、100 情報処理装置、101 入力受付部、102 情報格納部、103 抽出部、104 発話文字取得部、105 情報読出部、106 物品情報読出部、107 天候別情報読出部、108 伝言情報読出部、109 距離判定部、110 位置取得部、111 天候取得部、112 計時部、113 情報出力部、114 出力態様変更部、115 情報送信部、116 書込部、117 関連付情報出力部、118 動作検出部、119 離れ検出部、202 表示部、431 持物リスト記憶部、432 伝言記憶部。 2 Tablets, 4 cameras, 5 microphones, 6 speakers, 10 processors, 12 timers, 13 graphic memories, 14 display drivers, 50, 80 voice print data, 51, 81 word data, 52, 82 identification data, 53 belongings list, 54 dates Data, 55 Time data, 60 Sub inventory list, 61 Distance inventory list, 62 Check data, 70 Weather inventory list, 83 Message data, 84 Messager data, 100 Information processing device, 101 Input reception unit, 102 Information storage unit , 103 extraction unit, 104 spoken character acquisition unit, 105 information reading unit, 106 article information reading unit, 107 weather information reading unit, 108 message information reading unit, 109 distance determination unit, 110 position acquisition unit, 111 weather acquisition unit, 112 Timekeeping section, 113 Information output section, 114 Output Force mode change unit, 115 information transmission unit, 116 writing unit, 117 associated information output unit, 118 operation detection unit, 119 away detection unit, 202 display unit, 431 belonging list storage unit, 432 message storage unit.
Claims (13)
発話の音声を取得するための音声取得手段と、
取得された音声から、声紋を抽出するための抽出手段と、
取得された音声の文字データを取得する発話文字取得手段と、
前記抽出手段により抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記発話文字取得手段により取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出す情報読出手段と、
前記情報読出手段により読出された情報を出力部に出力させるための情報出力手段と、を備える、情報処理装置。 A memory for associating and storing at least one kind of voiceprint data, at least one word data composed of a plurality of characters, and information on the next action corresponding to the word data;
Voice acquisition means for acquiring the voice of the utterance;
Extraction means for extracting a voiceprint from the acquired voice;
An utterance character acquisition means for acquiring character data of the acquired voice;
Of the word data associated with the voice print data that matches the voice print data extracted by the extraction means, information on the next action corresponding to the word data that matches the character data acquired by the spoken character acquisition means, Information reading means for reading from the memory;
An information output device comprising: information output means for causing the output unit to output information read by the information reading means.
前記メモリには、さらに、
前記次の行動に関する情報に対応し当該情報が出力されるべき時間を示す時間データが格納され、
前記情報読出手段は、
抽出された前記声紋を示す前記声紋データに関連付けされた前記少なくとも1つの言葉データのうち、前記発話文字取得手段により取得された文字データと一致する言葉データに対応する前記次の行動に関する情報であって、且つ、前記計時手段が計時した時間が、該次の行動に関する情報に対応する前記時間データと一致または範囲内に入っている場合に、該行動に関する情報を読出す、請求項1に記載の情報処理装置。 It further comprises a timing means for timing the time when the sound is acquired,
The memory further includes:
Corresponding to the information about the next action, time data indicating the time when the information should be output is stored,
The information reading means includes
Of the at least one word data associated with the voice print data indicating the extracted voice print, information on the next action corresponding to the word data matching the character data acquired by the spoken character acquisition means. The information related to the action is read out when the time measured by the time measuring means matches or falls within the range of the time data corresponding to the information related to the next action. Information processing device.
前記メモリの前記第1言葉データに対応する前記次の行動に関する情報には、出発に際し携帯するべき携帯物品を示す物品情報が含まれ、
前記情報読出手段は、
前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示すとき、当該言葉を示す前記第1言葉データに対応する前記物品情報を読出す物品情報読出手段を含む、請求項1または2に記載の情報処理装置。 The at least one word data includes first word data indicating words uttered on departure of the speaker,
The information relating to the next action corresponding to the first word data in the memory includes article information indicating a portable article to be carried on departure,
The information reading means includes
The article information reading means for reading the article information corresponding to the first word data indicating the word when the character data acquired by the spoken character acquisition means indicates a word uttered upon the departure. 2. The information processing apparatus according to 2.
前記音声取得手段により音声が取得されるときの天候、またはその後に予測される天候に関する天候データを取得するための天候取得手段を、さらに備え、
前記物品情報読出手段は、
前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示すとき、当該言葉を示す前記第1言葉データに対応する前記天候のもとで携帯するべき物品を示す物品情報のうち、前記天候取得手段が取得する天候データによって示される天候の種類に対応する情報を読出す手段を含む、請求項3に記載の情報処理装置。 The information on the next action corresponding to the first word data in the memory is an article to be carried under the weather corresponding to each of a plurality of types of weather indicating at least one of weather and a probability of precipitation. Including product information indicating
Weather acquisition means for acquiring weather data related to the weather when the voice is acquired by the voice acquisition means or the weather predicted thereafter;
The article information reading means includes
When the character data acquired by the spoken character acquisition means indicates a word uttered at the time of departure, among the item information indicating the item to be carried under the weather corresponding to the first word data indicating the word, The information processing apparatus according to claim 3, further comprising means for reading information corresponding to a type of weather indicated by weather data acquired by the weather acquisition means.
前記情報処理装置は、
前記携帯端末の位置を示す位置情報を取得するための位置取得手段と、
取得される前記位置情報から、前記携帯端末は前記情報処理装置から予め定められた距離以上離れているか否かを判定するための距離判定手段と、をさらに備え、
前記物品情報読出手段は、
前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示し、且つ前記距離判定手段により離れていると判定されるとき、当該言葉を示す前記第1言葉データに対応する前記携帯端末を含む携帯物品を示す物品情報を読出す手段を含む、請求項3に記載の情報処理装置。 The portable article includes a portable terminal,
The information processing apparatus includes:
Position acquisition means for acquiring position information indicating the position of the mobile terminal;
Distance determining means for determining whether or not the portable terminal is separated from the information processing apparatus by a predetermined distance or more from the acquired position information,
The article information reading means includes
The portable terminal corresponding to the first word data indicating the word when the character data acquired by the spoken character acquisition means indicates a word uttered at the departure and is determined to be separated by the distance determination means The information processing apparatus according to claim 3, further comprising means for reading article information indicating a portable article including
前記情報処理装置は、さらに、
前記情報出力手段により前記次の行動に関する情報が前記出力部に出力されると、その後、当該次の行動に関する情報に対応する前記声紋データについて前記メモリに格納される前記通信アドレスのデータを用いて、前記通信端末に当該次の行動に関する情報を送信するための情報送信手段を備える、請求項1から5のいずれかに記載の情報処理装置。 In the memory, for each of the at least one type of voiceprint data, data of a communication address of a communication terminal is stored,
The information processing apparatus further includes:
When information related to the next action is output to the output unit by the information output unit, the voice address data corresponding to the information related to the next action is then used using the data of the communication address stored in the memory. The information processing apparatus according to claim 1, further comprising information transmission means for transmitting information related to the next action to the communication terminal.
前記情報送信手段は、
前記情報出力手段により前記次の行動に関する情報が前記出力部に出力されると、その後、前記離れ検出手段により発話者が離れていることが検出されるとき、当該次の行動に関する情報に対応する前記声紋データについて前記メモリに格納される前記通信アドレスのデータを用いて、前記通信端末に当該次の行動に関する情報を送信するための手段を備える、請求項6に記載の情報処理装置。 A distance detecting means for detecting whether or not the speaker is away from the information processing apparatus,
The information transmitting means includes
When information related to the next action is output to the output unit by the information output means, the information corresponding to the next action is detected when it is detected that the speaker is away by the distance detection means. The information processing apparatus according to claim 6, further comprising means for transmitting information on the next action to the communication terminal using the data of the communication address stored in the memory for the voiceprint data.
前記情報処理装置は、
人の予め定められた動作を検出するための動作検出手段を、さらに備え、
前記情報出力手段は、
前記次の行動に関する情報が前記出力部に出力されるとき、前記動作検出手段により前記予め定められた動作が検出される場合に、当該次の行動に関する情報の出力態様を変更させるための手段を含む、請求項1から7のいずれかに記載の情報処理装置。 The output unit includes a screen for displaying information,
The information processing apparatus includes:
A motion detecting means for detecting a predetermined motion of the person,
The information output means includes
Means for changing the output mode of information relating to the next action when the predetermined action is detected by the action detecting means when the information relating to the next action is output to the output unit; The information processing apparatus according to claim 1, further comprising:
前記情報処理装置は、
前記次の行動に関する情報が前記出力部に出力されるとき前記動作検出手段により前記予め定められた動作が検出されない場合に、当該次の行動に関する情報を、前記抽出された声紋を示す前記声紋データについての前記メモリの前記通信アドレスのデータを用いて、前記通信端末に送信する、請求項8に記載の情報処理装置。 In the memory, for each of the at least one type of voiceprint data, data of a communication address of a communication terminal is stored,
The information processing apparatus includes:
When the information relating to the next action is output to the output unit, if the predetermined action is not detected by the action detecting means, the information relating to the next action is converted to the voiceprint data indicating the extracted voiceprint. The information processing apparatus according to claim 8, wherein data of the communication address in the memory is transmitted to the communication terminal.
前記情報処理装置は、さらに、
前記次の行動に関する情報が前記出力部に出力されるとき前記動作検出手段により前記予め定められた動作が検出されない場合に、前記メモリに、当該次の行動に関する情報に関連して当該動作が検知されない旨を示す情報を書込む書込手段と、
前記動作が検知されない旨を示す情報が関連付けされた前記次の行動に関する情報と、当該次の行動に関する情報が関連付けされた前記声紋データに対応の前記識別データとを前記メモリから読出し、読出した情報を前記出力部に出力させる手段とを含む、請求項8または9に記載の情報処理装置。 The memory stores identification data for identifying each person corresponding to each of the at least one kind of voiceprint data.
The information processing apparatus further includes:
When the information regarding the next action is output to the output unit and the predetermined action is not detected by the action detection unit, the action is detected in the memory in relation to the information about the next action. Writing means for writing information indicating that it is not performed;
Information that is read from the memory, the information related to the next action associated with information indicating that the operation is not detected, and the identification data corresponding to the voiceprint data associated with the information related to the next action are read from the memory The information processing apparatus according to claim 8, further comprising: means for outputting the information to the output unit.
前記メモリの前記第2言葉データに対応する前記次の行動に関する情報は、伝言の情報を含み、
前記情報読出手段は、
前記発話文字取得手段が取得する文字データが前記帰着に際しに発せられる言葉を示すとき、当該言葉を示す前記第2言葉データに対応する前記伝言の情報を読出す手段を含む、請求項1から10のいずれかに記載の情報処理装置。 The at least one word data includes second word data indicating words to be spoken upon the speaker's return;
The information on the next action corresponding to the second word data in the memory includes message information,
The information reading means includes
The character information acquired by the spoken character acquisition means includes means for reading out the information of the message corresponding to the second word data indicating the word when the character data indicates a word uttered upon the return. The information processing apparatus according to any one of the above.
前記メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、
発話の音声から、声紋を抽出するステップと、
前記発話の音声の文字データを取得するステップと、
前記抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記取得するステップにおいて取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出すステップと、
前記読出すステップにおいて読出された情報を出力部に出力させるステップと、を備える、情報処理方法。 An information processing method for reading information from a memory,
The memory stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information related to the next action corresponding to the word data,
Extracting a voiceprint from the voice of the utterance;
Obtaining character data of speech of the utterance;
Of the word data associated with the voiceprint data that matches the voiceprint data extracted in the extracting step, the information regarding the next action corresponding to the word data that matches the character data acquired in the acquiring step, Reading from the memory;
And outputting the information read in the reading step to an output unit.
前記メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、
前記プログラムは、前記プロセッサに、
発話の音声から、声紋を抽出するステップと、
前記発話の音声の文字データを取得するステップと、
前記抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記取得するステップにおいて取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出すステップと、
前記読出すステップにおいて読出された情報を出力部に出力させるステップと、を実行させるプログラム。 A program for causing a processor to execute an information processing method for reading information from a memory,
The memory stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information related to the next action corresponding to the word data,
The program is stored in the processor.
Extracting a voiceprint from the voice of the utterance;
Obtaining character data of speech of the utterance;
Of the word data associated with the voiceprint data that matches the voiceprint data extracted in the extracting step, the information regarding the next action corresponding to the word data that matches the character data acquired in the acquiring step, Reading from the memory;
Causing the output unit to output the information read in the step of reading.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012149424A JP2014010816A (en) | 2012-07-03 | 2012-07-03 | Information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012149424A JP2014010816A (en) | 2012-07-03 | 2012-07-03 | Information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014010816A true JP2014010816A (en) | 2014-01-20 |
Family
ID=50107410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012149424A Pending JP2014010816A (en) | 2012-07-03 | 2012-07-03 | Information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014010816A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019219706A (en) * | 2018-06-15 | 2019-12-26 | Mamorio株式会社 | Lost property information audio answering system, method and program |
CN113506550A (en) * | 2021-07-29 | 2021-10-15 | 北京花兰德科技咨询服务有限公司 | Artificial intelligent reading display and display method |
-
2012
- 2012-07-03 JP JP2012149424A patent/JP2014010816A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019219706A (en) * | 2018-06-15 | 2019-12-26 | Mamorio株式会社 | Lost property information audio answering system, method and program |
CN113506550A (en) * | 2021-07-29 | 2021-10-15 | 北京花兰德科技咨询服务有限公司 | Artificial intelligent reading display and display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11763580B2 (en) | Information processing apparatus, information processing method, and program | |
US11164213B2 (en) | Systems and methods for remembering held items and finding lost items using wearable camera systems | |
US20200013038A1 (en) | Information processing device, information processing method, and program | |
KR102327203B1 (en) | Electronic apparatus and operation method of the same | |
US8451194B2 (en) | Information processing system, digital photo frame, information processing method, and computer program product | |
CN105573573B (en) | Apparatus and method for managing user information based on image | |
US8606316B2 (en) | Portable blind aid device | |
JP5158174B2 (en) | Voice recognition device | |
US20210081749A1 (en) | Artificial intelligence assisted wearable | |
CN106663245A (en) | Social reminders | |
JP2010061265A (en) | Person retrieval and registration system | |
JP2005315802A (en) | User support device | |
US20120137254A1 (en) | Context-aware augmented communication | |
US11289084B2 (en) | Sensor based semantic object generation | |
JP2013105345A (en) | Information registration device, information registration method, information registration system, information presentation device, information presentation method, information presentation system, and program | |
JP2003533768A (en) | Memory support device | |
EP3893087A1 (en) | Response processing device, response processing method, and response processing program | |
CN104365040A (en) | Electronic apparatus and garment | |
JP2014010816A (en) | Information processing device | |
JP2013183386A (en) | Information processor, information processing method, and program | |
JP3962916B2 (en) | Verification system | |
US20150161572A1 (en) | Method and apparatus for managing daily work | |
US20230038025A1 (en) | Apparatus and method for providing a wireless, portable, and/or handheld, device with safety features | |
US20210056491A1 (en) | Information processing apparatus, information processing method, and program therefor | |
WO2015105075A1 (en) | Information processing apparatus and electronic device |