JP2014010816A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2014010816A
JP2014010816A JP2012149424A JP2012149424A JP2014010816A JP 2014010816 A JP2014010816 A JP 2014010816A JP 2012149424 A JP2012149424 A JP 2012149424A JP 2012149424 A JP2012149424 A JP 2012149424A JP 2014010816 A JP2014010816 A JP 2014010816A
Authority
JP
Japan
Prior art keywords
information
data
word
output
next action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012149424A
Other languages
Japanese (ja)
Inventor
Kaoru Hori
薫 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012149424A priority Critical patent/JP2014010816A/en
Publication of JP2014010816A publication Critical patent/JP2014010816A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To output necessary information associated with actions for a user through simple constitution.SOLUTION: An information processing device includes: a memory for associatively storing at least one kind of voiceprint data, at least one word data constituted on a plurality of characters, and information associated with next actions corresponding to the word data; speech acquisition means for acquiring speech of utterance; an extraction unit 103 for extracting a voiceprint from the acquired speech; an utterance character acquisition unit 104 which acquires character data on speech to be acquired; an information readout unit 105 which reads out, from the memory, information associated with a next action corresponding to word data matching the character data acquired by the utterance character acquisition unit 104 among word data related to voiceprint data matching the extracted voiceprint; and information output means for making an output unit output the information read out by the information readout unit 105.

Description

本発明は情報処理装置に関し、特に、取得した発話による音声から識別される情報をメモリから読出し提示する情報処理装置に関する。   The present invention relates to an information processing apparatus, and more particularly, to an information processing apparatus that reads information from a memory and presents the information identified from acquired speech.

従来、ユーザは自己のスケジュールを管理するために携帯電話のスケジュール機能などを使用することが多い。このスケジュール機能によれば、登録された時間に登録された情報を携帯電話からアラームでお知らせするような機能が提供される。   Conventionally, a user often uses a schedule function of a mobile phone in order to manage his / her schedule. According to this schedule function, a function of notifying information registered at a registered time by an alarm from a mobile phone is provided.

たとえば、特許文献1(特開2010−72677号公報)では、ユーザに対する外出時の携行品の忘れ物チェック機能が示される。つまり、端末装置は、複数の予定情報を記憶するスケジュール機能を有し、予定情報それぞれに物品の識別情報を関連付けて記憶し、近接する物品から当該物品に取付られたICタグによる識別情報を取得し、スケジュール機能に記憶されている予定情報を特定し、取得された識別情報を、特定された予定情報に関連付けて記憶されている識別情報と比較し、比較結果に応じた処理を行う。   For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2010-72677) discloses a left-behind item check function for carried items when the user goes out. That is, the terminal device has a schedule function for storing a plurality of schedule information, stores the identification information of the article in association with each schedule information, and acquires identification information by an IC tag attached to the article from a nearby article Then, the schedule information stored in the schedule function is specified, the acquired identification information is compared with the identification information stored in association with the specified schedule information, and processing according to the comparison result is performed.

特開2010−72677号公報JP 2010-72677 A

特許文献1の端末装置は、ユーザが外出するときに、携行品の忘れ物チェックをし、その結果を提示するが、使い勝手に優れない。つまり、ユーザは持物に予めICタグを付けておく必要がありわずらわしい。また予定情報に関連付けされた識別情報に対応する持物を携行していたとしても当該持物にICタグを付け忘れている場合には、忘れ物としてチェックされることになり、ユーザは混乱してしまう。   Although the terminal device of patent document 1 performs the thing left behind check of a carried item when a user goes out and shows the result, it is not excellent in usability. That is, it is troublesome for the user to attach an IC tag to the belongings in advance. Further, even if a belonging corresponding to the identification information associated with the schedule information is carried, if the IC tag is forgotten to be attached to the belonging, it will be checked as a forgotten thing and the user will be confused.

それゆえに本発明の目的は、簡単な構成でユーザに対し行動に関する必要な情報を出力する情報処理装置を提供することである。   SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide an information processing apparatus that outputs necessary information regarding actions to a user with a simple configuration.

この発明のある局面に従う情報処理装置は、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とを関連付けて格納するためのメモリと、発話の音声を取得するための音声取得手段と、取得された音声から、声紋を抽出するための抽出手段と、取得された音声の文字データを取得する発話文字取得手段と、抽出手段により抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、発話文字取得手段により取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出す情報読出手段と、情報読出手段により読出された情報を出力部に出力させるための情報出力手段と、を備える。   An information processing apparatus according to an aspect of the present invention stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information related to the next action corresponding to the word data in association with each other. Memory, voice acquisition means for acquiring voice of speech, extraction means for extracting voiceprint from the acquired voice, speech character acquisition means for acquiring character data of the acquired voice, and extraction means Information read out from the memory for information on the next action corresponding to the word data that matches the character data acquired by the spoken character acquisition means among the word data associated with the voice print data that matches the voice print extracted by And information output means for causing the output unit to output the information read by the information reading means.

好ましくは、情報処理装置は、音声が取得される時間を計時するための計時手段を、さらに備える。メモリには、さらに、次の行動に関する情報に対応し当該情報が出力されるべき時間を示す時間データが格納される。情報読出手段は、抽出された声紋を示す声紋データに関連付けされた少なくとも1つの言葉データのうち、発話文字取得手段により取得された文字データと一致する言葉データに対応する次の行動に関する情報であって、且つ、計時手段が計時した時間が、該次の行動に関する情報に対応する時間データと一致または範囲内に入っている場合に、該行動に関する情報を読出す。   Preferably, the information processing apparatus further includes a time measuring unit for measuring a time when the sound is acquired. The memory further stores time data indicating the time at which the information should be output corresponding to the information on the next action. The information reading means is information on the next action corresponding to the word data that matches the character data acquired by the utterance character acquisition means among at least one word data associated with the voice print data indicating the extracted voice print. If the time measured by the time measuring means coincides with or falls within the time data corresponding to the information related to the next action, the information related to the action is read out.

好ましくは、少なくとも1つの言葉データには、発話者の出発に際し発せられる言葉を示す第1言葉データが含まれ、メモリの第1言葉データに対応する次の行動に関する情報には、出発に際し携帯するべき携帯物品を示す物品情報が含まれる。情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示すとき、当該言葉を示す第1言葉データに対応する物品情報を読出す物品情報読出手段を含む。   Preferably, the at least one word data includes first word data indicating a word uttered upon departure of the speaker, and information on a next action corresponding to the first word data in the memory is carried on departure. Item information indicating a portable item to be included is included. The information reading means includes article information reading means for reading the article information corresponding to the first word data indicating the word when the character data acquired by the spoken character acquiring means indicates a word uttered upon departure.

好ましくは、メモリの第1言葉データに対応する次の行動に関する情報は、天気または降水確率の少なくとも何れか一方を示す複数種類の天候のそれぞれに対応して当該天候のもとで携帯するべき物品を示す物品情報を含み、音声取得手段により音声が取得されるときの天候、またはその後に予測される天候に関する天候データを取得するための天候取得手段を、さらに備える。物品情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示すとき、当該言葉を示す第1言葉データに対応する天候のもとで携帯するべき物品を示す物品情報のうち、天候取得手段が取得する天候データによって示される天候の種類に対応する情報を読出す手段を含む。   Preferably, the information regarding the next action corresponding to the first word data in the memory is an article to be carried under the weather corresponding to each of a plurality of types of weather indicating at least one of weather and a probability of precipitation. Weather acquisition means for acquiring weather data relating to the weather when the voice is acquired by the voice acquisition means or the weather predicted thereafter is included. When the character data acquired by the spoken character acquisition unit indicates a word uttered at the time of departure, the item information reading unit stores the item information indicating the item to be carried under the weather corresponding to the first word data indicating the word. Among these, a means for reading out information corresponding to the type of weather indicated by the weather data acquired by the weather acquisition means is included.

好ましくは、携帯物品は、携帯端末を含み、情報処理装置は、携帯端末の位置を示す位置情報を取得するための位置取得手段と、取得される位置情報から、携帯端末は情報処理装置から予め定められた距離以上離れているか否かを判定するための距離判定手段と、をさらに備え、物品情報読出手段は、発話文字取得手段が取得する文字データが出発に際し発せられる言葉を示し、且つ距離判定手段により離れていると判定されるとき、当該言葉を示す第1言葉データに対応する携帯端末を含む携帯物品を示す物品情報を読出す手段を含む。   Preferably, the portable article includes a portable terminal, and the information processing apparatus obtains position information for acquiring position information indicating the position of the portable terminal and the acquired position information. Distance determining means for determining whether or not the distance is equal to or more than a predetermined distance, the article information reading means indicates the words that the character data acquired by the spoken character acquisition means indicates when starting, and the distance And a means for reading article information indicating a portable article including a portable terminal corresponding to the first word data indicating the word when it is determined that the distance is determined by the determination means.

好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納される。情報処理装置は、さらに、情報出力手段により次の行動に関する情報が出力部に出力されると、その後、当該次の行動に関する情報に対応する声紋データについてメモリに格納される通信アドレスのデータを用いて、通信端末に当該次の行動に関する情報を送信するための情報送信手段を備える。   Preferably, the memory further stores data of a communication address of the communication terminal for each of at least one type of voiceprint data. The information processing apparatus further uses the data of the communication address stored in the memory for the voice print data corresponding to the information on the next action when the information on the next action is output to the output unit by the information output unit. And an information transmission means for transmitting information on the next action to the communication terminal.

好ましくは、発話者が情報処理装置から離れているか否かを検出するための離れ検出手段を、さらに備える。情報送信手段は、情報出力手段により次の行動に関する情報が出力部に出力されると、その後、離れ検出手段により発話者が離れていることが検出されるとき、当該次の行動に関する情報に対応する声紋データについてメモリに格納される通信アドレスのデータを用いて、通信端末に当該次の行動に関する情報を送信するための手段を備える。   Preferably, the apparatus further includes a distance detecting means for detecting whether or not the speaker is away from the information processing apparatus. The information transmitting means responds to the information related to the next action when the information output means outputs information related to the next action to the output unit and then detects that the speaker is away by the distance detecting means. Means for transmitting information on the next action to the communication terminal using the data of the communication address stored in the memory for the voiceprint data to be transmitted.

好ましくは、出力部は、情報を表示するための画面を含み、情報処理装置は、人の予め定められた動作を検出するための動作検出手段を、さらに備える。情報出力手段は、次の行動に関する情報が出力部に出力されるとき、動作検出手段により予め定められた動作が検出される場合に、当該次の行動に関する情報の出力態様を変更させるための手段を含む。   Preferably, the output unit includes a screen for displaying information, and the information processing apparatus further includes operation detection means for detecting a predetermined operation of the person. The information output means is means for changing the output mode of the information related to the next action when the predetermined action is detected by the action detection means when the information related to the next action is output to the output unit. including.

好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納される。情報処理装置は、次の行動に関する情報が出力部に出力されるとき動作検出手段により予め定められた動作が検出されない場合に、当該次の行動に関する情報を、抽出された声紋を示す声紋データについてのメモリの通信アドレスのデータを用いて、通信端末に送信する。   Preferably, the memory further stores data of a communication address of the communication terminal for each of at least one type of voiceprint data. When information related to the next action is output to the output unit, if the predetermined action is not detected by the action detection unit, the information processing apparatus displays the information related to the next action on the voice print data indicating the extracted voice print. Is transmitted to the communication terminal using the data of the communication address of the memory.

好ましくは、メモリには、少なくとも1種類の声紋データのそれぞれに対応し、さらに人物を識別するための識別データが格納される。情報処理装置は、さらに、次の行動に関する情報が出力部に出力されるとき動作検出手段により予め定められた動作が検出されない場合に、メモリに、当該次の行動に関する情報に関連して当該動作が検知されない旨を示す情報を書込む書込手段と、動作が検知されない旨を示す情報が関連付けされた次の行動に関する情報と、当該次の行動に関する情報が関連付けされた声紋データに対応の識別データとをメモリから読出し、読出した情報を出力部に出力させる手段とを含む。   Preferably, the memory stores identification data for identifying each person corresponding to each of at least one type of voiceprint data. The information processing apparatus further includes, in the memory, when the predetermined action is not detected by the action detection unit when the information related to the next action is output to the output unit, the action related to the information related to the next action Writing means for writing information indicating that no action is detected, information on the next action associated with information indicating that no action is detected, and identification corresponding to voiceprint data associated with information on the next action Means for reading data from the memory and outputting the read information to an output unit.

好ましくは、少なくとも1つの言葉データは、発話者の帰着に際し発せられる言葉を示す第2言葉データを含み、メモリの第2言葉データに対応する次の行動に関する情報は、伝言の情報を含み、情報読出手段は、発話文字取得手段が取得する文字データが帰着に際しに発せられる言葉を示すとき、当該言葉を示す第2言葉データに対応する伝言の情報を読出す手段を含む。   Preferably, the at least one word data includes second word data indicating a word uttered upon the speaker's return, and information on the next action corresponding to the second word data in the memory includes message information, The reading means includes means for reading information of a message corresponding to the second word data indicating the word when the character data acquired by the spoken character acquiring means indicates a word uttered at the time of return.

この発明の他の局面に従う情報処理方法は、メモリから情報を読出す情報処理方法であって、メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、発話の音声から、声紋を抽出するステップと、発話の音声の文字データを取得するステップと、抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、取得するステップにおいて取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出すステップと、読出すステップにおいて読出された情報を出力部に出力させるステップと、を備える。   An information processing method according to another aspect of the present invention is an information processing method for reading information from a memory, wherein the memory includes at least one type of voiceprint data, at least one word data composed of a plurality of characters, Information relating to the next action corresponding to the word data is stored in association with each other, and the step of extracting the voiceprint from the voice of the utterance, the step of acquiring the character data of the voice of the utterance, and the voiceprint extracted in the step of extracting Of the word data associated with the matching voiceprint data, the information on the next action corresponding to the word data that matches the character data acquired in the acquiring step is read in the memory and the reading step. And outputting the information to the output unit.

この発明のさらに他の局面に従うと、メモリから情報を読出す情報処理方法をプロセッサに実行させるためのプログラムが提供される。   According to still another aspect of the present invention, a program for causing a processor to execute an information processing method for reading information from a memory is provided.

メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納される。プログラムは、プロセッサに、発話の音声から、声紋を抽出するステップと、発話の音声の文字データを取得するステップと、抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、取得するステップにおいて取得された文字データと一致する言葉データに対応した次の行動に関する情報を、メモリから読出すステップと、読出すステップにおいて読出された情報を出力部に出力させるステップと、を実行させる。   The memory stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information on the next action corresponding to the word data in association with each other. The program causes the processor to extract a voiceprint from speech speech, to acquire character data of speech speech, and to extract word data associated with voiceprint data that matches the voiceprint extracted in the extraction step. Among them, the step of reading from the memory information about the next action corresponding to the word data that matches the character data acquired in the step of acquiring, the step of outputting the information read in the step of reading to the output unit, Is executed.

本発明によれば、発話による音声から声紋データと発話の音声の文字データが表す言葉データを取得することで発話した人を判別し、メモリに登録された当該言葉が発せられる際にとられるべき当該人物の次の行動に関する情報を出力する。したがって、簡単な構成でユーザに対し行動に関する必要な情報を出力することができる。   According to the present invention, a person who speaks is determined by acquiring word data represented by voiceprint data and character data of speech voice from speech voice, and should be taken when the word registered in the memory is spoken. Output information about the person's next action. Therefore, it is possible to output necessary information regarding the behavior to the user with a simple configuration.

本発明の実施の形態に係る情報処理装置の外観を表わす図である。It is a figure showing the external appearance of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the information processing apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報処理装置が有する機能構成を示す概略図である。It is the schematic which shows the function structure which the information processing apparatus which concerns on embodiment of this invention has. 本発明の実施の形態に係る持物リスト記憶部の情報の一例を示す図である。It is a figure which shows an example of the information of the possession list memory | storage part which concerns on embodiment of this invention. 本発明の実施の形態に係る伝言記憶部の情報の一例を示す図である。It is a figure which shows an example of the information of the message memory | storage part which concerns on embodiment of this invention. 本発明の実施の形態に係る出発時および帰着時の情報の出力例を示す図である。It is a figure which shows the example of an output of the information at the time of the departure which concerns on embodiment of this invention, and return. 本発明の実施の形態に係る情報の登録のための処理フローチャートである。It is a processing flowchart for registration of information concerning an embodiment of the invention. 本発明の実施の形態に係る情報の出力処理のフローチャートである。It is a flowchart of the output process of the information which concerns on embodiment of this invention.

以下、本発明の実施の形態について図面を参照し詳細に説明する。なお、同一の構成要素には各図において同一の符号を付し、詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the same components are denoted by the same reference symbols in the respective drawings, and detailed description thereof will not be repeated.

本発明の実施の形態では、情報処理装置は、ユーザの出発時または帰着時の発話から取得された発話内容に対応する当該発話者の行動に関する情報をメモリから読出し出力する。   In the embodiment of the present invention, the information processing apparatus reads out and outputs information related to the behavior of the speaker corresponding to the utterance content acquired from the utterance at the time of departure or return of the user from the memory.

<ハードウェア構成>
図1および図2を参照して本実施の形態に係る情報処理装置100の構成について説明する。図1は、情報処理装置100の外観を表わす図である。図2は情報処理装置100のハードウェア構成を表わすブロック図である。
<Hardware configuration>
A configuration of information processing apparatus 100 according to the present embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a diagram illustrating an appearance of the information processing apparatus 100. FIG. 2 is a block diagram illustrating a hardware configuration of the information processing apparatus 100.

情報処理装置100の機能は、たとえば家庭内のサーバ装置の機能のうちの1つとして提供されてもよく、専用装置として提供されてもよい。   The function of the information processing apparatus 100 may be provided, for example, as one of the functions of a server device in the home, or may be provided as a dedicated device.

情報処理装置100は、プロセッサ10、記憶部を構成するROM(Read Only Memory)15、RAM(Random Access Memory)16およびHDD(Hard Disk Drive)17、アンテナ19を接続する通信部18およびメモリドライバ20を含む。プロセッサ10は、CPU11および時間を計測するためのタイマ12を有する。   The information processing apparatus 100 includes a processor 10, a ROM (Read Only Memory) 15, a RAM (Random Access Memory) 16, an HDD (Hard Disk Drive) 17, a communication unit 18 that connects an antenna 19, and a memory driver 20. including. The processor 10 includes a CPU 11 and a timer 12 for measuring time.

通信部18は、電話回線による通信のための電話通信部181および無線による近距離通信のための近距離通信部182を含む。情報処理装置100は、電話通話部181を介し電子メールの送信など、外部ネットワーク(図示せず)を経由した通信をすることができる。   The communication unit 18 includes a telephone communication unit 181 for communication using a telephone line and a short-range communication unit 182 for short-range communication by radio. The information processing apparatus 100 can perform communication via an external network (not shown) such as transmission of an e-mail via the telephone call unit 181.

メモリドライバ20は、外部から着脱自在にCD−ROM(Compact Disk Read Only Memory)21などの各種の記憶媒体が装着されて、装着された記憶媒体をアクセスすることにより、そこに記憶されたデータを読出すとともに、記憶媒体に対しプロセッサ10からのデータを書込む。   The memory driver 20 is attached with various storage media such as a CD-ROM (Compact Disk Read Only Memory) 21 detachably from the outside, and accesses the stored storage media to store the data stored therein. In addition to reading, the data from the processor 10 is written to the storage medium.

プロセッサ10には、タブレット2に関連する表示ドライバ14が接続されたグラフィックメモリ13、カメラ4、マイク5およびスピーカ6が接続される。プロセッサ10は、図示しないがカメラ4が撮像して出力する被写体画像およびマイク5が集音した音声を入力するための入力インターフェイスを有する。入力インターフェイスは、入力する画像および音声についてA/D(Analog/Digital)変換などする機能を有する。また、音声をD/A(Digital/Analog)変換しスピーカ6に出力する出力インターフェイスを有する。入力インターフェイスは、マイク5を用いて発話の音声を取得するための音声取得部に相当する。また、出力インターフェイスの機能およびグラフィックメモリ13に表示用データを書込む機能は、出力部(マイク5、表示部202)に情報を出力させるための情報出力部に相当する。   The processor 10 is connected to a graphic memory 13, a camera 4, a microphone 5, and a speaker 6 to which a display driver 14 related to the tablet 2 is connected. Although not shown, the processor 10 has an input interface for inputting a subject image captured and output by the camera 4 and a sound collected by the microphone 5. The input interface has a function of performing A / D (Analog / Digital) conversion on an input image and sound. In addition, it has an output interface for converting the sound into D / A (Digital / Analog) and outputting it to the speaker 6. The input interface corresponds to a sound acquisition unit for acquiring speech sound using the microphone 5. The function of the output interface and the function of writing display data to the graphic memory 13 correspond to an information output unit for causing the output unit (the microphone 5 and the display unit 202) to output information.

タブレット2は、タッチパネル201と表示部202を一体的に備える。表示部202はLCD(Liquid Crystal Display)パネルなどに相当し、その表示画面上にはタッチパネル201が載置される。表示部202に対する表示用データはプロセッサ10によってグラフィックメモリ13に書込まれ、表示ドライバ14は、グラフィックメモリ13の表示用データを用いて表示部202を駆動することにより、表示部202に表示用データに従う画像を表示させる。表示画面に表示される画像はタッチパネル201を介して視認可能な可視画像である。つまり、ユーザは表示部202による表示画像を透明部材からなるタッチパネル201を介して外部から視認することができる。   The tablet 2 integrally includes a touch panel 201 and a display unit 202. The display unit 202 corresponds to an LCD (Liquid Crystal Display) panel or the like, and a touch panel 201 is placed on the display screen. Display data for the display unit 202 is written into the graphic memory 13 by the processor 10, and the display driver 14 drives the display unit 202 using the display data in the graphic memory 13 to display data for display in the display unit 202. Display an image that complies with. The image displayed on the display screen is a visible image that is visible through the touch panel 201. That is, the user can visually recognize the display image on the display unit 202 from the outside via the touch panel 201 made of a transparent member.

カメラ4は、タブレット2の表示部202が表示する情報を確認するユーザが位置する方向に撮像方向が向けられている。マイク5は、少なくとも情報処理装置100周辺の、より特定的にはタブレット2周辺の音声を集音可能な機能を有する。スピーカ6からの音声は、情報処理装置100周辺に、より特定的にはタブレット2周辺に出力される。   The imaging direction of the camera 4 is directed to the direction in which the user who confirms the information displayed on the display unit 202 of the tablet 2 is located. The microphone 5 has a function capable of collecting sound at least around the information processing apparatus 100, more specifically, around the tablet 2. The sound from the speaker 6 is output around the information processing apparatus 100, more specifically around the tablet 2.

ここでは、カメラ4、マイク5およびスピーカ6はタブレット2と一体的に備えられているが、それぞれ個別に設置されるとしてもよい。   Here, the camera 4, the microphone 5, and the speaker 6 are provided integrally with the tablet 2, but may be individually installed.

なお、情報処理装置100には、キーボード3が有線または無線で接続されるとしてもよい。   The information processing apparatus 100 may be connected to the keyboard 3 by wire or wirelessly.

<機能構成>
本実施の形態では、図1に示すタブレット2は、たとえば玄関などに載置されると想定する。情報処理装置100は、玄関を通って出発する際または玄関を通って外出先から帰着する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉が発せられる際にとられるべき当該ユーザの次の行動に関する情報を出力する。
<Functional configuration>
In the present embodiment, it is assumed that the tablet 2 shown in FIG. 1 is placed at, for example, an entrance. The information processing apparatus 100 is used when the user identifies the user from the voice of the user's utterance when leaving the entrance or returning from the outside through the entrance, and a word indicating the content of the utterance is issued. The information regarding the next action of the user should be output.

具体的には、玄関を通って出発する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉(たとえば、「行ってきます」)からユーザに対応の携帯物品を示す物品情報が、タブレット2により表示される。これにより、外出時に忘れ物がないように注意を促す(リマインドする)ことができる。また、玄関を通って外出先から家に帰着する際のユーザの発話の音声からユーザを識別し、その発話の内容が示す言葉(たとえば、「ただいま」)から当該ユーザに対し残されている伝言が、タブレット2により表示される。これにより、帰着時には伝言の確認が促される。   Specifically, an article that identifies a user from the voice of the user's utterance when leaving the entrance, and indicates a portable article corresponding to the user from the words (for example, “I will go”) indicated by the contents of the utterance Information is displayed by the tablet 2. Thereby, attention can be urged (reminded) so that there is no thing left behind when going out. In addition, the user is identified from the voice of the user's utterance when returning to the house from the outside through the entrance, and the message left to the user from the words (for example, “Tadaima”) indicated by the content of the utterance Is displayed by the tablet 2. This prompts confirmation of the message when returning.

ここでは、発話の内容が示す言葉が発せられる際にとられるべきユーザの次の行動に関する情報として、外出時に携帯すべき物品または帰着時に確認するべき伝言の情報としているが、これら情報に限定されるものではない。   Here, as the information about the next action of the user to be taken when the word indicated by the utterance is issued, it is the information of the article to be carried when going out or the message to be confirmed when returning, but it is limited to this information. It is not something.

図3は、本発明の実施の形態に係る情報処理装置100が有する機能構成を示す概略図である。図3では、プロセッサ10が有する機能と、それら機能に関連する周辺部とを示す。図3のプロセッサ10が有する機能は、プログラムまたはプログラムと回路の組合せにより実現される。プログラムは、予めROM15などの記憶領域に格納されており、後述のCPU11がプログラムを記憶領域から読出し実行することにより、その機能が実現される。   FIG. 3 is a schematic diagram illustrating a functional configuration of the information processing apparatus 100 according to the embodiment of the present invention. FIG. 3 shows functions included in the processor 10 and peripheral portions related to these functions. The functions of the processor 10 in FIG. 3 are realized by a program or a combination of a program and a circuit. The program is stored in a storage area such as the ROM 15 in advance, and the function is realized by the CPU 11 described later reading and executing the program from the storage area.

上記の周辺部には、持物リスト記憶部431および伝言記憶部432が格納されるRAM16が含まれる。持物リスト記憶部431および伝言記憶部432は書換え可能であって、RAM16の不揮発性記憶領域に格納されると想定する。   The peripheral portion includes the RAM 16 in which the belonging list storage unit 431 and the message storage unit 432 are stored. It is assumed that the belonging list storage unit 431 and the message storage unit 432 are rewritable and are stored in the nonvolatile storage area of the RAM 16.

プロセッサ10は、タッチパネル201の出力から、ユーザ操作による情報処理装置100に対する入力を受付けるための入力受付部101、持物リスト記憶部431および伝言記憶部432に対し情報の書込を行なうための情報格納部102、持物リスト記憶部431および伝言記憶部432を検索し、これら記憶部から情報を読出すための情報読出部105、ならびに情報読出部105に対し記憶部の検索に必要なデータを与える検索用データ取得部を含む。   The processor 10 stores information for writing information to the input receiving unit 101, the belonging list storage unit 431, and the message storage unit 432 for receiving input to the information processing apparatus 100 by a user operation from the output of the touch panel 201. Section 102, belonging list storage section 431 and message storage section 432, information reading section 105 for reading information from these storage sections, and search for giving information necessary for searching the storage section to information reading section 105 Includes data acquisition unit.

さらに、情報読出部105により読出された情報を出力部(表示部202またはスピーカ6)に出力させるための情報出力部113、情報読出部105が読出した情報を外部の通信端末に送信するための情報送信部115、持物リスト記憶部431に対し後述するチェックデータ62を書込むための書込部116、およびチェックデータ62に関連付けされた情報を持物リスト記憶部431から読出し出力部(表示部202またはスピーカ6)により出力させるための関連付情報出力部117、動作検出部118および離れ検出部119を含む。   Furthermore, an information output unit 113 for causing the output unit (display unit 202 or speaker 6) to output the information read by the information reading unit 105, and for transmitting the information read by the information reading unit 105 to an external communication terminal. The information transmitting unit 115, the writing unit 116 for writing check data 62 to be described later to the belonging list storage unit 431, and the information associated with the check data 62 are read from the belonging list storage unit 431 and the output unit (display unit 202). Alternatively, an association information output unit 117, an operation detection unit 118, and a separation detection unit 119 for outputting by the speaker 6) are included.

情報出力部113は、表示される情報の出力態様を変更するための出力態様変更部114を含む。動作検出部118は、情報出力部113から情報が出力されるとき人の予め定められた動作を検出する。予め定められた動作は、たとえばタッチパネル201をタッチ、または予め定められた内容(たとえば、“持った”の言葉)の発話などである。タッチ動作は、入力受付部101を介したタッチパネル201からの出力により判定する。また、発話内容は、発話文字取得部104から出力される発話内容が示す言葉により判定する。   The information output unit 113 includes an output mode changing unit 114 for changing the output mode of displayed information. The motion detection unit 118 detects a predetermined motion of a person when information is output from the information output unit 113. The predetermined operation is, for example, touching the touch panel 201 or uttering a predetermined content (for example, “having” words). The touch operation is determined by an output from the touch panel 201 via the input receiving unit 101. Further, the utterance content is determined by the words indicated by the utterance content output from the utterance character acquisition unit 104.

離れ検出部119は発話者であるユーザが情報処理装置100から、より特定的にはタブレット2から離れつつあるか否かを検出する。   The separation detection unit 119 detects whether or not the user who is a speaker is moving away from the information processing apparatus 100, more specifically from the tablet 2.

情報読出部105は、持物リスト記憶部431から物品情報を読出すための物品情報読出部106を含む。物品情報読出部106は、持物リスト記憶部431から天候毎の物品情報を読出すための天候別情報読出部107、および伝言記憶部432から伝言を示す情報を読出すための伝言情報読出部108を有する。   The information reading unit 105 includes an article information reading unit 106 for reading article information from the belonging list storage unit 431. The article information reading unit 106 reads the article information for each weather from the belonging list storage unit 431 and the message information reading unit 108 for reading information indicating the message from the message storage unit 432. Have

上述の検索用データ取得部は、抽出部103、発話文字取得部104、距離判定部109、位置取得部110、天候取得部111および計時部112を備える。これら各部の詳細は後述する。   The search data acquisition unit described above includes an extraction unit 103, an utterance character acquisition unit 104, a distance determination unit 109, a position acquisition unit 110, a weather acquisition unit 111, and a timer unit 112. Details of these parts will be described later.

本実施の形態では、“天候”とは、天気の種類(晴れ、雨、曇りなど)または降水確率の少なくとも何れか一方を示すものとする。   In this embodiment, “weather” indicates at least one of the type of weather (sunny, rainy, cloudy, etc.) and the probability of precipitation.

<記憶部の情報>
図4は、本発明の実施の形態に係る持物リスト記憶部431の情報の一例を示す図であり、図5は本発明の実施の形態に係る伝言記憶部432の情報の一例を示す図である。
<Information of storage unit>
FIG. 4 is a diagram showing an example of information in the belonging list storage unit 431 according to the embodiment of the present invention, and FIG. 5 is a diagram showing an example of information in the message storage unit 432 according to the embodiment of the present invention. is there.

図4を参照して持物リスト記憶部431は、少なくとも1種類の声紋データ50と、複数の文字からなる少なくとも1つの言葉データ51と、言葉データ51に対応した次の行動に関する情報とを関連付けて記憶する。   Referring to FIG. 4, belonging list storage unit 431 associates at least one type of voiceprint data 50, at least one word data 51 composed of a plurality of characters, and information on the next action corresponding to word data 51. Remember.

より具体的には、1人以上の人物のそれぞれについて、当該人物の音声特徴である声紋を示す声紋データ50、言葉を表わす1つ以上の言葉データ51、当該人物の識別データ(名前、ニックネームなどを示すデータ)52、持物リスト53、当該持物リストを出力するべき時間を示す日付データ54および時刻データ55、サブ持物リスト60、チェックデータ62および当該人物が所有する通信端末の通信アドレスのデータ63を関連付けて記憶する。   More specifically, for each of one or more persons, voiceprint data 50 indicating a voiceprint that is the voice feature of the person, one or more word data 51 representing words, identification data (name, nickname, etc.) of the person 52), belonging list 53, date data 54 and time data 55 indicating the time to output the belonging list, sub belonging list 60, check data 62, and communication address data 63 of the communication terminal owned by the person. Are stored in association with each other.

持物リスト53は、対応の人物が言葉データ51の言葉を発した際に、人物が携帯するべき携帯物品を示す物品情報を示す。サブ持物リスト60は、対応の人物が言葉データ51の言葉を発した際に、場合によって当該人物が携帯するべき携帯物品を示す物品情報を示す。距離別持物リスト61および天候別持物リスト70を含む。距離別持物リスト61は、対応する人物が言葉データ51を示す言葉を発した際に当該人物が携帯するべき1つ以上の端末(以下、携帯端末という)の情報を示す。距離別持物リスト61は、これら携帯端末と情報処理装置100とが予め定められた距離以上離れたときに出力される。距離別持物リスト61の各携帯端末の情報は、当該携帯端末の種類(携帯(携帯電話の略)、防犯ブザーの端末、タブレット端末など)と当該携帯端末の通信用アドレスを含む。   The belongings list 53 indicates article information indicating portable articles that the person should carry when the corresponding person utters the words of the word data 51. The sub-item list 60 indicates article information indicating portable articles that the person should carry when the corresponding person utters the words of the word data 51. It includes a belonging list 61 by distance and a belonging list 70 by weather. The personal belongings list 61 by distance indicates information of one or more terminals (hereinafter referred to as portable terminals) that the person should carry when the corresponding person utters a word indicating the word data 51. The distance-based belonging list 61 is output when the mobile terminal and the information processing apparatus 100 are separated by a predetermined distance or more. The information of each mobile terminal in the personal belongings list 61 by distance includes the type of the mobile terminal (mobile (abbreviation of mobile phone), security buzzer terminal, tablet terminal, etc.) and the communication address of the mobile terminal.

なお、本実施の形態では、ユーザは携帯端末を常時携帯しているものと想定している。したがって、持物リスト53が示す物品は携帯端末を含まないとするが、含むようにしてもよい。   In the present embodiment, it is assumed that the user always carries the mobile terminal. Therefore, although the article indicated by the belonging list 53 does not include the portable terminal, it may be included.

天候別持物リスト70は、雨データ71、注意報データ72、雪データ73、低温データ74を含む。   The personal belongings list 70 according to the weather includes rain data 71, warning data 72, snow data 73, and low temperature data 74.

天候別持物リスト70のこれらデータは、天候の種類ごとに当該天候のもとで携帯するべき携帯物品の情報(傘、レインコート、長靴など)を示す。つまり、天候の種類に基づいて携帯すべき携帯物品の情報(傘、レインコート、長靴など)を対応付けて記憶するリストである。たとえば、天気の種類が雨ならば、傘などを対応付けて記憶するが、天気の種類に限らず、降水確率に基づいて、「降水確率が何%以上」であるならば、傘などを対応付けておくという記憶の仕方でも構わない。   These data in the personal belongings list 70 according to the weather indicate information (such as umbrellas, raincoats, boots, etc.) of portable articles to be carried under the weather for each type of weather. That is, it is a list that stores information on portable articles (umbrellas, raincoats, boots, etc.) that should be carried based on the type of weather in association with each other. For example, if the type of weather is rain, an umbrella is associated and stored, but not only the type of weather, but if the precipitation probability is `` what percentage or more of rain '', an umbrella is supported It doesn't matter how you remember it.

チェックデータ62は、持物リスト53またはサブ持物リスト60が出力部に出力された場合に、ユーザが出力された情報を確認したことを示す予め定められた動作(タッチパネル201へのタッチ、または「持った」という言葉の発話)が検出されたか否かを示すためのものであって、初期値は“F”(未検出)が格納されるが、予め定められた動作が検出された場合には書込部116によりチェックデータ62の値は“F”→“T”に書換えられる。   The check data 62 is a predetermined operation (a touch on the touch panel 201 or “having a touch” indicating that the user has confirmed the output information when the belonging list 53 or the sub-item list 60 is output to the output unit. The initial value is stored as “F” (not detected), but when a predetermined operation is detected The value of the check data 62 is rewritten from “F” to “T” by the writing unit 116.

図5を参照して伝言記憶部432は、少なくとも1種類の声紋データ80と、複数の文字からなる少なくとも1つの言葉データ81と、言葉データ81に対応した次の行動に関する情報とを関連付けて記憶する。   Referring to FIG. 5, message storage section 432 stores at least one type of voiceprint data 80, at least one word data 81 composed of a plurality of characters, and information related to the next action corresponding to word data 81. To do.

より具体的には、1人以上の人物のそれぞれについて、当該人物の音声特徴である声紋を示す声紋データ80、言葉を表わす1つ以上の言葉データ81、当該人物の識別データ(名前、ニックネームなどを示すデータ)82、当該人物に対しての伝言を示す伝言データ83、当該伝言を残した人の名前などを示す伝言者データ84および日付データ85を記憶する。日付データ85は、対応する伝言データ83が示す伝言を出力部から出力するべき日付を示す。   More specifically, for each of one or more persons, voiceprint data 80 indicating a voiceprint that is the voice feature of the person, one or more word data 81 representing words, identification data (name, nickname, etc.) of the person 82), message data 83 indicating a message to the person, message data 84 indicating the name of the person who left the message, and date data 85 are stored. The date data 85 indicates the date on which the message indicated by the corresponding message data 83 should be output from the output unit.

図4と図5では、説明のために、持物リスト記憶部431と伝言記憶部432は別のものとして示されているが、両者は関連付けされている。具体的には、これら2つの記憶部は、図中の実線矢印で示されるような紐付け機能(ポインタP1とP2などの機能)を用いて、同一人物すなわち同一の声紋を示す声紋データ50と声紋データ80とを紐付けする。これにより、1つの声紋データが取得されたとき、持物リスト記憶部431および伝言記憶部432の両方において、当該声紋データに該当する人物に対応付けされている情報を検索することができる。   In FIG. 4 and FIG. 5, for the sake of explanation, the belonging list storage unit 431 and the message storage unit 432 are shown as separate items, but they are associated with each other. Specifically, these two storage units use the linking function (functions such as pointers P1 and P2) as indicated by the solid line arrows in the figure, and the voice print data 50 indicating the same person, that is, the same voice print. The voiceprint data 80 is linked. Thereby, when one voiceprint data is acquired, information associated with the person corresponding to the voiceprint data can be searched in both the belonging list storage unit 431 and the message storage unit 432.

<各機能の説明>
図4と図5に示した持物リスト記憶部431および伝言記憶部432を参照しながら、図3に示す各部の機能について説明する。
<Description of each function>
The function of each unit shown in FIG. 3 will be described with reference to the belonging list storage unit 431 and the message storage unit 432 shown in FIGS. 4 and 5.

情報格納部102は、入力受付部101が受付けたユーザ入力に従う情報を持物リスト記憶部431または伝言記憶部432に格納する。   The information storage unit 102 stores information according to the user input received by the input receiving unit 101 in the belonging list storage unit 431 or the message storage unit 432.

抽出部103は、集音部であるマイク5により集音された人物の音声から、当該人物に固有の声紋を抽出する機能を有する。たとえば、マイク5により集音した音声から、当該音声が有する周波数に基づき、声紋を抽出する。発話文字取得部104は、マイク5が集音した音声から、音声認識により、認識結果を複数の仮名文字からなる文字列に変換する。音声認識により取得された仮名文字列により、マイク5が集音した音声が示す発話の内容を表す言葉が取得される。発話文字取得部104は、音声認識の結果が示す仮名文字列と、予め定められた言葉(“行ってきます”、“ただいま”、“持った”など)を表す仮名文字列とを比較することにより、発話の内容が、これら言葉を表すか否かを判定する。なお、上記の予め定められた言葉は、一例であり、これに限定されない。   The extraction unit 103 has a function of extracting a voice print unique to a person from the voice of the person collected by the microphone 5 which is a sound collection unit. For example, a voiceprint is extracted from the sound collected by the microphone 5 based on the frequency of the sound. The spoken character acquisition unit 104 converts the recognition result into a character string composed of a plurality of kana characters by voice recognition from the voice collected by the microphone 5. A word representing the content of the utterance indicated by the voice collected by the microphone 5 is acquired by the kana character string acquired by the voice recognition. The spoken character acquisition unit 104 compares the kana character string indicated by the speech recognition result with a kana character string representing a predetermined word (such as “I will”, “I ’m right”, “I have”). Thus, it is determined whether or not the content of the utterance represents these words. In addition, said predetermined word is an example and is not limited to this.

情報読出部105は、抽出された声紋を示す声紋データ50(または80)に関連付けされた言葉データ51(または81)のうち、発話文字取得部104により取得された言葉の文字列に一致する文字列を示す言葉データ51(または81)に対応する情報(持物リスト53、サブ持物リスト60、伝言データ83など)を、持物リスト記憶部431および伝言記憶部432から読出す。   The information reading unit 105 uses the character data 51 (or 81) associated with the voice print data 50 (or 80) indicating the extracted voice print to match the character string of the word acquired by the utterance character acquisition unit 104. Information corresponding to the word data 51 (or 81) indicating the column (the belonging list 53, the sub-item list 60, the message data 83, etc.) is read from the belonging list storage unit 431 and the message storage unit 432.

計時部112は、マイク5を介して発話の音声が取得される時間をタイマ12を用いて計時する。物品情報読出部106は、抽出部103が抽出する声紋を示す声紋データ50に関連付けされた1つ以上の言葉データ51のうち、発話文字取得部104が取得した発話内容を表す言葉データに対応する持物リスト53またはサブ持物リスト60を読出す。また、言葉データに対応して時間データ(日付データ54および時刻データ55)が格納されている場合には、計時部112が計時した時間を示す時間データに対応する持物リスト53またはサブ持物リスト60を読出す。   The timer unit 112 uses the timer 12 to measure the time during which the voice of the utterance is acquired via the microphone 5. The article information reading unit 106 corresponds to the word data representing the utterance content acquired by the utterance character acquisition unit 104 among the one or more word data 51 associated with the voiceprint data 50 indicating the voiceprint extracted by the extraction unit 103. The inventory list 53 or the sub inventory list 60 is read. Further, when time data (date data 54 and time data 55) is stored corresponding to the word data, the belonging list 53 or the sub belonging list 60 corresponding to the time data indicating the time counted by the time measuring unit 112. Read out.

伝言情報読出部108は、抽出部103が抽出する声紋を示す声紋データ80に関連付けされた言葉データ81のうち、発話文字取得部104が取得した発話内容を表す言葉データに対応する伝言データ83を読出す。また、言葉データに対応して時間データ(日付データ85)が格納されている場合には、計時部112が計時した時間を示す日付データ85に対応する伝言データ83を読出す。なお、伝言データ83とともに対応の伝言者データ84も読出すようにしてもよい。   The message information reading unit 108 includes message data 83 corresponding to the word data representing the utterance content acquired by the utterance character acquisition unit 104 among the word data 81 associated with the voiceprint data 80 indicating the voiceprint extracted by the extraction unit 103. Read. When time data (date data 85) is stored corresponding to the word data, the message data 83 corresponding to the date data 85 indicating the time measured by the time measuring unit 112 is read. The corresponding message data 84 may be read together with the message data 83.

これにより、同一の言葉が発せられた場合であっても、その言葉が発せられた時間または天候によって、出力するべき情報を異ならせることができる。たとえば、ユーザが夜勤などシフト勤務に従事している場合には、夕方時間であっても“行ってきます”と発話することから、同一の言葉データであっても、時間によって出力するべき情報を異ならせることは有効である。   Thereby, even if the same word is emitted, the information to be output can be varied depending on the time or the weather when the word is emitted. For example, if the user is engaged in shift work such as night shift, he / she will say “I will go” even during evening hours. It is effective to make them different.

(天候に応じた持物情報の提示)
天候別情報読出部107は天候取得部111からの天候データを用いて天候別持物リスト70が示す情報を読出す。ここで、天候取得部111は、マイク5により発話されたときの音声が集音されるときの予め定めた地域の天候、またはその後に予測される天候に関する天候データを、通信部18を介して、図示しない外部サーバから取得する。天候別情報読出部107は、発話文字取得部104が取得する発話内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)を示すと判定したとき、当該言葉を示す言葉データ51に対応する天候別持物リスト70のうち、天候取得部111が取得した天候データが示す天候の種類に対応した情報(雨データ71〜低温データ74のいずれか1つ以上)を読出す。なお、予め定めた地域は、情報処理装置100が位置する出発地域、および目的地を含む。
(Presentation of information on belongings according to the weather)
The weather-specific information reading unit 107 uses the weather data from the weather acquisition unit 111 to read information indicated by the weather-specific inventory list 70. Here, the weather acquisition unit 111 sends, via the communication unit 18, the weather data related to the weather in a predetermined area when the sound when the microphone 5 speaks is collected or the weather predicted thereafter. , Acquired from an external server (not shown). When the weather-specific information reading unit 107 determines that the word represented by the utterance content acquired by the utterance character acquisition unit 104 indicates a word (for example, “I will go”) that is uttered at the time of departure, the word data 51 indicating the word Information corresponding to the type of weather indicated by the weather data acquired by the weather acquisition unit 111 (any one or more of rain data 71 to low temperature data 74) is read out. The predetermined area includes a departure area where the information processing apparatus 100 is located and a destination.

これにより、発話したユーザが出発しようとしているときに、天候に応じた携帯物品の情報を提示することができる。   Thereby, when the user who has spoken is going to leave, the information of the portable article according to the weather can be presented.

(携帯端末の情報提示)
さらに、物品情報読出部106は、距離判定部109の判定結果に基づき、距離別持物リスト61による携帯端末の情報を読出す。ここでは、各ユーザの携帯端末は、自己の位置情報をGPS(Global Positioning System)機能を利用して取得し、取得した位置情報を情報処理装置100に送信すると想定する。
(Information presentation on mobile devices)
Further, the article information reading unit 106 reads information on the portable terminal from the distance-based belonging list 61 based on the determination result of the distance determination unit 109. Here, it is assumed that the mobile terminal of each user acquires his / her position information using a GPS (Global Positioning System) function and transmits the acquired position information to the information processing apparatus 100.

位置取得部110は、近距離通信部182を介して携帯端末からの位置情報を取得する。取得される位置情報は送信元の当該携帯端末を示すアドレスが付加されている。位置取得部110は、当該ユーザの距離別持物リスト61に登録された携帯端末のアドレスと位置情報に付加されたアドレスを比較することにより、取得する位置情報が当該ユーザの携帯端末から送信されたものか否かを判定する。当該携帯端末から送信されたものと判定すると、位置取得部110は位置情報を距離判定部109に出力する。   The position acquisition unit 110 acquires position information from the mobile terminal via the short-range communication unit 182. An address indicating the mobile terminal that is the transmission source is added to the acquired position information. The position acquisition unit 110 transmits the position information to be acquired from the user's portable terminal by comparing the address of the portable terminal registered in the personal belongings list for each distance 61 and the address added to the position information. It is determined whether it is a thing. If it is determined that the information is transmitted from the portable terminal, the position acquisition unit 110 outputs position information to the distance determination unit 109.

距離判定部109は、位置情報から当該携帯端末は情報処理装置100から予め定められた距離以上離れているか否かを判定する。具体的には、携帯端末の位置情報と情報処理装置100の予め取得されている位置情報とから、両者間の距離を算出し、算出された距離と予め定められた距離とを比較し、比較結果から、携帯端末は予め定められた距離以上離れているか否を判定し、その判定結果を物品情報読出部106に出力する。   The distance determination unit 109 determines whether the mobile terminal is separated from the information processing apparatus 100 by a predetermined distance or more from the position information. Specifically, the distance between the position information of the mobile terminal and the position information acquired in advance of the information processing apparatus 100 is calculated, the calculated distance is compared with a predetermined distance, and the comparison is performed. From the result, it is determined whether or not the mobile terminal is more than a predetermined distance, and the determination result is output to the article information reading unit 106.

物品情報読出部106は、対応するユーザについて発話文字取得部104が取得した発話内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)であって、かつ距離判定部109からの判定結果が“予め定められた距離以上離れている”を示す場合は、当該ユーザについての言葉データ51に対応する距離別持物リスト61を読出す。   The article information reading unit 106 is a word (for example, “I will go”) that is expressed by the utterance content acquired by the utterance character acquisition unit 104 for the corresponding user, and from the distance determination unit 109. When the determination result indicates “they are more than a predetermined distance”, the distance-based belonging list 61 corresponding to the word data 51 for the user is read.

これにより、発話したユーザが出発しようとしているときに、携帯端末が情報処理装置100から離れていると判定されるとき、すなわちユーザが所持していないときは、出力される携帯物品の情報に携帯端末の情報を含めることができる。これにより、ユーザに携帯端末を忘れている旨の注意を喚起することができる。   Thereby, when it is determined that the mobile terminal is away from the information processing apparatus 100 when the user who has spoken is about to leave, that is, when the user does not have the mobile terminal, the information of the mobile article to be output is carried Terminal information can be included. Thereby, it is possible to alert the user that the portable terminal has been forgotten.

(携帯物品情報の転送)
また、情報読出部105が読出した情報は出力部を介して出力されるとともに、発話したユーザが所有する通信端末宛てに送信されるようにしてもよい。
(Transfer of mobile goods information)
Further, the information read by the information reading unit 105 may be output via the output unit and may be transmitted to a communication terminal owned by the user who has spoken.

情報送信部115は、情報読出部105により読出された情報が情報出力部113により出力部に出力されると、当該情報に対応する人物についての持物リスト記憶部431のアドレスのデータ63を用いて、当該情報を通信部18を介し人物の通信端末宛てに転送する。これにより、ユーザは、出力部による情報の確認とともに、自己の通信端末を介して情報を確認することができる。   When the information read by the information reading unit 105 is output to the output unit by the information output unit 113, the information transmission unit 115 uses the data 63 of the address in the belonging list storage unit 431 for the person corresponding to the information. Then, the information is transferred to a person's communication terminal via the communication unit 18. Thereby, the user can confirm the information through his / her communication terminal along with the confirmation of the information by the output unit.

携帯物品情報は、必要に応じてユーザの通信端末に転送されるとしてもよい。つまり、離れ検出部119が、発話後において発話者が情報処理装置100から離れていると検出するときに、情報を転送するとしてもよい。   The portable article information may be transferred to the user's communication terminal as necessary. That is, information may be transferred when the distance detection unit 119 detects that the speaker is away from the information processing apparatus 100 after speaking.

具体的には、離れ検出部119は、カメラ4からの撮像画像データを用いて発話者が情報処理装置100から離れ続けているか否かを判定する。ここでは、発話者は発話するとき、カメラ4の撮像方向に位置し、その被写体像は十分に撮像範囲に収まるものと想定する。離れ検出部119は、マイク5から音声が取得されたときの画像データをカメラ4から入力し、当該画像データから顔特徴(目、鼻、口、眉など)データを用いたパターンマッチングにより部分画像である人の顔画像データを抽出する。これにより、発話者の顔画像データが抽出される。抽出した顔画像データと撮像画像データとを用いて、当該顔画像が撮像範囲外に移動し、その後予め定めた時間経過しても撮像範囲内に戻って来ないことを検出すると、発話者が情報処理装置100から離れ続けていると判定する。   Specifically, the separation detection unit 119 determines whether or not the speaker continues to separate from the information processing apparatus 100 using the captured image data from the camera 4. Here, it is assumed that the speaker is positioned in the imaging direction of the camera 4 when speaking, and the subject image is sufficiently within the imaging range. The separation detection unit 119 inputs image data when sound is acquired from the microphone 5 from the camera 4, and performs partial image matching by pattern matching using facial feature (eye, nose, mouth, eyebrow, etc.) data from the image data. The face image data of a person is extracted. Thereby, the face image data of the speaker is extracted. When the detected face image data and captured image data are used to detect that the face image has moved out of the imaging range and then does not return within the imaging range even after a predetermined time has elapsed, It is determined that the information processing apparatus 100 continues to be separated.

また、発話者は携帯端末を携帯していると想定する場合には、離れ検出部119は、上述したGPS機能を用いて算出した携帯端末と情報処理装置100との距離から判定するようにしてもよい。つまり、離れ検出部119は、マイク5を介し音声が取得されたときから携帯端末と情報処理装置100との距離の取得を開始し、取得する距離が時間の経過に伴って大きくなると判定する場合には、発話者が情報処理装置100から離れ続けていると検出する。   When it is assumed that the speaker is carrying the mobile terminal, the distance detection unit 119 determines from the distance between the mobile terminal calculated using the GPS function and the information processing apparatus 100 described above. Also good. That is, when the distance detection unit 119 starts to acquire the distance between the mobile terminal and the information processing apparatus 100 from when the sound is acquired through the microphone 5, and determines that the distance to be acquired increases with time. Is detected that the speaker continues to leave the information processing apparatus 100.

携帯物品情報は、動作検出部118が人の予め定められた動作を検出するときに、ユーザの通信端末に情報が転送されるとしてもよい。予め定められた動作は、出力部により出力された携帯物品の情報をユーザが確認したことを表す動作である。たとえば、入力受付部101が受付けた入力に基づき、タッチパネル201の画面へのタッチ、または物品を携帯したことを表す言葉(たとえば、“持った”)の発話などである。動作検出部118は、入力受付部101の出力から上記のタッチ動作を検出し、また発話文字取得部104から上記の携帯したことを表す言葉(“持った”)の発話を検出する。   The portable article information may be transferred to the user's communication terminal when the motion detection unit 118 detects a predetermined motion of the person. The predetermined operation is an operation indicating that the user has confirmed the information of the portable article output by the output unit. For example, based on the input received by the input receiving unit 101, the touch on the screen of the touch panel 201 or the utterance of a word (for example, “had”) indicating that the article is carried. The motion detection unit 118 detects the touch operation from the output of the input reception unit 101, and detects the utterance of the words ("had") representing the carrying from the utterance character acquisition unit 104.

情報送信部115は、情報出力部113によって情報が出力部を介し出力されるとき、動作検出部118により上記の予め定められた動作が検出されない場合には、出力される情報を、通信端末に転送する。   When the information output unit 113 outputs the information via the output unit and the operation detection unit 118 does not detect the predetermined operation, the information transmission unit 115 sends the output information to the communication terminal. Forward.

なお、予め定められた動作を、上記の発話および画面へのタッチのいずれにするかは、ユーザ毎に予め選択的に指定できるとしてもよい。また、予め定められる動作の種類は、これらに限定されない。   It should be noted that it may be possible to selectively specify in advance for each user whether the predetermined operation is the above-mentioned utterance or touch on the screen. In addition, the types of operations determined in advance are not limited to these.

これにより、情報送信部115による情報の転送によれば、携帯物品の情報を出力したときにユーザによって出力した情報に対する確認の動作がされないときは、当該情報をユーザの通信端末に転送することで、ユーザが出力された情報を未確認のまま出発したとしても、出先においてユーザに対し情報を提供することができる。具体的には、ユーザは通信端末で転送された情報を表示して確認し、忘れた物に気付いたときは、出先で購入することもできる。   Thus, according to the information transfer by the information transmission unit 115, when the information output by the user is not performed when the information of the portable article is output, the information is transferred to the user's communication terminal. Even if the user leaves without confirming the output information, the information can be provided to the user at the destination. Specifically, the user can display and confirm the information transferred by the communication terminal, and when he / she notices a forgotten thing, he / she can purchase it at the destination.

(情報の出力態様の変更)
情報出力部113は、携帯物品の情報を出力部により出力させるとき、動作検出部118からの出力に基づき、情報の出力態様を変更してもよい。
(Change of information output mode)
The information output unit 113 may change the information output mode based on the output from the motion detection unit 118 when the information on the portable article is output by the output unit.

つまり、動作検出部118により予め定められた動作が検出されたときには、出力態様変更部114は、画面に表示されている携帯物品の情報の表示態様を変更させる。たとえば、情報を画面から消去する、または反転表示する、または特別なチェックマークを付加して表示する。また、スピーカ6から音声で情報が出力され場合には、たとえば、当該情報の音声出力を停止するなどである。   That is, when a predetermined motion is detected by the motion detection unit 118, the output mode change unit 114 changes the display mode of the information on the portable article displayed on the screen. For example, the information is erased from the screen, displayed in reverse video, or displayed with a special check mark added. Further, when information is output from the speaker 6 by voice, for example, the voice output of the information is stopped.

このように出力態様を変更することにより、ユーザは提示された携帯物品の情報を確認済みであるか、未だ確認していないかを視覚または聴覚で感覚的に知ることができる。   By changing the output mode in this way, the user can sensuously know visually or audibly whether the information on the presented portable article has been confirmed or not yet confirmed.

(フォロー処理)
本実施の形態では、出力された携帯物品の情報に対する上記の確認のための予め定められた動作がされたか否かをフォロー(追跡)することができる。フォローするために書込部116および関連付情報出力部117が用いられる。
(Follow processing)
In the present embodiment, it is possible to follow (track) whether or not a predetermined operation for the above confirmation on the information of the output portable article has been performed. The writing unit 116 and the associated information output unit 117 are used for following.

具体的には、書込部116は、動作検出部118からの出力に基づき、出力された携帯物品の情報に対し、上記の予め定められた動作が検出されたと判定した場合には、持物リスト記憶部431の当該情報に関連したチェックデータ62に“T”に書込む。したがって、上記の予め定められた動作が検出されないと判定された場合には、持物リスト記憶部431の当該情報に関連したチェックデータ62は“F”のままであり、“T”に更新されない。   Specifically, when the writing unit 116 determines that the above-described predetermined operation is detected for the output information of the portable article based on the output from the operation detecting unit 118, the belonging list Write “T” in the check data 62 related to the information in the storage unit 431. Therefore, when it is determined that the predetermined operation is not detected, the check data 62 related to the information in the belonging list storage unit 431 remains “F” and is not updated to “T”.

その後、ユーザがタッチパネル201を操作してチェックの指令を入力すると、関連付情報出力部117は、入力受付部101の出力が示す当該指令に基づき、“F”を示すチェックデータ62に関連付けされた持物リスト53(またはサブ持物リスト60)と識別データ52とを、持物リスト記憶部431から読出し、読出したこれら情報を出力部に出力させる。   Thereafter, when the user operates the touch panel 201 to input a check command, the association information output unit 117 is associated with the check data 62 indicating “F” based on the command indicated by the output of the input receiving unit 101. The inventory list 53 (or the sub inventory list 60) and the identification data 52 are read from the inventory list storage unit 431, and the read information is output to the output unit.

このように、ユーザによって確認の動作がされなかった携帯物品の情報については、当該情報が示す携帯物品と識別データ52が示す名前などを出力部に出力させて確認することができる。これにより、たとえば、母親が、子供が持って行くのを忘れたであろう物品の情報を確認して、当該物品を出先の子供に届けることが可能になる。   As described above, the information on the portable article that has not been confirmed by the user can be confirmed by outputting the portable article indicated by the information and the name indicated by the identification data 52 to the output unit. Thereby, for example, it becomes possible for the mother to confirm the information on the article that the child would have forgotten to take and deliver the article to the child at the destination.

この「出力部」による出力方法は、タブレット2の表示部202に情報を表示する方法と、通信部18を介して予め指定されたメールアドレス宛てに情報を送信して通知する方法などを含む。   The output method by the “output unit” includes a method of displaying information on the display unit 202 of the tablet 2, a method of transmitting information to a mail address designated in advance via the communication unit 18, and the like.

(伝言情報の出力)
上述の例では、発話の内容が表す言葉が出発に際し発せられる言葉(たとえば、“行ってきます”)の場合に持物リスト記憶部431の情報を出力するものであったが、帰着に際し発せられる言葉(たとえば、“ただいま”を示す場合)には、伝言記憶部432の伝言の情報が出力される。
(Output of message information)
In the above example, when the word represented by the content of the utterance is a word that is uttered at the time of departure (for example, “I will go”), the information in the belonging list storage unit 431 is output. In the case of (for example, indicating “just now”), the message information in the message storage unit 432 is output.

情報読出部105は、発話文字取得部104の出力に基づき取得された発話の内容が帰着時の言葉を示すと判定したときは、伝言情報読出部108は、抽出部103、発話文字取得部104および計時部112の出力に基づき伝言記憶部432を検索する。検索により、抽出部103により取得された発話者の声紋を示す声紋データ80、発話文字取得部104により取得された発話の内容が表す言葉データ81、および計時部112からの出力を示す日付データ85に関連付けされた伝言データ83(または伝言データ83および伝言者データ84)が伝言記憶部432から読出されて、情報出力部113に与えられる。情報出力部113は、伝言データ83(または伝言データ83および伝言者データ84)を出力部に出力させる。   When the information reading unit 105 determines that the content of the utterance acquired based on the output of the utterance character acquisition unit 104 indicates the words at the time of return, the message information reading unit 108 includes the extraction unit 103 and the utterance character acquisition unit 104. The message storage unit 432 is searched based on the output of the timer unit 112. The voiceprint data 80 indicating the voiceprint of the speaker acquired by the extraction unit 103 by the search, the word data 81 represented by the content of the utterance acquired by the utterance character acquisition unit 104, and the date data 85 indicating the output from the timing unit 112 Message data 83 (or message data 83 and message data 84) associated with the message is read from the message storage unit 432 and provided to the information output unit 113. The information output unit 113 causes the output unit to output message data 83 (or message data 83 and message data 84).

なお、本実施の形態では、伝言データ83には日付データ85が関連付けされており、帰着した日が日付データ85が示す日を示すときのみ伝言データ83が出力されるとしているが、伝言データ83は日付けにかかわらず、帰着時の言葉を表す発話が取得されたときは出力されるとしてもよい。   In this embodiment, the message data 83 is associated with the date data 85, and the message data 83 is output only when the return date indicates the date indicated by the date data 85. May be output when an utterance representing the return word is acquired, regardless of the date.

伝言情報読出部108を用いることにより、ユーザが帰着した場合には、当該ユーザに対して残された伝言が出力されることから、伝えるべきメッセージを帰着時のユーザに確実に提示することができる。   By using the message information reading unit 108, when a user returns, the message left for the user is output, so that the message to be transmitted can be reliably presented to the user at the time of return. .

図6は、上述した出発時および帰着時の情報の出力例を示す図であるが、この詳細は後述する。   FIG. 6 is a diagram showing an output example of information at the time of departure and return described above, and details thereof will be described later.

<データ登録処理>
図7は、本発明の実施の形態に係る情報の登録のための処理フローチャートである。このフローチャートに従って、情報の登録処理について説明する。
<Data registration process>
FIG. 7 is a process flowchart for information registration according to the embodiment of the present invention. Information registration processing will be described with reference to this flowchart.

ここでは、情報処理装置100は複数種類の動作モードを有し、動作モードには、ユーザの操作により、持物リスト記憶部431および伝言記憶部432に情報を格納するための登録モードを含む。   Here, the information processing apparatus 100 has a plurality of types of operation modes, and the operation modes include a registration mode for storing information in the belonging list storage unit 431 and the message storage unit 432 by a user operation.

まず、情報処理装置100の動作モードが持物リスト記憶部431への情報の登録モードに設定されると想定する。   First, it is assumed that the operation mode of the information processing apparatus 100 is set to the information registration mode in the belonging list storage unit 431.

各ユーザはマイク5に向かって発話することにより、声紋データ50と言葉データ51が取得される(ステップS1)。つまり、抽出部103および発話文字取得部104は、マイク5で集音された発話の音声から声紋データおよび発話の内容が表す言葉(“行ってきます”など)のデータを取得し、これらを情報格納部102に出力する。   Each user speaks into the microphone 5 to acquire voiceprint data 50 and word data 51 (step S1). That is, the extraction unit 103 and the utterance character acquisition unit 104 acquire voiceprint data and words (such as “I will go”) represented by the content of the utterance from the voice of the utterance collected by the microphone 5 and use them as information. The data is output to the storage unit 102.

また、ユーザはタッチパネル201を操作して、自分の名前またはニックネームなどを入力する(ステップS3)。入力受付部101は入力した情報を情報格納部102に出力する。   In addition, the user operates the touch panel 201 to input his or her name or nickname (step S3). The input receiving unit 101 outputs the input information to the information storage unit 102.

情報格納部102は、抽出部103、発話文字取得部104および入力受付部101からの出力を声紋データ50、言葉データ51および識別データ52と関連付けて、持物リスト記憶部431に格納する(ステップS5)。   The information storage unit 102 stores the output from the extraction unit 103, the spoken character acquisition unit 104, and the input reception unit 101 in the belonging list storage unit 431 in association with the voiceprint data 50, the word data 51, and the identification data 52 (step S5). ).

続いて、ユーザはタッチパネル201を操作して、さらに情報を入力する(ステップS7)。具体的には、出発時に携帯するべき物品の情報を示した持物リスト53、当該持物リスト53を提示してほしい日付および時間のデータ54および55を入力するとともに、サブ持物リスト60のためのデータを入力する。さらに、ユーザが所持している携帯端末の通信用のアドレスのデータ63を入力する。   Subsequently, the user operates the touch panel 201 to input further information (step S7). Specifically, the personal belonging list 53 indicating information of articles to be carried at the time of departure, date and time data 54 and 55 for which the personal belonging list 53 is desired to be presented, and data for the sub personal belonging list 60 are input. Enter. Furthermore, the data 63 of the communication address of the portable terminal possessed by the user is input.

情報格納部102は、ステップS7でユーザが入力するデータを入力受付部101を介して受理し、これらデータを持物リスト記憶部431において、ステップS3で格納した声紋データ50、言葉データ51および識別データ52に関連付けて格納する(ステップS9)。これにより、当該ユーザについての持物リスト記憶部431におけるデータ50〜63が格納されることになる。なお、このときチェックデータ62には“F”がセットされる。   The information storage unit 102 receives data input by the user in step S7 via the input receiving unit 101, and the voice list data 50, the word data 51, and the identification data stored in step S3 in the inventory list storage unit 431. The data is stored in association with 52 (step S9). Thereby, the data 50-63 in the belonging list storage part 431 about the said user are stored. At this time, “F” is set in the check data 62.

このように、各ユーザについて図7のフローチャートに従って同様にデータの格納が行なわれることにより、持物リスト記憶部431が完成する。   In this manner, the data list is similarly stored for each user according to the flowchart of FIG. 7, thereby completing the belonging list storage unit 431.

ここでは、持物リスト記憶部431のデータの格納動作を示したが、伝言記憶部432についても同様にして、ユーザが発話することにより情報格納部102は声紋データ80、言葉データ81および識別データ82を格納することができる。そして、伝言記憶部432に登録されたユーザに対し伝言を残したい人は、タッチパネル201を操作し、当該ユーザの名前と伝言メッセージを入力する。   Here, the storing operation of the data in the belonging list storage unit 431 is shown, but the information storage unit 102 also performs the voice storage data 80, the word data 81, and the identification data 82 when the user speaks in the same manner for the message storage unit 432. Can be stored. Then, a person who wants to leave a message for the user registered in the message storage unit 432 operates the touch panel 201 and inputs the user's name and message message.

情報格納部102は、入力受付部101を介してユーザの名前と伝言メッセージを入力すると、ユーザの名前に基づき伝言記憶部432を検索し、当該ユーザの名前を示す識別データ82に関連付けて当該伝言メッセージを伝言データ83として格納する。また、伝言を残したい人は、タッチパネル201を操作して自分の名前および伝言を出力させたい日付を入力することで、情報格納部102に、伝言者データ84および日付データ85を伝言記憶部432に格納させることができる。   When the user name and message message are input via the input receiving unit 101, the information storage unit 102 searches the message storage unit 432 based on the user name, and associates the message with the identification data 82 indicating the user name. The message is stored as message data 83. Further, a person who wants to leave a message operates the touch panel 201 to input his / her name and a date on which he / she wants to output a message, whereby message data 84 and date data 85 are stored in the information storage unit 102 as a message storage unit 432. Can be stored.

本実施の形態では、情報格納部102は、タッチパネル201を介した入力から、持物リスト記憶部431および伝言記憶部432の情報を書換(削除・変更・追加など)することもできる。たとえば、外出先から伝言データを格納するようにしてもよい。つまり、情報処理装置100宛てに外出先から伝言データを送信し、情報処理装置100の情報格納部102は通信部18を介し伝言データを受信すると伝言記憶部432に格納する。   In the present embodiment, the information storage unit 102 can also rewrite (delete, change, add, etc.) information in the belonging list storage unit 431 and the message storage unit 432 from an input via the touch panel 201. For example, you may make it store message data from whereabouts. That is, message data is transmitted from the outside to the information processing apparatus 100, and the information storage unit 102 of the information processing apparatus 100 stores the message data in the message storage unit 432 when receiving the message data via the communication unit 18.

<情報の出力処理>
図8は、本発明の実施の形態に係る情報の出力処理のフローチャートである。ここでは、当該情報処理装置100のユーザの全てについてマイク5に、持物リスト記憶部431および伝言記憶部432に対応の情報が登録済みであると想定する。
<Information output processing>
FIG. 8 is a flowchart of the information output process according to the embodiment of the present invention. Here, it is assumed that information corresponding to the inventory list storage unit 431 and the message storage unit 432 has already been registered in the microphone 5 for all users of the information processing apparatus 100.

なお、本実施の形態ではカメラ4は常時電源ONされており、マイク5および表示部202は通常は省電力のために電源OFFされているが、情報処理装置100に人物が近付いてきたことが検出されると電源OFF→電源ONに切替えられる。その後、持物リスト記憶部431または伝言記憶部432から読出された情報が出力された後に、マイク5および表示部202の電源はOFFされるものとする。   In the present embodiment, the camera 4 is always powered on, and the microphone 5 and the display unit 202 are normally powered off for power saving, but a person approaches the information processing apparatus 100. When detected, the power is switched from OFF to ON. Thereafter, after the information read from the belonging list storage unit 431 or the message storage unit 432 is output, the microphone 5 and the display unit 202 are turned off.

まず、CPU11は、情報処理装置100への人の接近を、より特定的にはタブレット2への人の接近を検出する(ステップS11)。具体的には、カメラ4が撮像する時系列の被写体画像から、カメラ4の撮像範囲に人物が入ったか否かを判定する。この判定は、被写体画像に顔特徴(目、鼻、口、眉)などを含む顔画像が検出されるか否かにより行う。   First, the CPU 11 detects the approach of a person to the information processing apparatus 100, more specifically the approach of a person to the tablet 2 (step S11). Specifically, it is determined from a time-series subject image captured by the camera 4 whether or not a person has entered the imaging range of the camera 4. This determination is made based on whether or not a face image including face features (eyes, nose, mouth, eyebrows) and the like is detected in the subject image.

なお、人物の検知は、カメラ4からの撮像画像を用いるものに限定されず、人感センサにより、人体から放射される赤外線の検知結果を利用して人物の不在→在の変化を判定するようにしてもよい。   The detection of a person is not limited to using a captured image from the camera 4, and a human sensor is used to determine a change in the absence of a person → the presence of the person using the detection result of infrared rays emitted from the human body. It may be.

人の接近が検出されない(ステップS11でNO)、ステップS11の処理が繰返されるが、接近を検出すると(ステップS11でYES)、CPU11は、マイク5および表示部202を電源ONする(ステップS13)。なお、表示部202は、予め電源ONされているとしてもよい。   If the approach of a person is not detected (NO in step S11), the process of step S11 is repeated, but if the approach is detected (YES in step S11), the CPU 11 turns on the microphone 5 and the display unit 202 (step S13). . Note that the display unit 202 may be powered on in advance.

次に、プロセッサ10は、マイク5の出力に基づき、音声が入力されたか否かを判定する(ステップS15)。音声が入力されないと判定される(ステップS15でNO)間は、ステップS15の処理が繰返されるが、音声が入力されると判定されると(ステップS15でYES)、処理はステップS17に移る。   Next, the processor 10 determines whether or not sound is input based on the output of the microphone 5 (step S15). While it is determined that no sound is input (NO in step S15), the process of step S15 is repeated. However, if it is determined that a sound is input (YES in step S15), the process proceeds to step S17.

抽出部103は、マイク5が出力する発話による音声から、声紋データを抽出する(ステップS17)。CPU11は、抽出された声紋データに基づき、持物リスト記憶部431および伝言記憶部432を検索し、当該声紋データに関連付けられた識別データ52を読出す(ステップS19)。これにより、当該音声を発した人物を判別することができる。   The extraction unit 103 extracts voiceprint data from the voice of the utterance output from the microphone 5 (step S17). The CPU 11 searches the belonging list storage unit 431 and the message storage unit 432 based on the extracted voiceprint data, and reads the identification data 52 associated with the voiceprint data (step S19). Thereby, the person who uttered the sound can be determined.

続いて、発話文字取得部104は、マイク5が出力する発話の音声から、発話の内容が表す言葉データを取得する(ステップS21)。   Subsequently, the utterance character acquisition unit 104 acquires word data represented by the content of the utterance from the voice of the utterance output from the microphone 5 (step S21).

続いて、計時部112は、発話による音声をマイク5から取得した時間を、タイマ12を用いて取得する(ステップS23)。   Subsequently, the time measuring unit 112 acquires the time when the voice by the utterance is acquired from the microphone 5 using the timer 12 (step S23).

続いて、情報読出部105は、発話文字取得部104の出力に基づき、取得された言葉が出発時の言葉(たとえば、“行ってきます”)を示すか否かを判定する(ステップS25)。出発に際して発せられる言葉を示すと判定すると(ステップS25でYES)、情報読出部105は、持物リスト記憶部431を、ステップS17で取得した声紋データ、またはステップS19で判別された識別データ52に基づき検索し、当該声紋データまたは識別データ52に関連付けられた情報を読出す。   Subsequently, based on the output of the utterance character acquisition unit 104, the information reading unit 105 determines whether or not the acquired word indicates a departure word (for example, “I will go”) (step S25). If it is determined that it indicates a word to be issued upon departure (YES in step S25), the information reading unit 105 causes the belonging list storage unit 431 to be based on the voiceprint data acquired in step S17 or the identification data 52 determined in step S19. A search is performed, and information associated with the voiceprint data or identification data 52 is read out.

具体的には、関連付けされた日付および時刻データ54および55が示す時間のうち、ステップS23で取得された時間に該当するものがあるか否かを判定する(ステップS27)。該当する日付および時刻のデータ54および55はないと判定される場合には(ステップS27でNO)、後述するステップS31の処理に移る。   Specifically, it is determined whether there is a time corresponding to the time acquired in step S23 among the times indicated by the associated date and time data 54 and 55 (step S27). If it is determined that there is no corresponding date and time data 54 and 55 (NO in step S27), the process proceeds to step S31 described later.

一方、該当する日付および時刻のデータ54および55が格納されていると判定すると(ステップS27でYES)、情報読出部105は、当該日付および時刻のデータ54および55に関連付けられた持物リスト53を読出し情報出力部113に与える(ステップS29)。   On the other hand, if it is determined that the corresponding date and time data 54 and 55 are stored (YES in step S27), the information reading unit 105 displays the inventory list 53 associated with the date and time data 54 and 55. The read information output unit 113 is provided (step S29).

天候取得部111は天候に関するデータを取得する(ステップS31)。天候別情報読出部107は、天候取得部111からの出力に基づき持物リスト記憶部431の、当該人物のサブ持物リスト60を検索し、検索により取得した天候に関するデータに対応の天候別持物リスト70が格納されているか否かを判定する(ステップS33)。   The weather acquisition unit 111 acquires data related to the weather (step S31). The weather-specific information reading unit 107 searches the personal belongings list 60 of the personal belongings list storage unit 431 based on the output from the weather acquisition unit 111, and the personal belongings list 70 corresponding to the weather-related data acquired by the search. Is stored (step S33).

たとえば、取得された天候に関するデータが、たとえば“晴天”を示す場合には、図5の持物リスト記憶部431によれば天候別持物リスト70は格納されていないことになるので(ステップS33でNO)、そのような場合には処理はステップS37に移る。   For example, if the acquired data regarding weather indicates, for example, “sunny”, according to the belonging list storage unit 431 of FIG. 5, the weather-specific belonging list 70 is not stored (NO in step S33). In such a case, the process proceeds to step S37.

なお、このとき物品情報読出部106により距離別持物リスト61が読出されるとしてもよい。距離別持物リスト61が読出された場合の出力例が図6の(A)に示される。この出力例では、“行ってきます”と発話したユーザに対し、距離別持物リスト61による物品が出力されている。   At this time, the article information reading unit 106 may read the personal belongings list 61 by distance. FIG. 6A shows an output example when the distance-based belonging list 61 is read. In this output example, an article based on the distance-based belonging list 61 is output to a user who has spoken “I will go”.

一方、取得した天候に関するデータが、たとえば“雨”を示す場合には、図5の持物リスト記憶部431によれば天候別持物リスト70の雨データ71が読出される(ステップS33でYES、ステップS35)。読出された天候別持物リスト70は、情報出力部113に与えられる。   On the other hand, if the acquired data relating to the weather indicates, for example, “rain”, the rain data 71 of the personal belonging list 70 according to the weather is read according to the personal belonging list storage unit 431 in FIG. 5 (YES in step S33, step S35). The read-out personal belongings list 70 by weather is given to the information output unit 113.

情報出力部113は、情報読出部105からの天候別情報読出部107を含む情報を出力部に出力させ(ステップS37)。具体的には、情報読出部105からの情報を表示用データに変換しグラフィックメモリ13に書込む、またはスピーカ6を介して音声により出力させる。これにより、携帯物品を示す情報が、表示用データとして表示部202に表示されるとともに、スピーカ6から音声で出力される(ステップS37)。   The information output unit 113 causes the output unit to output information including the weather-specific information reading unit 107 from the information reading unit 105 (step S37). Specifically, the information from the information reading unit 105 is converted into display data and written into the graphic memory 13, or is output by voice through the speaker 6. As a result, information indicating the portable article is displayed on the display unit 202 as display data and is output from the speaker 6 by voice (step S37).

このときの出力例が図6の(B)に示される。出力例では、“行ってきます”と発話したユーザに対し持物リスト53とともに天候別持物リスト70として“傘”が出力されている。また、図6の(C)では、図6の(B)のように出力された情報を確認したユーザが、情報出力に対する応答として“持った”と発話した状態が示される。   An output example at this time is shown in FIG. In the output example, “umbrella” is output as the weather-specific personal belonging list 70 together with the personal belongings list 53 to the user who has spoken “I will go”. Further, FIG. 6C shows a state where the user who has confirmed the information output as shown in FIG. 6B utters “have” as a response to the information output.

ステップS25の処理に戻る。取得された発話の内容が表す言葉が“行ってきます”を示さないと判定されると(ステップS25でNO)、情報読出部105は、発話文字取得部104の出力に基づき、当該言葉が帰着時に発せれる言葉(たとえば“ただいま”)を表すか否かがを判定する(ステップS39)。   The process returns to step S25. If it is determined that the word represented by the acquired utterance content does not indicate “I will go” (NO in step S25), the information reading unit 105 returns the word based on the output of the utterance character acquisition unit 104. It is determined whether or not a word (for example, “just now”) that is sometimes spoken is expressed (step S39).

帰着時の言葉ではないと判定されると(ステップS39でNO)、その他の音声処理が行なわれ(ステップS47)、ステップS15の処理に戻る。   If it is determined that the word is not a return word (NO in step S39), other voice processing is performed (step S47), and the process returns to step S15.

ここで、その他の音声処理としては、たとえば、“この言葉は登録されていません”などのメッセージ出力を含む。   Here, the other voice processing includes, for example, a message output such as “This word is not registered”.

一方、情報読出部105が、発話文字取得部104の出力に基づき発話内容が表す言葉は帰着時に発せられる言葉(たとえば、“ただいま”)であると判定すると(ステップS39でYES)、伝言情報読出部108は、伝言記憶部432をステップS17で取得した声紋データ、またはステップS19で判別された名前データに基づき検索し、当該声紋データまたは名前データに関連付けられた情報を読出す。   On the other hand, when the information reading unit 105 determines that the word represented by the utterance content based on the output of the utterance character acquisition unit 104 is a word (for example, "I'm right") uttered at the time of return (YES in step S39), the message information reading The unit 108 searches the message storage unit 432 based on the voiceprint data acquired in step S17 or the name data determined in step S19, and reads information associated with the voiceprint data or name data.

具体的には、関連付けされた日付データ85が示す日付のうち、ステップS23で取得された時間に該当する日付を示すものがあるか否かを判定する(ステップS41)。ないと判定されると(ステップS41でNO)、処理は終了するが、格納されていると判定すされると(ステップS41でYES)、伝言情報読出部108は、伝言記憶部432から対応する伝言データ83(または伝言データ83および伝言者データ84)を読出し、読出したデータを情報出力部113に与える(ステップS43)。   Specifically, it is determined whether there is a date indicating the date corresponding to the time acquired in step S23 among the dates indicated by the associated date data 85 (step S41). If it is determined that the message is not stored (NO in step S41), the process ends, but if it is determined that the message is stored (YES in step S41), the message information reading unit 108 reads the corresponding message from the message storage unit 432. Data 83 (or message data 83 and message data 84) is read, and the read data is provided to information output unit 113 (step S43).

情報出力部113は、伝言情報読出部108から出力される伝言データ83などを、表示用データに変換しグラフィックメモリ13に格納し、またはスピーカ6から音声として出力させる(ステップS45)。これにより、帰着したユーザに対する伝言が表示部202に表示され、またはスピーカ6から音声出力される。   The information output unit 113 converts the message data 83 or the like output from the message information reading unit 108 into display data and stores it in the graphic memory 13 or causes the speaker 6 to output it as sound (step S45). As a result, a message for the user who has returned is displayed on the display unit 202 or is output from the speaker 6 by voice.

このときの出力例が図6の(D)に示される。出力例では、“ただいま”と発話したユーザに対し伝言が出力されている。   An output example at this time is shown in FIG. In the output example, a message is output to the user who has spoken “I'm right”.

(実施の形態による効果)
本実施の形態によれば、発話による音声から声紋データを取得することで発話した人を判別し、事前に持物リスト記憶部431に登録されたそれぞれに適切・必要な出発時に携帯するべき物品情報を自動的にお知らせできるから、忘れ物を防止することができる。
(Effects of the embodiment)
According to the present embodiment, the person who speaks by acquiring voiceprint data from the voice of the utterance is discriminated, and the article information to be carried appropriately and necessary for each of the items registered in the belonging list storage unit 431 in advance. Can be automatically notified, so you can prevent forgotten items.

さらには、天気予報など、外部から取得する天候の予測情報から携帯するべき物品情報を提示することにより、出先で天候に応じた快適な生活を送ることが可能となる。   Furthermore, by presenting article information to be carried from weather forecast information acquired from the outside such as a weather forecast, it becomes possible to live a comfortable life according to the weather on the go.

また、情報処理装置100による情報出力機能を子供向けに使用する際には、保護者が不在であっても、必要な情報を提供することが可能になり、子供に対し忘れ物がないかの注意を促すことができる。   Further, when the information output function of the information processing apparatus 100 is used for a child, it becomes possible to provide necessary information even if a guardian is absent, and attention is given to the child whether there is anything left behind. Can be encouraged.

また、音声認識を採用することで、立ち位置などの場所を限定されずに、人の認識が可能になる。たとえば、顔認証の場合のように、カメラに顔を向けなければ認証されないといったような限定条件を外すことができ使い勝手に優れる。   Further, by adopting voice recognition, it is possible to recognize a person without limiting a place such as a standing position. For example, as in the case of face authentication, it is possible to remove a limiting condition that authentication is not performed unless the face is directed to the camera, which is excellent in usability.

[他の実施の形態]
上述した実施の形態では、各フローチャートに従うプログラムは予めROM15に格納されており、CPU11が当該プログラムをROM15から読出し実行するが、このようなプログラムは、情報処理装置100に付属するCD−ROM21などのように、プロセッサ10のCPU11が読取り可能な一時的ではない記録媒体に記録させて、プログラム製品として提供することもできる。あるいは、図示しないネットワークを介してアンテナ19及び通信部18を介して受信しRAM16またはHDD17の記憶領域へのダウンロードによって、プログラムを提供することもできる。
[Other embodiments]
In the above-described embodiment, the program according to each flowchart is stored in the ROM 15 in advance, and the CPU 11 reads the program from the ROM 15 and executes it. Such a program is stored in the CD-ROM 21 attached to the information processing apparatus 100 or the like. In this way, the program can be provided as a program product by being recorded on a non-temporary recording medium that can be read by the CPU 11 of the processor 10. Alternatively, the program can be provided by receiving via the antenna 19 and the communication unit 18 via a network (not shown) and downloading to the storage area of the RAM 16 or the HDD 17.

提供されるプログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。   The provided program product includes the program itself and a recording medium on which the program is recorded.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

2 タブレット、4 カメラ、5 マイク、6 スピーカ、10 プロセッサ、12 タイマ、13 グラフィックメモリ、14 表示ドライバ、50,80 声紋データ、51,81 言葉データ、52,82 識別データ、53 持物リスト、54 日付データ、55 時刻データ、60 サブ持物リスト、61 距離別持物リスト、62 チェックデータ、70 天候別持物リスト、83 伝言データ、84 伝言者データ、100 情報処理装置、101 入力受付部、102 情報格納部、103 抽出部、104 発話文字取得部、105 情報読出部、106 物品情報読出部、107 天候別情報読出部、108 伝言情報読出部、109 距離判定部、110 位置取得部、111 天候取得部、112 計時部、113 情報出力部、114 出力態様変更部、115 情報送信部、116 書込部、117 関連付情報出力部、118 動作検出部、119 離れ検出部、202 表示部、431 持物リスト記憶部、432 伝言記憶部。   2 Tablets, 4 cameras, 5 microphones, 6 speakers, 10 processors, 12 timers, 13 graphic memories, 14 display drivers, 50, 80 voice print data, 51, 81 word data, 52, 82 identification data, 53 belongings list, 54 dates Data, 55 Time data, 60 Sub inventory list, 61 Distance inventory list, 62 Check data, 70 Weather inventory list, 83 Message data, 84 Messager data, 100 Information processing device, 101 Input reception unit, 102 Information storage unit , 103 extraction unit, 104 spoken character acquisition unit, 105 information reading unit, 106 article information reading unit, 107 weather information reading unit, 108 message information reading unit, 109 distance determination unit, 110 position acquisition unit, 111 weather acquisition unit, 112 Timekeeping section, 113 Information output section, 114 Output Force mode change unit, 115 information transmission unit, 116 writing unit, 117 associated information output unit, 118 operation detection unit, 119 away detection unit, 202 display unit, 431 belonging list storage unit, 432 message storage unit.

Claims (13)

少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とを関連付けて格納するためのメモリと、
発話の音声を取得するための音声取得手段と、
取得された音声から、声紋を抽出するための抽出手段と、
取得された音声の文字データを取得する発話文字取得手段と、
前記抽出手段により抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記発話文字取得手段により取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出す情報読出手段と、
前記情報読出手段により読出された情報を出力部に出力させるための情報出力手段と、を備える、情報処理装置。
A memory for associating and storing at least one kind of voiceprint data, at least one word data composed of a plurality of characters, and information on the next action corresponding to the word data;
Voice acquisition means for acquiring the voice of the utterance;
Extraction means for extracting a voiceprint from the acquired voice;
An utterance character acquisition means for acquiring character data of the acquired voice;
Of the word data associated with the voice print data that matches the voice print data extracted by the extraction means, information on the next action corresponding to the word data that matches the character data acquired by the spoken character acquisition means, Information reading means for reading from the memory;
An information output device comprising: information output means for causing the output unit to output information read by the information reading means.
音声が取得される時間を計時するための計時手段を、さらに備え、
前記メモリには、さらに、
前記次の行動に関する情報に対応し当該情報が出力されるべき時間を示す時間データが格納され、
前記情報読出手段は、
抽出された前記声紋を示す前記声紋データに関連付けされた前記少なくとも1つの言葉データのうち、前記発話文字取得手段により取得された文字データと一致する言葉データに対応する前記次の行動に関する情報であって、且つ、前記計時手段が計時した時間が、該次の行動に関する情報に対応する前記時間データと一致または範囲内に入っている場合に、該行動に関する情報を読出す、請求項1に記載の情報処理装置。
It further comprises a timing means for timing the time when the sound is acquired,
The memory further includes:
Corresponding to the information about the next action, time data indicating the time when the information should be output is stored,
The information reading means includes
Of the at least one word data associated with the voice print data indicating the extracted voice print, information on the next action corresponding to the word data matching the character data acquired by the spoken character acquisition means. The information related to the action is read out when the time measured by the time measuring means matches or falls within the range of the time data corresponding to the information related to the next action. Information processing device.
前記少なくとも1つの言葉データには、発話者の出発に際し発せられる言葉を示す第1言葉データが含まれ、
前記メモリの前記第1言葉データに対応する前記次の行動に関する情報には、出発に際し携帯するべき携帯物品を示す物品情報が含まれ、
前記情報読出手段は、
前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示すとき、当該言葉を示す前記第1言葉データに対応する前記物品情報を読出す物品情報読出手段を含む、請求項1または2に記載の情報処理装置。
The at least one word data includes first word data indicating words uttered on departure of the speaker,
The information relating to the next action corresponding to the first word data in the memory includes article information indicating a portable article to be carried on departure,
The information reading means includes
The article information reading means for reading the article information corresponding to the first word data indicating the word when the character data acquired by the spoken character acquisition means indicates a word uttered upon the departure. 2. The information processing apparatus according to 2.
前記メモリの前記第1言葉データに対応する前記次の行動に関する情報は、天気または降水確率の少なくとも何れか一方を示す複数種類の天候のそれぞれに対応して当該天候のもとで携帯するべき物品を示す物品情報を含み、
前記音声取得手段により音声が取得されるときの天候、またはその後に予測される天候に関する天候データを取得するための天候取得手段を、さらに備え、
前記物品情報読出手段は、
前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示すとき、当該言葉を示す前記第1言葉データに対応する前記天候のもとで携帯するべき物品を示す物品情報のうち、前記天候取得手段が取得する天候データによって示される天候の種類に対応する情報を読出す手段を含む、請求項3に記載の情報処理装置。
The information on the next action corresponding to the first word data in the memory is an article to be carried under the weather corresponding to each of a plurality of types of weather indicating at least one of weather and a probability of precipitation. Including product information indicating
Weather acquisition means for acquiring weather data related to the weather when the voice is acquired by the voice acquisition means or the weather predicted thereafter;
The article information reading means includes
When the character data acquired by the spoken character acquisition means indicates a word uttered at the time of departure, among the item information indicating the item to be carried under the weather corresponding to the first word data indicating the word, The information processing apparatus according to claim 3, further comprising means for reading information corresponding to a type of weather indicated by weather data acquired by the weather acquisition means.
前記携帯物品は、携帯端末を含み、
前記情報処理装置は、
前記携帯端末の位置を示す位置情報を取得するための位置取得手段と、
取得される前記位置情報から、前記携帯端末は前記情報処理装置から予め定められた距離以上離れているか否かを判定するための距離判定手段と、をさらに備え、
前記物品情報読出手段は、
前記発話文字取得手段が取得する文字データが前記出発に際し発せられる言葉を示し、且つ前記距離判定手段により離れていると判定されるとき、当該言葉を示す前記第1言葉データに対応する前記携帯端末を含む携帯物品を示す物品情報を読出す手段を含む、請求項3に記載の情報処理装置。
The portable article includes a portable terminal,
The information processing apparatus includes:
Position acquisition means for acquiring position information indicating the position of the mobile terminal;
Distance determining means for determining whether or not the portable terminal is separated from the information processing apparatus by a predetermined distance or more from the acquired position information,
The article information reading means includes
The portable terminal corresponding to the first word data indicating the word when the character data acquired by the spoken character acquisition means indicates a word uttered at the departure and is determined to be separated by the distance determination means The information processing apparatus according to claim 3, further comprising means for reading article information indicating a portable article including
前記メモリには、前記少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納され、
前記情報処理装置は、さらに、
前記情報出力手段により前記次の行動に関する情報が前記出力部に出力されると、その後、当該次の行動に関する情報に対応する前記声紋データについて前記メモリに格納される前記通信アドレスのデータを用いて、前記通信端末に当該次の行動に関する情報を送信するための情報送信手段を備える、請求項1から5のいずれかに記載の情報処理装置。
In the memory, for each of the at least one type of voiceprint data, data of a communication address of a communication terminal is stored,
The information processing apparatus further includes:
When information related to the next action is output to the output unit by the information output unit, the voice address data corresponding to the information related to the next action is then used using the data of the communication address stored in the memory. The information processing apparatus according to claim 1, further comprising information transmission means for transmitting information related to the next action to the communication terminal.
発話者が前記情報処理装置から離れているか否かを検出するための離れ検出手段を、さらに備え、
前記情報送信手段は、
前記情報出力手段により前記次の行動に関する情報が前記出力部に出力されると、その後、前記離れ検出手段により発話者が離れていることが検出されるとき、当該次の行動に関する情報に対応する前記声紋データについて前記メモリに格納される前記通信アドレスのデータを用いて、前記通信端末に当該次の行動に関する情報を送信するための手段を備える、請求項6に記載の情報処理装置。
A distance detecting means for detecting whether or not the speaker is away from the information processing apparatus,
The information transmitting means includes
When information related to the next action is output to the output unit by the information output means, the information corresponding to the next action is detected when it is detected that the speaker is away by the distance detection means. The information processing apparatus according to claim 6, further comprising means for transmitting information on the next action to the communication terminal using the data of the communication address stored in the memory for the voiceprint data.
前記出力部は、情報を表示するための画面を含み、
前記情報処理装置は、
人の予め定められた動作を検出するための動作検出手段を、さらに備え、
前記情報出力手段は、
前記次の行動に関する情報が前記出力部に出力されるとき、前記動作検出手段により前記予め定められた動作が検出される場合に、当該次の行動に関する情報の出力態様を変更させるための手段を含む、請求項1から7のいずれかに記載の情報処理装置。
The output unit includes a screen for displaying information,
The information processing apparatus includes:
A motion detecting means for detecting a predetermined motion of the person,
The information output means includes
Means for changing the output mode of information relating to the next action when the predetermined action is detected by the action detecting means when the information relating to the next action is output to the output unit; The information processing apparatus according to claim 1, further comprising:
前記メモリには、前記少なくとも1種類の声紋データのそれぞれについて、さらに通信端末の通信アドレスのデータが格納され、
前記情報処理装置は、
前記次の行動に関する情報が前記出力部に出力されるとき前記動作検出手段により前記予め定められた動作が検出されない場合に、当該次の行動に関する情報を、前記抽出された声紋を示す前記声紋データについての前記メモリの前記通信アドレスのデータを用いて、前記通信端末に送信する、請求項8に記載の情報処理装置。
In the memory, for each of the at least one type of voiceprint data, data of a communication address of a communication terminal is stored,
The information processing apparatus includes:
When the information relating to the next action is output to the output unit, if the predetermined action is not detected by the action detecting means, the information relating to the next action is converted to the voiceprint data indicating the extracted voiceprint. The information processing apparatus according to claim 8, wherein data of the communication address in the memory is transmitted to the communication terminal.
前記メモリには、前記少なくとも1種類の声紋データのそれぞれに対応し、さらに人物を識別するための識別データが格納され、
前記情報処理装置は、さらに、
前記次の行動に関する情報が前記出力部に出力されるとき前記動作検出手段により前記予め定められた動作が検出されない場合に、前記メモリに、当該次の行動に関する情報に関連して当該動作が検知されない旨を示す情報を書込む書込手段と、
前記動作が検知されない旨を示す情報が関連付けされた前記次の行動に関する情報と、当該次の行動に関する情報が関連付けされた前記声紋データに対応の前記識別データとを前記メモリから読出し、読出した情報を前記出力部に出力させる手段とを含む、請求項8または9に記載の情報処理装置。
The memory stores identification data for identifying each person corresponding to each of the at least one kind of voiceprint data.
The information processing apparatus further includes:
When the information regarding the next action is output to the output unit and the predetermined action is not detected by the action detection unit, the action is detected in the memory in relation to the information about the next action. Writing means for writing information indicating that it is not performed;
Information that is read from the memory, the information related to the next action associated with information indicating that the operation is not detected, and the identification data corresponding to the voiceprint data associated with the information related to the next action are read from the memory The information processing apparatus according to claim 8, further comprising: means for outputting the information to the output unit.
前記少なくとも1つの言葉データは、発話者の帰着に際し発せられる言葉を示す第2言葉データを含み、
前記メモリの前記第2言葉データに対応する前記次の行動に関する情報は、伝言の情報を含み、
前記情報読出手段は、
前記発話文字取得手段が取得する文字データが前記帰着に際しに発せられる言葉を示すとき、当該言葉を示す前記第2言葉データに対応する前記伝言の情報を読出す手段を含む、請求項1から10のいずれかに記載の情報処理装置。
The at least one word data includes second word data indicating words to be spoken upon the speaker's return;
The information on the next action corresponding to the second word data in the memory includes message information,
The information reading means includes
The character information acquired by the spoken character acquisition means includes means for reading out the information of the message corresponding to the second word data indicating the word when the character data indicates a word uttered upon the return. The information processing apparatus according to any one of the above.
メモリから情報を読出す情報処理方法であって、
前記メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、
発話の音声から、声紋を抽出するステップと、
前記発話の音声の文字データを取得するステップと、
前記抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記取得するステップにおいて取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出すステップと、
前記読出すステップにおいて読出された情報を出力部に出力させるステップと、を備える、情報処理方法。
An information processing method for reading information from a memory,
The memory stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information related to the next action corresponding to the word data,
Extracting a voiceprint from the voice of the utterance;
Obtaining character data of speech of the utterance;
Of the word data associated with the voiceprint data that matches the voiceprint data extracted in the extracting step, the information regarding the next action corresponding to the word data that matches the character data acquired in the acquiring step, Reading from the memory;
And outputting the information read in the reading step to an output unit.
メモリから情報を読出す情報処理方法をプロセッサに実行させるためのプログラムであって、
前記メモリには、少なくとも1種類の声紋データと、複数の文字からなる少なくとも1つの言葉データと、当該言葉データに対応した次の行動に関する情報とが関連付けて格納され、
前記プログラムは、前記プロセッサに、
発話の音声から、声紋を抽出するステップと、
前記発話の音声の文字データを取得するステップと、
前記抽出するステップにおいて抽出された声紋と一致する声紋データに関連付けられた言葉データのうち、前記取得するステップにおいて取得された文字データと一致する言葉データに対応した前記次の行動に関する情報を、前記メモリから読出すステップと、
前記読出すステップにおいて読出された情報を出力部に出力させるステップと、を実行させるプログラム。
A program for causing a processor to execute an information processing method for reading information from a memory,
The memory stores at least one type of voiceprint data, at least one word data composed of a plurality of characters, and information related to the next action corresponding to the word data,
The program is stored in the processor.
Extracting a voiceprint from the voice of the utterance;
Obtaining character data of speech of the utterance;
Of the word data associated with the voiceprint data that matches the voiceprint data extracted in the extracting step, the information regarding the next action corresponding to the word data that matches the character data acquired in the acquiring step, Reading from the memory;
Causing the output unit to output the information read in the step of reading.
JP2012149424A 2012-07-03 2012-07-03 Information processing device Pending JP2014010816A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149424A JP2014010816A (en) 2012-07-03 2012-07-03 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149424A JP2014010816A (en) 2012-07-03 2012-07-03 Information processing device

Publications (1)

Publication Number Publication Date
JP2014010816A true JP2014010816A (en) 2014-01-20

Family

ID=50107410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149424A Pending JP2014010816A (en) 2012-07-03 2012-07-03 Information processing device

Country Status (1)

Country Link
JP (1) JP2014010816A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219706A (en) * 2018-06-15 2019-12-26 Mamorio株式会社 Lost property information audio answering system, method and program
CN113506550A (en) * 2021-07-29 2021-10-15 北京花兰德科技咨询服务有限公司 Artificial intelligent reading display and display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219706A (en) * 2018-06-15 2019-12-26 Mamorio株式会社 Lost property information audio answering system, method and program
CN113506550A (en) * 2021-07-29 2021-10-15 北京花兰德科技咨询服务有限公司 Artificial intelligent reading display and display method

Similar Documents

Publication Publication Date Title
US11763580B2 (en) Information processing apparatus, information processing method, and program
US11164213B2 (en) Systems and methods for remembering held items and finding lost items using wearable camera systems
US20200013038A1 (en) Information processing device, information processing method, and program
KR102327203B1 (en) Electronic apparatus and operation method of the same
US8451194B2 (en) Information processing system, digital photo frame, information processing method, and computer program product
CN105573573B (en) Apparatus and method for managing user information based on image
US8606316B2 (en) Portable blind aid device
JP5158174B2 (en) Voice recognition device
US20210081749A1 (en) Artificial intelligence assisted wearable
CN106663245A (en) Social reminders
JP2010061265A (en) Person retrieval and registration system
JP2005315802A (en) User support device
US20120137254A1 (en) Context-aware augmented communication
US11289084B2 (en) Sensor based semantic object generation
JP2013105345A (en) Information registration device, information registration method, information registration system, information presentation device, information presentation method, information presentation system, and program
JP2003533768A (en) Memory support device
EP3893087A1 (en) Response processing device, response processing method, and response processing program
CN104365040A (en) Electronic apparatus and garment
JP2014010816A (en) Information processing device
JP2013183386A (en) Information processor, information processing method, and program
JP3962916B2 (en) Verification system
US20150161572A1 (en) Method and apparatus for managing daily work
US20230038025A1 (en) Apparatus and method for providing a wireless, portable, and/or handheld, device with safety features
US20210056491A1 (en) Information processing apparatus, information processing method, and program therefor
WO2015105075A1 (en) Information processing apparatus and electronic device