JP5418347B2 - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP5418347B2
JP5418347B2 JP2010066242A JP2010066242A JP5418347B2 JP 5418347 B2 JP5418347 B2 JP 5418347B2 JP 2010066242 A JP2010066242 A JP 2010066242A JP 2010066242 A JP2010066242 A JP 2010066242A JP 5418347 B2 JP5418347 B2 JP 5418347B2
Authority
JP
Japan
Prior art keywords
information
condition
voice
face
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010066242A
Other languages
Japanese (ja)
Other versions
JP2011197538A (en
Inventor
孝行 小金
純人 篠原
祐人 布川
哲也 半田
公靖 水野
岳浩 相原
一志 雨谷
直隆 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010066242A priority Critical patent/JP5418347B2/en
Publication of JP2011197538A publication Critical patent/JP2011197538A/en
Application granted granted Critical
Publication of JP5418347B2 publication Critical patent/JP5418347B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムに関する。   The present invention relates to an information processing apparatus and a program suitable for presenting information desired by a user.

インターネット等の通信回路網を通じて、自情報処理装置と他情報処理装置との間で、情報が送受信される情報処理装置が知られている。特許文献1には、他情報処理装置を所有するユーザが、自情報処理装置に対して所定の情報を送信すると、当該自情報処理装置に所定の情報が提示される技術が開示されている。情報処理装置間で情報が送受信されることにより、情報処理装置を所有するユーザ同士で、所定のコミュニケーションを取ることができる。   Information processing apparatuses are known in which information is transmitted and received between a local information processing apparatus and another information processing apparatus through a communication circuit network such as the Internet. Patent Document 1 discloses a technique in which, when a user who owns another information processing apparatus transmits predetermined information to the own information processing apparatus, the predetermined information is presented to the own information processing apparatus. By transmitting and receiving information between the information processing devices, users who own the information processing devices can communicate with each other.

特開2005−253006号公報JP 2005-253006 A

しかしながら、特許文献1に記載される情報処理装置では、他情報処理装置から送信され、自情報処理装置に提示される情報と、自情報処理装置を所有するユーザが所望する情報と、が一致しない場合があるため、ユーザによっては、所望した情報が提示されないことを不満に感じることがあった。従って、ユーザが所望する情報を提示するのに好適な新たな手法が求められている。   However, in the information processing apparatus described in Patent Document 1, information transmitted from another information processing apparatus and presented to the information processing apparatus does not match information desired by the user who owns the information processing apparatus. In some cases, some users may feel frustrated that the desired information is not presented. Therefore, a new method suitable for presenting information desired by the user is demanded.

本発明は、上記問題に鑑みてなされたものであり、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an information processing apparatus and a program suitable for presenting information desired by a user.

上記目的を達成するため、本発明の第1の観点に係る情報処理装置は、
情報処理装置であって、
前記情報処理装置のユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記情報処理装置の環境情報を示す環境情報データを取得する環境情報取得部と、
前記情報処理装置以外の他情報処理装置から、当該他情報処理装置のユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記情報処理装置のユーザに対して提示する提示部と、
を備えることを特徴とする。
In order to achieve the above object, an information processing apparatus according to the first aspect of the present invention provides:
An information processing apparatus,
A face information acquisition unit that acquires face information data indicating the face information of the user of the information processing apparatus;
An environment information acquisition unit that acquires environment information data indicating environment information of the information processing apparatus;
A communication unit that receives voice data representing voice uttered by a user of the other information processing apparatus from another information processing apparatus other than the information processing apparatus;
The received voice data is obtained by referring to a correspondence table in which a plurality of voice information, environmental conditions that are conditions related to the environmental information, and face conditions that are conditions related to the user's face information are stored in association with each other. A specifying unit that specifies the environmental condition and the face condition corresponding to the voice information stored in the correspondence table at least partially matching the voice information represented by the voice represented by:
Determination that determines whether the environmental information indicated by the acquired environmental information data satisfies the specified environmental condition and the facial information indicated by the acquired face information data satisfies the specified facial condition And
A presentation unit that presents a voice represented by the received voice data to a user of the information processing apparatus according to a determination result of the determination unit;
It is characterized by providing.

本発明の第2の観点に係るプログラムは、
コンピュータを情報処理装置として機能させるプログラムであって、
前記コンピュータのユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記コンピュータの環境情報を示す環境情報データを取得する環境情報取得部と、
前記コンピュータ以外の他コンピュータから、当該他コンピュータのユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記コンピュータのユーザに対して提示する提示部と、
して機能させることを特徴とする。
The program according to the second aspect of the present invention is:
A program that causes a computer to function as an information processing device,
A face information acquisition unit for acquiring face information data indicating the face information of the user of the computer;
An environmental information acquisition unit that acquires environmental information data indicating environmental information of the computer;
A communication unit that receives voice data representing a voice uttered by a user of the other computer from a computer other than the computer;
The received voice data is obtained by referring to a correspondence table in which a plurality of voice information, environmental conditions that are conditions related to the environmental information, and face conditions that are conditions related to the user's face information are stored in association with each other. A specifying unit that specifies the environmental condition and the face condition corresponding to the voice information stored in the correspondence table at least partially matching the voice information represented by the voice represented by:
Determination that determines whether the environmental information indicated by the acquired environmental information data satisfies the specified environmental condition and the facial information indicated by the acquired face information data satisfies the specified facial condition And
A presentation unit that presents a voice represented by the received voice data to a user of the computer according to a determination result of the determination unit;
It is characterized by functioning.

本発明によれば、ユーザが所望する情報を提示することができる。   According to the present invention, information desired by a user can be presented.

本発明の実施形態に係る情報処理装置が実現されるデジタルフォトスタンドのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the digital photo stand by which the information processing apparatus which concerns on embodiment of this invention is implement | achieved. デジタルフォトスタンドの概略外観図である。It is a schematic external view of a digital photo stand. 通信回路網を介したデジタルフォトスタンドの接続を示す概略構成図である。It is a schematic block diagram which shows the connection of the digital photo stand through a communication network. 本発明の実施形態に係る情報処理装置の各部の機能を示すブロック図である。It is a block diagram which shows the function of each part of the information processing apparatus which concerns on embodiment of this invention. 記憶部に記憶される対応表の一例を示す図である。It is a figure which shows an example of the correspondence table memorize | stored in a memory | storage part. 情報処理装置にて実行される登録処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the registration process performed with an information processing apparatus. 登録される情報の一例を示す図である。It is a figure which shows an example of the information registered. 他情報処理装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of another information processing apparatus. 他情報処理装置に提示されるユーザ情報の提示例を示す図である。It is a figure which shows the example of presentation of the user information shown to another information processing apparatus. 自情報処理装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a self-information processing apparatus. 自情報処理装置において、音声データが表す音声が提示される例を示す図である。It is a figure which shows the example in which the audio | voice represented by audio | voice data is shown in the own information processing apparatus. (a)〜(c)は、自情報処理装置において、音声データが表す音声が提示されない例を示す図である。(A)-(c) is a figure which shows the example in which the audio | voice which audio | voice data represent is not shown in the own information processing apparatus.

以下に、本発明の実施形態に係る情報処理装置について説明する。以下では情報処理装置として、デジタル写真等が表示されるデジタルフォトスタンドを例として説明しているが、これに限られず、例えば、デジタルカメラ、各種のコンピュータ、PDA(Personal Digital Assistant)、携帯電話などの情報処理装置において本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   The information processing apparatus according to the embodiment of the present invention will be described below. In the following description, a digital photo stand on which a digital photograph or the like is displayed is described as an example of the information processing apparatus. However, the present invention is not limited to this. For example, a digital camera, various computers, a PDA (Personal Digital Assistant), a mobile phone, The present invention can be applied to any information processing apparatus. In other words, the embodiments described below are for illustrative purposes and do not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、本発明の実施形態に係る情報処理装置が実現される典型的なデジタルフォトスタンド10のハードウェア構成を示すブロック図である。また、図2にデジタルフォトスタンド10の外観図を示す。以下、これらの図を参照して説明する。   FIG. 1 is a block diagram showing a hardware configuration of a typical digital photo stand 10 in which an information processing apparatus according to an embodiment of the present invention is realized. FIG. 2 shows an external view of the digital photo stand 10. Hereinafter, description will be given with reference to these drawings.

デジタルフォトスタンド10は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、記憶装置13と、メディアコントローラ14と、入力キー15と、駆動回路16と、表示パネル17と、音声センサ18と、イメージセンサ19と、メモリカード20と、スピーカ21と、NIC(Network Interface Card)22と、RTC(Real Time Clock)23、環境センサ24と、を備える。   The digital photo stand 10 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a storage device 13, a media controller 14, an input key 15, a drive circuit 16, a display panel 17, and audio. A sensor 18, an image sensor 19, a memory card 20, a speaker 21, a NIC (Network Interface Card) 22, an RTC (Real Time Clock) 23, and an environment sensor 24 are provided.

CPU11は、デジタルフォトスタンド10全体の動作を制御し、各構成要素と接続され制御信号やデータをやり取りする。   The CPU 11 controls the operation of the entire digital photo stand 10 and is connected to each component to exchange control signals and data.

RAM12は、データやプログラムを一時的に記憶するためのものである。RAM12には、プログラムやデータ、その他デジタルフォトスタンド10の動作に必要なデータが保持される。   The RAM 12 is for temporarily storing data and programs. The RAM 12 holds programs, data, and other data necessary for the operation of the digital photo stand 10.

記憶装置13は、例えば、ハードディスクやフラッシュメモリ等によって構成され、メモリカード20から読み出された画像データ等、任意のデータを記憶する。ここで、メモリカード20は、例えば、フラッシュメモリ等によって構成され、各種のデータを記憶する。メモリカード20には、デジタルカメラの撮影によって得られたデジタル写真等の画像データが記録される。   The storage device 13 is composed of, for example, a hard disk or a flash memory, and stores arbitrary data such as image data read from the memory card 20. Here, the memory card 20 is configured by, for example, a flash memory and stores various data. The memory card 20 stores image data such as a digital photograph obtained by photographing with a digital camera.

メディアコントローラ14は、メモリカード20に対してデータを読み書きするものである。   The media controller 14 reads and writes data from and to the memory card 20.

デジタルフォトスタンド10の側面には、例えば、図2に示すように、メモリカード20を挿入するためのメモリカード挿入口14aが設けられ、このメモリカード挿入口14aにメモリカード20が挿入されると、メモリカード20とメディアコントローラ14とが接続される。そして、メモリカード20とメディアコントローラ14との接続が確認されると、メモリカード20に記録された画像データが読み出される。   For example, as shown in FIG. 2, a memory card insertion slot 14a for inserting a memory card 20 is provided on the side surface of the digital photo stand 10, and the memory card 20 is inserted into the memory card insertion slot 14a. The memory card 20 and the media controller 14 are connected. When the connection between the memory card 20 and the media controller 14 is confirmed, the image data recorded on the memory card 20 is read.

入力キー15は、ユーザからの操作指示を受け付けるためのキーである。入力キー15は、例えば、ユーザが所望する写真を選択するために用いられる選択キーや、写真画像を順次表示する、いわゆるスライドショーの開始及び停止に用いられる再生・停止キー等から構成される。入力キー15は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17枠の下部に配置され、ユーザの押圧操作に応じたオン信号等を操作情報として出力する。   The input key 15 is a key for accepting an operation instruction from the user. The input key 15 includes, for example, a selection key used for selecting a photograph desired by the user, a playback / stop key used for starting and stopping a so-called slide show for sequentially displaying photograph images, and the like. As shown in FIG. 2, the input key 15 is disposed, for example, at the lower part of the frame of the display panel 17 of the digital photo stand 10, and outputs an ON signal or the like corresponding to the user's pressing operation as operation information.

駆動回路16は、記憶装置13やメモリカード20に記憶される画像データに従って表示パネル17を駆動し、当該表示パネル17に画像、操作画面等を表示させる。   The drive circuit 16 drives the display panel 17 according to the image data stored in the storage device 13 or the memory card 20, and displays an image, an operation screen, or the like on the display panel 17.

表示パネル17は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル等によって構成され、駆動回路16の動作に基づいて、任意の画像を表示する。表示パネル17は、図2に示すように、例えば、デジタルフォトスタンド10の前面に配置される。   The display panel 17 is composed of, for example, a liquid crystal panel, an organic EL (Electro Luminescence) panel, and the like, and displays an arbitrary image based on the operation of the drive circuit 16. As shown in FIG. 2, the display panel 17 is disposed on the front surface of the digital photo stand 10, for example.

音声センサ18は、ユーザが発した音声や周囲の音声を検出するセンサである。音声センサ18は、例えば、マイクから構成される。音声センサ18は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17の枠に設けられている。ユーザから声が発せられると、音声センサ18は、当該声を表す音声データを取得する。   The voice sensor 18 is a sensor that detects a voice uttered by a user and surrounding voices. The audio sensor 18 is composed of, for example, a microphone. As shown in FIG. 2, the audio sensor 18 is provided, for example, on the frame of the display panel 17 of the digital photo stand 10. When a voice is emitted from the user, the voice sensor 18 acquires voice data representing the voice.

イメージセンサ19は、画像を表す画像データを取得するためのセンサである。イメージセンサ19は、例えば、CCD(Charge Coupled Device)式、CMOS(Complementary Metal Oxide Semiconductor)式等のカメラから構成される。イメージセンサ19は、図2に示すように、例えば、デジタルフォトスタンド10の表示パネル17の枠に設けられている。イメージセンサ19は、典型的には、デジタルフォトスタンド10の周囲の画像を、任意のタイミングで、任意の回数だけ撮影する。また、イメージセンサ19は、動画像を撮影することもできる。そして、当該撮影された画像は、記憶装置13やメモリカード20に記憶される。   The image sensor 19 is a sensor for acquiring image data representing an image. The image sensor 19 is configured by a camera such as a CCD (Charge Coupled Device) type or a CMOS (Complementary Metal Oxide Semiconductor) type, for example. As shown in FIG. 2, the image sensor 19 is provided, for example, on the frame of the display panel 17 of the digital photo stand 10. The image sensor 19 typically captures an image around the digital photo stand 10 an arbitrary number of times at an arbitrary timing. The image sensor 19 can also capture a moving image. Then, the captured image is stored in the storage device 13 or the memory card 20.

スピーカ21は、音声や音楽を出力するものである。記憶装置13やメモリカード20に記憶される音声データが再生されると、スピーカ21は、当該音声データが表す音声を出力する。   The speaker 21 outputs voice and music. When the audio data stored in the storage device 13 or the memory card 20 is reproduced, the speaker 21 outputs the audio represented by the audio data.

NIC22は、デジタルフォトスタンド10をインターネット等の通信回路網に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム、無線により通信を行うためのモデム等と、これらとCPU11との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 22 is for connecting the digital photo stand 10 to a communication circuit network such as the Internet. The NIC 22 conforms to the 10BASE-T / 100BASE-T standard used for configuring a LAN (Local Area Network), a telephone, Analog modem to connect to the Internet using a line, ISDN (Integrated Services Digital Network) modem, ADSL (Asymmetric Digital Subscriber Line) modem, cable modem to connect to the Internet using a cable television line, wireless communication For example, a modem and the like, and an interface (not shown) that mediates between the modem and the like.

図3は、通信回路網を介したデジタルフォトスタンド10の接続を示す概略構成図である。複数のデジタルフォトスタンド10(10a〜10d)は、NIC22を通じて通信回路網に接続され、当該デジタルフォトスタンド10間で、サーバ装置30を介して、データのやり取りが行われる。例えば、デジタルフォトスタンド10aからデータが送信されると、デジタルフォトスタンド10b〜10dは、当該データを受信し、当該データが表す情報をユーザに対して提示する。また、デジタルフォトスタンド10から送信されたデータは、通信回路網に接続されているサーバ装置30に保存される。   FIG. 3 is a schematic configuration diagram showing the connection of the digital photo stand 10 through the communication circuit network. The plurality of digital photo stands 10 (10 a to 10 d) are connected to a communication circuit network through the NIC 22, and data is exchanged between the digital photo stands 10 via the server device 30. For example, when data is transmitted from the digital photo stand 10a, the digital photo stands 10b to 10d receive the data and present information represented by the data to the user. Data transmitted from the digital photo stand 10 is stored in the server device 30 connected to the communication circuit network.

図2に戻って、RTC23は、例えば、水晶振動子や発振回路等から構成され、日時(年月日時分秒及び曜日を含む)を計時(カウント)する。そして、RTC23は、日時を計時することにより、カレンダーや時計として機能する。   Returning to FIG. 2, the RTC 23 is composed of, for example, a crystal resonator, an oscillation circuit, and the like, and measures (counts) the date and time (including year / month / day / hour / minute / second and day of the week). The RTC 23 functions as a calendar or a clock by measuring the date and time.

環境センサ24は、温度、湿度、気圧等を示す環境情報を取得するセンサである。環境センサ24は、例えば、温度計、湿度計、気圧計等から構成され、デジタルフォトスタンド10が配置された周囲の温度や湿度等を示す環境情報を取得する。   The environmental sensor 24 is a sensor that acquires environmental information indicating temperature, humidity, atmospheric pressure, and the like. The environmental sensor 24 includes, for example, a thermometer, a hygrometer, a barometer, and the like, and acquires environmental information indicating the temperature, humidity, and the like around the digital photo stand 10.

以下では、注記しない限り、後述する情報処理装置について、図1〜図3に示したデジタルフォトスタンド10により説明を加える。情報処理装置は、必要に応じて適宜一般的なコンピュータやデジタルカメラ等の要素に置換することができ、これらの実施形態も本発明の範囲に含まれる。   Hereinafter, unless otherwise noted, the information processing apparatus to be described later will be described with reference to the digital photo stand 10 shown in FIGS. The information processing apparatus can be appropriately replaced with elements such as a general computer and a digital camera as necessary, and these embodiments are also included in the scope of the present invention.

(情報処理装置の構成)
本実施形態に係る情報処理装置100の概要構成について図4を参照して説明する。情報処理装置100は、制御部110と、記憶部120と、通信部130と、提示部140と、取得部150と、特定部160と、判定部170と、を備える。以下に情報処理装置100の各構成要素について説明する。
なお、各部の機能は互いに連関し合っているが、用途に応じて各部の採否を適宜変更することができる。
(Configuration of information processing device)
A schematic configuration of the information processing apparatus 100 according to the present embodiment will be described with reference to FIG. The information processing apparatus 100 includes a control unit 110, a storage unit 120, a communication unit 130, a presentation unit 140, an acquisition unit 150, a specification unit 160, and a determination unit 170. Hereinafter, each component of the information processing apparatus 100 will be described.
In addition, although the function of each part is mutually linked | related, the acceptance / rejection of each part can be changed suitably according to a use.

制御部110は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやり取りする。   The control unit 110 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data.

CPU11、及び、RAM12等が協働して動作することにより、制御部110として機能する。   The CPU 11, the RAM 12, and the like operate in cooperation to function as the control unit 110.

記憶部120は、提示部140がユーザに対して提示する画像を表す画像データや音声を表す音声データ等を記憶する。また、記憶部120は、情報処理装置100を操作するユーザの顔を表す顔情報データ、当該ユーザが発した音声を示す音声データ、環境情報を示す環境情報データ、音声情報と、環境情報に関する条件である環境条件と、ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表、ユーザが設定した設定データ、情報処理装置100を制御するための制御プログラム等、任意のデータ・情報を記憶する。   The storage unit 120 stores image data representing an image presented by the presentation unit 140 to the user, audio data representing sound, and the like. In addition, the storage unit 120 includes face information data representing the face of the user who operates the information processing apparatus 100, sound data representing the voice uttered by the user, environment information data representing the environment information, sound information, and conditions regarding the environment information A correspondence table in which a plurality of environmental conditions and face conditions that are conditions related to user face information are stored in association with each other, setting data set by the user, a control program for controlling the information processing apparatus 100, and the like Arbitrary data / information is stored.

ここで、顔情報データとは、顔情報を表すデータをいう。
また、顔情報とは、人物の顔領域を示す情報をいい、目、鼻、口、耳等の位置や大きさを示す情報も含まれる。
また、音声データとは、音声を表すデータをいう。
また、音声情報とは、音声によって把握される1以上の単語又は文書を示す情報をいう。
また、環境情報データとは、環境情報を表すデータをいい、環境情報とは、典型的には、日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天気情報等を含む情報をいう。
また、対応表とは、音声情報と、環境情報に関する条件である環境条件と、ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された表であり、音声情報毎に対応付けられる環境条件及び顔条件を特定するために用いられる表である。
Here, the face information data refers to data representing face information.
The face information refers to information indicating a person's face area, and includes information indicating the position and size of eyes, nose, mouth, ears, and the like.
Moreover, audio | voice data means the data showing an audio | voice.
The voice information refers to information indicating one or more words or documents grasped by voice.
The environmental information data refers to data representing environmental information. The environmental information typically includes information including date information, time information, temperature information, humidity information, atmospheric pressure information, or weather information. Say.
The correspondence table is a table in which a plurality of voice information, environmental conditions that are conditions related to environmental information, and face conditions that are conditions related to user face information are stored in association with each other. 5 is a table used for specifying the environmental condition and the face condition associated with each other.

図5は、記憶部120に記憶される対応表の一例を示す図である。同図に示すように、音声を表す音声情報と、顔条件と、環境条件と、が対応付けられて記憶される。なお、同図に示される対応表は一例であり、任意の条件を設定することができる。   FIG. 5 is a diagram illustrating an example of the correspondence table stored in the storage unit 120. As shown in the figure, voice information representing a voice, a face condition, and an environmental condition are stored in association with each other. The correspondence table shown in the figure is an example, and arbitrary conditions can be set.

RAM12、記憶装置13、及び、メモリカード20等が協働して動作することにより、記憶部130として機能する。   The RAM 12, the storage device 13, the memory card 20, and the like operate in cooperation to function as the storage unit 130.

通信部130は、NIC22を通じて、インターネット等の通信回路網を介して、他の情報処理装置100に情報データを送信し、また、他の情報処理装置100が送信した情報データを受信する。また、通信部130は、NIC22を通じて、無線通信により、他の情報処理装置100との間で情報データの送受信を行うこともできる。   The communication unit 130 transmits information data to the other information processing apparatus 100 via the NIC 22 and the communication circuit network such as the Internet, and receives information data transmitted from the other information processing apparatus 100. The communication unit 130 can also transmit and receive information data to and from the other information processing apparatus 100 by wireless communication through the NIC 22.

CPU11、及び、NIC22等が協働して動作することにより、通信部120として機能する。   The CPU 11, the NIC 22, and the like operate in cooperation to function as the communication unit 120.

提示部140は、制御部110からの制御に基づいて、画像データが表す画像、及び/又は、音声データが表す音声をユーザに対して提示する。例えば、提示部110は、記憶部120に記憶される画像データ、もしくは、他の情報処理装置100から送信される画像データが表す画像を、一定の時間間隔おきに次々と表示したり、画面を多数に分割し、当該分割したそれぞれの画面に画像を同時に表示したりすることもできる。また、提示部140は、記憶部120に記憶される音声データ、もしくは、他の情報処理装置100から送信される音声データが表す音声を出力する。提示部140は、任意の方法に基づいて、任意の画像及び音声をユーザに対して提示することができる。   The presenting unit 140 presents the image represented by the image data and / or the sound represented by the audio data to the user based on the control from the control unit 110. For example, the presentation unit 110 displays the image data stored in the storage unit 120 or the image represented by the image data transmitted from the other information processing apparatus 100 one after another at a certain time interval, or displays a screen. It is also possible to divide into a large number and display images simultaneously on the divided screens. In addition, the presentation unit 140 outputs voice data stored in the storage unit 120 or voice represented by voice data transmitted from another information processing apparatus 100. The presentation unit 140 can present an arbitrary image and sound to the user based on an arbitrary method.

CPU11、駆動回路16、表示パネル17、及び、スピーカ21等が協働して動作することにより、提示部140として機能する。   The CPU 11, the drive circuit 16, the display panel 17, the speaker 21, and the like operate in cooperation to function as the presentation unit 140.

取得部150は、顔情報取得部151と、音声情報取得部152と、環境情報取得部153と、入力情報取得部154と、を備える。以下に取得部150の各構成要素について説明する。   The acquisition unit 150 includes a face information acquisition unit 151, an audio information acquisition unit 152, an environment information acquisition unit 153, and an input information acquisition unit 154. Below, each component of the acquisition part 150 is demonstrated.

顔情報取得部151は、情報処理装置100を操作するユーザの顔を表す顔情報データを取得する。顔情報取得部151は、例えば、ユーザが情報処理装置100の前面にいる場合、ユーザからの指示がある場合、所定の時間になった場合等、任意のタイミングにおいて、画像データを取得し、当該画像データからユーザの顔領域を検出することにより、ユーザの顔を表す顔情報データを取得する。ここで、情報処理装置100の前面とは、典型的には、ユーザの顔領域を検出することができる範囲をいい、情報処理装置100を操作するユーザを特定できる任意の範囲をいう。顔情報取得部151は、ユーザの顔を表す顔情報データを取得できた場合、情報処理装置100の前面にユーザがいると判定できる。顔情報取得部151は、例えば、イメージセンサ19を通じて、撮像する方向にある人物及び背景等の像(撮像画像)を取り込んで撮像信号を生成し、当該撮像信号に基づいて画像を表す画像データを取得する。   The face information acquisition unit 151 acquires face information data representing the face of the user who operates the information processing apparatus 100. The face information acquisition unit 151 acquires image data at an arbitrary timing, for example, when the user is in front of the information processing apparatus 100, when there is an instruction from the user, when a predetermined time comes, and the like Face information data representing the user's face is acquired by detecting the user's face area from the image data. Here, the front surface of the information processing apparatus 100 typically refers to a range in which a user's face area can be detected, and refers to an arbitrary range in which a user who operates the information processing apparatus 100 can be specified. The face information acquisition unit 151 can determine that the user is in front of the information processing apparatus 100 when the face information data representing the user's face can be acquired. For example, the face information acquisition unit 151 captures an image (captured image) such as a person and a background in the imaging direction through the image sensor 19 to generate an imaging signal, and generates image data representing the image based on the imaging signal. get.

人物の顔領域を検出するために、顔情報取得部151は、画像データが表す囲像における注目領域である人物の顔領域を探す(サーチする)。ここで、注目領域とは、主要被写体(人物)が写っている領域であり、典型的には、人物の顔が写っている顔領域をいう。顔情報取得部151は、例えば、予め用意されている、所定の顔(主要被写体)の像を含むテンプレート画像を用いて、テンプレートマッチング等によってテンプレート画像と所定基準以上類似する領域を探す。このような領域が注目領域であり、この領域があれば、顔情報取得部151は、この領域を注目領域として検出する。このような注目領域のサーチ・検出は、公知技術(所謂、顔検出等の技術)を利用できる。   In order to detect the face area of a person, the face information acquisition unit 151 searches (searches) for the face area of the person that is the attention area in the envelopment represented by the image data. Here, the attention area is an area in which a main subject (person) is shown, and typically refers to a face area in which a person's face is shown. The face information acquisition unit 151 uses, for example, a template image that is prepared in advance and includes an image of a predetermined face (main subject) to search for an area that is similar to the template image by a template matching or the like. Such an area is an attention area, and if this area exists, the face information acquisition unit 151 detects this area as the attention area. A known technique (so-called face detection technique or the like) can be used for such attention area search and detection.

なお、顔情報取得部151は、注目領域について、複数の候補がある場合には、例えば、そのうちのランダムに決めた一つの候補を注目領域とすることもできる。また、顔情報取得部151は、一つの画像データを用いて注目領域を検出できなかった場合には、顔情報取得部151が次に取得した画像データを用いて注目領域を検出することもできる。また、顔情報取得部151は、任意の設定(例えば、撮影方向、倍率、シャッタースピード、絞り等)で、画像データを取得することができる。   In addition, when there are a plurality of candidates for the attention area, for example, the face information acquisition unit 151 can set one of the candidates determined at random as the attention area. In addition, when the face information acquisition unit 151 cannot detect the attention area using one image data, the face information acquisition section 151 can also detect the attention area using the image data acquired next. . Further, the face information acquisition unit 151 can acquire image data with arbitrary settings (for example, shooting direction, magnification, shutter speed, aperture, etc.).

CPU11、入力キー15、及び、イメージセンサ19等が協働して動作することにより、顔情報取得部151として機能する。   The CPU 11, the input key 15, the image sensor 19, and the like operate in cooperation to function as the face information acquisition unit 151.

音声情報取得部152は、音声センサ18を通じて、ユーザが発した音声を表す音声データを取得する。例えば、音声情報取得部152は、例えば、ユーザが発した「おはよう」、「こんばんは」、「雨だね」、「暑いね」という音声を表す音声データを取得して、当該音声データを記憶部120に記憶させる。音声データは、情報処理装置100の間において、送受信が行われる。   The voice information acquisition unit 152 acquires voice data representing the voice uttered by the user through the voice sensor 18. For example, the voice information acquisition unit 152 acquires voice data representing voices such as “good morning”, “good evening”, “rain rain”, and “hot” issued by the user, and stores the voice data. 120 is stored. Audio data is transmitted and received between the information processing apparatuses 100.

CPU11、入力キー15、及び、音声センサ18等が協働して動作することにより、音声情報取得部152として機能する。   The CPU 11, the input key 15, the voice sensor 18, and the like operate in cooperation to function as the voice information acquisition unit 152.

環境情報取得部153は、例えば、通信回路網を通して、また、環境センサ24を通じて、環境情報を示す環境情報データを取得する。例えば、環境情報取得部153は、情報処理装置100が設置されている室内温度及び室内湿度、日時、天候等、任意の環境情報データを取得して、当該環境情報データを記憶部120に記憶させる。また、環境情報取得部153は、現在の日時(年月日時分秒及び曜日を含む)を計時(カウント)し、当該計時している現在の日時を取得する。また、環境情報取得部153は、例えば、NIC22を介して、通信回路網に接続されるサーバ装置30から、現在の天候を示す天候情報を取得する。   The environmental information acquisition unit 153 acquires environmental information data indicating environmental information through, for example, the communication circuit network and the environmental sensor 24. For example, the environmental information acquisition unit 153 acquires arbitrary environmental information data such as a room temperature and humidity in which the information processing apparatus 100 is installed, date and time, weather, and the like, and stores the environmental information data in the storage unit 120. . The environment information acquisition unit 153 measures (counts) the current date and time (including year, month, date, hour, minute, second, and day of the week), and acquires the current date and time. The environment information acquisition unit 153 acquires weather information indicating the current weather from the server device 30 connected to the communication circuit network, for example, via the NIC 22.

CPU11、入力キー15、NIC22、RTC23、及び、環境センサ24等が協働して動作することにより、環境情報取得部153として機能する。   The CPU 11, the input key 15, the NIC 22, the RTC 23, the environment sensor 24, and the like work together to function as the environment information acquisition unit 153.

入力情報取得部154は、ユーザからの指示入力を受け付けることにより、指示入力情報を取得する。例えば、入力情報取得部154は、入力キー15を通じて、ユーザからの指示入力を受け付ける。そして、受け付けられた指示入力に基づいて、情報処理装置100は動作する。また、入力情報取得部154は、ユーザからの指示入力に基づいて、「風景」や「人物」が撮影された画像を表す画像データを取得する。   The input information acquisition unit 154 acquires instruction input information by receiving an instruction input from the user. For example, the input information acquisition unit 154 receives an instruction input from the user through the input key 15. Then, the information processing apparatus 100 operates based on the received instruction input. Further, the input information acquisition unit 154 acquires image data representing an image of “landscape” or “person” taken based on an instruction input from the user.

CPU11、及び、入力キー15等が協働して動作することにより、入力情報取得部154として機能する。   The CPU 11 and the input key 15 and the like operate in cooperation to function as the input information acquisition unit 154.

取得部150は、顔情報取得部151、音声情報取得部152、環境情報取得部153、及び、入力情報取得部154が取得した情報データを取得し、当該情報データを記憶部120に記憶させる。また、取得部150は、入力キー15や音声センサ18を通じて、ユーザから任意の情報データを取得し、当該情報データを記憶部120に記憶させる。   The acquisition unit 150 acquires the information data acquired by the face information acquisition unit 151, the voice information acquisition unit 152, the environment information acquisition unit 153, and the input information acquisition unit 154, and stores the information data in the storage unit 120. The acquisition unit 150 acquires arbitrary information data from the user through the input key 15 and the voice sensor 18 and stores the information data in the storage unit 120.

CPU11、入力キー15、音声センサ18、イメージセンサ19、NIC22、RTC23、及び、環境センサ24等が協働して動作することにより、取得部150として機能する。   The CPU 11, the input key 15, the voice sensor 18, the image sensor 19, the NIC 22, the RTC 23, the environment sensor 24, and the like work together to function as the acquisition unit 150.

特定部160は、図5に示される対応表において、通信部130により受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する音声情報に対応する、環境条件と顔条件とを特定する。まず、特定部160は、他の情報処理装置100から送信されて、通信部130により受信された音声データが表す音声によって表される音声情報と、図5に示される対応表に記憶されている音声情報と、を照合し、他の情報処理装置100から送信された音声情報と少なくとも一部が一致する音声情報があるか否かを判定する。特定部160は、音声情報を照合するために、音声データが表す音声を文字列に変換して、当該文字列から1以上の単語又は文書を抽出する。音声情報は音声によって把握される1以上の単語又は文書を示す情報であるため、当該抽出された1以上の単語又は文書が、音声データが表す音声によって表される音声情報となる。次に、特定部160は、対応表に記憶されている1以上の単語又は文書が表す音声情報と、他の情報処理装置100から送信された1以上の単語又は文書が表す音声情報と、を照合し、1以上の単語が一致するか否かを判定する。そして、1以上の単語が一致する場合、特定部160は、対応表に記憶されている一致した音声情報に対応する境条件と顔条件とを特定する。   In the correspondence table shown in FIG. 5, the specifying unit 160 corresponds to the voice information at least partially matching the voice information represented by the voice represented by the voice data received by the communication unit 130. And specify. First, the specifying unit 160 is stored in the voice information represented by the voice represented by the voice data transmitted from the other information processing apparatus 100 and received by the communication unit 130, and the correspondence table shown in FIG. The voice information is collated, and it is determined whether there is voice information that at least partially matches the voice information transmitted from the other information processing apparatus 100. The identification unit 160 converts the voice represented by the voice data into a character string in order to collate the voice information, and extracts one or more words or documents from the character string. Since the voice information is information indicating one or more words or documents grasped by voice, the extracted one or more words or documents become voice information represented by the voice represented by the voice data. Next, the specifying unit 160 includes voice information represented by one or more words or documents stored in the correspondence table and voice information represented by one or more words or documents transmitted from another information processing apparatus 100. Collate and determine if one or more words match. When one or more words match, the specifying unit 160 specifies the boundary condition and the face condition corresponding to the matched voice information stored in the correspondence table.

ここで、顔条件とは、ユーザの顔を表す顔情報に基づいてユーザを照合することにより、音声を提示するか否かを判定するための条件をいう。
また、環境条件とは、環境情報に含まれる日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天気情報等を照合することにより、音声を提示するか否かを判定するための条件をいう。また、環境条件は、日付に関する日付条件、時間に関する時間条件、温度に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件のうち少なくともいずれか1つを含み、これらの条件のいずれかが満たされる場合、環境条件が満たされると判定される。日付条件、時間条件、温度条件、湿度条件、気圧条件、又は、天候条件は、それぞれ関連する日付、時間、温度、湿度、気圧、又は、天候において判定するための条件をいう。
Here, the face condition refers to a condition for determining whether to present a voice by collating a user based on face information representing the user's face.
In addition, the environmental condition is to determine whether or not to present a voice by comparing date information, time information, temperature information, humidity information, atmospheric pressure information, weather information, or the like included in the environmental information. Say conditions. The environmental conditions include at least one of a date condition related to date, a time condition related to time, a temperature condition related to temperature, a humidity condition related to humidity, a pressure condition related to atmospheric pressure, or a weather condition related to weather, and these conditions. If any of the above is satisfied, it is determined that the environmental condition is satisfied. The date condition, time condition, temperature condition, humidity condition, atmospheric pressure condition, or weather condition refers to a condition for determining in the related date, time, temperature, humidity, atmospheric pressure, or weather, respectively.

特定部160は、音声情報を照合するために、音声文字変換処理を行う。音声文字変換処理は、例えば、特開2009−294269号公報等に記載される手法が用いられる。具体的には、特定部160は、変換対象となる音声データと、音素と発音記号とが対応付けられた情報と、に基づいて発音記号を生成する。次に、特定部160は、当該生成された発音記号と、単語を表す文字と発音記号とが互いにあらかじめ対応付けられた単語辞書と、に基づいて、その発音記号に対応する単語を取得する。そして、特定部160は、当該取得された単語に基づいて、文字を表す文字データを生成することにより、音声文字変換処理を行う。   The identifying unit 160 performs a phonetic character conversion process to collate the voice information. For the phonetic character conversion process, for example, a technique described in JP 2009-294269 A is used. Specifically, the specifying unit 160 generates a phonetic symbol based on speech data to be converted and information in which phonemes and phonetic symbols are associated with each other. Next, the specifying unit 160 acquires a word corresponding to the phonetic symbol based on the generated phonetic symbol and a word dictionary in which a character representing the word and the phonetic symbol are associated with each other in advance. And the specific | specification part 160 performs a phonetic character conversion process by producing | generating the character data showing a character based on the said acquired word.

CPU11、及び、RAM12等が協働して動作することにより、特定部160として機能する。   The CPU 11, the RAM 12, etc. operate in cooperation to function as the specifying unit 160.

判定部170は、顔情報取得部151により取得された顔情報が、特定部160により特定された顔条件を満たすか否か、及び、環境情報取得部153により取得された環境情報が、特定部160により特定された環境条件を満たすか否か、を判定する。判定部170が、顔条件及び環境条件の2つの条件が同時に満たすと判定した場合、他の情報処理装置100から送信された音声は、ユーザに対して提示される。一方、判定部170が、顔条件及び環境条件のどちらか一方の条件のみを満たすと判定した場合、また、どちらの条件も満たさないと判定した場合、他の情報処理装置100から送信された音声は、ユーザに対して提示されない。   The determining unit 170 determines whether the face information acquired by the face information acquiring unit 151 satisfies the face condition specified by the specifying unit 160 and whether the environment information acquired by the environment information acquiring unit 153 is the specifying unit. It is determined whether the environmental condition specified by 160 is satisfied. When the determination unit 170 determines that the two conditions of the face condition and the environmental condition are satisfied at the same time, the voice transmitted from the other information processing apparatus 100 is presented to the user. On the other hand, if the determination unit 170 determines that only one of the face condition and the environmental condition is satisfied, or if it determines that neither condition is satisfied, the sound transmitted from the other information processing apparatus 100 Is not presented to the user.

CPU11、及び、RAM12等が協働して動作することにより、判定部170として機能する。   The CPU 11, the RAM 12, and the like operate in cooperation to function as the determination unit 170.

次に、本実施形態の情報処理装置100にて実行されるユーザの顔情報の登録処理について説明する。図6は、登録処理の流れを示すフローチャートである。以下、本図を参照して説明する。   Next, user face information registration processing executed by the information processing apparatus 100 according to the present embodiment will be described. FIG. 6 is a flowchart showing the flow of registration processing. Hereinafter, a description will be given with reference to FIG.

まず、入力情報取得部154は、ユーザから入力を受け付けることにより、ユーザを特定するための任意の情報を取得する(ステップS101)。例えば、入力情報取得部154は、ユーザが入力した、ユーザ名、当該ユーザのメールアドレス、当該ユーザが登録された情報処理装置100のMAC(Media Access Control address)アドレス等を取得する。   First, the input information acquisition unit 154 acquires arbitrary information for specifying a user by receiving an input from the user (step S101). For example, the input information acquisition unit 154 acquires a user name, a mail address of the user, a MAC (Media Access Control address) address of the information processing apparatus 100 in which the user is registered, and the like input by the user.

次に、顔情報取得部151は、情報処理装置100を操作するユーザの顔を表す顔情報データを取得する(ステップS102)。例えば、顔情報取得部151は、ユーザからの指示を受け付けて、当該指示に基づいて、ユーザが写っている画像データを取得し、当該画像データから顔領域を検出する。そして、顔情報取得部151は、当該顔領域を表す顔情報データが表す顔情報を取得する。   Next, the face information acquisition unit 151 acquires face information data representing the face of the user who operates the information processing apparatus 100 (step S102). For example, the face information acquisition unit 151 receives an instruction from the user, acquires image data showing the user based on the instruction, and detects a face area from the image data. Then, the face information acquisition unit 151 acquires face information represented by face information data representing the face area.

次に、記憶部120は、入力情報取得部154が取得したユーザ名やユーザのメールアドレスと、顔情報取得部151が取得した顔情報が表す顔画像と、を対応付けて記憶することにより、ユーザ情報として登録する(ステップS103)。   Next, the storage unit 120 stores the user name and the user's email address acquired by the input information acquisition unit 154 and the face image represented by the face information acquired by the face information acquisition unit 151 in association with each other. Registration as user information (step S103).

図7は、登録される情報の一例を示す図である。同図に示すように、ユーザ名、当該ユーザの顔情報データが表す顔画像、当該ユーザのメールアドレス、当該ユーザが登録された情報処理装置100のMAC(Media Access Control address)アドレス等が、対応付けられてユーザ情報として登録される。ここで、ユーザ情報とは、例えば、メールアドレス、顔情報等、ユーザを特定できる任意の情報をいう。   FIG. 7 is a diagram illustrating an example of registered information. As shown in the figure, the user name, the face image represented by the face information data of the user, the mail address of the user, the MAC (Media Access Control address) address of the information processing apparatus 100 in which the user is registered, etc. It is added and registered as user information. Here, the user information refers to arbitrary information that can specify the user, such as an email address and face information.

以上の処理により、情報処理装置100を操作するユーザが特定されるユーザ情報を、情報処理装置100に登録することができる。   Through the above processing, user information for identifying a user who operates the information processing apparatus 100 can be registered in the information processing apparatus 100.

次に、本実施形態の情報処理装置100にて実行される他情報処理装置の処理について説明する。図8は、他情報処理装置の処理の流れを示すフローチャートである。以下、本図を参照して説明する。   Next, processing of another information processing apparatus executed by the information processing apparatus 100 according to the present embodiment will be described. FIG. 8 is a flowchart showing the flow of processing of the other information processing apparatus. Hereinafter, a description will be given with reference to FIG.

なお、以下では、他情報処理装置の符号を100aとし、自情報処理装置の符号を100bとして説明する。他情報処理装置100a及び自情報処理装置100bは、情報処理装置100と同一の機能を備える。そして、他情報処理装置100a及び自情報処理装置100bは、通信回路網を介して互い接続されており、他情報処理装置100aと自情報処理装置100bとの間で、任意の情報データのやり取りが行われる。また、他情報処理装置100a及び自情報処理装置100bの数は任意であるが、説明を容易にするため、他情報処理装置100a及び自情報処理装置100bの数を1台として説明する。   In the following description, the reference numeral of the other information processing apparatus is 100a, and the reference information processing apparatus is 100b. The other information processing apparatus 100 a and the own information processing apparatus 100 b have the same functions as the information processing apparatus 100. The other information processing apparatus 100a and the own information processing apparatus 100b are connected to each other via a communication circuit network, and arbitrary information data can be exchanged between the other information processing apparatus 100a and the own information processing apparatus 100b. Done. Moreover, although the number of the other information processing apparatuses 100a and the own information processing apparatus 100b is arbitrary, for ease of explanation, the number of the other information processing apparatuses 100a and the own information processing apparatus 100b will be described as one.

まず、他情報処理装置100aが備える顔情報取得部151は、他情報処理装置100aの前面にいるユーザの顔を表す顔情報データを取得し(ステップS201)、当該取得した顔情報データが表す顔情報が登録されているか否かを判定する(ステップS202)。   First, the face information acquisition unit 151 included in the other information processing apparatus 100a acquires face information data representing the face of the user in front of the other information processing apparatus 100a (step S201), and the face represented by the acquired face information data It is determined whether information is registered (step S202).

取得された顔情報データが表す顔情報が登録されていない場合(ステップS202;No)、当該ユーザは、他情報処理装置100aを操作する権限を有さないとして、本処理は終了する。なお、本処理が終了した後、上述する登録処理を行うことにより、ユーザの顔を表す顔情報を登録することもできる。   When the face information represented by the acquired face information data is not registered (step S202; No), this process ends, assuming that the user does not have authority to operate the other information processing apparatus 100a. In addition, after this process is complete | finished, the face information showing a user's face can also be registered by performing the registration process mentioned above.

一方、取得された顔情報データが表す顔情報が登録されている場合(ステップS202;Yes)、音声情報取得部152は、音声センサ18を通じて、例えば、ユーザが発した「おはよう」や「雨だね」という音声を表す音声データを取得する(ステップS203)。   On the other hand, when the face information represented by the acquired face information data is registered (step S202; Yes), the voice information acquisition unit 152 passes, for example, “Good morning” or “Rain” issued by the user through the voice sensor 18. The voice data representing the voice “Ne” is acquired (step S203).

次に、入力情報取得部154は、入力キー15を通じてユーザが入力した、情報処理装置のMACアドレスや、当該情報処理装置を操作するユーザのメールアドレスを受け付けることにより、音声データの送信先を示す情報を取得する(ステップS204)。ここでは、音声データの送信先として、自情報処理装置100bが指定されたものとする。   Next, the input information acquisition unit 154 receives the MAC address of the information processing apparatus input by the user through the input key 15 and the mail address of the user who operates the information processing apparatus, thereby indicating the transmission destination of the audio data. Information is acquired (step S204). Here, it is assumed that self-information processing apparatus 100b is designated as the transmission destination of the audio data.

次に、通信部130は、ユーザが送信先として指定した、インターネット等の通信回路網に接続されている自情報処理装置100bに、音声情報取得部152が取得した音声データを送信する(ステップS205)。   Next, the communication unit 130 transmits the audio data acquired by the audio information acquisition unit 152 to the own information processing apparatus 100b connected to a communication circuit network such as the Internet specified by the user as a transmission destination (step S205). ).

なお、通信部130は、例えば、MACアドレスが登録されている情報処理装置100、また、通信回路網に接続されるすべての情報処理装置100等、任意の情報処理装置100に対して音声データを送信することもできる。図9は、他情報処理装置100aに提示されるユーザ情報の提示例を示す図である。例えば、ユーザBを表すユーザ情報が他情報処理装置100bに登録されており、同図に示すように、ユーザBを表す顔画像やメールアドレスを表す画像が画面上に表示されている場合、通信部130は、当該表示されているユーザのメールアドレス、又は、当該ユーザに対応付けられて登録されているMACアドレスを備える情報処理装置に対して、音声データを送信することもできる。   Note that the communication unit 130 sends audio data to an arbitrary information processing apparatus 100 such as the information processing apparatus 100 in which the MAC address is registered or all the information processing apparatuses 100 connected to the communication circuit network. It can also be sent. FIG. 9 is a diagram illustrating an example of presentation of user information presented to the other information processing apparatus 100a. For example, when user information representing the user B is registered in the other information processing apparatus 100b, and a face image representing the user B and an image representing the mail address are displayed on the screen as shown in FIG. The unit 130 can also transmit the audio data to the information processing apparatus including the displayed user's mail address or the MAC address registered in association with the user.

次に、通信部130は、自情報処理装置100bから返信された音声データがあるか否かを判定する(ステップS206)。   Next, the communication unit 130 determines whether there is audio data returned from the information processing apparatus 100b (step S206).

自情報処理装置100bから返信された音声データがある場合(ステップS206;Yes)、提示部140は、当該返信された音声をユーザに提示する(ステップS207)。   When there is voice data returned from the information processing apparatus 100b (step S206; Yes), the presentation unit 140 presents the returned voice to the user (step S207).

例えば、自情報処理装置100bの前面にいるユーザBが発した「おはよう」という音声を表す音声データが、自情報処理装置100bから他情報処理装置100aに返信された場合、他情報処理装置100aが備える提示部140は、「おはよう」という音声を表す音声データを再生し、ユーザに対して音声データが示す音声を提示する。また、提示部140は、音声データを送信した自情報処理装置100bを操作するユーザBを表す画像を表示することもできる。   For example, when voice data representing the voice “good morning” uttered by the user B in front of the information processing apparatus 100b is returned from the information processing apparatus 100b to the other information processing apparatus 100a, the other information processing apparatus 100a The provided presentation unit 140 reproduces voice data representing the voice “Good morning” and presents the voice indicated by the voice data to the user. The presentation unit 140 can also display an image representing the user B who operates the information processing apparatus 100b that has transmitted the audio data.

一方、自情報処理装置100bから返信された音声データがない場合(ステップS206;No)、本処理は終了する。自情報処理装置100bから返信された音声データがないため、提示部140は、現在提示されている情報を提示し続ける。   On the other hand, when there is no voice data returned from the information processing apparatus 100b (step S206; No), this process ends. Since there is no voice data returned from the information processing apparatus 100b, the presentation unit 140 continues to present the currently presented information.

以上の処理により、登録されているユーザに対して、音声データを送信することができる。また、登録されているユーザから返信がある場合には、当該ユーザが返信した音声データが示す音声を提示することができる。   Through the above processing, voice data can be transmitted to registered users. Further, when there is a reply from a registered user, it is possible to present the voice indicated by the voice data returned by the user.

次に、本実施形態の情報処理装置100にて実行される自情報処理装置の処理について説明する。図10は、自情報処理装置100bの処理の流れを示すフローチャートである。以下、本図を参照して説明する。なお、自情報処理装置100bが備える提示部140が、ユーザに対して画像を予め提示することにより、自情報処理装置100bはデジタル写真等が表示されるデジタルフォトスタンド10として機能する。   Next, the process of the information processing apparatus executed by the information processing apparatus 100 according to the present embodiment will be described. FIG. 10 is a flowchart showing a flow of processing of the information processing apparatus 100b. Hereinafter, a description will be given with reference to FIG. In addition, when the presentation unit 140 included in the information processing apparatus 100b presents an image to the user in advance, the information processing apparatus 100b functions as the digital photo stand 10 on which a digital photograph or the like is displayed.

まず、自情報処理装置100bが備える通信部130は、他情報処理装置100aから音声データが送信されているか否かを判定する(ステップS301)。   First, the communication unit 130 included in the information processing apparatus 100b determines whether audio data is transmitted from the other information processing apparatus 100a (step S301).

音声データが送信されていない場合(ステップS301;No)、通信部130は、他情報処理装置100aから音声データが送信されるまで待機し、音声データが送信されているか否かを再び判定する(ステップS301)。提示部140は、ユーザに提示すべき音声がないため、予め提示されている画像をユーザに対して提示し続ける。   When the audio data is not transmitted (step S301; No), the communication unit 130 waits until the audio data is transmitted from the other information processing apparatus 100a, and determines again whether or not the audio data is transmitted ( Step S301). Since there is no sound to be presented to the user, the presentation unit 140 continues to present the image presented in advance to the user.

一方、音声データが送信されている場合(ステップS301;Yes)、顔情報取得部151及び環境情報取得部153は、自情報処理装置100bの前面にいるユーザの顔を表す顔情報データ、及び、環境情報データを取得する(ステップS302)。顔情報取得部151は、画像データを取得し、当該画像データからユーザの顔領域を検出することにより、ユーザの顔を表す顔情報データを取得する。また、環境情報取得部153は、例えば、自情報処理装置100bが設置されている室内温度及び室内湿度、日時、天候、外気温等、任意の環境情報データを取得する。   On the other hand, when audio data is transmitted (step S301; Yes), the face information acquisition unit 151 and the environment information acquisition unit 153 include face information data representing the face of the user in front of the information processing apparatus 100b, and Environmental information data is acquired (step S302). The face information acquisition unit 151 acquires image data and acquires face information data representing the user's face by detecting the user's face area from the image data. In addition, the environment information acquisition unit 153 acquires arbitrary environment information data such as a room temperature and a room humidity in which the information processing apparatus 100b is installed, a date, weather, an outside temperature, and the like.

次に、特定部160は、送信された音声データが表す音声が表す音声情報と、図5に示される対応表に記憶されている音声情報と、を照合することにより、当該送信された音声情報と一致する音声情報があるか否かを判定する(ステップS303)。例えば、送信された音声データが「おはよう」という音声を表す場合、特定部160は、当該「おはよう」という音声が表す音声情報と一致する音声情報が、図5に示される対応表に記憶されているか否かを判定する。図5に示される対応表には、「おはよう」という音声が表す音声情報が記憶されているため、特定部160は、送信された音声情報と一致する音声情報が、対応表に記憶されていると判定する。一方、送信された音声データが「頑張るぞ」という音声の場合、当該「頑張るぞ」という音声を表す音声情報は図5に示される対応表に記憶されていないため、特定部160は、送信された音声情報と一致する音声情報が、対応表に記憶されていないと判定する。   Next, the specifying unit 160 collates the voice information represented by the voice represented by the transmitted voice data with the voice information stored in the correspondence table shown in FIG. It is determined whether there is audio information that matches (step S303). For example, when the transmitted voice data represents the voice “Good morning”, the specifying unit 160 stores the voice information that matches the voice information represented by the voice “Good morning” in the correspondence table shown in FIG. It is determined whether or not. In the correspondence table shown in FIG. 5, since the voice information represented by the voice “Good morning” is stored, the specifying unit 160 stores voice information that matches the transmitted voice information in the correspondence table. Is determined. On the other hand, when the transmitted voice data is a voice “I will do my best”, the voice information indicating the voice “I will do my best” is not stored in the correspondence table shown in FIG. It is determined that voice information that matches the voice information is not stored in the correspondence table.

送信された音声情報と一致する音声情報が、対応表に記憶されている場合(ステップS303;Yes)、特定部160は、当該一致する音声情報に対応する顔条件及び環境条件を特定する(ステップS304)。例えば、一致する音声情報が「おはよう」の場合、当該「おはよう」に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。ここで、登録されたユーザとは、ユーザを特定するための情報が記憶部120に記憶されているユーザをいい、典型的には、顔情報の登録処理により登録されたユーザという。   When the voice information that matches the transmitted voice information is stored in the correspondence table (step S303; Yes), the specifying unit 160 specifies the face condition and the environmental condition corresponding to the matching voice information (step S303). S304). For example, when the matching voice information is “good morning”, the face condition and the environmental condition corresponding to the “good morning” are “there is a user registered in front of the information processing apparatus”, as shown in FIG. , “The time is between 6:00 and 10:00”. Here, the registered user refers to a user whose information for specifying the user is stored in the storage unit 120, and is typically referred to as a user registered by a face information registration process.

一方、送信された音声情報と一致する音声情報が、対応表に記憶されていない場合(ステップS303;No)、本処理は終了する。そして、提示部140は、予め提示されている画像の提示を続ける。   On the other hand, when the voice information that matches the transmitted voice information is not stored in the correspondence table (step S303; No), this process ends. And the presentation part 140 continues presentation of the image currently shown previously.

なお、ステップS303において、典型的には、音声データから文字を表す文字データに変換される音声文字変換処理が行われる。   In step S303, typically, a phonetic character conversion process is performed in which voice data is converted into character data representing characters.

例えば、音声データが「Bさん、今日は雨だね」という音声を表す音声情報の場合、音声文字変換処理が行われて、「Bさん、今日は雨だね」という文字を表す文字データに変換される。そして、当該変換された文字データが表す文字情報が、図5に示される対応表に記憶されているか否かが判定される。この場合、変換された「Bさん、今日は雨だね」という文字情報は、対応表に記憶されているため、ステップS303においてYesとなる。そして、ステップS304において、「Bさん、今日は雨だね」に対応する顔条件である「情報処理装置の前面にBさんがいる」、及び、環境条件である「天候が雨である」が特定される。   For example, in the case where the voice data is voice information representing the voice “Mr. B, it's raining today”, voice character conversion processing is performed, and character data representing the character “Mr. B, it's raining today” Converted. Then, it is determined whether or not the character information represented by the converted character data is stored in the correspondence table shown in FIG. In this case, since the converted character information “Mr. B, it's raining today” is stored in the correspondence table, “Yes” is returned in step S303. In step S304, the face condition corresponding to “Mr. B, it's raining today” is “Mr. B is in front of the information processing apparatus” and the environmental condition is “weather is rainy”. Identified.

また、ステップS304において、特定部160は、音声データから変換された文字データが表す文字情報から、人名、日時、天候、気温等を表す情報を抽出し、当該抽出した情報が、図5に示される対応表に記憶されているか否かを判定することもできる。例えば、音声情報から変換された文字情報が、「あー、雨が降っているね、Bさん」という対応表に記憶されていない文字を表す場合、特定部160は、当該文字から、対応表に記憶されている「雨」という文字と、「Bさん」という文字と、を抽出する。そして、特定部160は、「雨」と「Bさん」との両方の文字を含む文字情報が、対応表に記憶されているか否かを判定する。ここで、対応表に記憶される「Bさん、今日は雨だね」という文字には、「雨」と「Bさん」との両方の文字が含まれている。抽出された文字が、対応表に記憶される「Bさん、今日は雨だね」と照合するため、判定部160は、対応表に記憶されていない「あー、雨が降っているね、Bさん」という文字であっても、対応表に記憶されていると判定することもできる。これにより、図5に示される対応表に記憶されていない音声情報(音声情報から変換された文字情報)であっても、対応表に記憶されているか否かを判定することもできる。   In step S304, the specifying unit 160 extracts information representing a person's name, date / time, weather, temperature, and the like from the character information represented by the character data converted from the voice data, and the extracted information is shown in FIG. It can also be determined whether it is stored in the correspondence table. For example, when the character information converted from the voice information represents a character that is not stored in the correspondence table “Oh, it's raining, Mr. B”, the identifying unit 160 changes the character information to the correspondence table. The stored characters “rain” and “Mr. B” are extracted. Then, the specifying unit 160 determines whether or not character information including both the characters “rain” and “Mr. B” is stored in the correspondence table. Here, the characters “Mr. B, it's raining today” stored in the correspondence table include both the characters “Rain” and “Mr. B”. Since the extracted character is collated with “Mr. B, it's raining today” stored in the correspondence table, the determination unit 160 does not store the correspondence table “Oh, it's raining, B It can be determined that even the characters "" are stored in the correspondence table. Thereby, it is also possible to determine whether or not speech information (character information converted from speech information) that is not stored in the correspondence table shown in FIG. 5 is stored in the correspondence table.

次に、判定部170は、顔情報取得部151により取得された顔情報、及び、環境情報取得部153により取得された環境情報が、特定された顔条件及び環境条件を満たすか否かを判定する(ステップS305)。例えば、特定された顔条件及び環境条件が、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である場合、判定部170は、顔情報取得部151により取得された顔情報から検出されたユーザが、図7に示すような登録されているかユーザであるかを判定し、また、環境情報取得部153により取得された環境情報に含まれる現在の時刻が、6時から10時の間であるかを判定する。   Next, the determination unit 170 determines whether the face information acquired by the face information acquisition unit 151 and the environment information acquired by the environment information acquisition unit 153 satisfy the specified face condition and environment condition. (Step S305). For example, when the identified face condition and environmental condition are “there is a user registered on the front face of the information processing apparatus” and “the time is between 6 o'clock and 10 o'clock”, the determination unit 170 determines the face It is determined whether the user detected from the face information acquired by the information acquisition unit 151 is a registered user as shown in FIG. 7, and is included in the environment information acquired by the environment information acquisition unit 153 It is determined whether the current time is between 6 and 10 o'clock.

次に、取得された顔情報及び環境情報が、特定された顔条件及び環境条件を満たす場合(ステップS305;Yes)、提示部140は、ユーザに対して音声データが示す音声を提示する(ステップS306)。図11は、自情報処理装置100bにおいて、音声データが表す音声が提示される例を示す図である。「おはよう」という音声が表す音声情報に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。図11に示すように、取得された現在の時刻が「9:30」の場合、現在の時刻が6時から10時の間であるため、環境条件は満たされる。また、取得された顔情報が「ユーザB」である場合、図7に示すように、ユーザBはユーザ登録がなされているため、顔条件は満たされる。顔条件及び環境条件の2つの条件が同時に満たされるため、他情報処理装置100aを操作するユーザAが「おはよう」という音声を発し、他情報処理装置100aから自情報処理装置100bに送信された「おはよう」という音声は、ユーザBに対して提示される。なお、提示部140は、「おはよう」という音声が送信された他情報処理装置100aを操作するユーザAを表す画像情報を提示することもできる。   Next, when the acquired face information and environment information satisfy the specified face condition and environment condition (step S305; Yes), the presentation unit 140 presents the voice indicated by the voice data to the user (step S305). S306). FIG. 11 is a diagram illustrating an example in which the voice represented by the voice data is presented in the information processing apparatus 100b. As shown in FIG. 5, the face condition and the environmental condition corresponding to the voice information represented by the voice “good morning” are “there is a user registered in front of the information processing apparatus” and “the time is from 6:00 to 10”. It's time. " As shown in FIG. 11, when the acquired current time is “9:30”, the current time is between 6:00 and 10:00, so the environmental condition is satisfied. When the acquired face information is “user B”, as shown in FIG. 7, since user B has been registered as a user, the face condition is satisfied. Since the two conditions of the face condition and the environmental condition are satisfied at the same time, the user A who operates the other information processing apparatus 100a utters a voice “Good morning” and is transmitted from the other information processing apparatus 100a to the own information processing apparatus 100b. “Good morning” is presented to user B. The presentation unit 140 can also present image information representing the user A who operates the other information processing apparatus 100a to which the voice “Good morning” is transmitted.

なお、「Bさん、今日は雨だね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の天候情報が、「雨」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「Bさん」であるかを確認する。そして、環境情報に含まれる現在の天候情報が「雨」であり、かつ、取得された顔情報から検出されるユーザが「Bさん」と一致するときは、ステップS305においてYesとなる。音声情報に「Bさん」という人名を表す人名情報が含まれている場合、Bさんにとって、当該音声情報は所望する情報となるが、一方、Bさん以外のCさんにとっては、当該音声情報は所望する情報ではない。音声情報がユーザに対して提示される前に、ユーザが所望する音声情報であるか否かが判定され、当該判定結果に基づいて、音声が提示されるか否かが決定される。   When the face condition and the environmental condition corresponding to the voice information representing the voice “Mr. B, today is raining” are specified, the determination unit 170 is acquired by the environment information acquisition unit 153 in step S305. Whether the current weather information included in the environment information is “rain” and whether the user detected from the face information acquired by the face information acquisition unit 151 is “Mr. B”. Check. If the current weather information included in the environment information is “rain” and the user detected from the acquired face information matches “Mr. B”, the answer is Yes in step S305. When the voice information includes personal name information representing the name of “Mr. B”, the voice information is desired information for Mr. B. On the other hand, for Mr. C other than Mr. B, the voice information is It is not the desired information. Before the voice information is presented to the user, it is determined whether or not the voice information is desired by the user, and it is determined whether or not the voice is presented based on the determination result.

また、「今日は、○月×日だね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の日付情報が、「○月×日」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の日付情報が「○月×日」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。   In addition, when the face condition and the environmental condition corresponding to the voice information representing the voice “Today is ○ month × day” are specified, the determination unit 170 acquires the environment information acquisition unit 153 in step S305. The current date information included in the environmental information is “○ month × day” and the user detected from the face information acquired by the face information acquisition unit 151 is “registered Check if it is a “user”. When the current date information included in the environment information is “○ month × day” and the user detected from the acquired face information matches “registered user”, Yes in step S305. It becomes.

また、「暑いよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の温度情報が、「30度以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「30度以上」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。   In addition, when the face condition and the environmental condition corresponding to the voice information representing the voice “It is hot” are specified, the determination unit 170 is included in the environmental information acquired by the environmental information acquisition unit 153 in step S305. It is confirmed whether the current temperature information is “30 degrees or more” and whether the user detected from the face information acquired by the face information acquisition unit 151 is “registered user”. . If the current temperature information included in the environment information is “30 degrees or more” and the user detected from the acquired face information matches “registered user”, “Yes” in step S305 Become.

また、「Cさん、今日は暑いよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の温度情報が、「30度以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「Cさん」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「30度以上」であり、かつ、取得された顔情報から検出されるユーザが「Cさん」と一致するときは、ステップS305においてYesとなる。   When the face condition and the environmental condition corresponding to the voice information representing the voice “Mr. C, today is hot” are specified, the determination unit 170 is acquired by the environmental information acquisition unit 153 in step S305. Check whether the current temperature information included in the environment information is “30 degrees or more” and whether the user detected from the face information acquired by the face information acquisition unit 151 is “Mr. C” Confirm. If the current temperature information included in the environmental information is “30 degrees or more” and the user detected from the acquired face information matches “Mr. C”, “Yes” is set in step S305.

また、「蒸し暑いね」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の湿度情報が、「70%以上」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「70%以上」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。   When the face condition and the environmental condition corresponding to the voice information representing the voice “sultry” is specified, the determination unit 170 is included in the environmental information acquired by the environmental information acquisition unit 153 in step S305. It is confirmed whether the current humidity information is “70% or more” and whether the user detected from the face information acquired by the face information acquisition unit 151 is “registered user”. . If the current temperature information included in the environmental information is “70% or more” and the user detected from the acquired face information matches “registered user”, Yes in step S305 Become.

また、「台風が来ているよ」という音声を表す音声情報に対応する顔条件及び環境条件が特定されている場合、ステップS305において、判定部170は、環境情報取得部153により取得された環境情報に含まれる現在の気圧情報が、「980hPa以下」であるかを確認し、かつ、顔情報取得部151により取得された顔情報から検出されたユーザが、「登録されたユーザ」であるかを確認する。そして、環境情報に含まれる現在の温度情報が「980hPa以下」であり、かつ、取得された顔情報から検出されるユーザが「登録されたユーザ」と一致するときは、ステップS305においてYesとなる。   When the face condition and the environmental condition corresponding to the sound information representing the sound “Typhoon is coming” are specified, the determination unit 170 determines the environment acquired by the environment information acquisition unit 153 in step S305. Check whether the current barometric pressure information included in the information is “980 hPa or less”, and whether the user detected from the face information acquired by the face information acquisition unit 151 is “registered user” Confirm. If the current temperature information included in the environmental information is “980 hPa or less” and the user detected from the acquired face information matches “registered user”, the result is Yes in step S305. .

日付に関する日付条件、時間に関する時間条件、温度情報に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件を含む環境条件が判定されるため、適切な日時、時間、温度、湿度、気圧、天候において、ユーザに対して音声を提示することができる。   Date conditions related to date, time conditions related to time, temperature conditions related to temperature information, humidity conditions related to humidity, atmospheric pressure conditions related to atmospheric pressure, or environmental conditions including weather conditions related to weather are determined. Audio can be presented to the user in humidity, atmospheric pressure, and weather.

一方、取得された顔情報及び環境情報が、特定された顔条件及び環境条件を満たさない場合(ステップS305;No)、顔情報取得部151及び環境情報取得部153は、所定時間待機し、ステップS302の処理と同様に、自情報処理装置100bの前面にいるユーザの顔を表す顔情報データ、及び、環境情報データを再び取得し(ステップS309)、判定部170は、特定された環境条件、及び、特定された顔条件を満たすか否かを再び判定する(ステップS305)。環境条件及び顔条件が満たされるまで判定が続けられ、環境条件及び顔条件が満たされると、他情報処理装置100aから送信された音声データが表す音声が、ユーザに対して提示される。このため、2つの条件が満たす場合には、ユーザに対して音声がすぐに提示される。これによって、ちょうどよいタイミングでユーザに対して音声を提示することができる。また、音声が提示されないということを防ぐことができる。   On the other hand, when the acquired face information and environment information do not satisfy the specified face condition and environment condition (step S305; No), the face information acquisition unit 151 and the environment information acquisition unit 153 wait for a predetermined time, Similar to the process of S302, the face information data representing the face of the user in front of the information processing apparatus 100b and the environment information data are acquired again (step S309), and the determination unit 170 determines the specified environmental condition, Then, it is determined again whether or not the specified face condition is satisfied (step S305). The determination is continued until the environmental condition and the facial condition are satisfied, and when the environmental condition and the facial condition are satisfied, the voice represented by the voice data transmitted from the other information processing apparatus 100a is presented to the user. For this reason, when two conditions are satisfied, the voice is immediately presented to the user. This makes it possible to present a voice to the user at just the right time. Further, it is possible to prevent the voice from being presented.

図12(a)〜(c)は、自情報処理装置100bにおいて、音声データが表す音声が提示されない例を示す図である。
図12(a)は、環境条件は満たされるが、顔条件が満たされないために、音声が提示されない例を示す図である。「おはよう」という音声を表す音声情報に対応する顔条件及び環境条件は、図5に示すように、「情報処理装置の前面に登録されたユーザがいる」、及び、「時刻が6時から10時の間である」である。図12(a)に示すように、取得された現在の時刻が「9:30」の場合、現在の時刻が6時から10時の間であるため、環境条件は満たされる。しかし、取得された顔情報が「ユーザC」である場合、図7に示すように、ユーザCはユーザ登録がなされてないため、顔条件は満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。
12A to 12C are diagrams illustrating an example in which the voice represented by the voice data is not presented in the information processing apparatus 100b.
FIG. 12A is a diagram illustrating an example in which no sound is presented because the environmental condition is satisfied but the face condition is not satisfied. As shown in FIG. 5, the face condition and the environmental condition corresponding to the voice information representing the voice “good morning” are “there is a user registered in front of the information processing apparatus” and “the time is from 6:00 to 10”. It's time. " As shown in FIG. 12A, when the acquired current time is “9:30”, the current time is between 6:00 and 10:00, so the environmental condition is satisfied. However, when the acquired face information is “user C”, as shown in FIG. 7, the user C is not registered as a user, and thus the face condition is not satisfied. For this reason, the voice “good morning” transmitted from the other information processing apparatus 100a is not presented to the user.

また、図12(b)は、顔条件は満たされるが、環境条件が満たされないために、音声が提示されない例を示す図である。同図に示すように、取得された顔情報が「ユーザB」である場合、図7に示すように、ユーザBはユーザ登録がなされているため、顔条件は満たされる。しかし、取得された現在の時刻が「15:00」の場合、現在の時刻が6時から10時以外の時間であるため、環境条件は満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。   FIG. 12B is a diagram illustrating an example in which no voice is presented because the face condition is satisfied but the environmental condition is not satisfied. As shown in FIG. 7, when the acquired face information is “user B”, as shown in FIG. 7, since user B has been registered as a user, the face condition is satisfied. However, when the acquired current time is “15:00”, the current time is a time other than 6 o'clock to 10 o'clock, so the environmental condition is not satisfied. For this reason, the voice “good morning” transmitted from the other information processing apparatus 100a is not presented to the user.

また、図12(c)は、顔条件及び環境条件が満たされないために、音声が提示されない例を示す図である。同図に示すように、取得された顔情報が「ユーザC」である場合、図7に示すように、ユーザCはユーザ登録がなされてないため、顔条件は満たされない。また、取得された現在の時刻が「15:00」の場合、現在の時刻が6時から10時以外の時間であるため、環境条件も満たされない。このため、他情報処理装置100aから送信された「おはよう」という音声は、ユーザに対して提示されることはない。   FIG. 12C is a diagram illustrating an example in which no voice is presented because the face condition and the environmental condition are not satisfied. As shown in the figure, when the acquired face information is “user C”, as shown in FIG. 7, the user C is not registered as a user, and thus the face condition is not satisfied. When the acquired current time is “15:00”, the current time is a time other than 6 o'clock to 10 o'clock, so the environmental condition is not satisfied. For this reason, the voice “good morning” transmitted from the other information processing apparatus 100a is not presented to the user.

「おはよう」は、挨拶を表す言語であり、一般的には、6時から10時の間の時間に使用される。このため、「おはよう」という音声が、6時から10時の間の時間に提示されると、ユーザが所望する情報となる。一方、当該時間以外の時間では、「おはよう」という言語は、一般的に使われないため、ユーザが所望する情報ではなくなる。音声情報がユーザに対して提示される前に、環境条件及び顔条件を満たすか否か、すなわち、ユーザが所望する音声情報であるか否か、が判定され、当該判定結果に基づいて、音声が提示されるか否かが決定される。このため、ユーザが所望する情報を提示することができる。   “Good morning” is a language that expresses greetings, and is generally used between 6 and 10 o'clock. For this reason, when the voice “Good morning” is presented at a time between 6 o'clock and 10 o'clock, it becomes information desired by the user. On the other hand, at times other than the time, the language “good morning” is not generally used, and thus is not information desired by the user. Before the audio information is presented to the user, it is determined whether or not the environmental condition and the face condition are satisfied, that is, whether or not the audio information is desired by the user, and the audio is determined based on the determination result. It is determined whether or not is presented. Therefore, information desired by the user can be presented.

また、ユーザ登録がなされていないユーザは、他情報処理装置100aから送信される音声を所望していないと考えられるため、ユーザ登録がなされているユーザに対してのみ音声を提示することにより、ユーザが所望する情報を提示することができる。   In addition, since it is considered that a user who has not been registered does not desire the voice transmitted from the other information processing apparatus 100a, the user is presented only by presenting the voice to the user who has been registered. Can present desired information.

次に、取得部150は、ユーザ登録がなされているユーザから、任意の情報データを取得する(ステップS307)。取得部150は、典型的には、音声情報取得部153が取得した音声データを取得する。例えば、他情報処理装置100aから「おはよう」という音声を表す音声データが送信され、自情報処理装置100bにおいて当該音声データが表す音声が再生された場合、音声情報取得部152は、再生された「おはよう」という音声に応答する「おはよう」や「元気だよ」という音声が表す音声データをユーザBから取得する。   Next, the acquisition unit 150 acquires arbitrary information data from the user who has been registered (step S307). The acquisition unit 150 typically acquires the audio data acquired by the audio information acquisition unit 153. For example, when the audio information representing the voice “Good morning” is transmitted from the other information processing apparatus 100a and the voice represented by the voice data is reproduced in the own information processing apparatus 100b, the audio information acquisition unit 152 reproduces the reproduced “ The voice data represented by the voice “Good morning” or “I am fine” in response to the voice “Good morning” is acquired from the user B.

次に、通信部130は、音声情報取得部153が取得した音声データを他情報処理装置100aに送信し(ステップS308)、本処理は終了する。   Next, the communication unit 130 transmits the audio data acquired by the audio information acquisition unit 153 to the other information processing apparatus 100a (step S308), and this process ends.

音声がユーザに対して提示される前に、音声情報が、環境条件及び顔条件を満たすか否かが判定される。そして、条件が満たされない場合には、ユーザに対して音声は提示されない。一方、条件が満たされる場合には、ユーザに対して音声が提示される。このため、ユーザが所望する情報を提示することができる。
以上の処理により、環境条件、及び、顔条件が満たされる場合に、ユーザに対して音声が提示される。このため、ユーザが所望する情報を提示することができる。
Before the sound is presented to the user, it is determined whether the sound information satisfies the environmental condition and the face condition. If the condition is not satisfied, no voice is presented to the user. On the other hand, when the condition is satisfied, a voice is presented to the user. Therefore, information desired by the user can be presented.
With the above processing, voice is presented to the user when the environmental condition and the face condition are satisfied. Therefore, information desired by the user can be presented.

なお、本発明は上記の実施形態に限定されず、種々の変形及び応用が可能である。   In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible.

情報処理装置100(他情報処理装置100a及び自情報処理装置100b)にて実行される上述した処理を、サーバ装置30が行うこともできる。例えば、情報処理装置100が備える通信部130は、登録処理において登録されたユーザ情報、取得された環境情報データ、対応表等をサーバ装置30に送信することにより、当該データをサーバ装置30に記憶させる。そして、サーバ装置30は、当該サーバ装置30に記憶されているデータに基づいて、他情報処理装置100aから自情報処理装置100bに、また、自情報処理装置100bから他情報処理装置100aに、音声データを送受信することもできる。   The server apparatus 30 can also perform the above-described processing executed by the information processing apparatus 100 (the other information processing apparatus 100a and the own information processing apparatus 100b). For example, the communication unit 130 included in the information processing apparatus 100 transmits the user information registered in the registration process, the acquired environment information data, the correspondence table, and the like to the server apparatus 30, thereby storing the data in the server apparatus 30. Let Then, based on the data stored in the server device 30, the server device 30 transmits audio from the other information processing device 100 a to the own information processing device 100 b and from the own information processing device 100 b to the other information processing device 100 a. Data can also be sent and received.

例えば、サーバ装置30は、他情報処理装置100a及び自情報処理装置100bが取得した音声データ、顔情報データ、及び、環境情報データを受信して、当該データを記憶する。サーバ装置30は、図5に示される対応表に基づいて、受信した音声データが、条件を満たすか否かを判定する。そして、条件が満たされる場合に、サーバ装置30は、他情報処理装置100aから自情報処理装置100bに、また、自情報処理装置100bから他情報処理装置100aに、音声データを送受信することもできる。これにより、ユーザが所望する情報を提示することができる。   For example, the server device 30 receives voice data, face information data, and environment information data acquired by the other information processing device 100a and the own information processing device 100b, and stores the data. The server device 30 determines whether or not the received audio data satisfies the condition based on the correspondence table shown in FIG. When the condition is satisfied, the server device 30 can also transmit and receive audio data from the other information processing device 100a to the own information processing device 100b and from the own information processing device 100b to the other information processing device 100a. . Thereby, information desired by the user can be presented.

前記のハードウエェア構成やフローチャートは一例であり、任意に変更および修正が可能である。   The above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.

制御部110、記憶部120、通信部130、提示部140、取得部150、特定部160、判定部170などから構成される情報処理装置100の処理を行う中心となる部分は、デジタルフォトスタンドによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する情報処理装置100を構成してもよい。また、インターネット等の通信回路網上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで情報処理装置100を構成してもよい。   A central part that performs processing of the information processing apparatus 100 including the control unit 110, the storage unit 120, the communication unit 130, the presentation unit 140, the acquisition unit 150, the identification unit 160, the determination unit 170, etc. Regardless, it can be realized using a normal computer system. For example, a computer program for executing the above operation is stored in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.) and distributed, and the computer program is installed in the computer. Thus, the information processing apparatus 100 that executes the above-described processing may be configured. Further, the information processing apparatus 100 may be configured by storing the computer program in a storage device included in a server device on a communication circuit network such as the Internet and downloading the computer program from a normal computer system.

また、情報処理装置100の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the functions of the information processing apparatus 100 are realized by sharing an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program part is stored in a recording medium or a storage device. May be.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS; Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

以上説明したように、本発明によれば、ユーザが所望する情報を提示するのに好適な情報処理装置、及び、プログラムを提供することができる。   As described above, according to the present invention, an information processing apparatus and a program suitable for presenting information desired by a user can be provided.

10…デジタルフォトスタンド、11…CPU、12…RAM、13…記憶装置、14…メディアコントローラ、14a…メモリカード挿入口、15…入力キー、16…駆動回路、17…表示パネル、18…音声センサ、19…イメージセンサ、20…メモリカード、21…スピーカ、22…NIC、23…RTC、24…環境センサ、30…サーバ装置、100…情報処理装置、110…制御部、120…記憶部、130…通信部、140…提示部、150…取得部、151…顔情報取得部、152…音声情報取得部、153…環境情報取得部、154…入力情報取得部、160…特定部、170…判定部   DESCRIPTION OF SYMBOLS 10 ... Digital photo stand, 11 ... CPU, 12 ... RAM, 13 ... Storage device, 14 ... Media controller, 14a ... Memory card insertion slot, 15 ... Input key, 16 ... Drive circuit, 17 ... Display panel, 18 ... Audio sensor , 19 ... Image sensor, 20 ... Memory card, 21 ... Speaker, 22 ... NIC, 23 ... RTC, 24 ... Environmental sensor, 30 ... Server device, 100 ... Information processing device, 110 ... Control unit, 120 ... Storage unit, 130 ... Communication part 140 ... Presentation part 150 ... Acquisition part 151 ... Face information acquisition part 152 ... Voice information acquisition part 153 ... Environment information acquisition part 154 ... Input information acquisition part 160 ... Identification part 170 ... Determination Part

Claims (4)

情報処理装置であって、
前記情報処理装置のユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記情報処理装置の環境情報を示す環境情報データを取得する環境情報取得部と、
前記情報処理装置以外の他情報処理装置から、当該他情報処理装置のユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記情報処理装置のユーザに対して提示する提示部と、
を備えることを特徴とする情報処理装置。
An information processing apparatus,
A face information acquisition unit that acquires face information data indicating the face information of the user of the information processing apparatus;
An environment information acquisition unit that acquires environment information data indicating environment information of the information processing apparatus;
A communication unit that receives voice data representing voice uttered by a user of the other information processing apparatus from another information processing apparatus other than the information processing apparatus;
The received voice data is obtained by referring to a correspondence table in which a plurality of voice information, environmental conditions that are conditions related to the environmental information, and face conditions that are conditions related to the user's face information are stored in association with each other. A specifying unit that specifies the environmental condition and the face condition corresponding to the voice information stored in the correspondence table at least partially matching the voice information represented by the voice represented by:
Determination that determines whether the environmental information indicated by the acquired environmental information data satisfies the specified environmental condition and the facial information indicated by the acquired face information data satisfies the specified facial condition And
A presentation unit that presents a voice represented by the received voice data to a user of the information processing apparatus according to a determination result of the determination unit;
An information processing apparatus comprising:
前記提示部は、前記特定された環境条件と前記特定された顔条件とが満たされるまで待機し、当該顔条件と当該環境条件とが満たされると、前記受信された音声データが表す音声を提示する、
ことを特徴とする請求項1に記載の情報処理装置。
The presenting unit waits until the specified environmental condition and the specified facial condition are satisfied, and presents the voice represented by the received audio data when the facial condition and the environmental condition are satisfied To
The information processing apparatus according to claim 1.
前記環境情報は、日付情報、時間情報、温度情報、湿度情報、気圧情報、又は、天候情報のうち少なくともいずれか1つを含み、
前記環境条件は、日付に関する日付条件、時間に関する時間条件、温度情報に関する温度条件、湿度に関する湿度条件、気圧に関する気圧条件、又は、天候に関する天候条件のうち少なくともいずれか1つを含み、
前記判定部は、前記環境情報取得部により取得された日付情報が前記日付条件を満たすか、前記環境情報取得部により取得された時間情報が前記時間条件を満たすか、前記環境情報取得部により取得された温度情報が前記温度条件を満たすか、前記環境情報取得部により取得された湿度情報が前記湿度条件を満たすか、前記環境情報取得部により取得された気圧情報が前記気圧条件を満たすか、又は、前記環境情報取得部により取得された天候情報が前記天候条件を満たすか、を判定し、当該判定した日付条件、当該判定した時間条件、当該判定した温度条件、当該判定した湿度条件、当該判定した気圧条件、又は、当該判定した天候条件のいずれかが満たされる場合、前記環境条件を満たすと判定する、
ことを特徴とする請求項1又は2に記載の情報処理装置。
The environmental information includes at least one of date information, time information, temperature information, humidity information, atmospheric pressure information, or weather information,
The environmental condition includes at least one of a date condition related to date, a time condition related to time, a temperature condition related to temperature information, a humidity condition related to humidity, an atmospheric pressure condition related to atmospheric pressure, or a weather condition related to weather,
The determination unit acquires whether the date information acquired by the environment information acquisition unit satisfies the date condition, or whether the time information acquired by the environment information acquisition unit satisfies the time condition, or is acquired by the environment information acquisition unit Whether the temperature information is satisfied with the temperature condition, the humidity information acquired by the environmental information acquisition unit satisfies the humidity condition, or the atmospheric pressure information acquired by the environmental information acquisition unit satisfies the atmospheric pressure condition, Or, it is determined whether the weather information acquired by the environmental information acquisition unit satisfies the weather condition, the determined date condition, the determined time condition, the determined temperature condition, the determined humidity condition, When either the determined atmospheric pressure condition or the determined weather condition is satisfied, the environmental condition is determined to be satisfied.
The information processing apparatus according to claim 1 or 2.
コンピュータを情報処理装置として機能させるプログラムであって、
前記コンピュータのユーザの顔情報を示す顔情報データを取得する顔情報取得部と、
前記コンピュータの環境情報を示す環境情報データを取得する環境情報取得部と、
前記コンピュータ以外の他コンピュータから、当該他コンピュータのユーザが発した音声を表す音声データを受信する通信部と、
音声情報と、前記環境情報に関する条件である環境条件と、前記ユーザの顔情報に関する条件である顔条件と、が互いに対応付けられて複数記憶された対応表を参照し、前記受信された音声データが表す音声によって表される音声情報に少なくとも一部が一致する当該対応表に記憶された音声情報に対応する、前記環境条件と前記顔条件とを特定する特定部と、
前記取得された環境情報データが示す環境情報が前記特定された環境条件を満たし、かつ、前記取得された顔情報データが示す顔情報が前記特定された顔条件を満たすか否かを判定する判定部と、
前記判定部の判定結果に応じて前記受信された音声データが表す音声を前記コンピュータのユーザに対して提示する提示部と、
して機能させることを特徴とするプログラム。
A program that causes a computer to function as an information processing device,
A face information acquisition unit for acquiring face information data indicating the face information of the user of the computer;
An environmental information acquisition unit that acquires environmental information data indicating environmental information of the computer;
A communication unit that receives voice data representing a voice uttered by a user of the other computer from a computer other than the computer;
The received voice data is obtained by referring to a correspondence table in which a plurality of voice information, environmental conditions that are conditions related to the environmental information, and face conditions that are conditions related to the user's face information are stored in association with each other. A specifying unit that specifies the environmental condition and the face condition corresponding to the voice information stored in the correspondence table at least partially matching the voice information represented by the voice represented by:
Determination that determines whether the environmental information indicated by the acquired environmental information data satisfies the specified environmental condition and the facial information indicated by the acquired face information data satisfies the specified facial condition And
A presentation unit that presents a voice represented by the received voice data to a user of the computer according to a determination result of the determination unit;
A program characterized by making it function.
JP2010066242A 2010-03-23 2010-03-23 Information processing apparatus and program Expired - Fee Related JP5418347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010066242A JP5418347B2 (en) 2010-03-23 2010-03-23 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010066242A JP5418347B2 (en) 2010-03-23 2010-03-23 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2011197538A JP2011197538A (en) 2011-10-06
JP5418347B2 true JP5418347B2 (en) 2014-02-19

Family

ID=44875787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010066242A Expired - Fee Related JP5418347B2 (en) 2010-03-23 2010-03-23 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5418347B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835771B2 (en) * 1996-03-15 2006-10-18 株式会社東芝 Communication apparatus and communication method
JP2000322358A (en) * 1999-05-11 2000-11-24 Fujitsu Ltd Data display device and recording medium with program for information display recorded thereon
JP4115651B2 (en) * 2000-04-10 2008-07-09 富士フイルム株式会社 Transmission system, reception system, data server, and data transmission system

Also Published As

Publication number Publication date
JP2011197538A (en) 2011-10-06

Similar Documents

Publication Publication Date Title
US9530067B2 (en) Method and apparatus for storing and retrieving personal contact information
EP2210214B1 (en) Automatic identifying
JP4760172B2 (en) Image processing apparatus, user ID storage terminal apparatus, photography apparatus, image processing terminal apparatus, image processing method, and image processing system
US11281707B2 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
JP2009540414A (en) Media identification
US10360455B2 (en) Grouping captured images based on features of the images
US20080276176A1 (en) Guestbook
US11244682B2 (en) Information processing device and information processing method
JP7057455B2 (en) Programs, information processing methods, terminals
JP6596373B2 (en) Display processing apparatus and display processing program
JP2008048204A (en) Information processing apparatus, information processing system, and information processing program
JP2018081662A (en) Image print system
JP5418347B2 (en) Information processing apparatus and program
EP2618545A1 (en) Mobile terminal device
US20190066676A1 (en) Information processing apparatus
JP5246592B2 (en) Information processing terminal, information processing method, and information processing program
JP2000322435A (en) Cyber-illustrated reference book supplement data collection system and input device therefor
JP2002132664A (en) Electronic mail system and electronic mail output processing method, and recording medium with its program recorded thereon
JP2018132892A (en) Conference recording apparatus, conference recording method, and program
JP2019179081A (en) Conference support device, conference support control method, and program
JP7247466B2 (en) Information processing system and program
JP2007513410A (en) System and method for extracting faces from camera images for presentation in an electronic system
JP5506872B2 (en) Posted image evaluation apparatus, posted image evaluation method, and program
JP2022097496A (en) Program, information processing method, and terminal
JP2022121643A (en) Voice recognition program, voice recognition method, voice recognition device and voice recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131104

R150 Certificate of patent or registration of utility model

Ref document number: 5418347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees