JP2009118513A - Information processor, method and program - Google Patents

Information processor, method and program Download PDF

Info

Publication number
JP2009118513A
JP2009118513A JP2009001553A JP2009001553A JP2009118513A JP 2009118513 A JP2009118513 A JP 2009118513A JP 2009001553 A JP2009001553 A JP 2009001553A JP 2009001553 A JP2009001553 A JP 2009001553A JP 2009118513 A JP2009118513 A JP 2009118513A
Authority
JP
Japan
Prior art keywords
user
behavior
information
information processing
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009001553A
Other languages
Japanese (ja)
Inventor
Masatomo Kurata
雅友 倉田
Makoto Murata
誠 村田
Brian Clarkson
クラークソン ブライアン
Sachihiro Yamaguchi
祥弘 山口
Junko Fukuda
純子 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009001553A priority Critical patent/JP2009118513A/en
Publication of JP2009118513A publication Critical patent/JP2009118513A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To know the current state of user who is the communication counterpart and carry out processings corresponding to the state. <P>SOLUTION: A sensor is built into a cellular phone 1 and recognizes the behavior of the user having the cellular phone 1, based on sensor data. Behavior such as "walking", "running", "resting" and "riding a car" is recognized as a behavior of the user. A recognition result is included in presence state information and is transmitted to a cellular phone 2. Data on a character taking respective actions is prepared for the cellular phone 2, and an animation, corresponding to a present act of the user of the cellular phone 1 expressed by the transmitted presence state information, is displayed on an image screen of the cellular phone 1. The present invention can be applied to apparatuses communicatable with an apparatus for recognizing the behavior of the user and transmitting information containing the recognized result. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにする情報処理装置および方法、並びにプログラムに関する。 The present invention relates to an information processing apparatus, method, and program, and more particularly, to an information processing apparatus, method, and program that can know the current state of a communication partner user and perform processing corresponding to the state. .

「今なにしてるの?」。これは携帯電話機などでの通話の開始直後に通話の相手方に対する問い合わせとしてたびたび用いられるフレーズである。この問い合わせに対して「電車に乗るところ。」などとして返事があった場合、例えば、電話をかけた本人は、「またかけ直す。」と相手方に伝え、電話を切ることになる。   "What are you doing now?". This is a phrase often used as an inquiry to the other party of the call immediately after the start of the call on a mobile phone or the like. In response to this inquiry, for example, “Getting on the train.” For example, the person who made the call tells the other party to “call again” and hangs up.

特許文献1には、利用者端末の次の通信可能時間をスケジュール情報から抽出し、それをサーバ上で管理する技術が開示されている。   Patent Document 1 discloses a technique for extracting the next communicable time of a user terminal from schedule information and managing it on a server.

特開2005−57706号公報JP-A-2005-57706

このようなやりとりは日常よく行われるものであることから、電話をかける前に、相手方のいまの状態を確認することができれば、上述したようなほとんど意味のないやりとりをする必要がなく便利であると考えられる。   Since this kind of exchange is common on a daily basis, if you can check the current state of the other party before making a call, it is convenient that you don't have to make a negligible exchange as described above. it is conceivable that.

電話をかける前に、携帯電話機の電子メール機能を用いてこれから電話をかけたいことを伝え、返信によって許可が得られたときに電話をかけることによって相手の都合の悪いときに電話をかけてしまうことを防止することができるが、許可を得るためだけに電子メールを送ることは煩雑である。   Before making a call, use the e-mail function of the mobile phone to tell you that you want to make a call, and when you get permission by replying, make a call when the other party is inconvenient This can be prevented, but it is cumbersome to send an email just to get permission.

また、例えば自分の子供が外でなにをしているのかを親が知りたいときなど、電話をかけることや電子メールを送ることまでは必要ないけれども、相手方(この例の場合、子供)の様子を知りたいこともあり、このような場合も、相手方のいまの状態を確認することができれば便利である。   Also, for example, when a parent wants to know what their child is doing outside, it is not necessary to make a call or send an e-mail, but the other party (in this case, the child) There are times when I want to know the situation, and even in this case, it is convenient if the current state of the other party can be confirmed.

特許文献1に開示されている技術によれば、ユーザは、サーバにアクセスすることによって、利用者端末のユーザの予定(次に通信可能となる時間)を確認することができるものの、その利用者端末のユーザの、いま現在の状態をリアルタイムで確認することはできない。   According to the technique disclosed in Patent Document 1, the user can confirm the user terminal user's schedule (the time when communication is possible next) by accessing the server. The current status of the terminal user cannot be confirmed in real time.

本発明はこのような状況に鑑みてなされたものであり、通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにするものである。   The present invention has been made in view of such a situation, and is intended to know the current state of a communication partner user and perform processing according to the state.

本発明の第1の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測手段を備える。   The first information processing apparatus of the present invention recognizes a user's action based on an output of a built-in sensor, and transmits other action information indicating the recognized user's action together with information indicating the current position. In the information processing apparatus connected to the network via the network, the time of arrival at the predetermined destination of the user of the other information processing apparatus or the time until the user arrives at the predetermined destination Predicting means for predicting based on information is provided.

前記予測手段には、予測された前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記他の情報処理装置のユーザの行動の履歴とともに表示させることができる。   In the predicting means, the predicted arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination is displayed. It can be displayed with a history of actions.

本発明の第1の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む。   The first information processing method of the present invention recognizes a user's behavior based on the output of a built-in sensor, and transmits other behavior information representing the recognized user's behavior together with information representing the current position. In the information processing method of the information processing apparatus connected to the network via the network, the arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination A predicting step of predicting the behavior based on the behavior information.

本発明の第1のプログラムは、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む処理をコンピュータに実行させる。   The first program of the present invention recognizes the user's behavior based on the output of the built-in sensor, and transmits the behavior information representing the recognized user behavior together with information representing the current position. In a program for causing a computer to execute information processing in an information processing apparatus connected via a network, arrival time at a predetermined destination of a user of the other information processing apparatus or arrival at the predetermined destination The computer is caused to execute a process including a prediction step of predicting the time until the time based on the behavior information.

本発明の第2の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御手段を備える。   The second information processing apparatus according to the present invention recognizes a user's action based on an output of a built-in sensor, and transmits the action information representing the recognized user's action together with a captured image to another information processing apparatus. In an information processing apparatus connected via a network, a character that takes the same action as the user's action of the other information processing apparatus represented by the action information is displayed in the vicinity of the transmitted image Display control means is provided.

本発明の第2の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む。   The second information processing method of the present invention recognizes a user's behavior based on the output of a built-in sensor, and transmits the behavior information representing the recognized user's behavior together with a captured image to another information processing device. In the information processing method of the information processing apparatus connected via the network, a character that takes the same action as the user action of the other information processing apparatus represented by the action information A display control step for displaying in the vicinity is included.

本発明の第2のプログラムは、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む処理をコンピュータに実行させる。   The second program of the present invention recognizes the user's behavior based on the output of the built-in sensor, and transmits the behavior information representing the recognized user's behavior together with the captured image to another information processing apparatus. In a program for causing a computer to execute information processing in an information processing device connected via a network, a character having the same behavior as the user behavior of the other information processing device represented by the behavior information has been transmitted A computer is caused to execute processing including a display control step of displaying in the vicinity of the image.

本発明の第1の情報処理装置、情報処理方法、またはプログラムにおいては、他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間が、行動情報に基づいて予測される。   In the first information processing apparatus, information processing method, or program of the present invention, the arrival time of the user of another information processing apparatus at the predetermined destination, or the time until the user arrives at the predetermined destination, Predicted based on behavior information.

本発明の第2の情報処理装置、情報処理方法、またはプログラムにおいては、行動情報により表される他の情報処理装置のユーザの行動と同じ行動をとるキャラクタが、送信されてきた画像の近傍に表示される。   In the second information processing apparatus, information processing method, or program of the present invention, a character that takes the same action as the action of the user of another information processing apparatus represented by the action information is located in the vicinity of the transmitted image. Is displayed.

本発明によれば、通信相手のユーザのいまの状態を知ることができる。   According to the present invention, it is possible to know the current state of a communication partner user.

本発明の一実施形態に係る通信システムの構成例を示す図である。It is a figure which shows the structural example of the communication system which concerns on one Embodiment of this invention. キャラクタの例を示す図である。It is a figure which shows the example of a character. 携帯電話機2に表示される画面の例を示す図である。6 is a diagram showing an example of a screen displayed on the mobile phone 2. FIG. パーソナルコンピュータ3に表示される画面の例を示す図である。6 is a diagram showing an example of a screen displayed on the personal computer 3. FIG. 認識結果の例を示す図である。It is a figure which shows the example of a recognition result. 携帯電話機1のハードウェア構成例を示すブロック図である。2 is a block diagram illustrating a hardware configuration example of a mobile phone 1. FIG. 携帯電話機1のソフトウェア構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a software configuration example of the mobile phone 1. 特徴データの例を示す図である。It is a figure which shows the example of feature data. 行動認識を模式的に示す図である。It is a figure which shows action recognition typically. センサデータ、特徴量、認識結果の例を時系列的に示す図である。It is a figure which shows the example of sensor data, a feature-value, and a recognition result in time series. 推薦テーブルの例を示す図である。It is a figure which shows the example of a recommendation table. 携帯電話機1のプレゼンス状態情報送信処理について説明するフローチャートである。5 is a flowchart for explaining presence state information transmission processing of the mobile phone 1; 図12のステップS11において行われる行動認識処理の詳細について説明するフローチャートである。It is a flowchart explaining the detail of the action recognition process performed in FIG.12 S11. 携帯電話機2の通信手段選択処理について説明するフローチャートである。5 is a flowchart for explaining communication means selection processing of the mobile phone 2; 予測結果の表示画面の例を示す図である。It is a figure which shows the example of the display screen of a prediction result. 携帯電話機2の予測処理について説明するフローチャートである。10 is a flowchart for describing prediction processing of the mobile phone 2. プレゼンス状態表示画面の例を示す図である。It is a figure which shows the example of a presence status display screen. 携帯電話機2の表示処理について説明するフローチャートである。7 is a flowchart for explaining display processing of the mobile phone 2. パーソナルコンピュータの構成例を示すブロック図である。And FIG. 16 is a block diagram illustrating a configuration example of a personal computer.

図1は、本発明の一実施形態に係る通信システムの構成例を示す図である。   FIG. 1 is a diagram illustrating a configuration example of a communication system according to an embodiment of the present invention.

図1の通信システムにおいて、携帯電話機1と携帯電話機2はネットワーク4を介して接続されており、相互に通信を行うことができるようになされている。また、携帯電話機1とパーソナルコンピュータ3もネットワーク4を介して接続されており、相互に通信を行うことができるようになされている。   In the communication system of FIG. 1, a mobile phone 1 and a mobile phone 2 are connected via a network 4 so that they can communicate with each other. Further, the cellular phone 1 and the personal computer 3 are also connected via the network 4 so that they can communicate with each other.

携帯電話機1は、加速度センサ、ジャイロセンサなどのセンサを内蔵しており、その内蔵のセンサにより取得されたセンサデータ(加速度センサデータ、ジャイロセンサデータなど)に基づいて携帯電話機1を持っているユーザの行動を認識し、認識したユーザの行動を表す情報(行動情報)を含むプレゼンス状態情報を、所定の周期で携帯電話機2とパーソナルコンピュータ3にそれぞれネットワーク4を介して送信する。   The mobile phone 1 includes sensors such as an acceleration sensor and a gyro sensor, and a user who has the mobile phone 1 based on sensor data (acceleration sensor data, gyro sensor data, etc.) acquired by the built-in sensor. And presence state information including information (behavior information) representing the recognized user behavior is transmitted to the mobile phone 2 and the personal computer 3 via the network 4 respectively.

例えば、携帯電話機1においては、「歩き」、「走り」、「静止」、「車に乗っている」などの行動が携帯電話機1のユーザの行動として認識される。   For example, in the mobile phone 1, actions such as “walking”, “running”, “stationary”, and “riding in a car” are recognized as actions of the user of the mobile phone 1.

携帯電話機1からのプレゼンス状態情報を受信した携帯電話機2とパーソナルコンピュータ3には、「歩き」、「走り」、「静止」、「車に乗っている」などのそれぞれの行動をとるキャラクタのアニメーションのデータが用意されている。携帯電話機1からプレゼンス状態情報が送信されてきたとき、プレゼンス状態情報により表される携帯電話機1のユーザのいまの行動に応じたアニメーションが、例えば、携帯電話機2とパーソナルコンピュータ3のそれぞれの画面上に表示される。   On the mobile phone 2 and the personal computer 3 that have received the presence status information from the mobile phone 1, animations of characters that take actions such as “walking”, “running”, “still”, “riding in a car”, etc. Is available. When presence status information is transmitted from the mobile phone 1, an animation corresponding to the current behavior of the user of the mobile phone 1 represented by the presence status information is displayed on the respective screens of the mobile phone 2 and the personal computer 3, for example. Is displayed.

図2A乃至Dは、携帯電話機2とパーソナルコンピュータ3にデータが用意されるキャラクタの例を示す図である。図2A乃至Dのキャラクタは、「歩き」、「走り」、「静止」、「車に乗っている」をそれぞれ表す。   2A to 2D are diagrams showing examples of characters for which data is prepared in the mobile phone 2 and the personal computer 3. The characters in FIGS. 2A to 2D represent “walking”, “running”, “still”, and “riding in a car”, respectively.

キャラクタの表示は携帯電話機1からプレゼンス状態情報が送信されてくる毎に必要に応じて切り替えられ、例えば、携帯電話機1のユーザが歩いている状態から走りはじめたとき、そのときに送信されてくるプレゼンス状態情報に基づいて、携帯電話機2とパーソナルコンピュータ3の画面においても、図2Aのものから図2Bのものにキャラクタの表示が切り替えられる。   The display of the character is switched as needed every time presence status information is transmitted from the mobile phone 1, for example, when the user of the mobile phone 1 starts running from a walking state, the character display is transmitted at that time. Based on the presence status information, the display of the character is also switched from the screen in FIG. 2A to the screen in FIG. 2B on the screens of the mobile phone 2 and the personal computer 3.

このようなアニメーションを見ることにより、携帯電話機2のユーザ、またはパーソナルコンピュータ3のユーザは、携帯電話機1のユーザのいまの状態を知ることができる。例えば、電話をかける前にアニメーションの表示を確認し、携帯電話機1のユーザが車に乗っているとき(図2Dのアニメーションが表示されているとき)に電話をかけないようにすることにより、携帯電話機2のユーザは、携帯電話機1のユーザの都合の悪いときに電話をかけないで済む。   By viewing such an animation, the user of the mobile phone 2 or the user of the personal computer 3 can know the current state of the user of the mobile phone 1. For example, by confirming the display of animation before making a call and preventing the user from making a call when the user of the mobile phone 1 is in a car (when the animation of FIG. 2D is displayed), The user of the telephone 2 does not have to make a call when the user of the mobile telephone 1 is inconvenient.

図3は、携帯電話機2に表示される画面の例を示す図である。   FIG. 3 is a diagram illustrating an example of a screen displayed on the mobile phone 2.

図3の例においては、アドレス帳に登録されている「村田」、「趙」、「Brian」のそれぞれの名前の右方に、「村田」、「趙」、「Brian」が有するそれぞれの機器から送信されてきたプレゼンス状態情報から確認された行動を表すキャラクタ2A乃至2Cが表示されている。図1の通信システムには、携帯電話機1と同様の機能を有する機器がネットワーク4に複数接続されており、図3に示すように、それらの機器から送信されてきたプレゼンス状態情報に基づいて、複数の人の行動を表すアニメーションがそれぞれ表示される。   In the example of FIG. 3, “Murata”, “趙” and “Brian” have their respective devices to the right of the names “Murata”, “趙” and “Brian” registered in the address book. Characters 2A to 2C representing actions confirmed from the presence status information transmitted from are displayed. In the communication system of FIG. 1, a plurality of devices having functions similar to those of the mobile phone 1 are connected to the network 4, and as shown in FIG. 3, based on presence status information transmitted from these devices, Animations representing the actions of multiple people are displayed.

図3の例においては、「村田」は、いま走っている状態であることがキャラクタ2Aにより表されており、この表示から、携帯電話機2のユーザは、「村田」が忙しくしていることを確認することができ、電話をかけるのであればあとにしておこうと判断することができる。   In the example of FIG. 3, “Murata” is represented by the character 2A that it is currently running. From this display, the user of the mobile phone 2 indicates that “Murata” is busy. You can check, and if you make a call, you can decide to leave it later.

また、図3の例においては、「趙」は、いま「静止」している状態であることがキャラクタ2Bにより表されており、この表示から、携帯電話機2のユーザは、「趙」がじっとしていることを確認することができ、いま電話をかけようと判断することができる。   In the example of FIG. 3, the character 2B indicates that “キ ャ ラ ク タ” is currently “still”, and from this display, the user of the mobile phone 2 has “趙” You can confirm that you are making a call and you can now decide to make a call.

同様に、図3の例においては、「Brian」は、いま「車にのっている」状態であることがキャラクタ2Cにより表されており、この表示から、携帯電話機2のユーザは、「Brian」が車に乗っていることを確認することができ、要件を電話で伝えるのではなく、電子メールで伝えておこうと判断することができる。   Similarly, in the example of FIG. 3, “Brian” is represented by the character 2 </ b> C as being “in a car”, and from this display, the user of the mobile phone 2 can read “Brian” "Can be confirmed in the car, and it can be determined that the requirement is not communicated by phone but by email.

図4は、パーソナルコンピュータ3に表示される画面(ウインドウの表示)の例を示す図である。   FIG. 4 is a diagram illustrating an example of a screen (window display) displayed on the personal computer 3.

図4の例においては、インスタントメッセージのウインドウが表示されており、その中に、「たまご」、「ふじお」、「あきら」が有するそれぞれの機器から送信されてきたプレゼンス状態情報から確認された行動を表すキャラクタ3A乃至3Cが表示されている。   In the example of FIG. 4, an instant message window is displayed, which is confirmed from the presence status information transmitted from each device possessed by “Tamago”, “Fujio”, and “Akira”. Characters 3A to 3C representing actions are displayed.

図4の例においては、「たまご」は、いま「車にのっている」状態であることがキャラクタ3Aにより表されており、「ふじお」は、いま走っている状態であることがキャラクタ3Bにより表されている。   In the example of FIG. 4, “Tamago” is represented by the character 3A as being “in a car”, and “Fujio” is a character representing that it is currently running. It is represented by 3B.

「あきら」は、いま「静止」している状態であることがキャラクタ3Cにより表されている。図4の例において、「あきら」の名前の隣には、「K-005 会議室」の文字が表示されているが、これは、「あきら」が、自分の機器から、プレゼンス状態情報に含めて送信した自分の居場所の情報に基づいて表示されたものである。   The character 3C indicates that “Akira” is currently “still”. In the example of FIG. 4, the letters “K-005 Conference Room” are displayed next to the name “Akira”. This is because “Akira” is included in the presence status information from your device. It is displayed based on the information of whereabouts sent.

このように、プレゼンス状態情報には、ユーザの行動を表す情報だけでなく、各種の情報を含めて他の機器に送信するようにすることができる。   In this way, the presence status information can be transmitted to other devices including not only information indicating the user's behavior but also various information.

また、図4の例においては、「たまご」、「ふじお」、「あきら」のそれぞれの設定の状況として、ウインドウの右端に「場所を通知しない」、「通知しない」、「すべて通知する」の文字が表示されているが、これは、プレゼンス状態情報に含めて送信した情報のうち、どの情報までを相手方(プレゼンス状態情報を受信した機器)において表示されるようにするのかの設定の状況を表す。   In the example of FIG. 4, the setting status of “Tamago”, “Fujio”, and “Akira” is “Not notified of location”, “Not notified”, “Notified all” at the right end of the window. Is displayed, but this is the setting status of what information is to be displayed on the other party (the device that received the presence status information) out of the information included and transmitted in the presence status information. Represents.

例えば、「あきら」は「すべてを通知する」を設定しているから、パーソナルコンピュータ3においては、プレゼンス状態情報に含めて「あきら」の機器から送信されてきた情報に基づいて、「あきら」の行動を表すキャラクタ3Cだけでなく、居場所までが表示されている。すなわち、プレゼンス状態情報の送信元の機器のユーザは、プレゼンス状態情報を受信した機器においてどこまでの情報が公開されるのかを設定することができ、プレゼンス状態情報にはその設定の状況を表す情報も含まれる。   For example, since “Akira” is set to “Notify all”, in the personal computer 3, based on information transmitted from the device “Akira” included in the presence status information, “Akira” Not only the character 3C representing the action but also the whereabouts are displayed. That is, the user of the device that sent the presence status information can set how much information is disclosed on the device that received the presence status information, and the presence status information includes information indicating the setting status. included.

以上のような、送信されてきたプレゼンス状態情報に基づいて図3、図4に示すような画面を表示させる携帯電話機2やパーソナルコンピュータ3の機能は、携帯電話機1にも用意されている。また、反対に、内蔵するセンサからの出力に基づいて行動を認識し、認識した行動を表す情報を含むプレゼンス状態情報を他の機器に送信する携帯電話機1の機能は、携帯電話機2やパーソナルコンピュータ3にも用意されている。   The functions of the mobile phone 2 and the personal computer 3 for displaying the screens shown in FIGS. 3 and 4 based on the transmitted presence status information as described above are also provided in the mobile phone 1. On the other hand, the function of the mobile phone 1 that recognizes an action based on an output from a built-in sensor and transmits presence state information including information representing the recognized action to another device is the function of the mobile phone 2 or a personal computer. 3 is also available.

従って、携帯電話機1のユーザも、携帯電話機1に表示される画面から、携帯電話機2のユーザやパーソナルコンピュータ3のユーザの状態を確認することができる。   Therefore, the user of the mobile phone 1 can also check the status of the user of the mobile phone 2 or the user of the personal computer 3 from the screen displayed on the mobile phone 1.

なお、以上の例においては、プレゼンス状態情報の送信元の機器は、「歩き」、「走り」、「静止」、「車に乗っている」の4つの行動を認識することができるものとしたが、加速度センサ、ジャイロセンサだけでなく、マイクロフォンにより収音された音声などの様々なセンサにより得られるセンサデータや現在時刻などにも基づいて、「歩き」、「走り」、「静止」、「車に乗っている」以外の行動が認識されるようにしてもよい。   In the above example, it is assumed that the device from which the presence status information is transmitted can recognize four actions: “walking”, “running”, “still”, and “riding in a car”. However, based on sensor data obtained by various sensors such as voice picked up by microphones as well as acceleration sensors and gyro sensors, as well as current time, etc., `` walking '', `` running '', `` stationary '', `` Actions other than “in the car” may be recognized.

図5は、認識結果の例を示す図である。   FIG. 5 is a diagram illustrating an example of a recognition result.

例えば、図5の左側に示すように、マイクロフォンにより収音された音の音量から「静か」であることが得られ、時計の出力から現在時刻が「昼間」であることが得られ、さらに、加速度センサ、ジャイロセンサの出力から「移動なし」であることが得られたステータスS1に示すような状態の場合、ユーザのいまの行動(状態)は「のんびり中」として判断され、それを表す情報を含むプレゼンス状態情報が送信される。 For example, as shown on the left side of FIG. 5, it is obtained that the volume of the sound collected by the microphone is “quiet”, and that the current time is obtained from the output of the clock is “daytime”. In the case of the state shown in the status S 1 obtained from the outputs of the acceleration sensor and the gyro sensor as “no movement”, the current action (state) of the user is determined as “relaxing” and represents it. Presence status information including information is transmitted.

プレゼンス状態情報を受信した機器においては、「のんびり中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うことが可能であると判断され、チャットを管理するアプリケーションが自動的に(ユーザの操作によらずに)起動される。後述するように、プレゼンス状態情報を受信した機器においては、そのプレゼンス状態情報の送信元のユーザとのコミュニケーションをとるためのツールが、プレゼンス状態情報の送信元のユーザのいまの状態に応じて自動的に選択されるようになされている。   Since the device that has received the presence status information is “relaxing”, it is determined that the user who sent the presence status information can now chat, and the application that manages the chat is automatically (Without user operation). As will be described later, in a device that has received presence status information, a tool for communicating with the user who transmitted the presence status information is automatically set according to the current status of the user who transmitted the presence status information. It is made to be selected.

また、図5の中央に示すように、例えば、マイクロフォンにより収音された音の音量から「静か」であることが得られ、時計の出力から現在時刻が「夜間」であることが得られ、さらに、加速度センサ、ジャイロセンサの出力から「移動なし」であることが得られたステータスS2に示すような状態の場合、ユーザのいまの状態は「おやすみ中」として判断され、それを表す情報を含むプレゼンス状態情報が送信される。 Further, as shown in the center of FIG. 5, for example, it is obtained that the sound volume collected by the microphone is “quiet”, and that the current time is obtained from the clock output “night”, Furthermore, in the case of the state shown in the status S 2 obtained from the outputs of the acceleration sensor and the gyro sensor as “no movement”, the current state of the user is determined as “sleeping”, and information indicating it Presence status information including is transmitted.

プレゼンス状態情報を受信した機器においては、「おやすみ中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うことが不可能であると判断される。この場合、例えば、メールを行うことが可能であると判断され、メールを管理するアプリケーション(メーラ)が起動される。   In the device that has received the presence status information, since it is “sleeping”, it is determined that the user who has transmitted the presence status information cannot now chat. In this case, for example, it is determined that mail can be performed, and an application (mailer) that manages mail is started.

同様に、図5の右側に示すように、例えば、加速度センサ、ジャイロセンサの出力から「猛ダッシュ中」であるとして判断されたステータスS3に示すような状態の場合、それを表す情報を含むプレゼンス状態情報が送信される。 Similarly, as shown on the right side of FIG. 5, for example, in the case of the state shown in the status S 3 that is determined as “dashing rapidly” from the outputs of the acceleration sensor and the gyro sensor, information representing it is included. Presence status information is transmitted.

プレゼンス状態情報を受信した機器においては、「猛ダッシュ中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うこと、および電話をかけることが不可能であると判断される。この場合も、例えば、メールを行うことが可能であると判断され、メーラが起動される。   Since the device that has received the presence status information is “dashing rapidly”, it is determined that the user who has transmitted the presence status information cannot now chat or make a call. . Also in this case, for example, it is determined that mail can be performed, and the mailer is activated.

以上のようなプレゼンス状態情報の送受信や、相手方のユーザの状態に応じた処理を行うそれぞれの機器の動作についてはフローチャートを参照して後述する。   The operation of each device that performs the transmission / reception of presence status information and the processing according to the status of the other user will be described later with reference to flowcharts.

図6は、図1の携帯電話機1のハードウェア構成例を示すブロック図である。   FIG. 6 is a block diagram illustrating a hardware configuration example of the mobile phone 1 of FIG.

センサ部11は、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどよりなり、所定の周期で測定を行い、測定結果である加速度センサデータ、ジャイロセンサデータ、GPSセンサデータなどのセンサデータを行動認識部12とメイン処理部13に出力する。センサ部11を構成する加速度センサは、例えば、互いに直交する3軸方向の加速度を測定可能なものとされる。また、ジャイロセンサは、例えば、互いに直交する3軸周りの角速度を測定可能なものとされる。   The sensor unit 11 includes an acceleration sensor, a gyro sensor, a GPS (Global Positioning System) sensor, and the like. The sensor unit 11 performs measurement at a predetermined cycle, and obtains sensor data such as acceleration sensor data, gyro sensor data, and GPS sensor data as measurement results. The data is output to the action recognition unit 12 and the main processing unit 13. The acceleration sensor that constitutes the sensor unit 11 can measure, for example, accelerations in three axial directions orthogonal to each other. The gyro sensor can measure angular velocities around three axes orthogonal to each other, for example.

行動認識部12は、後に詳述するように、センサ部11から供給されてきたセンサデータから特徴を抽出し、抽出した特徴の時系列に基づいて、ユーザの行動を、あらかじめ用意されているHMM(Hidden Markov Model)を参照して認識する。行動認識部12は、認識結果を表す情報をメイン処理部13に出力する。   As will be described in detail later, the behavior recognition unit 12 extracts features from the sensor data supplied from the sensor unit 11, and based on the extracted time series of the features, user behaviors are prepared in advance. Recognize by referring to (Hidden Markov Model). The behavior recognition unit 12 outputs information representing the recognition result to the main processing unit 13.

メイン処理部13は、携帯電話機1の全体の動作を制御し、例えば、行動認識部12から供給されてきた行動の認識結果を表す情報を含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報を、あらかじめ登録されている機器に通信部14から送信させる。送信先としては、例えば、アドレス帳に登録されている機器、インスタントメッセージを管理するアプリケーションに登録されている機器が選択される。   The main processing unit 13 controls the overall operation of the mobile phone 1, for example, generates presence state information including information representing the action recognition result supplied from the action recognition unit 12, and uses the generated presence state information. The communication unit 14 transmits the information to a previously registered device. As the transmission destination, for example, a device registered in the address book or a device registered in an application for managing instant messages is selected.

また、メイン処理部13は、他の機器から送信されてきたプレゼンス状態情報が通信部14において受信され、それが供給されてきたとき、他の機器のユーザの行動を確認し、確認した行動を表すキャラクタを表示部15に表示させる。さらに、メイン処理部13は、他の機器から送信されてきたプレゼンス状態情報により表される他の機器のユーザの行動に応じて、そのユーザとのコミュニケーションに用いるツール(通信手段)を選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させたりする。   Further, the main processing unit 13 receives the presence state information transmitted from the other device at the communication unit 14, and when it is supplied, confirms the behavior of the user of the other device, and confirms the confirmed behavior. The character to be displayed is displayed on the display unit 15. Further, the main processing unit 13 selects a tool (communication means) to be used for communication with the user according to the behavior of the user of the other device represented by the presence state information transmitted from the other device, Start an application that manages the selected communication tool.

後述するように、メイン処理部13には、それぞれの行動と、それぞれの行動のときに用いるのに適したコミュニケーションツールの対応関係を表す推薦テーブルが用意されており、それが参照されて、他の機器のユーザのいまの行動に適したコミュニケーションツールが選択される。   As will be described later, the main processing unit 13 is provided with a recommendation table that indicates correspondence between each action and a communication tool suitable for use in each action. A communication tool suitable for the current behavior of the user of the device is selected.

通信部14は、メイン処理部13から供給されてきた情報をネットワーク4を介して他の機器に送信するとともに、他の機器からネットワーク4を介して送信されてきた情報を受信し、メイン処理部13に出力する。   The communication unit 14 transmits information supplied from the main processing unit 13 to other devices via the network 4 and receives information transmitted from other devices via the network 4. 13 is output.

表示部15はLCD(Liquid Crystal Display)などよりなり、メイン処理部13による制御に従って、キャラクタ(キャラクタが表示される画面)などを表示させる。   The display unit 15 includes an LCD (Liquid Crystal Display) or the like, and displays a character (screen on which the character is displayed) and the like according to control by the main processing unit 13.

記憶部16はHDD(Hard Disk Drive)などよりなり、キャラクタを表示するためのデータなどの各種のデータを記憶する。   The storage unit 16 includes an HDD (Hard Disk Drive) or the like, and stores various data such as data for displaying characters.

図7は、携帯電話機1のソフトウェア構成例(機能構成例)を示すブロック図である。図7に示す機能部のうちの少なくとも一部は、図6のメイン処理部13により所定のプログラムが実行されることによって実現される。   FIG. 7 is a block diagram illustrating a software configuration example (functional configuration example) of the mobile phone 1. 7 is realized by executing a predetermined program by the main processing unit 13 in FIG.

以下、適宜、携帯電話機1において扱われる携帯電話機1のユーザの状態(行動)をMyプレゼンス状態といい、携帯電話機1のユーザの仲間にあたる、携帯電話機2やパーソナルコンピュータ3などの他の機器のユーザの状態をBuddyプレゼンス状態という(反対に、例えば携帯電話機2から見れば、携帯電話機2のユーザの状態はMyプレゼンス状態となり、携帯電話機2のユーザの仲間にあたる、携帯電話機1やパーソナルコンピュータ3などの他の機器のユーザの状態はBuddyプレゼンス状態となる)。   Hereinafter, the state (behavior) of the user of the mobile phone 1 handled in the mobile phone 1 is referred to as “My presence state”, and the user of another device such as the mobile phone 2 or the personal computer 3 who corresponds to the user of the mobile phone 1. Is the Buddy presence state (conversely, for example, when viewed from the mobile phone 2, the user of the mobile phone 2 is in the My presence state and corresponds to the user of the mobile phone 2, such as the mobile phone 1 and the personal computer 3. The user status of the other device is the Buddy presence status).

図7に示すように、携帯電話機1は、基本的に、他の機器に対するプレゼンス状態情報の送信を行う送信処理部21と、他の機器から送信されてきたプレゼンス状態情報に基づく各種の処理を行う受信処理部22とからなる。   As shown in FIG. 7, the mobile phone 1 basically performs a transmission processing unit 21 that transmits presence status information to other devices, and various processes based on presence status information transmitted from other devices. And a reception processing unit 22 to be performed.

送信処理部21は、特徴抽出処理部31、行動認識処理部32、HMM DB33、Myプレゼンス状態認識処理部34、およびプレゼンス状態情報送信部35から構成される。このうちの実線で囲んで示す特徴抽出処理部31、行動認識処理部32、HMM DB33は、図6の行動認識部12により実現される。   The transmission processing unit 21 includes a feature extraction processing unit 31, an action recognition processing unit 32, an HMM DB 33, a My presence state recognition processing unit 34, and a presence state information transmission unit 35. Among these, the feature extraction processing unit 31, the behavior recognition processing unit 32, and the HMM DB 33 shown by being surrounded by a solid line are realized by the behavior recognition unit 12 of FIG.

特徴抽出処理部31は、例えば、加速度センサから供給されてきた加速度センサデータと、ジャイロセンサから供給されてきたジャイロセンサデータから特徴を抽出し、抽出した特徴を表す特徴データを行動認識処理部32に出力する。   For example, the feature extraction processing unit 31 extracts features from acceleration sensor data supplied from the acceleration sensor and gyro sensor data supplied from the gyro sensor, and the feature recognition processing unit 32 uses the feature data representing the extracted features. Output to.

具体的には、特徴抽出処理部31は、図8Aに示すように、加速度センサデータから歩行の周波数(Impulse pitch)を特徴の1つとして求める。図8Aのサンプル結果においては、横軸が時刻(加速度センサ11のサンプル数)、縦軸が周波数(Hz)となっている。人が歩くときに加速度センサにより測定される周波数は一般的に2Hz(1秒間に2歩)であるから、この2Hzの測定結果の時系列などから、認識結果としての「歩き」がHMMが参照されて得られる。   Specifically, as shown in FIG. 8A, the feature extraction processing unit 31 obtains a walking frequency (Impulse pitch) as one of the features from the acceleration sensor data. In the sample result of FIG. 8A, the horizontal axis represents time (the number of samples of the acceleration sensor 11), and the vertical axis represents frequency (Hz). The frequency measured by the acceleration sensor when a person walks is typically 2 Hz (2 steps per second), so the HMM refers to the “walk” as the recognition result from the time series of the 2 Hz measurement results. To be obtained.

また、特徴抽出処理部31は、図8Bに示すように、加速度センサデータから歩行の強さ、衝撃の度合い(Impulse magnitude)を特徴の1つとして求める。図8Bのサンプル結果においては、横軸が時刻、縦軸が強さとなっている。   Further, as shown in FIG. 8B, the feature extraction processing unit 31 obtains the walking strength and the impact magnitude as one of the features from the acceleration sensor data. In the sample result of FIG. 8B, the horizontal axis represents time and the vertical axis represents strength.

さらに、特徴抽出処理部31は、図8Cに示すように、加速度センサデータから重力軸を求め、ジャイロセンサデータから求められる、重力軸まわりの回転角(Heading)を特徴の1つとして求める。加速度センサが重力軸に対して水平方向の加速度を検出する状態にある場合にはその出力は0となり、一方、重力軸に対して水平方向以外の方向の加速度を検出する状態にある場合には所定の値が測定されるから、上述したように、3軸方向の加速度を測定することができるようになされているときには、それぞれの方向の加速度の測定結果から重力軸を求めることが可能となる。なお、図8Cのサンプル結果においては、横軸が時刻、縦軸が回転角となっている。   Further, as shown in FIG. 8C, the feature extraction processing unit 31 obtains the gravity axis from the acceleration sensor data, and obtains the rotation angle (Heading) around the gravity axis obtained from the gyro sensor data as one of the features. When the acceleration sensor is in a state of detecting acceleration in the horizontal direction with respect to the gravity axis, the output is 0. On the other hand, when the acceleration sensor is in a state of detecting acceleration in a direction other than the horizontal direction with respect to the gravity axis, Since the predetermined value is measured, as described above, when it is possible to measure the acceleration in the three-axis direction, the gravity axis can be obtained from the measurement result of the acceleration in each direction. . In the sample result of FIG. 8C, the horizontal axis represents time and the vertical axis represents the rotation angle.

例えば、以上のような各種の特徴が特徴抽出処理部31においてセンサデータに基づいて抽出される。抽出された特徴を表す特徴データは、抽出される毎に、行動認識処理部32に順次出力される。   For example, various features as described above are extracted by the feature extraction processing unit 31 based on the sensor data. The feature data representing the extracted features is sequentially output to the action recognition processing unit 32 every time it is extracted.

行動認識処理部32は、特徴抽出処理部31から供給されてきた特徴データを所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM DB33に用意されているHMMを参照して認識する。   The behavior recognition processing unit 32 accumulates a predetermined amount of feature data supplied from the feature extraction processing unit 31, and prepares the behavior of the user of the mobile phone 1 in the HMM DB 33 based on the time series of the accumulated feature data. Recognize by referring to the HMM.

HMM DB33には、例えば、人が歩いているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「歩き」を認識するために用いられるモデル、人が走っているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「走り」を認識するために用いられるモデル、人が静止しているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「静止」を認識するために用いられるモデル、人が車に乗っているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「車に乗っている」を認識するために用いられるモデルなどがあらかじめ用意されている。   The HMM DB 33 is a model used for recognizing “walking” generated based on features extracted from acceleration sensor data and gyro sensor data when a person is walking. A model used to recognize "running" generated based on features extracted from acceleration sensor data and gyro sensor data, and extracted from acceleration sensor data and gyro sensor data when a person is stationary A model used to recognize "stillness" generated based on the features that were generated, based on features extracted from acceleration sensor data and gyro sensor data when a person is in a car, Models and the like used for recognizing “in the car” are prepared in advance.

行動認識処理部32により認識された「歩き」、「走り」、「静止」、「車に乗っている」などの行動の認識結果を表す情報はMyプレゼンス状態認識処理部34に出力される。   Information representing the recognition results of actions such as “walking”, “running”, “still”, and “riding in a car” recognized by the action recognition processing unit 32 is output to the My presence state recognition processing unit 34.

図9は、行動認識部12による行動認識を模式的に示す図である。   FIG. 9 is a diagram schematically illustrating behavior recognition by the behavior recognition unit 12.

生データ(raw data)としての加速度センサデータとジャイロセンサデータに対してはキャリブレーションが施され、キャリブレーションが施されることによって得られたデータから、上述したような、歩行ピッチ、歩行の強さ、重力、進行方向が特徴量(low level context)として取得される。また、取得されたそれらの特徴量に基づいて、HMMが参照され、ユーザの行動(high level context)が統計学的に認識される。   The acceleration sensor data and the gyro sensor data as raw data are calibrated, and the above-described walking pitch and walking strength are obtained from the data obtained by the calibration. Gravity and direction of travel are acquired as a low level context. Moreover, based on those acquired feature quantities, the HMM is referred to, and the user's behavior (high level context) is statistically recognized.

なお、行動認識のアルゴリズムは上述したものに限られず、各種のアルゴリズムにより行われるようにしてもよい。   Note that the action recognition algorithm is not limited to that described above, and may be performed by various algorithms.

図10は、センサデータ、特徴量、認識結果の例を時系列的に示す図である。   FIG. 10 is a diagram showing examples of sensor data, feature amounts, and recognition results in time series.

図10の例においては、「歩き」、「走り」、「歩き」、「走り」、「静止」、「歩き」、「静止」の順に行動の認識結果が取得されている。このようなそれぞれの認識結果には、例えば、その認識結果を得るために用いられたセンサデータの測定時刻が付加され、プレゼンス状態情報のうちの行動を表す情報として用いられる。   In the example of FIG. 10, action recognition results are acquired in the order of “walking”, “running”, “walking”, “running”, “still”, “walking”, and “still”. For example, the measurement time of the sensor data used for obtaining the recognition result is added to each such recognition result, and used as information representing the behavior in the presence state information.

図7の説明に戻り、Myプレゼンス状態認識処理部34は、行動認識処理部32から供給されてきた行動の認識結果を含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報をプレゼンス状態情報送信部35に出力する。Myプレゼンス状態認識処理部34は、必要に応じて、プレゼンス状態情報にGPSセンサデータなどを含める。   Returning to the description of FIG. 7, the My presence state recognition processing unit 34 generates presence state information including the recognition result of the behavior supplied from the behavior recognition processing unit 32, and uses the generated presence state information as the presence state information transmission unit. 35. The My presence state recognition processing unit 34 includes GPS sensor data and the like in the presence state information as necessary.

また、Myプレゼンス状態認識処理部34は、適宜、行動認識処理部32から供給されてきた行動の認識結果に基づいて、携帯電話機1のユーザの状態を表すアニメーションを表示部15に表示させる。   Further, the My presence state recognition processing unit 34 causes the display unit 15 to display an animation representing the state of the user of the mobile phone 1 based on the behavior recognition result supplied from the behavior recognition processing unit 32 as appropriate.

プレゼンス状態情報送信部35は、通信部14を制御し、Myプレゼンス状態認識処理部34により生成され、供給されてきたプレゼンス状態情報をネットワーク4を介して他の機器に送信する。   The presence status information transmission unit 35 controls the communication unit 14 to transmit the presence status information generated and supplied by the My presence status recognition processing unit 34 to other devices via the network 4.

受信処理部22は、プレゼンス状態情報取得部41、Buddyプレゼンス状態認識処理部42、通信手段選択処理部43、テーブルDB44、および行動予測処理部45から構成される。   The reception processing unit 22 includes a presence state information acquisition unit 41, a buddy presence state recognition processing unit 42, a communication means selection processing unit 43, a table DB 44, and a behavior prediction processing unit 45.

プレゼンス状態情報取得部41は、他の機器からネットワーク4を介して送信されてきたプレゼンス状態情報を受信し、それをBuddyプレゼンス状態認識処理部42に出力する。   The presence status information acquisition unit 41 receives presence status information transmitted from another device via the network 4 and outputs it to the Buddy presence status recognition processing unit 42.

Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(他の機器のユーザの状態)を認識し、Buddyプレゼンス状態を表すアニメーションを表示部15に表示させる。   The Buddy presence status recognition processing unit 42 recognizes the Buddy presence status (the status of the user of another device) based on the presence status information supplied from the presence status information acquisition unit 41, and displays an animation representing the Buddy presence status. Display on the unit 15.

また、Buddyプレゼンス状態認識処理部42は、認識したBuddyプレゼンス状態を表す情報を通信手段選択処理部43と行動予測処理部45に出力する。他の機器から送信されてきたプレゼンス状態情報に他の機器のユーザの現在位置を表すGPSセンサデータが含まれている場合、Buddyプレゼンス状態認識処理部42は、そのGPSセンサデータも行動予測処理部45に出力する。後述するように、行動予測処理部45においては、Buddyプレゼンス状態とGPSセンサデータに基づいて、そのGPSセンサデータ等をプレゼンス状態情報に含めて送信してきた機器のユーザの目的地までの予測時間などが求められる。   Further, the Buddy presence state recognition processing unit 42 outputs information representing the recognized Buddy presence state to the communication means selection processing unit 43 and the behavior prediction processing unit 45. When the presence status information transmitted from the other device includes GPS sensor data representing the current position of the user of the other device, the Buddy presence status recognition processing unit 42 also includes the GPS sensor data as a behavior prediction processing unit. Output to 45. As will be described later, in the behavior prediction processing unit 45, based on the Buddy presence status and GPS sensor data, the estimated time to the destination of the user of the device that transmitted the GPS sensor data and the like included in the presence status information, etc. Is required.

さらに、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報を送信してきた機器のユーザとのコミュニケーションに用いるツールが通信手段選択処理部43により選択され、選択されたツールを表す情報が供給されてきたとき、適宜、その選択されたコミュニケーションツールがどれであるのかを表すメッセージなどを表示部15に表示させ、携帯電話機1のユーザに提示する。   Further, in the Buddy presence status recognition processing unit 42, a tool used for communication with the user of the device that has transmitted the presence status information is selected by the communication means selection processing unit 43, and information indicating the selected tool has been supplied. When appropriate, a message indicating which communication tool is selected is displayed on the display unit 15 and presented to the user of the mobile phone 1.

通信手段選択処理部43は、Buddyプレゼンス状態認識処理部42により認識されたBuddyプレゼンス状態に基づいて、他の機器のユーザとのコミュニケーションツールとして適したものをテーブルDB44に記憶されている推薦テーブルを参照して選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる。   Based on the Buddy presence status recognized by the Buddy presence status recognition processing unit 42, the communication means selection processing unit 43 creates a recommendation table stored in the table DB 44 that is suitable as a communication tool with users of other devices. Browse and select to launch an application that manages the selected communication tool.

図11は、テーブルDB44に記憶されている推薦テーブルの例を示す図である。   FIG. 11 is a diagram illustrating an example of a recommendation table stored in the table DB 44.

図11の推薦テーブルの例においては、各時間帯(平日の昼/夜、休日の昼/夜)の行動と、他の機器のユーザがその行動をとっているときに適したコミュニケーションツールが対応付けられている。また、図11の例においては、携帯電話機1に用意されているコミュニケーションツールとして、電話、電子メール(電子メールの返信)、SMS(Short Message Service)(SMSの返信)、チャットが示されている。   In the example of the recommendation table in FIG. 11, the behavior of each time zone (weekday day / night, holiday day / night) corresponds to a communication tool suitable when the user of another device is taking the action. It is attached. In the example of FIG. 11, as communication tools prepared for the mobile phone 1, telephone, e-mail (e-mail reply), SMS (Short Message Service) (SMS reply), and chat are shown. .

図11において、「○」はそのコミュニケーションツールが適していることを表し、「×」は適していないことを表す。「△」はその中間であることを表す。   In FIG. 11, “◯” indicates that the communication tool is suitable, and “X” indicates that it is not suitable. “Δ” represents an intermediate point.

例えば、時間帯が平日の昼間であり、認識されたBuddyプレゼンス状態が歩行中(「歩き」)であるときには、チャット以外の、電話、電子メール(電子メールの返信)、SMS(SMSの返信)が適したコミュニケーションツールと判断される。   For example, when the day is a weekday daytime and the recognized Buddy presence status is walking ("walking"), other than chat, telephone, e-mail (email reply), SMS (SMS reply) Is considered a suitable communication tool.

従って、このように、時間帯が平日の昼間であり、認識されたBuddyプレゼンス状態が歩行中であることが他の機器から送信されてきたプレゼンス状態情報に基づいて認識されたときには、通信手段選択処理部43により、電話、電子メール(電子メールの返信)、SMS(SMSの返信)のいずれかのコミュニケーションツールが選択され、それを管理するアプリケーションが起動される。このように複数のコミュニケーションツールが適していると判断された場合、例えば、ユーザによりあらかじめ設定された優先度の高いツールが選択される。   Therefore, when the time zone is daytime on weekdays and the recognized Buddy presence status is recognized based on the presence status information transmitted from another device, the communication means selection is performed. The processing unit 43 selects a communication tool of telephone, e-mail (reply of e-mail), or SMS (reply of SMS), and starts an application for managing it. Thus, when it is determined that a plurality of communication tools are suitable, for example, a tool with a high priority preset by the user is selected.

このような推薦テーブルが参照され、コミュニケーション相手となる他の機器のユーザのいまの状態に応じたツールが通信手段選択処理部43により選択されることになる。なお、図11の例においては、他の機器のユーザの行動として、歩行中(上述した「歩き」)、走っている(上述した「走り」)、座っている、立っている、乗り物(上述した「車にのっている」)が示されている。   Such a recommendation table is referred to, and the communication means selection processing unit 43 selects a tool corresponding to the current state of the user of the other device as the communication partner. In addition, in the example of FIG. 11, as a user's action of another apparatus, while walking ("walking" mentioned above), running ("running" mentioned above), sitting, standing, vehicle (described above) "Getting on a car") is shown.

なお、行動とコミュニケーションツールの対応関係を表す情報として、図11に示すようなテーブル状の情報ではなく、行動を入力としてその行動に応じたコミュニケーションツールを出力とする確率モデルなどの各種の情報が用意されるようにしてもよい。   In addition, as information representing the correspondence between the behavior and the communication tool, various information such as a probability model in which the behavior is input and the communication tool corresponding to the behavior is output is not the table-like information illustrated in FIG. It may be prepared.

図7の説明に戻り、行動予測処理部45は、Buddyプレゼンス状態とGPSセンサデータに基づいて、そのGPSセンサデータ等をプレゼンス状態情報に含めて送信してきた機器のユーザの目的地に到着するまでの予測時間や、目的地に到着する予測時刻を求め、例えば、そのユーザの行動履歴などとともに、地図上に、求めた予測時間や時刻を表示させる。   Returning to the description of FIG. 7, the behavior prediction processing unit 45 is based on the Buddy presence status and the GPS sensor data until it arrives at the destination of the user of the device that has transmitted the GPS sensor data and the like included in the presence status information. The predicted time and the predicted time of arrival at the destination are obtained. For example, the obtained predicted time and time are displayed on the map together with the action history of the user.

なお、図6と図7に示す構成は、携帯電話機1だけでなく、携帯電話機2やパーソナルコンピュータ3も有している。以下、適宜、図6と図7に示す構成を、携帯電話機2やパーソナルコンピュータ3の構成としても引用して説明する。   6 and 7 includes not only the mobile phone 1 but also the mobile phone 2 and the personal computer 3. In the following, the configurations shown in FIGS. 6 and 7 will be described with reference to the configurations of the mobile phone 2 and the personal computer 3 as appropriate.

次に、携帯電話機1と携帯電話機2の動作についてフローチャートを参照して説明する。   Next, operations of the mobile phone 1 and the mobile phone 2 will be described with reference to flowcharts.

以下においては、携帯電話機1がプレゼンス状態情報の送信側の機器であり、携帯電話機2がプレゼンス状態情報の受信側の機器である場合について説明するが、携帯電話機1により行われる処理は、適宜、携帯電話機2やパーソナルコンピュータ3においても行われる。また、携帯電話機2により行われる処理は、適宜、携帯電話機1やパーソナルコンピュータ3においても行われる。   In the following, a case where the mobile phone 1 is a device on the presence status information transmission side and the mobile phone 2 is a device on the presence status information reception side will be described. This is also performed in the mobile phone 2 and the personal computer 3. Further, the processing performed by the mobile phone 2 is also performed by the mobile phone 1 and the personal computer 3 as appropriate.

はじめに、図12のフローチャートを参照して、プレゼンス状態情報を送信する携帯電話機1の処理について説明する。   First, processing of the mobile phone 1 that transmits presence status information will be described with reference to the flowchart of FIG.

携帯電話機1のメイン処理部13による制御に従って各種のセンサにより測定が行われ、測定結果であるセンサデータが供給されてきたとき、ステップS1において、行動認識部12により行動認識処理が行われる。行動認識処理の詳細については図13のフローチャートを参照して後述するが、この処理により、携帯電話機1のユーザのいまの行動が認識される。認識された行動を表す情報は行動認識処理部32からMyプレゼンス状態認識処理部34に出力される。   Measurement is performed by various sensors in accordance with control by the main processing unit 13 of the mobile phone 1, and when sensor data as measurement results is supplied, behavior recognition processing is performed by the behavior recognition unit 12 in step S1. Details of the action recognition process will be described later with reference to the flowchart of FIG. 13, but the current action of the user of the mobile phone 1 is recognized by this process. Information representing the recognized behavior is output from the behavior recognition processing unit 32 to the My presence state recognition processing unit 34.

ステップS2において、Myプレゼンス状態認識処理部34は、行動認識処理部32から供給されてきた行動の認識結果を表す情報や、GPSセンサデータなどを含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報をプレゼンス状態情報送信部35に出力する。   In step S2, the My presence state recognition processing unit 34 generates presence state information including information representing the recognition result of the behavior supplied from the behavior recognition processing unit 32 and GPS sensor data, and the generated presence state information. Is output to the presence status information transmission unit 35.

ステップS3において、プレゼンス状態情報送信部35は、Myプレゼンス状態認識処理部34により生成されたプレゼンス状態情報をネットワーク4を介して携帯電話機2に送信し、処理を終了させる。   In step S3, the presence status information transmission unit 35 transmits the presence status information generated by the My presence status recognition processing unit 34 to the mobile phone 2 via the network 4 and ends the process.

このような処理が所定の周期で繰り返し行われることにより、携帯電話機1から送信されてきたプレゼンス状態情報を受信した携帯電話機2のユーザは、携帯電話機1のユーザの状態をリアルタイムで確認することができる。   By repeatedly performing such processing at a predetermined cycle, the user of the mobile phone 2 that has received the presence status information transmitted from the mobile phone 1 can check the status of the user of the mobile phone 1 in real time. it can.

次に、図13のフローチャートを参照して、図12のステップS1において行われる行動認識処理の詳細について説明する。   Next, details of the action recognition process performed in step S1 of FIG. 12 will be described with reference to the flowchart of FIG.

ステップS11において、行動認識部12の特徴抽出処理部31は、加速度センサの出力である加速度センサデータやジャイロセンサの出力であるジャイロセンサデータなどから、上述したような、歩行ピッチ、歩行の強さ、重力、進行方向などの特徴を抽出する。特徴抽出処理部31により抽出された特徴を表す特徴データは行動認識処理部32に出力される。   In step S11, the feature extraction processing unit 31 of the action recognition unit 12 determines the walking pitch and the walking strength as described above from the acceleration sensor data that is the output of the acceleration sensor and the gyro sensor data that is the output of the gyro sensor. Extract features such as gravity and direction of travel. Feature data representing features extracted by the feature extraction processing unit 31 is output to the behavior recognition processing unit 32.

ステップS12において、行動認識処理部32は、特徴抽出処理部31から供給されてきた特徴データを所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM DB33に用意されているHMMを参照して認識する。行動認識処理部32は認識結果をMyプレゼンス状態認識処理部34に出力し、処理を終了させる。その後、処理は図12のステップS1に戻り、それ以降の処理が行われる。   In step S12, the behavior recognition processing unit 32 accumulates a predetermined amount of feature data supplied from the feature extraction processing unit 31, and based on the time series of the accumulated feature data, the behavior recognition processing unit 32 Recognize by referring to the HMM prepared in the HMM DB 33. The action recognition processing unit 32 outputs the recognition result to the My presence state recognition processing unit 34 and ends the process. Thereafter, the processing returns to step S1 in FIG. 12, and the subsequent processing is performed.

次に、図14のフローチャートを参照して、コミュニケーションツールを選択する携帯電話機2の処理について説明する。この処理は、携帯電話機1による図12の処理に対応して行われる処理である。   Next, processing of the mobile phone 2 for selecting a communication tool will be described with reference to the flowchart of FIG. This process is a process performed corresponding to the process of FIG.

ステップS21において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。   In step S21, the presence status information acquisition unit 41 of the mobile phone 2 determines whether or not presence status information has been transmitted, and waits until it is determined that it has been transmitted.

プレゼンス状態情報取得部41は、ステップS21において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS22に進む。携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。   If the presence status information acquisition unit 41 determines in step S21 that the presence status information has been transmitted, the presence status information acquisition unit 41 proceeds to step S22. Presence status information transmitted from the mobile phone 1 is output from the presence status information acquisition unit 41 to the Buddy presence status recognition processing unit 42.

ステップS22において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識し、認識したBuddyプレゼンス状態を表す情報を通信手段選択処理部43に出力する。   In step S22, the Buddy presence status recognition processing unit 42 recognizes the Buddy presence status (the status of the user of the mobile phone 1) based on the presence status information supplied from the presence status information acquisition unit 41, and recognizes the recognized Buddy presence. Information representing the state is output to the communication means selection processing unit 43.

ステップS23において、通信手段選択処理部43は、Buddyプレゼンス状態認識処理部42により認識されたBuddyプレゼンス状態に基づいて、携帯電話機1のユーザとのコミュニケーションツールとして適したものをテーブルDB44に記憶されている推薦テーブルを参照して選択する。   In step S23, the communication means selection processing unit 43 stores in the table DB 44 what is suitable as a communication tool with the user of the mobile phone 1 based on the Buddy presence status recognized by the Buddy presence status recognition processing unit 42. Select and refer to the recommendation table.

ステップS24において、通信手段選択処理部43は、コミュニケーションツールを自動的に選択する自動選択モードが設定されているか否かを判定し、自動選択モードが設定されていると判定した場合、ステップS25に進む。   In step S24, the communication means selection processing unit 43 determines whether or not an automatic selection mode for automatically selecting a communication tool is set. If it is determined that the automatic selection mode is set, the process proceeds to step S25. move on.

ステップS25において、通信手段選択処理部43は、ステップS23で選択したコミュニケーションツールを、携帯電話機2のユーザが、携帯電話機1のユーザとの間でメッセージをやりとりするなどしてコミュニケーションをとるときに用いるツールとしてセットする。ステップS24において、自動選択モードが設定されていないと判定された場合、このステップS25の処理はスキップされる。   In step S25, the communication means selection processing unit 43 uses the communication tool selected in step S23 when the user of the mobile phone 2 communicates by exchanging messages with the user of the mobile phone 1. Set as a tool. If it is determined in step S24 that the automatic selection mode is not set, the process of step S25 is skipped.

ステップS26において、Buddyプレゼンス状態認識処理部42は、ステップS22で認識した携帯電話機1のユーザの状態を表すアニメーションが表示される、例えば図3に示すようなBuddyプレゼンス状態表示画面を表示部15に表示させる。   In step S26, the Buddy presence state recognition processing unit 42 displays an animation representing the state of the user of the mobile phone 1 recognized in step S22. For example, a Buddy presence state display screen as shown in FIG. Display.

Buddyプレゼンス状態表示画面が表示された状態で、例えば、携帯電話機2のユーザにより、携帯電話機1のユーザとの間でメッセージなどのやりとりを開始することが指示されたとき、ステップS27において、通信手段選択処理部43は、ステップS25でセットしたコミュニケーションツールを管理するアプリケーションを起動させる。   When the Buddy presence status display screen is displayed, for example, when the user of the mobile phone 2 instructs to start exchanging messages with the user of the mobile phone 1, in step S27, the communication means The selection processing unit 43 activates an application that manages the communication tool set in step S25.

これにより、携帯電話機2のユーザは、携帯電話機1のユーザのいまの状態に適したツールで、携帯電話機1のユーザとの間でコミュニケーションをとることができる。   Thereby, the user of the mobile phone 2 can communicate with the user of the mobile phone 1 with a tool suitable for the current state of the user of the mobile phone 1.

以上においては、プレゼンス状態情報に基づいて得られた携帯電話機1のユーザの状態であるBuddyプレゼンス状態に基づいてコミュニケーションツールを選択する処理について主に説明したが、次に、Buddyプレゼンス状態に基づいて、携帯電話機1のユーザが所定の目的地に到着する時刻、または所定の目的地に到着するまでの時間を予測する処理について説明する。   In the above, the process of selecting the communication tool based on the Buddy presence status that is the user status of the mobile phone 1 obtained based on the presence status information has been mainly described. Next, based on the Buddy presence status, A process for predicting the time when the user of the mobile phone 1 arrives at the predetermined destination or the time until the user arrives at the predetermined destination will be described.

図15は、予測結果に基づいて携帯電話機2に表示される画面の例を示す図である。図15は、携帯電話機1のユーザが目的地に到着するまでの時間が予測された場合の例を示している。   FIG. 15 is a diagram illustrating an example of a screen displayed on the mobile phone 2 based on the prediction result. FIG. 15 shows an example in which the time until the user of the mobile phone 1 arrives at the destination is predicted.

図15の例においては、所定の範囲の地図が表示され、目的地Pが設定されている。この目的地Pは例えば携帯電話機2のユーザにより地図上から選択されたものである。   In the example of FIG. 15, a map in a predetermined range is displayed and the destination P is set. The destination P is selected from the map by the user of the mobile phone 2, for example.

また、図15の例においては、地図上のそれぞれの場所に、その場所で携帯電話機1のユーザがとっていた行動を表すキャラクタが表示されている。地図上のキャラクタの表示位置は、プレゼンス状態情報に含めて携帯電話機1から送信されてきたGPSセンサデータに基づいて求められる位置であり、キャラクタは、上述したように、プレゼンス状態情報により表される携帯電話機1のユーザの状態に基づいて選択されたものである。   In the example of FIG. 15, characters representing actions taken by the user of the mobile phone 1 at each place are displayed at each place on the map. The display position of the character on the map is a position obtained based on the GPS sensor data transmitted from the mobile phone 1 included in the presence state information, and the character is represented by the presence state information as described above. The mobile phone 1 is selected based on the state of the user.

図15の画面上に表示されるキャラクタ61は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが車にのっていたことを表し、キャラクタ62は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが静止していたことを表す。また、キャラクタ63,64,65は、それぞれのキャラクタが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが歩いていたことを表し、キャラクタ66は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが走っていたことを表す。   The character 61 displayed on the screen of FIG. 15 represents that the user of the mobile phone 1 was in the car when the user of the mobile phone 1 was at the place where the character 61 was displayed. This indicates that when the user of the mobile phone 1 is at the place where it is displayed, the user of the mobile phone 1 is stationary. Characters 63, 64, and 65 represent that the user of the mobile phone 1 was walking when the user of the mobile phone 1 was at the place where each character was displayed. This indicates that the user of the mobile phone 1 was running when the user of the mobile phone 1 was present at the place where it was placed.

キャラクタ67は携帯電話機1のユーザの現在位置と、その行動を表し、キャラクタ67の下には、携帯電話機1のユーザの現在の行動を表す「現在:車で移動中」のメッセージが表示されている。   The character 67 represents the current position of the user of the mobile phone 1 and the action thereof. Under the character 67, a message “currently: moving by car” indicating the current action of the user of the mobile phone 1 is displayed. Yes.

さらに、図15の例においては、地図上に設定されている目的地Pの上に、携帯電話機2において予測された、携帯電話機1のユーザが目的地Pに到着するまでの時間を表す「到着予定:10分後」のメッセージが表示されている。この予測時間は、例えば、携帯電話機1のユーザの現在位置から目的地Pまでの距離と、目的地Pに向かう速さ(例えば、プレゼンス状態情報に含めて携帯電話機1から順次送信されてくるGPSセンサデータにより表される位置の変化量から求められる速さ、または、車の予想速度)から求められる。   Further, in the example of FIG. 15, “arrival” indicating the time until the user of the mobile phone 1 arrives at the destination P predicted by the mobile phone 2 on the destination P set on the map. The message “Schedule: 10 minutes later” is displayed. This predicted time is, for example, the distance from the current position of the user of the mobile phone 1 to the destination P and the speed toward the destination P (for example, GPS that is sequentially transmitted from the mobile phone 1 in the presence status information) It is obtained from the speed obtained from the change amount of the position represented by the sensor data or the expected speed of the car).

例えば、目的地で携帯電話機1のユーザと待ち合わせをしているにもかかわらず、待ち合わせの時刻に携帯電話機1のユーザがこない場合、携帯電話機2のユーザは、このような画面を携帯電話機2を用いて確認することにより、携帯電話機1のユーザが目的地に向かっていることや、到着するまでの時間などを確認することができる。すなわち、携帯電話機2のユーザは、携帯電話機2から電話をかけるなどして携帯電話機1のユーザにいまの状態を問い合わせる必要がない。   For example, when the user of the mobile phone 1 does not come at the time of waiting even though the user of the mobile phone 1 is waiting at the destination, the user of the mobile phone 2 displays such a screen on the mobile phone 2. By using and confirming, it is possible to confirm that the user of the mobile phone 1 is heading to the destination and the time until arrival. That is, the user of the mobile phone 2 does not have to make an inquiry about the current state to the user of the mobile phone 1 by making a call from the mobile phone 2.

ここで、図16のフローチャートを参照して、図15に示すような画面を表示させる携帯電話機2の処理について説明する。なお、携帯電話機1においては、図12の処理と同様の処理が行われ、GPSセンサデータを含むプレゼンス状態情報が携帯電話機2に対して繰り返し送信されている。   Here, with reference to the flowchart of FIG. 16, the process of the mobile phone 2 for displaying a screen as shown in FIG. 15 will be described. In the mobile phone 1, processing similar to the processing in FIG. 12 is performed, and presence status information including GPS sensor data is repeatedly transmitted to the mobile phone 2.

ステップS41において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。   In step S41, the presence status information acquisition unit 41 of the mobile phone 2 determines whether or not presence status information has been transmitted, and waits until it is determined that it has been transmitted.

プレゼンス状態情報取得部41は、ステップS41において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS42に進む。携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。   If the presence status information acquisition unit 41 determines in step S41 that the presence status information has been transmitted, the process proceeds to step S42. Presence status information transmitted from the mobile phone 1 is output from the presence status information acquisition unit 41 to the Buddy presence status recognition processing unit 42.

ステップS42において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識し、認識したBuddyプレゼンス状態を表す情報を、プレゼンス状態情報に含めて携帯電話機1から送信されてきたGPSセンサデータとともに行動予測処理部45に出力する。   In step S42, the Buddy presence status recognition processing unit 42 recognizes the Buddy presence status (the status of the user of the mobile phone 1) based on the presence status information supplied from the presence status information acquisition unit 41, and recognizes the recognized Buddy presence. Information indicating the state is included in the presence state information and output to the behavior prediction processing unit 45 together with the GPS sensor data transmitted from the mobile phone 1.

ステップS43において、行動予測処理部45は、Buddyプレゼンス状態認識処理部42により認識された携帯電話機1のユーザの行動と、GPSセンサデータにより求められる携帯電話機1のユーザの現在位置から、例えば携帯電話機2のユーザにより設定された目的地への携帯電話機1のユーザの到着時刻、または目的地に到着するまでの時間を計算により予測する。到着時刻の予測には、到着までの時間を求めるときに用いられる、上述したような携帯電話機1のユーザの現在位置から目的地Pまでの距離と、目的地Pに向かう速さの他に、現在時刻も用いられる。   In step S43, the behavior prediction processing unit 45 calculates, for example, a cellular phone from the behavior of the user of the cellular phone 1 recognized by the Buddy presence state recognition processing unit 42 and the current location of the user of the cellular phone 1 obtained from the GPS sensor data. The arrival time of the user of the mobile phone 1 at the destination set by the user 2 or the time until arrival at the destination is predicted by calculation. For predicting the arrival time, in addition to the distance from the current position of the user of the mobile phone 1 to the destination P and the speed toward the destination P, which is used when obtaining the time until arrival, The current time is also used.

ステップS44において、行動予測処理部45は、ステップS43で求めた携帯電話機1のユーザの目的地への到着時刻、または目的地に到着するまでの時間を表示部15に表示させ、携帯電話機2のユーザに提示する。この提示は、例えば、図15に示したような画面表示により行われる。   In step S44, the behavior prediction processing unit 45 causes the display unit 15 to display the arrival time of the user of the mobile phone 1 obtained in step S43 or the time until the user arrives at the destination. Present to the user. This presentation is performed, for example, by a screen display as shown in FIG.

ステップS45において、Buddyプレゼンス状態認識処理部42は、ステップS42で認識した携帯電話機1のユーザの状態を表すアニメーションが表示されるBuddyプレゼンス状態表示画面を表示部15に表示させる。   In step S45, the Buddy presence state recognition processing unit 42 causes the display unit 15 to display a Buddy presence state display screen on which an animation representing the state of the user of the mobile phone 1 recognized in step S42 is displayed.

例えば、プレゼンス状態情報表示画面が表示されている状態で、携帯電話機1のユーザとの間でコミュニケーションをとることが携帯電話機2のユーザにより指示されたとき、通信手段選択処理部43は、指示されたコミュニケーションツールを管理するアプリケーションを起動させ、携帯電話機1のユーザとの間でコミュニケーションをとることを可能な状態とする。なお、携帯電話機2がコミュニケーションツールを自動的に選択する自動選択モードが設定されている場合、図14を参照して説明した処理により、自動的に、携帯電話機1のユーザとの間でコミュニケーションをとることができる状態が設定されるようにしてもよい。   For example, when the presence of the presence status information display screen is displayed and the user of the mobile phone 2 instructs to communicate with the user of the mobile phone 1, the communication means selection processing unit 43 is instructed. Then, an application for managing the communication tool is activated to enable communication with the user of the mobile phone 1. When the automatic selection mode in which the mobile phone 2 automatically selects a communication tool is set, communication with the user of the mobile phone 1 is automatically performed by the process described with reference to FIG. A state that can be taken may be set.

次に、携帯電話機1のユーザの状態を表すアニメーションを、携帯電話機1により撮影され、プレゼンス状態情報とともに送信されてきた画像(動画)と並べて表示させる携帯電話機2の処理について説明する。   Next, processing of the mobile phone 2 that displays an animation representing the state of the user of the mobile phone 1 side by side with an image (moving image) that is captured by the mobile phone 1 and transmitted together with presence status information will be described.

この例においては、携帯電話機2のセンサ部11にはカメラも設けられており、それにより撮影された画像が、携帯電話機2により認識された携帯電話機2のユーザ自身の行動を表すアニメーションと並べて表示されるようになされている。すなわち、表示される画面から、携帯電話機2のユーザは、自分自身のプレゼンス状態であるMyプレゼンス状態と、携帯電話機1のユーザ等のBuddyプレゼンス状態を確認しながら、それぞれの機器により撮影された画像を確認することができる。   In this example, the sensor unit 11 of the mobile phone 2 is also provided with a camera, and an image captured thereby is displayed side by side with an animation representing the user's own behavior of the mobile phone 2 recognized by the mobile phone 2. It is made to be done. That is, from the displayed screen, the user of the mobile phone 2 confirms the My presence state, which is his / her own presence state, and the Buddy presence state of the user of the mobile phone 1, etc., and images taken by the respective devices. Can be confirmed.

図17は、携帯電話機2に表示されるプレゼンス状態表示画面の例を示す図である。   FIG. 17 is a diagram illustrating an example of a presence status display screen displayed on the mobile phone 2.

図17のプレゼンス状態表示画面には、右方に表示される、携帯電話機2のカメラにより撮影されている画像と、携帯電話機1を含む他の機器のカメラにより撮影されている画像の中からユーザにより選択された画像を表示するStream View81が表示されている。   In the presence status display screen of FIG. 17, a user is selected from an image photographed by the camera of the mobile phone 2 and an image photographed by the camera of another device including the mobile phone 1 displayed on the right side. A Stream View 81 for displaying the image selected by is displayed.

また、プレゼンス状態表示画面には、携帯電話機2のユーザに関する情報(行動と撮影された画像)が表示されるMyプレゼンス状態表示部82と、他の機器に関する情報が一覧表示されるBuddyリスト83が表示されている。   In addition, the presence status display screen includes a My presence status display unit 82 that displays information (actions and captured images) related to the user of the mobile phone 2, and a Buddy list 83 that displays a list of information related to other devices. It is displayed.

このうちのMyプレゼンス状態表示部82は、携帯電話機2により認識された携帯電話機2のユーザの行動を表すアニメーションが表示されるアニメーション表示部82Aと、携帯電話機2のカメラにより撮影されている画像が表示される画像表示部82Bからなる。アニメーション表示部82Aに表示されるアニメーションは、所定の周期で行われる携帯電話機2のユーザの行動の認識結果に応じて表示される。   Among these, the My presence state display unit 82 includes an animation display unit 82A that displays an animation representing the user's behavior of the mobile phone 2 recognized by the mobile phone 2, and an image captured by the camera of the mobile phone 2. The image display unit 82B is displayed. The animation displayed on the animation display unit 82A is displayed according to the recognition result of the action of the user of the mobile phone 2 performed at a predetermined cycle.

また、図17の例においては、Buddyリスト83には、携帯電話機1のユーザに関する情報が表示されるBuddyプレゼンス状態表示部83−1と、携帯電話機1以外の他の機器のユーザに関する情報が表示されるBuddyプレゼンス状態表示部83−2が表示されている。すなわち、図17の例は、携帯電話機2が、携帯電話機1の他に、携帯電話機1以外の機器とも通信を行っており、それらの機器から送信されてきたプレゼンス状態情報に基づいて表示される画面の例を示している。   In the example of FIG. 17, the Buddy list 83 displays a Buddy presence status display unit 83-1 for displaying information about the user of the mobile phone 1 and information about users of devices other than the mobile phone 1. A Buddy presence status display section 83-2 is displayed. That is, in the example of FIG. 17, the mobile phone 2 communicates with devices other than the mobile phone 1 in addition to the mobile phone 1 and is displayed based on presence status information transmitted from these devices. An example of the screen is shown.

Buddyプレゼンス状態表示部83−1は、携帯電話機1により認識された携帯電話機1のユーザの行動を表すアニメーションが表示されるアニメーション表示部83−1Aと、携帯電話機1のカメラにより撮影されている画像が表示される画像表示部83−1Bからなる。また、Buddyプレゼンス状態表示部83−2は、他の機器により認識されたその機器のユーザの行動を表すアニメーションが表示されるアニメーション表示部83−2Aと、他の機器のカメラにより撮影されている画像が表示される画像表示部83−2Bからなる。アニメーション表示部83−1A,83−2Aに表示されるアニメーションも、それぞれの機器から送信されてくるプレゼンス状態情報により表される、それぞれの機器のユーザの行動の認識結果に応じて表示される。   The Buddy presence status display unit 83-1 is an image displayed by an animation display unit 83-1A on which an animation representing the behavior of the user of the mobile phone 1 recognized by the mobile phone 1 is displayed, and an image taken by the camera of the mobile phone 1. Is displayed on the image display unit 83-1B. The Buddy presence status display unit 83-2 is shot by an animation display unit 83-2A that displays an animation representing the user's behavior of the device recognized by the other device, and a camera of the other device. The image display unit 83-2B displays an image. The animations displayed on the animation display units 83-1A and 83-2A are also displayed according to the recognition result of the user's behavior of each device, which is represented by the presence state information transmitted from each device.

携帯電話機2のユーザは、例えば、Buddyプレゼンス状態表示部83−1の画像表示部83−1Bに表示されている画像を選択することによって、そこに表示されている画像と同じ画像をStream View81に拡大して表示させることができる。図17の例においては、携帯電話機2で撮影され、画像表示部82Bに表示されている画像と同じ画像がStream View81に拡大表示されている。   The user of the mobile phone 2 selects, for example, an image displayed on the image display unit 83-1B of the Buddy presence status display unit 83-1, so that the same image as the image displayed there is displayed in the Stream View 81. It can be enlarged and displayed. In the example of FIG. 17, the same image as that captured by the mobile phone 2 and displayed on the image display unit 82 </ b> B is enlarged and displayed on the Stream View 81.

遠隔で撮影され、ネットワークを介して送信されてきた画像を見ることのできる画面においては、通常、その撮影者がどんな行動をとっているかなどは画面を見ているユーザは確認することができないが、このように、撮影を行っている機器から送信されてきたプレゼンス状態情報に基づくその撮影者の行動を表すアニメーションと、撮影されている画像が並べて(近くに)表示されることにより、画面を見ているユーザは、撮影されている画像だけでなく、撮影者の行動をも確認することができる。   On a screen that allows users to view images that have been shot remotely and sent over a network, the user who is viewing the screen cannot usually confirm what action the photographer is taking. In this way, the animation representing the action of the photographer based on the presence status information transmitted from the device that is shooting and the image being shot are displayed side by side (close to each other), thereby displaying the screen. The viewing user can confirm not only the image being photographed but also the action of the photographer.

ここで、図18のフローチャートを参照して、図17に示すような画面を表示させる携帯電話機2の処理について説明する。なお、携帯電話機1においては、図12の処理と同様の処理が行われ、プレゼンス状態情報が、撮影された画像とともに携帯電話機2に対して繰り返し送信されている。   Here, with reference to the flowchart of FIG. 18, the process of the mobile phone 2 for displaying a screen as shown in FIG. 17 will be described. Note that the mobile phone 1 performs the same processing as the processing in FIG. 12, and the presence status information is repeatedly transmitted to the mobile phone 2 together with the photographed image.

ステップS61において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。   In step S61, the presence status information acquisition unit 41 of the mobile phone 2 determines whether or not presence status information has been transmitted, and waits until it is determined that it has been transmitted.

プレゼンス状態情報取得部41は、ステップS61において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS62に進む。例えば携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。また、携帯電話機1などの他の機器において撮影され、プレゼンス状態情報とともに送信されてきた画像もBuddyプレゼンス状態認識処理部42に供給される。   If the presence status information acquisition unit 41 determines in step S61 that the presence status information has been transmitted, the presence status information acquisition unit 41 proceeds to step S62. For example, presence status information transmitted from the mobile phone 1 is output from the presence status information acquisition unit 41 to the Buddy presence status recognition processing unit 42. In addition, an image taken by another device such as the mobile phone 1 and transmitted together with the presence state information is also supplied to the Buddy presence state recognition processing unit 42.

ステップS62において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識する。   In step S 62, the Buddy presence status recognition processing unit 42 recognizes the Buddy presence status (the status of the user of the mobile phone 1) based on the presence status information supplied from the presence status information acquisition unit 41.

ステップS63において、センサ部11を構成する各種のセンサにより測定が行われ、測定結果であるセンサデータが供給されてきたとき、携帯電話機2の行動認識部12は行動認識処理を行う。すなわち、図13を参照して説明した処理と同様の処理が携帯電話機2において行われ、認識結果(Myプレゼンス状態)がMyプレゼンス状態認識処理部34に出力される。   In step S63, measurement is performed by various sensors constituting the sensor unit 11, and when sensor data as a measurement result is supplied, the behavior recognition unit 12 of the mobile phone 2 performs a behavior recognition process. That is, processing similar to that described with reference to FIG. 13 is performed in the mobile phone 2, and the recognition result (My presence state) is output to the My presence state recognition processing unit 34.

ステップS64において、Myプレゼンス状態認識処理部34は、表示部15の所定の位置にMyプレゼンス状態を表すアニメーションを表示させるとともに、携帯電話機2自身により撮影された画像を表示させる。Buddyプレゼンス状態認識処理部42も同様に、表示部15の所定の位置にBuddyプレゼンス状態を表すアニメーションを表示させるとともに、他の機器において撮影された画像を表示させる。これにより、図17に示すようなプレゼンス状態表示画面が表示される。   In step S <b> 64, the My presence state recognition processing unit 34 displays an animation representing the My presence state at a predetermined position on the display unit 15 and displays an image taken by the mobile phone 2 itself. Similarly, the Buddy presence state recognition processing unit 42 displays an animation representing the Buddy presence state at a predetermined position on the display unit 15 and also displays an image captured by another device. As a result, a presence status display screen as shown in FIG. 17 is displayed.

プレゼンス状態表示画面が表示されている状態で携帯電話機1のユーザとメッセージをやりとりすることにより、携帯電話機2のユーザは、例えば、携帯電話機1のユーザの撮影対象について、携帯電話機1のユーザの行動を見ながらメッセージによりコミュニケーションをとったりすることができる。   By exchanging messages with the user of the mobile phone 1 while the presence status display screen is displayed, the user of the mobile phone 2 can, for example, take actions of the user of the mobile phone 1 with respect to the shooting target of the user of the mobile phone 1. You can communicate by message while watching.

以上においては、プレゼンス状態情報の送信側の機器においてユーザの行動の認識処理が行われ、認識結果が受信側の機器にプレゼンス状態情報に含められて送信されるものとしたが、センサデータがそのまま受信側の機器に送信され、その受信側の機器において、センサデータに基づく行動(送信側の機器のユーザの行動)の認識処理が行われるようにしてもよい。   In the above description, it is assumed that the user's action recognition process is performed in the device on the transmission side of the presence status information, and the recognition result is included in the presence status information and transmitted to the device on the reception side. It may be transmitted to the receiving device, and the receiving device may perform a process of recognizing the action based on the sensor data (the action of the user of the transmitting device).

上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、そのソフトウェアを実行させる装置は、例えば、図19に示されるようなパーソナルコンピュータにより構成される。   The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the apparatus for executing the software is constituted by a personal computer as shown in FIG. 19, for example.

図19において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記憶されているプログラム、または、記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなどが適宜記憶される。   In FIG. 19, a CPU (Central Processing Unit) 101 performs various processes according to a program stored in a ROM (Read Only Memory) 102 or a program loaded from a storage unit 108 to a RAM (Random Access Memory) 103. Execute. The RAM 103 also stores data necessary for the CPU 101 to execute various processes as appropriate.

CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。   The CPU 101, ROM 102, and RAM 103 are connected to each other via a bus 104. An input / output interface 105 is also connected to the bus 104.

入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部107、ハードディスクなどより構成される記憶部108、ネットワークを介しての通信処理を行う通信部109が接続されている。   The input / output interface 105 includes an input unit 106 including a keyboard and a mouse, a display including an LCD (Liquid Crystal Display), an output unit 107 including a speaker, a storage unit 108 including a hard disk, and a network. A communication unit 109 that performs all communication processes is connected.

入出力インタフェース105にはまた、必要に応じてドライブ110が接続される。ドライブ110には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それから読み出されたコンピュータプログラムが必要に応じて記憶部108にインストールされる。   A drive 110 is also connected to the input / output interface 105 as necessary. A removable medium 111 including a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately installed in the drive 110, and a computer program read therefrom is installed in the storage unit 108 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.

この記録媒体は、図19に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア111により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。   As shown in FIG. 19, this recording medium is distributed to provide a program to the user separately from the main body of the apparatus, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (CD- Removable media 111 composed of ROM (Compact Disk-Read Only Memory), DVD (Digital Versatile Disk), magneto-optical disk (including MD (registered trademark) (Mini-Disk)), or semiconductor memory In addition, it is configured by a ROM 102 on which a program is recorded and a hard disk included in the storage unit 108 provided to the user in a state of being incorporated in the apparatus main body in advance.

なお、本明細書において、各ステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, each step includes not only processing performed in time series according to the described order but also processing executed in parallel or individually, although not necessarily performed in time series.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

1,2 携帯電話機, 3 パーソナルコンピュータ, 11 センサ部, 12 行動認識部, 13 メイン処理部, 14 通信部, 15 表示部, 16 記憶部, 31 特徴抽出処理部, 32 行動認識処理部, 33 HMM DB, 34 Myプレゼンス状態認識処理部, 35 プレゼンス状態情報送信部, 41 プレゼンス状態情報取得部, 42 Buddyプレゼンス状態認識処理部, 43 通信手段選択処理部, 44 テーブルDB, 45 行動予測処理部   1, 2 mobile phone, 3 personal computer, 11 sensor unit, 12 action recognition unit, 13 main processing unit, 14 communication unit, 15 display unit, 16 storage unit, 31 feature extraction processing unit, 32 action recognition processing unit, 33 HMM DB, 34 My presence status recognition processing unit, 35 presence status information transmission unit, 41 presence status information acquisition unit, 42 Buddy presence status recognition processing unit, 43 communication means selection processing unit, 44 table DB, 45 behavior prediction processing unit

Claims (7)

内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測手段を備える
情報処理装置。
A user's behavior is recognized based on the output of the built-in sensor, and the behavior information indicating the recognized user's behavior is connected to another information processing apparatus that transmits the information indicating the current position together with information via the network. In an information processing device,
An information processing apparatus comprising: a prediction unit that predicts an arrival time of a user of the other information processing apparatus at a predetermined destination or a time until the user arrives at the predetermined destination based on the behavior information.
前記予測手段は、予測された前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記他の情報処理装置のユーザの行動の履歴とともに表示させる
請求項1に記載の情報処理装置。
The prediction means calculates the predicted arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination. The information processing apparatus according to claim 1, wherein the information processing apparatus is displayed together with the history of the information processing apparatus.
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む
情報処理方法。
A user's behavior is recognized based on the output of the built-in sensor, and the behavior information indicating the recognized user's behavior is connected to another information processing apparatus that transmits the information indicating the current position together with information via the network. In the information processing method of the information processing apparatus,
An information processing method including a prediction step of predicting an arrival time of a user of the other information processing apparatus at a predetermined destination or a time until the user arrives at the predetermined destination based on the behavior information.
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む
処理をコンピュータに実行させるプログラム。
A user's behavior is recognized based on the output of the built-in sensor, and the behavior information indicating the recognized user's behavior is connected to another information processing apparatus that transmits the information indicating the current position together with information via the network. In a program for causing a computer to execute information processing in an information processing apparatus,
Causing the computer to execute a process including a prediction step of predicting, based on the behavior information, the arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination program.
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御手段を備える
情報処理装置。
Information processing connected to another information processing apparatus that recognizes user behavior based on the output of the built-in sensor and transmits behavior information representing the recognized user behavior together with a captured image via a network In the device
An information processing apparatus comprising: display control means for displaying a character that takes the same action as a user action of the other information processing apparatus represented by the action information in the vicinity of the transmitted image.
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む
情報処理方法。
Information processing connected to another information processing apparatus that recognizes user behavior based on the output of the built-in sensor and transmits behavior information representing the recognized user behavior together with a captured image via a network In the information processing method of the device,
An information processing method including a display control step of displaying a character that takes the same action as a user of the other information processing apparatus represented by the action information in the vicinity of the transmitted image.
内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む
処理をコンピュータに実行させるプログラム。
Information processing connected to another information processing apparatus that recognizes user behavior based on the output of the built-in sensor and transmits behavior information representing the recognized user behavior together with a captured image via a network In a program for causing a computer to execute information processing in a device,
A program that causes a computer to execute a process including a display control step of displaying a character that takes the same action as the action of the user of the other information processing apparatus represented by the action information in the vicinity of the transmitted image.
JP2009001553A 2009-01-07 2009-01-07 Information processor, method and program Pending JP2009118513A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009001553A JP2009118513A (en) 2009-01-07 2009-01-07 Information processor, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009001553A JP2009118513A (en) 2009-01-07 2009-01-07 Information processor, method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005169505A Division JP4507992B2 (en) 2005-06-09 2005-06-09 Information processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2009118513A true JP2009118513A (en) 2009-05-28

Family

ID=40785047

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009001553A Pending JP2009118513A (en) 2009-01-07 2009-01-07 Information processor, method and program

Country Status (1)

Country Link
JP (1) JP2009118513A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074332A (en) * 2011-09-26 2013-04-22 Brother Ind Ltd Communication device, method for controlling communication device, and program
WO2013065519A1 (en) 2011-10-31 2013-05-10 ソニー株式会社 Power generation control system, power generation control program, and electronic device
KR101469593B1 (en) * 2013-02-20 2014-12-05 서용창 Method for detecting synchronized terminal posed similar to a base pose data, method for sending a message and computer readable recording medium storing program for the same
JP2016508262A (en) * 2012-12-20 2016-03-17 フェイスブック,インク. Estimating contextual user state and duration

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2002109689A (en) * 2000-09-29 2002-04-12 Nippon Signal Co Ltd:The Support system for boarding bus
JP2002251681A (en) * 2001-02-21 2002-09-06 Saibuaasu:Kk Action detector, action detecting system, abnormal action notification system, game system, prescribed action notification method and center device
JP2003284140A (en) * 2002-03-20 2003-10-03 Hitachi Ltd Position monitor service system for mobile terminal
JP2003289573A (en) * 2003-01-28 2003-10-10 Hitachi Ltd Portable terminal device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2002109689A (en) * 2000-09-29 2002-04-12 Nippon Signal Co Ltd:The Support system for boarding bus
JP2002251681A (en) * 2001-02-21 2002-09-06 Saibuaasu:Kk Action detector, action detecting system, abnormal action notification system, game system, prescribed action notification method and center device
JP2003284140A (en) * 2002-03-20 2003-10-03 Hitachi Ltd Position monitor service system for mobile terminal
JP2003289573A (en) * 2003-01-28 2003-10-10 Hitachi Ltd Portable terminal device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013074332A (en) * 2011-09-26 2013-04-22 Brother Ind Ltd Communication device, method for controlling communication device, and program
WO2013065519A1 (en) 2011-10-31 2013-05-10 ソニー株式会社 Power generation control system, power generation control program, and electronic device
JP2016508262A (en) * 2012-12-20 2016-03-17 フェイスブック,インク. Estimating contextual user state and duration
KR101469593B1 (en) * 2013-02-20 2014-12-05 서용창 Method for detecting synchronized terminal posed similar to a base pose data, method for sending a message and computer readable recording medium storing program for the same

Similar Documents

Publication Publication Date Title
JP4507992B2 (en) Information processing apparatus and method, and program
EP2225896B1 (en) Mobile virtual and augmented reality system
JP6662373B2 (en) Information processing apparatus, control method, and program
JP4332738B2 (en) Data communication apparatus, data communication method, and data communication packet
US8849253B2 (en) Location-based proximity notification
US10451434B2 (en) Information interaction method and device
JP2010287059A (en) Mobile terminal, server device, community generation system, display control method and program
JP2018205853A (en) Parking management system and parking management method
JP2009118513A (en) Information processor, method and program
WO2020117174A1 (en) A system for making location and/or time-based reminder over instant messaging applications
JP5605811B2 (en) Communication system, guidance method, and program
US11595519B2 (en) Electronic apparatus and processing system
JP2010225143A (en) System, method, and device for managing data and portable terminal
WO2016052501A1 (en) User interface device, program, and content notification method
JP5249516B2 (en) Information processing apparatus, contact selection method, and contact selection program
JP2011176564A (en) Mobile terminal device
JP2016170571A (en) Notification navigation device
JP7037426B2 (en) Electronic devices and processing systems
CN104798365A (en) Methods, apparatuses and computer program products for providing a protocol to resolve synchronization conflicts when synchronizing between multiple devices
JP5937831B2 (en) TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD, AND TERMINAL DEVICE CONTROL PROGRAM
JP2008305239A (en) Communication device and program
JP5977697B2 (en) Electronic device and method for controlling electronic device
JP5359190B2 (en) Standby screen setting system, standby screen setting method, and standby screen setting program
US20240334038A1 (en) System and method for capturing images
JP2017152913A (en) Communication system, communication terminal, server device, and information processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100914