JP2009118513A - Information processor, method and program - Google Patents
Information processor, method and program Download PDFInfo
- Publication number
- JP2009118513A JP2009118513A JP2009001553A JP2009001553A JP2009118513A JP 2009118513 A JP2009118513 A JP 2009118513A JP 2009001553 A JP2009001553 A JP 2009001553A JP 2009001553 A JP2009001553 A JP 2009001553A JP 2009118513 A JP2009118513 A JP 2009118513A
- Authority
- JP
- Japan
- Prior art keywords
- user
- behavior
- information
- information processing
- mobile phone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Mobile Radio Communication Systems (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにする情報処理装置および方法、並びにプログラムに関する。 The present invention relates to an information processing apparatus, method, and program, and more particularly, to an information processing apparatus, method, and program that can know the current state of a communication partner user and perform processing corresponding to the state. .
「今なにしてるの?」。これは携帯電話機などでの通話の開始直後に通話の相手方に対する問い合わせとしてたびたび用いられるフレーズである。この問い合わせに対して「電車に乗るところ。」などとして返事があった場合、例えば、電話をかけた本人は、「またかけ直す。」と相手方に伝え、電話を切ることになる。 "What are you doing now?". This is a phrase often used as an inquiry to the other party of the call immediately after the start of the call on a mobile phone or the like. In response to this inquiry, for example, “Getting on the train.” For example, the person who made the call tells the other party to “call again” and hangs up.
特許文献1には、利用者端末の次の通信可能時間をスケジュール情報から抽出し、それをサーバ上で管理する技術が開示されている。 Patent Document 1 discloses a technique for extracting the next communicable time of a user terminal from schedule information and managing it on a server.
このようなやりとりは日常よく行われるものであることから、電話をかける前に、相手方のいまの状態を確認することができれば、上述したようなほとんど意味のないやりとりをする必要がなく便利であると考えられる。 Since this kind of exchange is common on a daily basis, if you can check the current state of the other party before making a call, it is convenient that you don't have to make a negligible exchange as described above. it is conceivable that.
電話をかける前に、携帯電話機の電子メール機能を用いてこれから電話をかけたいことを伝え、返信によって許可が得られたときに電話をかけることによって相手の都合の悪いときに電話をかけてしまうことを防止することができるが、許可を得るためだけに電子メールを送ることは煩雑である。 Before making a call, use the e-mail function of the mobile phone to tell you that you want to make a call, and when you get permission by replying, make a call when the other party is inconvenient This can be prevented, but it is cumbersome to send an email just to get permission.
また、例えば自分の子供が外でなにをしているのかを親が知りたいときなど、電話をかけることや電子メールを送ることまでは必要ないけれども、相手方(この例の場合、子供)の様子を知りたいこともあり、このような場合も、相手方のいまの状態を確認することができれば便利である。 Also, for example, when a parent wants to know what their child is doing outside, it is not necessary to make a call or send an e-mail, but the other party (in this case, the child) There are times when I want to know the situation, and even in this case, it is convenient if the current state of the other party can be confirmed.
特許文献1に開示されている技術によれば、ユーザは、サーバにアクセスすることによって、利用者端末のユーザの予定(次に通信可能となる時間)を確認することができるものの、その利用者端末のユーザの、いま現在の状態をリアルタイムで確認することはできない。 According to the technique disclosed in Patent Document 1, the user can confirm the user terminal user's schedule (the time when communication is possible next) by accessing the server. The current status of the terminal user cannot be confirmed in real time.
本発明はこのような状況に鑑みてなされたものであり、通信相手のユーザのいまの状態を知り、その状態に応じた処理を行うことができるようにするものである。 The present invention has been made in view of such a situation, and is intended to know the current state of a communication partner user and perform processing according to the state.
本発明の第1の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測手段を備える。 The first information processing apparatus of the present invention recognizes a user's action based on an output of a built-in sensor, and transmits other action information indicating the recognized user's action together with information indicating the current position. In the information processing apparatus connected to the network via the network, the time of arrival at the predetermined destination of the user of the other information processing apparatus or the time until the user arrives at the predetermined destination Predicting means for predicting based on information is provided.
前記予測手段には、予測された前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記他の情報処理装置のユーザの行動の履歴とともに表示させることができる。 In the predicting means, the predicted arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination is displayed. It can be displayed with a history of actions.
本発明の第1の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む。 The first information processing method of the present invention recognizes a user's behavior based on the output of a built-in sensor, and transmits other behavior information representing the recognized user's behavior together with information representing the current position. In the information processing method of the information processing apparatus connected to the network via the network, the arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination A predicting step of predicting the behavior based on the behavior information.
本発明の第1のプログラムは、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、現在位置を表す情報とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む処理をコンピュータに実行させる。 The first program of the present invention recognizes the user's behavior based on the output of the built-in sensor, and transmits the behavior information representing the recognized user behavior together with information representing the current position. In a program for causing a computer to execute information processing in an information processing apparatus connected via a network, arrival time at a predetermined destination of a user of the other information processing apparatus or arrival at the predetermined destination The computer is caused to execute a process including a prediction step of predicting the time until the time based on the behavior information.
本発明の第2の情報処理装置は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置において、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御手段を備える。 The second information processing apparatus according to the present invention recognizes a user's action based on an output of a built-in sensor, and transmits the action information representing the recognized user's action together with a captured image to another information processing apparatus. In an information processing apparatus connected via a network, a character that takes the same action as the user's action of the other information processing apparatus represented by the action information is displayed in the vicinity of the transmitted image Display control means is provided.
本発明の第2の情報処理方法は、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置の情報処理方法において、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む。 The second information processing method of the present invention recognizes a user's behavior based on the output of a built-in sensor, and transmits the behavior information representing the recognized user's behavior together with a captured image to another information processing device. In the information processing method of the information processing apparatus connected via the network, a character that takes the same action as the user action of the other information processing apparatus represented by the action information A display control step for displaying in the vicinity is included.
本発明の第2のプログラムは、内蔵するセンサの出力に基づいてユーザの行動を認識し、認識したユーザの行動を表す行動情報を、撮影した画像とともに送信する他の情報処理装置との間でネットワークを介して接続される情報処理装置における情報処理をコンピュータに実行させるプログラムにおいて、前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む処理をコンピュータに実行させる。 The second program of the present invention recognizes the user's behavior based on the output of the built-in sensor, and transmits the behavior information representing the recognized user's behavior together with the captured image to another information processing apparatus. In a program for causing a computer to execute information processing in an information processing device connected via a network, a character having the same behavior as the user behavior of the other information processing device represented by the behavior information has been transmitted A computer is caused to execute processing including a display control step of displaying in the vicinity of the image.
本発明の第1の情報処理装置、情報処理方法、またはプログラムにおいては、他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間が、行動情報に基づいて予測される。 In the first information processing apparatus, information processing method, or program of the present invention, the arrival time of the user of another information processing apparatus at the predetermined destination, or the time until the user arrives at the predetermined destination, Predicted based on behavior information.
本発明の第2の情報処理装置、情報処理方法、またはプログラムにおいては、行動情報により表される他の情報処理装置のユーザの行動と同じ行動をとるキャラクタが、送信されてきた画像の近傍に表示される。 In the second information processing apparatus, information processing method, or program of the present invention, a character that takes the same action as the action of the user of another information processing apparatus represented by the action information is located in the vicinity of the transmitted image. Is displayed.
本発明によれば、通信相手のユーザのいまの状態を知ることができる。 According to the present invention, it is possible to know the current state of a communication partner user.
図1は、本発明の一実施形態に係る通信システムの構成例を示す図である。 FIG. 1 is a diagram illustrating a configuration example of a communication system according to an embodiment of the present invention.
図1の通信システムにおいて、携帯電話機1と携帯電話機2はネットワーク4を介して接続されており、相互に通信を行うことができるようになされている。また、携帯電話機1とパーソナルコンピュータ3もネットワーク4を介して接続されており、相互に通信を行うことができるようになされている。
In the communication system of FIG. 1, a mobile phone 1 and a
携帯電話機1は、加速度センサ、ジャイロセンサなどのセンサを内蔵しており、その内蔵のセンサにより取得されたセンサデータ(加速度センサデータ、ジャイロセンサデータなど)に基づいて携帯電話機1を持っているユーザの行動を認識し、認識したユーザの行動を表す情報(行動情報)を含むプレゼンス状態情報を、所定の周期で携帯電話機2とパーソナルコンピュータ3にそれぞれネットワーク4を介して送信する。
The mobile phone 1 includes sensors such as an acceleration sensor and a gyro sensor, and a user who has the mobile phone 1 based on sensor data (acceleration sensor data, gyro sensor data, etc.) acquired by the built-in sensor. And presence state information including information (behavior information) representing the recognized user behavior is transmitted to the
例えば、携帯電話機1においては、「歩き」、「走り」、「静止」、「車に乗っている」などの行動が携帯電話機1のユーザの行動として認識される。 For example, in the mobile phone 1, actions such as “walking”, “running”, “stationary”, and “riding in a car” are recognized as actions of the user of the mobile phone 1.
携帯電話機1からのプレゼンス状態情報を受信した携帯電話機2とパーソナルコンピュータ3には、「歩き」、「走り」、「静止」、「車に乗っている」などのそれぞれの行動をとるキャラクタのアニメーションのデータが用意されている。携帯電話機1からプレゼンス状態情報が送信されてきたとき、プレゼンス状態情報により表される携帯電話機1のユーザのいまの行動に応じたアニメーションが、例えば、携帯電話機2とパーソナルコンピュータ3のそれぞれの画面上に表示される。
On the
図2A乃至Dは、携帯電話機2とパーソナルコンピュータ3にデータが用意されるキャラクタの例を示す図である。図2A乃至Dのキャラクタは、「歩き」、「走り」、「静止」、「車に乗っている」をそれぞれ表す。
2A to 2D are diagrams showing examples of characters for which data is prepared in the
キャラクタの表示は携帯電話機1からプレゼンス状態情報が送信されてくる毎に必要に応じて切り替えられ、例えば、携帯電話機1のユーザが歩いている状態から走りはじめたとき、そのときに送信されてくるプレゼンス状態情報に基づいて、携帯電話機2とパーソナルコンピュータ3の画面においても、図2Aのものから図2Bのものにキャラクタの表示が切り替えられる。
The display of the character is switched as needed every time presence status information is transmitted from the mobile phone 1, for example, when the user of the mobile phone 1 starts running from a walking state, the character display is transmitted at that time. Based on the presence status information, the display of the character is also switched from the screen in FIG. 2A to the screen in FIG. 2B on the screens of the
このようなアニメーションを見ることにより、携帯電話機2のユーザ、またはパーソナルコンピュータ3のユーザは、携帯電話機1のユーザのいまの状態を知ることができる。例えば、電話をかける前にアニメーションの表示を確認し、携帯電話機1のユーザが車に乗っているとき(図2Dのアニメーションが表示されているとき)に電話をかけないようにすることにより、携帯電話機2のユーザは、携帯電話機1のユーザの都合の悪いときに電話をかけないで済む。
By viewing such an animation, the user of the
図3は、携帯電話機2に表示される画面の例を示す図である。
FIG. 3 is a diagram illustrating an example of a screen displayed on the
図3の例においては、アドレス帳に登録されている「村田」、「趙」、「Brian」のそれぞれの名前の右方に、「村田」、「趙」、「Brian」が有するそれぞれの機器から送信されてきたプレゼンス状態情報から確認された行動を表すキャラクタ2A乃至2Cが表示されている。図1の通信システムには、携帯電話機1と同様の機能を有する機器がネットワーク4に複数接続されており、図3に示すように、それらの機器から送信されてきたプレゼンス状態情報に基づいて、複数の人の行動を表すアニメーションがそれぞれ表示される。
In the example of FIG. 3, “Murata”, “趙” and “Brian” have their respective devices to the right of the names “Murata”, “趙” and “Brian” registered in the address book.
図3の例においては、「村田」は、いま走っている状態であることがキャラクタ2Aにより表されており、この表示から、携帯電話機2のユーザは、「村田」が忙しくしていることを確認することができ、電話をかけるのであればあとにしておこうと判断することができる。
In the example of FIG. 3, “Murata” is represented by the
また、図3の例においては、「趙」は、いま「静止」している状態であることがキャラクタ2Bにより表されており、この表示から、携帯電話機2のユーザは、「趙」がじっとしていることを確認することができ、いま電話をかけようと判断することができる。
In the example of FIG. 3, the
同様に、図3の例においては、「Brian」は、いま「車にのっている」状態であることがキャラクタ2Cにより表されており、この表示から、携帯電話機2のユーザは、「Brian」が車に乗っていることを確認することができ、要件を電話で伝えるのではなく、電子メールで伝えておこうと判断することができる。
Similarly, in the example of FIG. 3, “Brian” is represented by the
図4は、パーソナルコンピュータ3に表示される画面(ウインドウの表示)の例を示す図である。
FIG. 4 is a diagram illustrating an example of a screen (window display) displayed on the
図4の例においては、インスタントメッセージのウインドウが表示されており、その中に、「たまご」、「ふじお」、「あきら」が有するそれぞれの機器から送信されてきたプレゼンス状態情報から確認された行動を表すキャラクタ3A乃至3Cが表示されている。
In the example of FIG. 4, an instant message window is displayed, which is confirmed from the presence status information transmitted from each device possessed by “Tamago”, “Fujio”, and “Akira”.
図4の例においては、「たまご」は、いま「車にのっている」状態であることがキャラクタ3Aにより表されており、「ふじお」は、いま走っている状態であることがキャラクタ3Bにより表されている。
In the example of FIG. 4, “Tamago” is represented by the
「あきら」は、いま「静止」している状態であることがキャラクタ3Cにより表されている。図4の例において、「あきら」の名前の隣には、「K-005 会議室」の文字が表示されているが、これは、「あきら」が、自分の機器から、プレゼンス状態情報に含めて送信した自分の居場所の情報に基づいて表示されたものである。 The character 3C indicates that “Akira” is currently “still”. In the example of FIG. 4, the letters “K-005 Conference Room” are displayed next to the name “Akira”. This is because “Akira” is included in the presence status information from your device. It is displayed based on the information of whereabouts sent.
このように、プレゼンス状態情報には、ユーザの行動を表す情報だけでなく、各種の情報を含めて他の機器に送信するようにすることができる。 In this way, the presence status information can be transmitted to other devices including not only information indicating the user's behavior but also various information.
また、図4の例においては、「たまご」、「ふじお」、「あきら」のそれぞれの設定の状況として、ウインドウの右端に「場所を通知しない」、「通知しない」、「すべて通知する」の文字が表示されているが、これは、プレゼンス状態情報に含めて送信した情報のうち、どの情報までを相手方(プレゼンス状態情報を受信した機器)において表示されるようにするのかの設定の状況を表す。 In the example of FIG. 4, the setting status of “Tamago”, “Fujio”, and “Akira” is “Not notified of location”, “Not notified”, “Notified all” at the right end of the window. Is displayed, but this is the setting status of what information is to be displayed on the other party (the device that received the presence status information) out of the information included and transmitted in the presence status information. Represents.
例えば、「あきら」は「すべてを通知する」を設定しているから、パーソナルコンピュータ3においては、プレゼンス状態情報に含めて「あきら」の機器から送信されてきた情報に基づいて、「あきら」の行動を表すキャラクタ3Cだけでなく、居場所までが表示されている。すなわち、プレゼンス状態情報の送信元の機器のユーザは、プレゼンス状態情報を受信した機器においてどこまでの情報が公開されるのかを設定することができ、プレゼンス状態情報にはその設定の状況を表す情報も含まれる。
For example, since “Akira” is set to “Notify all”, in the
以上のような、送信されてきたプレゼンス状態情報に基づいて図3、図4に示すような画面を表示させる携帯電話機2やパーソナルコンピュータ3の機能は、携帯電話機1にも用意されている。また、反対に、内蔵するセンサからの出力に基づいて行動を認識し、認識した行動を表す情報を含むプレゼンス状態情報を他の機器に送信する携帯電話機1の機能は、携帯電話機2やパーソナルコンピュータ3にも用意されている。
The functions of the
従って、携帯電話機1のユーザも、携帯電話機1に表示される画面から、携帯電話機2のユーザやパーソナルコンピュータ3のユーザの状態を確認することができる。
Therefore, the user of the mobile phone 1 can also check the status of the user of the
なお、以上の例においては、プレゼンス状態情報の送信元の機器は、「歩き」、「走り」、「静止」、「車に乗っている」の4つの行動を認識することができるものとしたが、加速度センサ、ジャイロセンサだけでなく、マイクロフォンにより収音された音声などの様々なセンサにより得られるセンサデータや現在時刻などにも基づいて、「歩き」、「走り」、「静止」、「車に乗っている」以外の行動が認識されるようにしてもよい。 In the above example, it is assumed that the device from which the presence status information is transmitted can recognize four actions: “walking”, “running”, “still”, and “riding in a car”. However, based on sensor data obtained by various sensors such as voice picked up by microphones as well as acceleration sensors and gyro sensors, as well as current time, etc., `` walking '', `` running '', `` stationary '', `` Actions other than “in the car” may be recognized.
図5は、認識結果の例を示す図である。 FIG. 5 is a diagram illustrating an example of a recognition result.
例えば、図5の左側に示すように、マイクロフォンにより収音された音の音量から「静か」であることが得られ、時計の出力から現在時刻が「昼間」であることが得られ、さらに、加速度センサ、ジャイロセンサの出力から「移動なし」であることが得られたステータスS1に示すような状態の場合、ユーザのいまの行動(状態)は「のんびり中」として判断され、それを表す情報を含むプレゼンス状態情報が送信される。 For example, as shown on the left side of FIG. 5, it is obtained that the volume of the sound collected by the microphone is “quiet”, and that the current time is obtained from the output of the clock is “daytime”. In the case of the state shown in the status S 1 obtained from the outputs of the acceleration sensor and the gyro sensor as “no movement”, the current action (state) of the user is determined as “relaxing” and represents it. Presence status information including information is transmitted.
プレゼンス状態情報を受信した機器においては、「のんびり中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うことが可能であると判断され、チャットを管理するアプリケーションが自動的に(ユーザの操作によらずに)起動される。後述するように、プレゼンス状態情報を受信した機器においては、そのプレゼンス状態情報の送信元のユーザとのコミュニケーションをとるためのツールが、プレゼンス状態情報の送信元のユーザのいまの状態に応じて自動的に選択されるようになされている。 Since the device that has received the presence status information is “relaxing”, it is determined that the user who sent the presence status information can now chat, and the application that manages the chat is automatically (Without user operation). As will be described later, in a device that has received presence status information, a tool for communicating with the user who transmitted the presence status information is automatically set according to the current status of the user who transmitted the presence status information. It is made to be selected.
また、図5の中央に示すように、例えば、マイクロフォンにより収音された音の音量から「静か」であることが得られ、時計の出力から現在時刻が「夜間」であることが得られ、さらに、加速度センサ、ジャイロセンサの出力から「移動なし」であることが得られたステータスS2に示すような状態の場合、ユーザのいまの状態は「おやすみ中」として判断され、それを表す情報を含むプレゼンス状態情報が送信される。 Further, as shown in the center of FIG. 5, for example, it is obtained that the sound volume collected by the microphone is “quiet”, and that the current time is obtained from the clock output “night”, Furthermore, in the case of the state shown in the status S 2 obtained from the outputs of the acceleration sensor and the gyro sensor as “no movement”, the current state of the user is determined as “sleeping”, and information indicating it Presence status information including is transmitted.
プレゼンス状態情報を受信した機器においては、「おやすみ中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うことが不可能であると判断される。この場合、例えば、メールを行うことが可能であると判断され、メールを管理するアプリケーション(メーラ)が起動される。 In the device that has received the presence status information, since it is “sleeping”, it is determined that the user who has transmitted the presence status information cannot now chat. In this case, for example, it is determined that mail can be performed, and an application (mailer) that manages mail is started.
同様に、図5の右側に示すように、例えば、加速度センサ、ジャイロセンサの出力から「猛ダッシュ中」であるとして判断されたステータスS3に示すような状態の場合、それを表す情報を含むプレゼンス状態情報が送信される。 Similarly, as shown on the right side of FIG. 5, for example, in the case of the state shown in the status S 3 that is determined as “dashing rapidly” from the outputs of the acceleration sensor and the gyro sensor, information representing it is included. Presence status information is transmitted.
プレゼンス状態情報を受信した機器においては、「猛ダッシュ中」であるから、プレゼンス状態情報の送信元のユーザは、いま、チャットを行うこと、および電話をかけることが不可能であると判断される。この場合も、例えば、メールを行うことが可能であると判断され、メーラが起動される。 Since the device that has received the presence status information is “dashing rapidly”, it is determined that the user who has transmitted the presence status information cannot now chat or make a call. . Also in this case, for example, it is determined that mail can be performed, and the mailer is activated.
以上のようなプレゼンス状態情報の送受信や、相手方のユーザの状態に応じた処理を行うそれぞれの機器の動作についてはフローチャートを参照して後述する。 The operation of each device that performs the transmission / reception of presence status information and the processing according to the status of the other user will be described later with reference to flowcharts.
図6は、図1の携帯電話機1のハードウェア構成例を示すブロック図である。 FIG. 6 is a block diagram illustrating a hardware configuration example of the mobile phone 1 of FIG.
センサ部11は、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどよりなり、所定の周期で測定を行い、測定結果である加速度センサデータ、ジャイロセンサデータ、GPSセンサデータなどのセンサデータを行動認識部12とメイン処理部13に出力する。センサ部11を構成する加速度センサは、例えば、互いに直交する3軸方向の加速度を測定可能なものとされる。また、ジャイロセンサは、例えば、互いに直交する3軸周りの角速度を測定可能なものとされる。
The
行動認識部12は、後に詳述するように、センサ部11から供給されてきたセンサデータから特徴を抽出し、抽出した特徴の時系列に基づいて、ユーザの行動を、あらかじめ用意されているHMM(Hidden Markov Model)を参照して認識する。行動認識部12は、認識結果を表す情報をメイン処理部13に出力する。
As will be described in detail later, the
メイン処理部13は、携帯電話機1の全体の動作を制御し、例えば、行動認識部12から供給されてきた行動の認識結果を表す情報を含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報を、あらかじめ登録されている機器に通信部14から送信させる。送信先としては、例えば、アドレス帳に登録されている機器、インスタントメッセージを管理するアプリケーションに登録されている機器が選択される。
The
また、メイン処理部13は、他の機器から送信されてきたプレゼンス状態情報が通信部14において受信され、それが供給されてきたとき、他の機器のユーザの行動を確認し、確認した行動を表すキャラクタを表示部15に表示させる。さらに、メイン処理部13は、他の機器から送信されてきたプレゼンス状態情報により表される他の機器のユーザの行動に応じて、そのユーザとのコミュニケーションに用いるツール(通信手段)を選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させたりする。
Further, the
後述するように、メイン処理部13には、それぞれの行動と、それぞれの行動のときに用いるのに適したコミュニケーションツールの対応関係を表す推薦テーブルが用意されており、それが参照されて、他の機器のユーザのいまの行動に適したコミュニケーションツールが選択される。
As will be described later, the
通信部14は、メイン処理部13から供給されてきた情報をネットワーク4を介して他の機器に送信するとともに、他の機器からネットワーク4を介して送信されてきた情報を受信し、メイン処理部13に出力する。
The
表示部15はLCD(Liquid Crystal Display)などよりなり、メイン処理部13による制御に従って、キャラクタ(キャラクタが表示される画面)などを表示させる。
The display unit 15 includes an LCD (Liquid Crystal Display) or the like, and displays a character (screen on which the character is displayed) and the like according to control by the
記憶部16はHDD(Hard Disk Drive)などよりなり、キャラクタを表示するためのデータなどの各種のデータを記憶する。
The
図7は、携帯電話機1のソフトウェア構成例(機能構成例)を示すブロック図である。図7に示す機能部のうちの少なくとも一部は、図6のメイン処理部13により所定のプログラムが実行されることによって実現される。
FIG. 7 is a block diagram illustrating a software configuration example (functional configuration example) of the mobile phone 1. 7 is realized by executing a predetermined program by the
以下、適宜、携帯電話機1において扱われる携帯電話機1のユーザの状態(行動)をMyプレゼンス状態といい、携帯電話機1のユーザの仲間にあたる、携帯電話機2やパーソナルコンピュータ3などの他の機器のユーザの状態をBuddyプレゼンス状態という(反対に、例えば携帯電話機2から見れば、携帯電話機2のユーザの状態はMyプレゼンス状態となり、携帯電話機2のユーザの仲間にあたる、携帯電話機1やパーソナルコンピュータ3などの他の機器のユーザの状態はBuddyプレゼンス状態となる)。
Hereinafter, the state (behavior) of the user of the mobile phone 1 handled in the mobile phone 1 is referred to as “My presence state”, and the user of another device such as the
図7に示すように、携帯電話機1は、基本的に、他の機器に対するプレゼンス状態情報の送信を行う送信処理部21と、他の機器から送信されてきたプレゼンス状態情報に基づく各種の処理を行う受信処理部22とからなる。
As shown in FIG. 7, the mobile phone 1 basically performs a
送信処理部21は、特徴抽出処理部31、行動認識処理部32、HMM DB33、Myプレゼンス状態認識処理部34、およびプレゼンス状態情報送信部35から構成される。このうちの実線で囲んで示す特徴抽出処理部31、行動認識処理部32、HMM DB33は、図6の行動認識部12により実現される。
The
特徴抽出処理部31は、例えば、加速度センサから供給されてきた加速度センサデータと、ジャイロセンサから供給されてきたジャイロセンサデータから特徴を抽出し、抽出した特徴を表す特徴データを行動認識処理部32に出力する。
For example, the feature
具体的には、特徴抽出処理部31は、図8Aに示すように、加速度センサデータから歩行の周波数(Impulse pitch)を特徴の1つとして求める。図8Aのサンプル結果においては、横軸が時刻(加速度センサ11のサンプル数)、縦軸が周波数(Hz)となっている。人が歩くときに加速度センサにより測定される周波数は一般的に2Hz(1秒間に2歩)であるから、この2Hzの測定結果の時系列などから、認識結果としての「歩き」がHMMが参照されて得られる。
Specifically, as shown in FIG. 8A, the feature
また、特徴抽出処理部31は、図8Bに示すように、加速度センサデータから歩行の強さ、衝撃の度合い(Impulse magnitude)を特徴の1つとして求める。図8Bのサンプル結果においては、横軸が時刻、縦軸が強さとなっている。
Further, as shown in FIG. 8B, the feature
さらに、特徴抽出処理部31は、図8Cに示すように、加速度センサデータから重力軸を求め、ジャイロセンサデータから求められる、重力軸まわりの回転角(Heading)を特徴の1つとして求める。加速度センサが重力軸に対して水平方向の加速度を検出する状態にある場合にはその出力は0となり、一方、重力軸に対して水平方向以外の方向の加速度を検出する状態にある場合には所定の値が測定されるから、上述したように、3軸方向の加速度を測定することができるようになされているときには、それぞれの方向の加速度の測定結果から重力軸を求めることが可能となる。なお、図8Cのサンプル結果においては、横軸が時刻、縦軸が回転角となっている。
Further, as shown in FIG. 8C, the feature
例えば、以上のような各種の特徴が特徴抽出処理部31においてセンサデータに基づいて抽出される。抽出された特徴を表す特徴データは、抽出される毎に、行動認識処理部32に順次出力される。
For example, various features as described above are extracted by the feature
行動認識処理部32は、特徴抽出処理部31から供給されてきた特徴データを所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM DB33に用意されているHMMを参照して認識する。
The behavior
HMM DB33には、例えば、人が歩いているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「歩き」を認識するために用いられるモデル、人が走っているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「走り」を認識するために用いられるモデル、人が静止しているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「静止」を認識するために用いられるモデル、人が車に乗っているときの加速度センサデータとジャイロセンサデータから抽出された特徴に基づいて生成された、「車に乗っている」を認識するために用いられるモデルなどがあらかじめ用意されている。
The HMM
行動認識処理部32により認識された「歩き」、「走り」、「静止」、「車に乗っている」などの行動の認識結果を表す情報はMyプレゼンス状態認識処理部34に出力される。
Information representing the recognition results of actions such as “walking”, “running”, “still”, and “riding in a car” recognized by the action
図9は、行動認識部12による行動認識を模式的に示す図である。
FIG. 9 is a diagram schematically illustrating behavior recognition by the
生データ(raw data)としての加速度センサデータとジャイロセンサデータに対してはキャリブレーションが施され、キャリブレーションが施されることによって得られたデータから、上述したような、歩行ピッチ、歩行の強さ、重力、進行方向が特徴量(low level context)として取得される。また、取得されたそれらの特徴量に基づいて、HMMが参照され、ユーザの行動(high level context)が統計学的に認識される。 The acceleration sensor data and the gyro sensor data as raw data are calibrated, and the above-described walking pitch and walking strength are obtained from the data obtained by the calibration. Gravity and direction of travel are acquired as a low level context. Moreover, based on those acquired feature quantities, the HMM is referred to, and the user's behavior (high level context) is statistically recognized.
なお、行動認識のアルゴリズムは上述したものに限られず、各種のアルゴリズムにより行われるようにしてもよい。 Note that the action recognition algorithm is not limited to that described above, and may be performed by various algorithms.
図10は、センサデータ、特徴量、認識結果の例を時系列的に示す図である。 FIG. 10 is a diagram showing examples of sensor data, feature amounts, and recognition results in time series.
図10の例においては、「歩き」、「走り」、「歩き」、「走り」、「静止」、「歩き」、「静止」の順に行動の認識結果が取得されている。このようなそれぞれの認識結果には、例えば、その認識結果を得るために用いられたセンサデータの測定時刻が付加され、プレゼンス状態情報のうちの行動を表す情報として用いられる。 In the example of FIG. 10, action recognition results are acquired in the order of “walking”, “running”, “walking”, “running”, “still”, “walking”, and “still”. For example, the measurement time of the sensor data used for obtaining the recognition result is added to each such recognition result, and used as information representing the behavior in the presence state information.
図7の説明に戻り、Myプレゼンス状態認識処理部34は、行動認識処理部32から供給されてきた行動の認識結果を含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報をプレゼンス状態情報送信部35に出力する。Myプレゼンス状態認識処理部34は、必要に応じて、プレゼンス状態情報にGPSセンサデータなどを含める。
Returning to the description of FIG. 7, the My presence state
また、Myプレゼンス状態認識処理部34は、適宜、行動認識処理部32から供給されてきた行動の認識結果に基づいて、携帯電話機1のユーザの状態を表すアニメーションを表示部15に表示させる。
Further, the My presence state
プレゼンス状態情報送信部35は、通信部14を制御し、Myプレゼンス状態認識処理部34により生成され、供給されてきたプレゼンス状態情報をネットワーク4を介して他の機器に送信する。
The presence status
受信処理部22は、プレゼンス状態情報取得部41、Buddyプレゼンス状態認識処理部42、通信手段選択処理部43、テーブルDB44、および行動予測処理部45から構成される。
The reception processing unit 22 includes a presence state
プレゼンス状態情報取得部41は、他の機器からネットワーク4を介して送信されてきたプレゼンス状態情報を受信し、それをBuddyプレゼンス状態認識処理部42に出力する。
The presence status
Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(他の機器のユーザの状態)を認識し、Buddyプレゼンス状態を表すアニメーションを表示部15に表示させる。
The Buddy presence status
また、Buddyプレゼンス状態認識処理部42は、認識したBuddyプレゼンス状態を表す情報を通信手段選択処理部43と行動予測処理部45に出力する。他の機器から送信されてきたプレゼンス状態情報に他の機器のユーザの現在位置を表すGPSセンサデータが含まれている場合、Buddyプレゼンス状態認識処理部42は、そのGPSセンサデータも行動予測処理部45に出力する。後述するように、行動予測処理部45においては、Buddyプレゼンス状態とGPSセンサデータに基づいて、そのGPSセンサデータ等をプレゼンス状態情報に含めて送信してきた機器のユーザの目的地までの予測時間などが求められる。
Further, the Buddy presence state
さらに、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報を送信してきた機器のユーザとのコミュニケーションに用いるツールが通信手段選択処理部43により選択され、選択されたツールを表す情報が供給されてきたとき、適宜、その選択されたコミュニケーションツールがどれであるのかを表すメッセージなどを表示部15に表示させ、携帯電話機1のユーザに提示する。
Further, in the Buddy presence status
通信手段選択処理部43は、Buddyプレゼンス状態認識処理部42により認識されたBuddyプレゼンス状態に基づいて、他の機器のユーザとのコミュニケーションツールとして適したものをテーブルDB44に記憶されている推薦テーブルを参照して選択し、選択したコミュニケーションツールを管理するアプリケーションを起動させる。
Based on the Buddy presence status recognized by the Buddy presence status
図11は、テーブルDB44に記憶されている推薦テーブルの例を示す図である。 FIG. 11 is a diagram illustrating an example of a recommendation table stored in the table DB 44.
図11の推薦テーブルの例においては、各時間帯(平日の昼/夜、休日の昼/夜)の行動と、他の機器のユーザがその行動をとっているときに適したコミュニケーションツールが対応付けられている。また、図11の例においては、携帯電話機1に用意されているコミュニケーションツールとして、電話、電子メール(電子メールの返信)、SMS(Short Message Service)(SMSの返信)、チャットが示されている。 In the example of the recommendation table in FIG. 11, the behavior of each time zone (weekday day / night, holiday day / night) corresponds to a communication tool suitable when the user of another device is taking the action. It is attached. In the example of FIG. 11, as communication tools prepared for the mobile phone 1, telephone, e-mail (e-mail reply), SMS (Short Message Service) (SMS reply), and chat are shown. .
図11において、「○」はそのコミュニケーションツールが適していることを表し、「×」は適していないことを表す。「△」はその中間であることを表す。 In FIG. 11, “◯” indicates that the communication tool is suitable, and “X” indicates that it is not suitable. “Δ” represents an intermediate point.
例えば、時間帯が平日の昼間であり、認識されたBuddyプレゼンス状態が歩行中(「歩き」)であるときには、チャット以外の、電話、電子メール(電子メールの返信)、SMS(SMSの返信)が適したコミュニケーションツールと判断される。 For example, when the day is a weekday daytime and the recognized Buddy presence status is walking ("walking"), other than chat, telephone, e-mail (email reply), SMS (SMS reply) Is considered a suitable communication tool.
従って、このように、時間帯が平日の昼間であり、認識されたBuddyプレゼンス状態が歩行中であることが他の機器から送信されてきたプレゼンス状態情報に基づいて認識されたときには、通信手段選択処理部43により、電話、電子メール(電子メールの返信)、SMS(SMSの返信)のいずれかのコミュニケーションツールが選択され、それを管理するアプリケーションが起動される。このように複数のコミュニケーションツールが適していると判断された場合、例えば、ユーザによりあらかじめ設定された優先度の高いツールが選択される。
Therefore, when the time zone is daytime on weekdays and the recognized Buddy presence status is recognized based on the presence status information transmitted from another device, the communication means selection is performed. The
このような推薦テーブルが参照され、コミュニケーション相手となる他の機器のユーザのいまの状態に応じたツールが通信手段選択処理部43により選択されることになる。なお、図11の例においては、他の機器のユーザの行動として、歩行中(上述した「歩き」)、走っている(上述した「走り」)、座っている、立っている、乗り物(上述した「車にのっている」)が示されている。
Such a recommendation table is referred to, and the communication means
なお、行動とコミュニケーションツールの対応関係を表す情報として、図11に示すようなテーブル状の情報ではなく、行動を入力としてその行動に応じたコミュニケーションツールを出力とする確率モデルなどの各種の情報が用意されるようにしてもよい。 In addition, as information representing the correspondence between the behavior and the communication tool, various information such as a probability model in which the behavior is input and the communication tool corresponding to the behavior is output is not the table-like information illustrated in FIG. It may be prepared.
図7の説明に戻り、行動予測処理部45は、Buddyプレゼンス状態とGPSセンサデータに基づいて、そのGPSセンサデータ等をプレゼンス状態情報に含めて送信してきた機器のユーザの目的地に到着するまでの予測時間や、目的地に到着する予測時刻を求め、例えば、そのユーザの行動履歴などとともに、地図上に、求めた予測時間や時刻を表示させる。
Returning to the description of FIG. 7, the behavior
なお、図6と図7に示す構成は、携帯電話機1だけでなく、携帯電話機2やパーソナルコンピュータ3も有している。以下、適宜、図6と図7に示す構成を、携帯電話機2やパーソナルコンピュータ3の構成としても引用して説明する。
6 and 7 includes not only the mobile phone 1 but also the
次に、携帯電話機1と携帯電話機2の動作についてフローチャートを参照して説明する。
Next, operations of the mobile phone 1 and the
以下においては、携帯電話機1がプレゼンス状態情報の送信側の機器であり、携帯電話機2がプレゼンス状態情報の受信側の機器である場合について説明するが、携帯電話機1により行われる処理は、適宜、携帯電話機2やパーソナルコンピュータ3においても行われる。また、携帯電話機2により行われる処理は、適宜、携帯電話機1やパーソナルコンピュータ3においても行われる。
In the following, a case where the mobile phone 1 is a device on the presence status information transmission side and the
はじめに、図12のフローチャートを参照して、プレゼンス状態情報を送信する携帯電話機1の処理について説明する。 First, processing of the mobile phone 1 that transmits presence status information will be described with reference to the flowchart of FIG.
携帯電話機1のメイン処理部13による制御に従って各種のセンサにより測定が行われ、測定結果であるセンサデータが供給されてきたとき、ステップS1において、行動認識部12により行動認識処理が行われる。行動認識処理の詳細については図13のフローチャートを参照して後述するが、この処理により、携帯電話機1のユーザのいまの行動が認識される。認識された行動を表す情報は行動認識処理部32からMyプレゼンス状態認識処理部34に出力される。
Measurement is performed by various sensors in accordance with control by the
ステップS2において、Myプレゼンス状態認識処理部34は、行動認識処理部32から供給されてきた行動の認識結果を表す情報や、GPSセンサデータなどを含むプレゼンス状態情報を生成し、生成したプレゼンス状態情報をプレゼンス状態情報送信部35に出力する。
In step S2, the My presence state
ステップS3において、プレゼンス状態情報送信部35は、Myプレゼンス状態認識処理部34により生成されたプレゼンス状態情報をネットワーク4を介して携帯電話機2に送信し、処理を終了させる。
In step S3, the presence status
このような処理が所定の周期で繰り返し行われることにより、携帯電話機1から送信されてきたプレゼンス状態情報を受信した携帯電話機2のユーザは、携帯電話機1のユーザの状態をリアルタイムで確認することができる。
By repeatedly performing such processing at a predetermined cycle, the user of the
次に、図13のフローチャートを参照して、図12のステップS1において行われる行動認識処理の詳細について説明する。 Next, details of the action recognition process performed in step S1 of FIG. 12 will be described with reference to the flowchart of FIG.
ステップS11において、行動認識部12の特徴抽出処理部31は、加速度センサの出力である加速度センサデータやジャイロセンサの出力であるジャイロセンサデータなどから、上述したような、歩行ピッチ、歩行の強さ、重力、進行方向などの特徴を抽出する。特徴抽出処理部31により抽出された特徴を表す特徴データは行動認識処理部32に出力される。
In step S11, the feature
ステップS12において、行動認識処理部32は、特徴抽出処理部31から供給されてきた特徴データを所定の量だけ蓄積し、蓄積した特徴データの時系列に基づいて、携帯電話機1のユーザの行動をHMM DB33に用意されているHMMを参照して認識する。行動認識処理部32は認識結果をMyプレゼンス状態認識処理部34に出力し、処理を終了させる。その後、処理は図12のステップS1に戻り、それ以降の処理が行われる。
In step S12, the behavior
次に、図14のフローチャートを参照して、コミュニケーションツールを選択する携帯電話機2の処理について説明する。この処理は、携帯電話機1による図12の処理に対応して行われる処理である。
Next, processing of the
ステップS21において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。
In step S21, the presence status
プレゼンス状態情報取得部41は、ステップS21において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS22に進む。携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。
If the presence status
ステップS22において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識し、認識したBuddyプレゼンス状態を表す情報を通信手段選択処理部43に出力する。
In step S22, the Buddy presence status
ステップS23において、通信手段選択処理部43は、Buddyプレゼンス状態認識処理部42により認識されたBuddyプレゼンス状態に基づいて、携帯電話機1のユーザとのコミュニケーションツールとして適したものをテーブルDB44に記憶されている推薦テーブルを参照して選択する。
In step S23, the communication means
ステップS24において、通信手段選択処理部43は、コミュニケーションツールを自動的に選択する自動選択モードが設定されているか否かを判定し、自動選択モードが設定されていると判定した場合、ステップS25に進む。
In step S24, the communication means
ステップS25において、通信手段選択処理部43は、ステップS23で選択したコミュニケーションツールを、携帯電話機2のユーザが、携帯電話機1のユーザとの間でメッセージをやりとりするなどしてコミュニケーションをとるときに用いるツールとしてセットする。ステップS24において、自動選択モードが設定されていないと判定された場合、このステップS25の処理はスキップされる。
In step S25, the communication means
ステップS26において、Buddyプレゼンス状態認識処理部42は、ステップS22で認識した携帯電話機1のユーザの状態を表すアニメーションが表示される、例えば図3に示すようなBuddyプレゼンス状態表示画面を表示部15に表示させる。
In step S26, the Buddy presence state
Buddyプレゼンス状態表示画面が表示された状態で、例えば、携帯電話機2のユーザにより、携帯電話機1のユーザとの間でメッセージなどのやりとりを開始することが指示されたとき、ステップS27において、通信手段選択処理部43は、ステップS25でセットしたコミュニケーションツールを管理するアプリケーションを起動させる。
When the Buddy presence status display screen is displayed, for example, when the user of the
これにより、携帯電話機2のユーザは、携帯電話機1のユーザのいまの状態に適したツールで、携帯電話機1のユーザとの間でコミュニケーションをとることができる。
Thereby, the user of the
以上においては、プレゼンス状態情報に基づいて得られた携帯電話機1のユーザの状態であるBuddyプレゼンス状態に基づいてコミュニケーションツールを選択する処理について主に説明したが、次に、Buddyプレゼンス状態に基づいて、携帯電話機1のユーザが所定の目的地に到着する時刻、または所定の目的地に到着するまでの時間を予測する処理について説明する。 In the above, the process of selecting the communication tool based on the Buddy presence status that is the user status of the mobile phone 1 obtained based on the presence status information has been mainly described. Next, based on the Buddy presence status, A process for predicting the time when the user of the mobile phone 1 arrives at the predetermined destination or the time until the user arrives at the predetermined destination will be described.
図15は、予測結果に基づいて携帯電話機2に表示される画面の例を示す図である。図15は、携帯電話機1のユーザが目的地に到着するまでの時間が予測された場合の例を示している。
FIG. 15 is a diagram illustrating an example of a screen displayed on the
図15の例においては、所定の範囲の地図が表示され、目的地Pが設定されている。この目的地Pは例えば携帯電話機2のユーザにより地図上から選択されたものである。
In the example of FIG. 15, a map in a predetermined range is displayed and the destination P is set. The destination P is selected from the map by the user of the
また、図15の例においては、地図上のそれぞれの場所に、その場所で携帯電話機1のユーザがとっていた行動を表すキャラクタが表示されている。地図上のキャラクタの表示位置は、プレゼンス状態情報に含めて携帯電話機1から送信されてきたGPSセンサデータに基づいて求められる位置であり、キャラクタは、上述したように、プレゼンス状態情報により表される携帯電話機1のユーザの状態に基づいて選択されたものである。 In the example of FIG. 15, characters representing actions taken by the user of the mobile phone 1 at each place are displayed at each place on the map. The display position of the character on the map is a position obtained based on the GPS sensor data transmitted from the mobile phone 1 included in the presence state information, and the character is represented by the presence state information as described above. The mobile phone 1 is selected based on the state of the user.
図15の画面上に表示されるキャラクタ61は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが車にのっていたことを表し、キャラクタ62は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが静止していたことを表す。また、キャラクタ63,64,65は、それぞれのキャラクタが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが歩いていたことを表し、キャラクタ66は、それが表示されている場所に携帯電話機1のユーザがいたときに、携帯電話機1のユーザが走っていたことを表す。
The character 61 displayed on the screen of FIG. 15 represents that the user of the mobile phone 1 was in the car when the user of the mobile phone 1 was at the place where the character 61 was displayed. This indicates that when the user of the mobile phone 1 is at the place where it is displayed, the user of the mobile phone 1 is stationary.
キャラクタ67は携帯電話機1のユーザの現在位置と、その行動を表し、キャラクタ67の下には、携帯電話機1のユーザの現在の行動を表す「現在:車で移動中」のメッセージが表示されている。
The
さらに、図15の例においては、地図上に設定されている目的地Pの上に、携帯電話機2において予測された、携帯電話機1のユーザが目的地Pに到着するまでの時間を表す「到着予定:10分後」のメッセージが表示されている。この予測時間は、例えば、携帯電話機1のユーザの現在位置から目的地Pまでの距離と、目的地Pに向かう速さ(例えば、プレゼンス状態情報に含めて携帯電話機1から順次送信されてくるGPSセンサデータにより表される位置の変化量から求められる速さ、または、車の予想速度)から求められる。
Further, in the example of FIG. 15, “arrival” indicating the time until the user of the mobile phone 1 arrives at the destination P predicted by the
例えば、目的地で携帯電話機1のユーザと待ち合わせをしているにもかかわらず、待ち合わせの時刻に携帯電話機1のユーザがこない場合、携帯電話機2のユーザは、このような画面を携帯電話機2を用いて確認することにより、携帯電話機1のユーザが目的地に向かっていることや、到着するまでの時間などを確認することができる。すなわち、携帯電話機2のユーザは、携帯電話機2から電話をかけるなどして携帯電話機1のユーザにいまの状態を問い合わせる必要がない。
For example, when the user of the mobile phone 1 does not come at the time of waiting even though the user of the mobile phone 1 is waiting at the destination, the user of the
ここで、図16のフローチャートを参照して、図15に示すような画面を表示させる携帯電話機2の処理について説明する。なお、携帯電話機1においては、図12の処理と同様の処理が行われ、GPSセンサデータを含むプレゼンス状態情報が携帯電話機2に対して繰り返し送信されている。
Here, with reference to the flowchart of FIG. 16, the process of the
ステップS41において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。
In step S41, the presence status
プレゼンス状態情報取得部41は、ステップS41において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS42に進む。携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。
If the presence status
ステップS42において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識し、認識したBuddyプレゼンス状態を表す情報を、プレゼンス状態情報に含めて携帯電話機1から送信されてきたGPSセンサデータとともに行動予測処理部45に出力する。
In step S42, the Buddy presence status
ステップS43において、行動予測処理部45は、Buddyプレゼンス状態認識処理部42により認識された携帯電話機1のユーザの行動と、GPSセンサデータにより求められる携帯電話機1のユーザの現在位置から、例えば携帯電話機2のユーザにより設定された目的地への携帯電話機1のユーザの到着時刻、または目的地に到着するまでの時間を計算により予測する。到着時刻の予測には、到着までの時間を求めるときに用いられる、上述したような携帯電話機1のユーザの現在位置から目的地Pまでの距離と、目的地Pに向かう速さの他に、現在時刻も用いられる。
In step S43, the behavior
ステップS44において、行動予測処理部45は、ステップS43で求めた携帯電話機1のユーザの目的地への到着時刻、または目的地に到着するまでの時間を表示部15に表示させ、携帯電話機2のユーザに提示する。この提示は、例えば、図15に示したような画面表示により行われる。
In step S44, the behavior
ステップS45において、Buddyプレゼンス状態認識処理部42は、ステップS42で認識した携帯電話機1のユーザの状態を表すアニメーションが表示されるBuddyプレゼンス状態表示画面を表示部15に表示させる。
In step S45, the Buddy presence state
例えば、プレゼンス状態情報表示画面が表示されている状態で、携帯電話機1のユーザとの間でコミュニケーションをとることが携帯電話機2のユーザにより指示されたとき、通信手段選択処理部43は、指示されたコミュニケーションツールを管理するアプリケーションを起動させ、携帯電話機1のユーザとの間でコミュニケーションをとることを可能な状態とする。なお、携帯電話機2がコミュニケーションツールを自動的に選択する自動選択モードが設定されている場合、図14を参照して説明した処理により、自動的に、携帯電話機1のユーザとの間でコミュニケーションをとることができる状態が設定されるようにしてもよい。
For example, when the presence of the presence status information display screen is displayed and the user of the
次に、携帯電話機1のユーザの状態を表すアニメーションを、携帯電話機1により撮影され、プレゼンス状態情報とともに送信されてきた画像(動画)と並べて表示させる携帯電話機2の処理について説明する。
Next, processing of the
この例においては、携帯電話機2のセンサ部11にはカメラも設けられており、それにより撮影された画像が、携帯電話機2により認識された携帯電話機2のユーザ自身の行動を表すアニメーションと並べて表示されるようになされている。すなわち、表示される画面から、携帯電話機2のユーザは、自分自身のプレゼンス状態であるMyプレゼンス状態と、携帯電話機1のユーザ等のBuddyプレゼンス状態を確認しながら、それぞれの機器により撮影された画像を確認することができる。
In this example, the
図17は、携帯電話機2に表示されるプレゼンス状態表示画面の例を示す図である。
FIG. 17 is a diagram illustrating an example of a presence status display screen displayed on the
図17のプレゼンス状態表示画面には、右方に表示される、携帯電話機2のカメラにより撮影されている画像と、携帯電話機1を含む他の機器のカメラにより撮影されている画像の中からユーザにより選択された画像を表示するStream View81が表示されている。
In the presence status display screen of FIG. 17, a user is selected from an image photographed by the camera of the
また、プレゼンス状態表示画面には、携帯電話機2のユーザに関する情報(行動と撮影された画像)が表示されるMyプレゼンス状態表示部82と、他の機器に関する情報が一覧表示されるBuddyリスト83が表示されている。
In addition, the presence status display screen includes a My presence
このうちのMyプレゼンス状態表示部82は、携帯電話機2により認識された携帯電話機2のユーザの行動を表すアニメーションが表示されるアニメーション表示部82Aと、携帯電話機2のカメラにより撮影されている画像が表示される画像表示部82Bからなる。アニメーション表示部82Aに表示されるアニメーションは、所定の周期で行われる携帯電話機2のユーザの行動の認識結果に応じて表示される。
Among these, the My presence
また、図17の例においては、Buddyリスト83には、携帯電話機1のユーザに関する情報が表示されるBuddyプレゼンス状態表示部83−1と、携帯電話機1以外の他の機器のユーザに関する情報が表示されるBuddyプレゼンス状態表示部83−2が表示されている。すなわち、図17の例は、携帯電話機2が、携帯電話機1の他に、携帯電話機1以外の機器とも通信を行っており、それらの機器から送信されてきたプレゼンス状態情報に基づいて表示される画面の例を示している。
In the example of FIG. 17, the
Buddyプレゼンス状態表示部83−1は、携帯電話機1により認識された携帯電話機1のユーザの行動を表すアニメーションが表示されるアニメーション表示部83−1Aと、携帯電話機1のカメラにより撮影されている画像が表示される画像表示部83−1Bからなる。また、Buddyプレゼンス状態表示部83−2は、他の機器により認識されたその機器のユーザの行動を表すアニメーションが表示されるアニメーション表示部83−2Aと、他の機器のカメラにより撮影されている画像が表示される画像表示部83−2Bからなる。アニメーション表示部83−1A,83−2Aに表示されるアニメーションも、それぞれの機器から送信されてくるプレゼンス状態情報により表される、それぞれの機器のユーザの行動の認識結果に応じて表示される。 The Buddy presence status display unit 83-1 is an image displayed by an animation display unit 83-1A on which an animation representing the behavior of the user of the mobile phone 1 recognized by the mobile phone 1 is displayed, and an image taken by the camera of the mobile phone 1. Is displayed on the image display unit 83-1B. The Buddy presence status display unit 83-2 is shot by an animation display unit 83-2A that displays an animation representing the user's behavior of the device recognized by the other device, and a camera of the other device. The image display unit 83-2B displays an image. The animations displayed on the animation display units 83-1A and 83-2A are also displayed according to the recognition result of the user's behavior of each device, which is represented by the presence state information transmitted from each device.
携帯電話機2のユーザは、例えば、Buddyプレゼンス状態表示部83−1の画像表示部83−1Bに表示されている画像を選択することによって、そこに表示されている画像と同じ画像をStream View81に拡大して表示させることができる。図17の例においては、携帯電話機2で撮影され、画像表示部82Bに表示されている画像と同じ画像がStream View81に拡大表示されている。
The user of the
遠隔で撮影され、ネットワークを介して送信されてきた画像を見ることのできる画面においては、通常、その撮影者がどんな行動をとっているかなどは画面を見ているユーザは確認することができないが、このように、撮影を行っている機器から送信されてきたプレゼンス状態情報に基づくその撮影者の行動を表すアニメーションと、撮影されている画像が並べて(近くに)表示されることにより、画面を見ているユーザは、撮影されている画像だけでなく、撮影者の行動をも確認することができる。 On a screen that allows users to view images that have been shot remotely and sent over a network, the user who is viewing the screen cannot usually confirm what action the photographer is taking. In this way, the animation representing the action of the photographer based on the presence status information transmitted from the device that is shooting and the image being shot are displayed side by side (close to each other), thereby displaying the screen. The viewing user can confirm not only the image being photographed but also the action of the photographer.
ここで、図18のフローチャートを参照して、図17に示すような画面を表示させる携帯電話機2の処理について説明する。なお、携帯電話機1においては、図12の処理と同様の処理が行われ、プレゼンス状態情報が、撮影された画像とともに携帯電話機2に対して繰り返し送信されている。
Here, with reference to the flowchart of FIG. 18, the process of the
ステップS61において、携帯電話機2のプレゼンス状態情報取得部41は、プレゼンス状態情報が送信されてきたか否かを判定し、送信されてきたと判定するまで待機する。
In step S61, the presence status
プレゼンス状態情報取得部41は、ステップS61において、プレゼンス状態情報が送信されてきたと判定した場合、ステップS62に進む。例えば携帯電話機1から送信されてきたプレゼンス状態情報は、プレゼンス状態情報取得部41からBuddyプレゼンス状態認識処理部42に出力される。また、携帯電話機1などの他の機器において撮影され、プレゼンス状態情報とともに送信されてきた画像もBuddyプレゼンス状態認識処理部42に供給される。
If the presence status
ステップS62において、Buddyプレゼンス状態認識処理部42は、プレゼンス状態情報取得部41から供給されてきたプレゼンス状態情報に基づいてBuddyプレゼンス状態(携帯電話機1のユーザの状態)を認識する。
In
ステップS63において、センサ部11を構成する各種のセンサにより測定が行われ、測定結果であるセンサデータが供給されてきたとき、携帯電話機2の行動認識部12は行動認識処理を行う。すなわち、図13を参照して説明した処理と同様の処理が携帯電話機2において行われ、認識結果(Myプレゼンス状態)がMyプレゼンス状態認識処理部34に出力される。
In step S63, measurement is performed by various sensors constituting the
ステップS64において、Myプレゼンス状態認識処理部34は、表示部15の所定の位置にMyプレゼンス状態を表すアニメーションを表示させるとともに、携帯電話機2自身により撮影された画像を表示させる。Buddyプレゼンス状態認識処理部42も同様に、表示部15の所定の位置にBuddyプレゼンス状態を表すアニメーションを表示させるとともに、他の機器において撮影された画像を表示させる。これにより、図17に示すようなプレゼンス状態表示画面が表示される。
In step S <b> 64, the My presence state
プレゼンス状態表示画面が表示されている状態で携帯電話機1のユーザとメッセージをやりとりすることにより、携帯電話機2のユーザは、例えば、携帯電話機1のユーザの撮影対象について、携帯電話機1のユーザの行動を見ながらメッセージによりコミュニケーションをとったりすることができる。
By exchanging messages with the user of the mobile phone 1 while the presence status display screen is displayed, the user of the
以上においては、プレゼンス状態情報の送信側の機器においてユーザの行動の認識処理が行われ、認識結果が受信側の機器にプレゼンス状態情報に含められて送信されるものとしたが、センサデータがそのまま受信側の機器に送信され、その受信側の機器において、センサデータに基づく行動(送信側の機器のユーザの行動)の認識処理が行われるようにしてもよい。 In the above description, it is assumed that the user's action recognition process is performed in the device on the transmission side of the presence status information, and the recognition result is included in the presence status information and transmitted to the device on the reception side. It may be transmitted to the receiving device, and the receiving device may perform a process of recognizing the action based on the sensor data (the action of the user of the transmitting device).
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、そのソフトウェアを実行させる装置は、例えば、図19に示されるようなパーソナルコンピュータにより構成される。 The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the apparatus for executing the software is constituted by a personal computer as shown in FIG. 19, for example.
図19において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記憶されているプログラム、または、記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなどが適宜記憶される。
In FIG. 19, a CPU (Central Processing Unit) 101 performs various processes according to a program stored in a ROM (Read Only Memory) 102 or a program loaded from a
CPU101、ROM102、およびRAM103は、バス104を介して相互に接続されている。このバス104にはまた、入出力インタフェース105も接続されている。
The
入出力インタフェース105には、キーボード、マウスなどよりなる入力部106、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部107、ハードディスクなどより構成される記憶部108、ネットワークを介しての通信処理を行う通信部109が接続されている。
The input /
入出力インタフェース105にはまた、必要に応じてドライブ110が接続される。ドライブ110には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどよりなるリムーバブルメディア111が適宜装着され、それから読み出されたコンピュータプログラムが必要に応じて記憶部108にインストールされる。
A drive 110 is also connected to the input /
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
この記録媒体は、図19に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(登録商標)(Mini-Disk)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア111により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM102や、記憶部108に含まれるハードディスクなどで構成される。
As shown in FIG. 19, this recording medium is distributed to provide a program to the user separately from the main body of the apparatus, and includes a magnetic disk (including a flexible disk) on which the program is recorded, an optical disk (CD-
なお、本明細書において、各ステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, each step includes not only processing performed in time series according to the described order but also processing executed in parallel or individually, although not necessarily performed in time series.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
1,2 携帯電話機, 3 パーソナルコンピュータ, 11 センサ部, 12 行動認識部, 13 メイン処理部, 14 通信部, 15 表示部, 16 記憶部, 31 特徴抽出処理部, 32 行動認識処理部, 33 HMM DB, 34 Myプレゼンス状態認識処理部, 35 プレゼンス状態情報送信部, 41 プレゼンス状態情報取得部, 42 Buddyプレゼンス状態認識処理部, 43 通信手段選択処理部, 44 テーブルDB, 45 行動予測処理部 1, 2 mobile phone, 3 personal computer, 11 sensor unit, 12 action recognition unit, 13 main processing unit, 14 communication unit, 15 display unit, 16 storage unit, 31 feature extraction processing unit, 32 action recognition processing unit, 33 HMM DB, 34 My presence status recognition processing unit, 35 presence status information transmission unit, 41 presence status information acquisition unit, 42 Buddy presence status recognition processing unit, 43 communication means selection processing unit, 44 table DB, 45 behavior prediction processing unit
Claims (7)
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測手段を備える
情報処理装置。 A user's behavior is recognized based on the output of the built-in sensor, and the behavior information indicating the recognized user's behavior is connected to another information processing apparatus that transmits the information indicating the current position together with information via the network. In an information processing device,
An information processing apparatus comprising: a prediction unit that predicts an arrival time of a user of the other information processing apparatus at a predetermined destination or a time until the user arrives at the predetermined destination based on the behavior information.
請求項1に記載の情報処理装置。 The prediction means calculates the predicted arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination. The information processing apparatus according to claim 1, wherein the information processing apparatus is displayed together with the history of the information processing apparatus.
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む
情報処理方法。 A user's behavior is recognized based on the output of the built-in sensor, and the behavior information indicating the recognized user's behavior is connected to another information processing apparatus that transmits the information indicating the current position together with information via the network. In the information processing method of the information processing apparatus,
An information processing method including a prediction step of predicting an arrival time of a user of the other information processing apparatus at a predetermined destination or a time until the user arrives at the predetermined destination based on the behavior information.
前記他の情報処理装置のユーザの所定の目的地への到着時刻、または前記所定の目的地に到着するまでの時間を、前記行動情報に基づいて予測する予測ステップを含む
処理をコンピュータに実行させるプログラム。 A user's behavior is recognized based on the output of the built-in sensor, and the behavior information indicating the recognized user's behavior is connected to another information processing apparatus that transmits the information indicating the current position together with information via the network. In a program for causing a computer to execute information processing in an information processing apparatus,
Causing the computer to execute a process including a prediction step of predicting, based on the behavior information, the arrival time of the user of the other information processing apparatus at the predetermined destination or the time until the user arrives at the predetermined destination program.
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御手段を備える
情報処理装置。 Information processing connected to another information processing apparatus that recognizes user behavior based on the output of the built-in sensor and transmits behavior information representing the recognized user behavior together with a captured image via a network In the device
An information processing apparatus comprising: display control means for displaying a character that takes the same action as a user action of the other information processing apparatus represented by the action information in the vicinity of the transmitted image.
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む
情報処理方法。 Information processing connected to another information processing apparatus that recognizes user behavior based on the output of the built-in sensor and transmits behavior information representing the recognized user behavior together with a captured image via a network In the information processing method of the device,
An information processing method including a display control step of displaying a character that takes the same action as a user of the other information processing apparatus represented by the action information in the vicinity of the transmitted image.
前記行動情報により表される前記他の情報処理装置のユーザの行動と同じ行動をとるキャラクタを、送信されてきた前記画像の近傍に表示させる表示制御ステップを含む
処理をコンピュータに実行させるプログラム。 Information processing connected to another information processing apparatus that recognizes user behavior based on the output of the built-in sensor and transmits behavior information representing the recognized user behavior together with a captured image via a network In a program for causing a computer to execute information processing in a device,
A program that causes a computer to execute a process including a display control step of displaying a character that takes the same action as the action of the user of the other information processing apparatus represented by the action information in the vicinity of the transmitted image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001553A JP2009118513A (en) | 2009-01-07 | 2009-01-07 | Information processor, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009001553A JP2009118513A (en) | 2009-01-07 | 2009-01-07 | Information processor, method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005169505A Division JP4507992B2 (en) | 2005-06-09 | 2005-06-09 | Information processing apparatus and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009118513A true JP2009118513A (en) | 2009-05-28 |
Family
ID=40785047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009001553A Pending JP2009118513A (en) | 2009-01-07 | 2009-01-07 | Information processor, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009118513A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074332A (en) * | 2011-09-26 | 2013-04-22 | Brother Ind Ltd | Communication device, method for controlling communication device, and program |
WO2013065519A1 (en) | 2011-10-31 | 2013-05-10 | ソニー株式会社 | Power generation control system, power generation control program, and electronic device |
KR101469593B1 (en) * | 2013-02-20 | 2014-12-05 | 서용창 | Method for detecting synchronized terminal posed similar to a base pose data, method for sending a message and computer readable recording medium storing program for the same |
JP2016508262A (en) * | 2012-12-20 | 2016-03-17 | フェイスブック,インク. | Estimating contextual user state and duration |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10113343A (en) * | 1996-07-03 | 1998-05-06 | Hitachi Ltd | Method, device and system for recognizing action and behavior |
JP2002109689A (en) * | 2000-09-29 | 2002-04-12 | Nippon Signal Co Ltd:The | Support system for boarding bus |
JP2002251681A (en) * | 2001-02-21 | 2002-09-06 | Saibuaasu:Kk | Action detector, action detecting system, abnormal action notification system, game system, prescribed action notification method and center device |
JP2003284140A (en) * | 2002-03-20 | 2003-10-03 | Hitachi Ltd | Position monitor service system for mobile terminal |
JP2003289573A (en) * | 2003-01-28 | 2003-10-10 | Hitachi Ltd | Portable terminal device |
-
2009
- 2009-01-07 JP JP2009001553A patent/JP2009118513A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10113343A (en) * | 1996-07-03 | 1998-05-06 | Hitachi Ltd | Method, device and system for recognizing action and behavior |
JP2002109689A (en) * | 2000-09-29 | 2002-04-12 | Nippon Signal Co Ltd:The | Support system for boarding bus |
JP2002251681A (en) * | 2001-02-21 | 2002-09-06 | Saibuaasu:Kk | Action detector, action detecting system, abnormal action notification system, game system, prescribed action notification method and center device |
JP2003284140A (en) * | 2002-03-20 | 2003-10-03 | Hitachi Ltd | Position monitor service system for mobile terminal |
JP2003289573A (en) * | 2003-01-28 | 2003-10-10 | Hitachi Ltd | Portable terminal device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013074332A (en) * | 2011-09-26 | 2013-04-22 | Brother Ind Ltd | Communication device, method for controlling communication device, and program |
WO2013065519A1 (en) | 2011-10-31 | 2013-05-10 | ソニー株式会社 | Power generation control system, power generation control program, and electronic device |
JP2016508262A (en) * | 2012-12-20 | 2016-03-17 | フェイスブック,インク. | Estimating contextual user state and duration |
KR101469593B1 (en) * | 2013-02-20 | 2014-12-05 | 서용창 | Method for detecting synchronized terminal posed similar to a base pose data, method for sending a message and computer readable recording medium storing program for the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4507992B2 (en) | Information processing apparatus and method, and program | |
EP2225896B1 (en) | Mobile virtual and augmented reality system | |
JP6662373B2 (en) | Information processing apparatus, control method, and program | |
JP4332738B2 (en) | Data communication apparatus, data communication method, and data communication packet | |
US8849253B2 (en) | Location-based proximity notification | |
US10451434B2 (en) | Information interaction method and device | |
JP2010287059A (en) | Mobile terminal, server device, community generation system, display control method and program | |
JP2018205853A (en) | Parking management system and parking management method | |
JP2009118513A (en) | Information processor, method and program | |
WO2020117174A1 (en) | A system for making location and/or time-based reminder over instant messaging applications | |
JP5605811B2 (en) | Communication system, guidance method, and program | |
US11595519B2 (en) | Electronic apparatus and processing system | |
JP2010225143A (en) | System, method, and device for managing data and portable terminal | |
WO2016052501A1 (en) | User interface device, program, and content notification method | |
JP5249516B2 (en) | Information processing apparatus, contact selection method, and contact selection program | |
JP2011176564A (en) | Mobile terminal device | |
JP2016170571A (en) | Notification navigation device | |
JP7037426B2 (en) | Electronic devices and processing systems | |
CN104798365A (en) | Methods, apparatuses and computer program products for providing a protocol to resolve synchronization conflicts when synchronizing between multiple devices | |
JP5937831B2 (en) | TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD, AND TERMINAL DEVICE CONTROL PROGRAM | |
JP2008305239A (en) | Communication device and program | |
JP5977697B2 (en) | Electronic device and method for controlling electronic device | |
JP5359190B2 (en) | Standby screen setting system, standby screen setting method, and standby screen setting program | |
US20240334038A1 (en) | System and method for capturing images | |
JP2017152913A (en) | Communication system, communication terminal, server device, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100415 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100614 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100914 |