JP2012168863A - Behavior information recording apparatus - Google Patents

Behavior information recording apparatus Download PDF

Info

Publication number
JP2012168863A
JP2012168863A JP2011030834A JP2011030834A JP2012168863A JP 2012168863 A JP2012168863 A JP 2012168863A JP 2011030834 A JP2011030834 A JP 2011030834A JP 2011030834 A JP2011030834 A JP 2011030834A JP 2012168863 A JP2012168863 A JP 2012168863A
Authority
JP
Japan
Prior art keywords
unit
user
behavior information
information
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011030834A
Other languages
Japanese (ja)
Inventor
Joji Ebara
丈司 江原
Takeshi Kaneko
剛 金子
Hitoshi Kato
仁 加藤
Toshinori Yoshinaka
利宜 吉中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2011030834A priority Critical patent/JP2012168863A/en
Publication of JP2012168863A publication Critical patent/JP2012168863A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To allow a user to easily perform an objective self-analysis.SOLUTION: A collection unit 21 collects at least one of character information and speech information input in a terminal device by a user through a network. A behavior information generation unit 23 generates behavior information on the user from information collected by the collection unit 21. A behavior information accumulation unit 12 accumulates the behavior information generated by the behavior information generation unit 23. An analysis unit 29 performs a character analysis from the behavior information accumulated by the behavior information accumulation unit 12.

Description

本発明は、人間の行動を記録して蓄積する行動情報記録装置に関する。   The present invention relates to a behavior information recording apparatus that records and accumulates human behavior.

従来から、人間の行動パターンを収集し、マーケティング戦略に活かす試みが実施されている(たとえば、特許文献1参照)。ITインフラが年々整備されていくなか、企業はより高精度なデータにもとづき、定量的判断を行うことが可能になってきている。   Conventionally, attempts have been made to collect human behavior patterns and use them in marketing strategies (see, for example, Patent Document 1). As IT infrastructure is developed year by year, companies are able to make quantitative judgments based on more accurate data.

一方、ブログ、ミニブログ(Twitter(登録商標)など)、および狭義のSNS(Social Network Service)(以下、本明細書ではこれらを総称する場合、単にSNSという)を利用しているユーザ数も年々増大している。それに伴い、手書きの日記や手帳の代わりに、ブログを活用しているユーザ数も増大している。また、SNS内において、自己の分身となるキャラクターとしてアバターが用いられることが多くなってきている。   On the other hand, the number of users who use blogs, miniblogs (Twitter (registered trademark), etc.), and SNS (Social Network Service) in a narrow sense (hereinafter simply referred to as SNS in the present specification) It is increasing. Along with this, the number of users who use blogs instead of handwritten diaries and notebooks is increasing. In SNS, an avatar is increasingly used as a character that is a substitute for itself.

特開2002−92253号公報JP 2002-92253 A

人々のなかには、自分は客観的にどのような性質の人間であるか知りたいと思っている者もいる。しかしながら、純粋に自己が自己について考える自己評価やQ&A方式の性格診断テストなどには主観が混じりやすく、他人の評価とは大きく食い違っている場合もある。   Some people want to know what kind of person they are objectively. However, the subjectivity is easily mixed in self-evaluation and Q & A personality diagnosis tests that the self thinks about themselves, which may be very different from the evaluation of others.

本発明はこうした状況に鑑みなされたものであり、その目的は、客観的な自己分析を簡単に行う技術を提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a technique for easily performing objective self-analysis.

本発明のある態様の行動情報記録装置は、ユーザが端末装置に入力した文字情報および音声情報の少なくとも一方を、ネットワークを介して収集する収集部と、収集部により収集された情報から、ユーザの行動情報を生成する行動情報生成部と、行動情報生成部により生成された行動情報を蓄積する蓄積部と、蓄積部により蓄積された行動情報から、人物分析を行う分析部と、ネットワーク上に仮想世界を構築する仮想世界構築部と、仮想世界においてユーザのアバターに、当該ユーザの人物分析を反映させた自律動作をさせるアバター動作制御部と、を備える。   A behavior information recording device according to an aspect of the present invention includes a collection unit that collects at least one of character information and voice information input to a terminal device by a user via a network, and information collected by the collection unit. A behavior information generation unit that generates behavior information, a storage unit that stores behavior information generated by the behavior information generation unit, an analysis unit that performs person analysis from the behavior information stored by the storage unit, and a virtual on a network A virtual world construction unit that constructs the world; and an avatar operation control unit that causes the user's avatar to perform an autonomous operation reflecting the user's analysis in the virtual world.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.

本発明によれば、客観的な自己分析を簡単に行うことができる。   According to the present invention, objective self-analysis can be easily performed.

本発明の実施の形態に係る行動情報記録システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the action information recording system which concerns on embodiment of this invention. 携帯端末装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a portable terminal device. 設置型端末装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of an installation type terminal device. 実施例1に係る行動情報記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the action information recording device which concerns on Example 1. FIG. 行動情報蓄積部に構築されるテーブルの一例を示す図である。It is a figure which shows an example of the table constructed | assembled in an action information storage part. 収集された情報を行動情報として行動情報蓄積部に蓄積するまでの処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process until it accumulate | stores the collected information as action information in an action information storage part. 仮想世界内にユーザの行動情報を重畳的に描画した例を示す図である。It is a figure which shows the example which rendered the user's action information superimposed in the virtual world. 仮想世界内にユーザの行動情報を重畳的に描画する処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process which superimposes and draws a user's action information in a virtual world. 図9(a)−(c)は、ウェブログコンテンツ生成部により生成されるブログの一例を示す図である。FIGS. 9A to 9C are diagrams illustrating an example of a blog generated by the weblog content generation unit. 実施例2に係る行動情報記録装置の構成を示すブロック図である。It is a block diagram which shows the structure of the action information recording device which concerns on Example 2. FIG. 人物分析チャートの一例を示す図である。It is a figure which shows an example of a person analysis chart. 図11のパラメータ調整の基礎となるキーワードおよびキーフレーズを規定したテーブルである。12 is a table that defines keywords and key phrases that are the basis of parameter adjustment in FIG. 11. 人物に関する書込サイトの具体例を説明するための図である。It is a figure for demonstrating the specific example of the writing site regarding a person. 曜日単位の行動パターンを記述した行動パターンテーブルの一例を示す図である。It is a figure which shows an example of the action pattern table which described the action pattern of a day-of-week unit. 特定日、ToDoリストおよび達成率の一例を示す図である。It is a figure which shows an example of a specific day, a ToDo list | wrist, and an achievement rate. メッセージ生成部により生成される、なすべき行動の実行を促すメッセージの一例を示す図である。It is a figure which shows an example of the message which prompts execution of the action which should be taken by the message production | generation part. 図17(a)−(f)は、動作データ保持部に構築されるデータ構造の一例を説明するための図である。FIGS. 17A to 17F are diagrams for explaining an example of a data structure constructed in the operation data holding unit. アバター動作制御部によるアバターの自律動作の基本処理を説明するためのフローチャートである。It is a flowchart for demonstrating the basic process of the avatar's autonomous operation | movement by an avatar operation control part. 行動命令を受け付けた場合の、アバター動作制御部によるアバターの自律動作の基本処理を説明するためのフローチャートである。It is a flowchart for demonstrating the basic process of the autonomous operation | movement of an avatar by the avatar operation control part at the time of receiving an action command. 実施例2の変形例を説明するためのブロック図である。FIG. 10 is a block diagram for explaining a modification of the second embodiment. 現実世界のユーザと不在ユーザのアバターとの会話処理を説明するためのフローチャートである。It is a flowchart for demonstrating the conversation process of the user of a real world, and the avatar of an absent user.

図1は、本発明の実施の形態に係る行動情報記録システム500の全体構成を示すブロック図である。本実施の形態に係る行動情報記録システム500は、行動情報記録装置100および複数の端末装置を備える。行動情報記録装置100と複数の端末装置のそれぞれとは、ネットワーク(以下、インターネットを想定する)300を介して双方向通信が可能である。   FIG. 1 is a block diagram showing an overall configuration of a behavior information recording system 500 according to an embodiment of the present invention. The behavior information recording system 500 according to the present embodiment includes the behavior information recording device 100 and a plurality of terminal devices. The behavior information recording device 100 and each of the plurality of terminal devices can perform bidirectional communication via a network (hereinafter, assumed to be the Internet) 300.

行動情報記録装置100は少なくとも一台のサーバで構築される。図1では、端末装置を設置型端末装置201と携帯端末装置202に分類して描いている。また、多数のユーザのうち、三人のユーザ(ユーザA〜C)が保有する端末装置について描いている。設置型端末装置201A〜201CはユーザA〜C宅にそれぞれ設置される端末装置である。当該設置型端末装置として、PC、TV、ゲーム機などが挙げられる。以下の説明では、PCを想定する。ユーザA〜Cはそれぞれ携帯端末装置202A〜202Cを携帯する。当該携帯端末装置として、携帯電話機、スマートフォン、携帯型ゲーム機などが挙げられる。以下の説明では、スマートフォンを想定する。   The behavior information recording device 100 is constructed by at least one server. In FIG. 1, terminal devices are drawn by being classified into a stationary terminal device 201 and a mobile terminal device 202. Moreover, the terminal device which three users (user AC) hold | maintain among many users is drawn. The installed terminal devices 201A to 201C are terminal devices installed in the users A to C, respectively. Examples of the installation type terminal device include a PC, a TV, and a game machine. In the following description, a PC is assumed. Users A to C carry mobile terminal devices 202A to 202C, respectively. Examples of the portable terminal device include a mobile phone, a smartphone, and a portable game machine. In the following description, a smartphone is assumed.

設置型端末装置201は、有線回線(たとえば、光ファイバー回線、ADSL回線、CATV回線)または無線回線(たとえば、無線LAN)を介してネットワーク300と接続可能である。携帯端末装置202は、無線回線(たとえば、無線LAN、携帯電話網)を介してネットワーク300と接続可能である。設置型端末装置201と携帯端末装置202とは、ケーブル(たとえば、USBケーブル)、短距離無線通信(たとえば、Bluetooth(登録商標)、メモリーカードまたはネットワーク300を介してデータのやりとりが可能である。   The stationary terminal device 201 can be connected to the network 300 via a wired line (for example, an optical fiber line, an ADSL line, a CATV line) or a wireless line (for example, a wireless LAN). The mobile terminal device 202 can be connected to the network 300 via a wireless line (for example, a wireless LAN or a mobile phone network). The stationary terminal device 201 and the portable terminal device 202 can exchange data via a cable (for example, a USB cable), short-range wireless communication (for example, Bluetooth (registered trademark), a memory card, or the network 300).

図2は、携帯端末装置202の構成例を示すブロック図である。当該携帯端末装置202は、アンテナ41、無線通信部42、位置検出部43、撮影部44、外部入出力部45、文字入力部46、音声入力部47、表示部48、音声出力部49、時計部50、処理部51および記憶部52を備える。   FIG. 2 is a block diagram illustrating a configuration example of the mobile terminal device 202. The portable terminal device 202 includes an antenna 41, a wireless communication unit 42, a position detection unit 43, a photographing unit 44, an external input / output unit 45, a character input unit 46, a voice input unit 47, a display unit 48, a voice output unit 49, a clock. Unit 50, processing unit 51, and storage unit 52.

無線通信部42は、アンテナ41を介して、無線通信方式に応じた周波数帯域の電波を送受信する。図2では説明の簡単化のためアンテナ41を一つ描いているが、実際には無線通信方式の種別に応じて、複数のアンテナ41が設けられる。たとえば、携帯電話網を介して基地局と通信するためのアンテナ、無線LANを介してアクセスポイントと通信するためのアンテナ、短距離に位置する機器と短距離無線通信するためのアンテナが別々に設けられる。無線通信部42は、処理部51から入力される信号を変調してアンテナ41から電波を送信する。また、アンテナ41で受信した信号を復調して処理部51に出力する。   The wireless communication unit 42 transmits and receives radio waves in a frequency band corresponding to the wireless communication method via the antenna 41. Although one antenna 41 is drawn in FIG. 2 for the sake of simplicity of explanation, a plurality of antennas 41 are actually provided according to the type of the wireless communication method. For example, an antenna for communicating with a base station via a mobile phone network, an antenna for communicating with an access point via a wireless LAN, and an antenna for short-range wireless communication with a device located in a short distance are provided separately. It is done. The wireless communication unit 42 modulates a signal input from the processing unit 51 and transmits a radio wave from the antenna 41. In addition, the signal received by the antenna 41 is demodulated and output to the processing unit 51.

位置検出部43は、携帯端末装置202の位置を検出または推定し、その位置情報を処理部51に出力する。位置検出部43は、たとえばGPS(Global Positioning System)を備え、GPS衛星から受信した複数の信号をもとに、緯度・経度を算出する。なお、携帯端末装置202の現在位置は、GPSを用いる以外に、基地局やアクセスポイントとの通信をもとに推定することも可能である。   The position detection unit 43 detects or estimates the position of the mobile terminal device 202 and outputs the position information to the processing unit 51. The position detection unit 43 includes a GPS (Global Positioning System), for example, and calculates latitude and longitude based on a plurality of signals received from GPS satellites. Note that the current position of the mobile terminal device 202 can be estimated based on communication with a base station or an access point in addition to using GPS.

撮影部44は、ユーザアクションに起因して静止画または動画を撮影する。撮影部44は、撮影された画像を画像情報として処理部51に出力する。その際、当該画像情報に位置検出部43により検出される位置情報が付加されることが好ましい。なお、撮影部44による動画撮影と同時に音声入力部47による録音が実行されてもよい。   The imaging unit 44 captures a still image or a moving image due to a user action. The imaging unit 44 outputs the captured image to the processing unit 51 as image information. At this time, it is preferable that position information detected by the position detection unit 43 is added to the image information. Note that recording by the audio input unit 47 may be performed simultaneously with moving image shooting by the shooting unit 44.

外部入出力部45は、外部機器(たとえば、設置型端末装置201)とケーブル接続するためのインタフェースである。当該ケーブルを通じてデータのやりとりだけでなく、電源の供給を受けることもできる。   The external input / output unit 45 is an interface for connecting a cable to an external device (for example, the installation type terminal device 201). Not only data exchange but also power supply can be received through the cable.

文字入力部46は、ユーザアクションによる文字入力を受け付ける。文字入力部46はタッチパネル入力方式であってもよいし、物理キー入力方式であってもよいし、その両方であってもよい。文字入力部46は、受け付けた文字情報を処理部51に出力する。その際、当該文字情報に位置検出部43により検出される位置情報が付加されることが好ましい。   The character input unit 46 receives character input by a user action. The character input unit 46 may be a touch panel input method, a physical key input method, or both. The character input unit 46 outputs the received character information to the processing unit 51. At this time, it is preferable that position information detected by the position detection unit 43 is added to the character information.

音声入力部47は、外部の音を受け付ける。本実施の形態では、主に通話時のユーザの発言や録音機能発動中のユーザの発言による音声入力を受け付ける。音声入力部47は、受け付けた音声情報を処理部51に出力する。その際、当該音声情報に位置検出部43により検出される位置情報が付加されることが好ましい。   The voice input unit 47 receives an external sound. In the present embodiment, voice input mainly by a user's speech during a call or a user's speech during the recording function is accepted. The voice input unit 47 outputs the received voice information to the processing unit 51. At that time, it is preferable that position information detected by the position detector 43 is added to the audio information.

表示部48は、処理部51によ生成または再生された画像を表示する。音声出力部49は、処理部51により生成または再生された画像を表示する。時計部50は、日時情報を処理部51に出力する。   The display unit 48 displays the image generated or reproduced by the processing unit 51. The audio output unit 49 displays the image generated or reproduced by the processing unit 51. The clock unit 50 outputs date / time information to the processing unit 51.

処理部51は、携帯端末装置202全体を統括的に制御する。記憶部52は種々のプログラムおよびデータを保持する。本実施の形態では、処理部51は主に、位置検出部43から入力される位置情報、文字入力部46から入力される文字情報および音声入力部47から入力される音声情報に、時計部50から入力される日時情報を付加して記憶部52に一時記憶する。   The processing unit 51 comprehensively controls the entire mobile terminal device 202. The storage unit 52 holds various programs and data. In the present embodiment, the processing unit 51 mainly uses the clock unit 50 for position information input from the position detection unit 43, character information input from the character input unit 46, and voice information input from the voice input unit 47. The date and time information input from is added and temporarily stored in the storage unit 52.

処理部51は、記憶部52に一時記憶されたそれらの情報を、携帯端末装置202の識別情報とともにネットワーク300を介して行動情報記録装置100に送信する。その際、無線通信部42およびアンテナ41を用いてネットワーク300に直接接続することにより送信してもよいし、設置型端末装置201にそれらの情報をいったん送信し、設置型端末装置201を経由してネットワーク300に接続することにより送信してもよい。   The processing unit 51 transmits the information temporarily stored in the storage unit 52 to the behavior information recording device 100 via the network 300 together with the identification information of the mobile terminal device 202. At that time, it may be transmitted by directly connecting to the network 300 using the wireless communication unit 42 and the antenna 41, or such information is once transmitted to the stationary terminal device 201, via the stationary terminal device 201. Then, it may be transmitted by connecting to the network 300.

前者の場合、情報を取得するたびに情報を送出してもよいし、一定の情報量が蓄積された時点で送出してもよいし、定期的(たとえば、1時間おき)に送出してもよい。後者の場合、携帯端末装置202と設置型端末装置201とがケーブルなどに接続された時点で、記憶部52内の取得された情報が一括して送出されるとよい。   In the former case, the information may be sent every time information is acquired, may be sent when a certain amount of information is accumulated, or may be sent periodically (for example, every other hour). Good. In the latter case, the information acquired in the storage unit 52 may be sent in a batch when the portable terminal device 202 and the stationary terminal device 201 are connected to a cable or the like.

図3は、設置型端末装置201の構成例を示すブロック図である。当該設置型端末装置201は、通信部42a、外部入出力部45、文字入力部46、音声入力部47、表示部48、音声出力部49、時計部50、処理部51および記憶部52を備える。これらの各構成要素は、図2に示した携帯端末装置202の対応する構成要素と基本的に同様であるため、その説明を省略する。なお、これらの各構成要素のスペックは図2に示した携帯端末装置202の対応する構成要素のスペックより高く、演算能力、ユーザインタフェースに優れている。   FIG. 3 is a block diagram illustrating a configuration example of the stationary terminal device 201. The installed terminal device 201 includes a communication unit 42a, an external input / output unit 45, a character input unit 46, a voice input unit 47, a display unit 48, a voice output unit 49, a clock unit 50, a processing unit 51, and a storage unit 52. . These components are basically the same as the corresponding components of the mobile terminal device 202 shown in FIG. The specifications of these components are higher than the specifications of the corresponding components of the mobile terminal device 202 shown in FIG. 2, and are excellent in computing ability and user interface.

図4は、実施例1に係る行動情報記録装置100の構成を示すブロック図である。当該行動情報記録装置100は、通信部10、管理者コンソール11、行動情報蓄積部12、地図データ保持部13、3Dオブジェクト保持部14、ウェブログデータ蓄積部15および処理部20を備える。   FIG. 4 is a block diagram illustrating the configuration of the behavior information recording apparatus 100 according to the first embodiment. The behavior information recording apparatus 100 includes a communication unit 10, an administrator console 11, a behavior information storage unit 12, a map data storage unit 13, a 3D object storage unit 14, a web log data storage unit 15, and a processing unit 20.

処理部20は、収集部21、音声文字変換部22、行動情報生成部23、サイト運営部24、仮想世界構築部25、行動情報描画部26、行動再生部27およびウェブログコンテンツ生成部28を含む。これらの構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   The processing unit 20 includes a collection unit 21, a phonetic character conversion unit 22, a behavior information generation unit 23, a site management unit 24, a virtual world construction unit 25, a behavior information drawing unit 26, a behavior reproduction unit 27, and a weblog content generation unit 28. Including. These configurations can be realized by an arbitrary processor, memory, or other LSI in terms of hardware, and can be realized by a program loaded in the memory in terms of software, but here by their cooperation. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

通信部10は、有線回線によりネットワーク300と接続する。管理者コンソール11は、行動情報記録装置100の管理者が行動情報記録装置100を操作するための管理者インタフェースである。行動情報記録装置100の保守管理時などに使用される。   The communication unit 10 is connected to the network 300 via a wired line. The administrator console 11 is an administrator interface for the administrator of the behavior information recording device 100 to operate the behavior information recording device 100. It is used for maintenance management of the behavior information recording apparatus 100.

行動情報蓄積部12は、行動情報生成部23により生成された行動情報を蓄積する。地図データ保持部13は地図データを保持する。当該地図データは二次元データであっても三次元データであってもよいが、以下の説明では三次元データを用いる例を説明する。なお、当該地図データには地図上の各地点の緯度・経度情報が含まれているとする。3Dオブジェクト保持部14は、三次元の地図データにより記述される三次元空間に描画すべき三次元のオブジェクトデータを保持する。たとえば、各ユーザのアバターデータを保持する。なお、各ユーザのアバターは既存サービスにより作成可能なため、本明細書ではその説明を省略する。ウェブログデータ蓄積部15は、各ユーザのブログデータ(ミニブログデータを含む)を蓄積する。   The behavior information accumulation unit 12 accumulates the behavior information generated by the behavior information generation unit 23. The map data holding unit 13 holds map data. The map data may be two-dimensional data or three-dimensional data. In the following description, an example using three-dimensional data will be described. It is assumed that the map data includes latitude / longitude information of each point on the map. The 3D object holding unit 14 holds three-dimensional object data to be drawn in a three-dimensional space described by three-dimensional map data. For example, each user's avatar data is held. In addition, since the avatar of each user can be created by an existing service, the description thereof is omitted in this specification. The web log data storage unit 15 stores blog data (including mini-blog data) of each user.

処理部20は、行動情報記録装置100全体を統括的に制御する。サイト運営部24は、ネットワーク300上でソーシャルネットワーキングサイトを運営する。実施例1では、ユーザにアバター作成サービスやブログサービスも提供している。仮想世界構築部25は、サイト運営部24により運営されるソーシャルネットワーキングサイトに付随して、現実世界に対応する仮想世界をネットワーク300上に構築する。より具体的には、地図データ保持部13に保持される地図データを用いて、実際の街を模した仮想世界を構築する。   The processing unit 20 comprehensively controls the entire behavior information recording apparatus 100. The site management unit 24 operates a social networking site on the network 300. In the first embodiment, an avatar creation service and a blog service are also provided to the user. The virtual world construction unit 25 constructs a virtual world corresponding to the real world on the network 300 in association with the social networking site operated by the site management unit 24. More specifically, a virtual world imitating an actual city is constructed using the map data held in the map data holding unit 13.

収集部21は、ユーザが携帯端末装置202に入力した文字情報および音声情報の少なくとも一方と、携帯端末装置202の位置情報をネットワーク300を介して収集する。また、収集部21は、携帯端末装置202を用いてユーザにより撮影された画像情報をネットワーク300を介して収集する。この画像情報には音声情報が含まれることもある。なお、収集される文字情報、音声情報および画像情報には、基本的に、それらが携帯端末装置202の処理部51に入力された時点の日時情報および位置情報が付加されている。   The collection unit 21 collects at least one of character information and voice information input to the mobile terminal device 202 by the user and position information of the mobile terminal device 202 via the network 300. The collection unit 21 collects image information captured by the user using the mobile terminal device 202 via the network 300. This image information may include audio information. Note that the collected date information, voice information, and image information are basically appended with date and time information and position information at the time when they are input to the processing unit 51 of the mobile terminal device 202.

音声文字変換部22は、収集部21により収集された音声情報を文字情報に変換する。これは一般的な音声認識技術を用いることにより実行することができる。なお、この音声文字変換は携帯端末装置202または設置型端末装置201側で実行されてもよい。その場合、行動情報記録装置100では音声文字変換部22は不要となる。   The voice character conversion unit 22 converts the voice information collected by the collection unit 21 into character information. This can be performed by using a general voice recognition technique. This phonetic character conversion may be executed on the mobile terminal device 202 or the stationary terminal device 201 side. In that case, the action information recording apparatus 100 does not require the phonetic character conversion unit 22.

行動情報生成部23は、収集部21により収集された文字情報、音声情報、画像情報、位置情報および時刻情報から、ユーザの行動情報を生成する。たとえば、収集された文字情報と、音声文字変換部22により変換された文字情報をテキストマイニングして、ユーザの行動特定に有用な「5W1H」に関連するキーワードまたはキーフレーズを含む文章を抽出する。なお、日本語ではテキストマイニングに先立ち、形態素解析が行われる。形態素解析は文章を、意味を持つ最小単位の文字列に分割し、分割された文字列を品詞に分類する処理である。なお、本明細書ではテキストマイニング自体の詳細には注目しないため、その詳細な説明を省略する。   The behavior information generation unit 23 generates user behavior information from the character information, voice information, image information, position information, and time information collected by the collection unit 21. For example, the collected character information and the character information converted by the phonetic character conversion unit 22 are subjected to text mining to extract a sentence including a keyword or key phrase related to “5W1H” useful for identifying the user's action. In Japanese, morphological analysis is performed prior to text mining. Morphological analysis is a process that divides a sentence into meaningful minimum unit character strings and classifies the divided character strings into parts of speech. In the present specification, the details of the text mining itself are not focused on, and thus detailed description thereof is omitted.

行動情報生成部23は、対象ユーザと接触と持ったと推測される、上記ソーシャルネットワーキングサイトに登録されている他のユーザの携帯端末装置202から収集された情報も参酌して、対象ユーザの行動情報を生成するもできる。たとえば、対象ユーザの音声情報の基礎となる通話の相手方または上記文字情報の基礎となる電子メールの送信先が上記他のユーザである場合、行動情報生成部23は、当該他のユーザの携帯端末装置202から収集された情報のうち、上記対象ユーザの行動に関連する情報を利用することができる。より具体的には、当該他のユーザの携帯端末装置202から収集された文字情報(音声文字変換された情報を含む)のうち、対象ユーザの名前を含む文章を抽出する。   The behavior information generation unit 23 also considers information collected from the mobile terminal devices 202 of other users registered in the social networking site, which is presumed to have contact with the target user, and the behavior information of the target user. Can also be generated. For example, when the destination of the call that is the basis of the voice information of the target user or the transmission destination of the e-mail that is the basis of the character information is the other user, the behavior information generation unit 23 is the mobile terminal of the other user. Of the information collected from the device 202, information related to the behavior of the target user can be used. More specifically, the text including the name of the target user is extracted from the character information collected from the mobile terminal device 202 of the other user (including information subjected to the phonetic character conversion).

行動情報生成部23は、生成した行動情報をユーザ単位で行動情報蓄積部12に蓄積する。図5は、行動情報蓄積部12に構築されるテーブルの一例を示す図である。図5に示すテーブルでは、項目として、「ユーザ」、「日時」、「位置情報」、「文字情報」、「音声情報」および「画像情報」が規定されている。行動情報生成部23は、収集した情報ごとに各項目のセルに情報を埋めていく。なお、「文字情報」、「音声情報」および「画像情報」のセルについては、その取得方法やデータ分類が記述される。「文字情報」、「音声情報」および「画像情報」の実際のデータは別の記録領域に記録され、「文字情報」、「音声情報」および「画像情報」のセルは、対応する記録領域のアドレスと関連付けられている。   The behavior information generation unit 23 stores the generated behavior information in the behavior information storage unit 12 for each user. FIG. 5 is a diagram illustrating an example of a table constructed in the behavior information storage unit 12. In the table shown in FIG. 5, “user”, “date / time”, “position information”, “character information”, “voice information”, and “image information” are defined as items. The behavior information generation unit 23 embeds information in each item cell for each collected information. Note that the acquisition method and data classification are described for the cells of “character information”, “voice information”, and “image information”. The actual data of “text information”, “voice information” and “image information” is recorded in a separate recording area, and the cells of “character information”, “voice information” and “image information” are stored in the corresponding recording area. Associated with an address.

図6は、収集された情報を行動情報として行動情報蓄積部12に蓄積するまでの処理を説明するためのフローチャートである。収集部21は、携帯端末装置202から文字情報または音声情報を取得する(S10)。なお、収集される情報が、文字情報などに付随しない単体の位置情報の場合および音声情報が付随しない単体の画像情報の場合、それらの情報は直接、行動情報蓄積部12に蓄積される。   FIG. 6 is a flowchart for explaining processing until the collected information is accumulated as behavior information in the behavior information accumulation unit 12. The collection unit 21 acquires character information or voice information from the mobile terminal device 202 (S10). Note that when the collected information is single position information not accompanying character information or the like and single image information not accompanied by voice information, the information is directly stored in the behavior information storage unit 12.

音声文字変換部22は、収集部21により収集された情報が音声情報であるか否か判定する(S11)。音声情報である場合(S11のY)、その音声情報を文字情報に変換する(S12)。音声情報でない場合(S11のN)、ステップS12をスキップする。   The phonetic character conversion unit 22 determines whether the information collected by the collecting unit 21 is voice information (S11). If it is voice information (Y in S11), the voice information is converted into character information (S12). When it is not voice information (N of S11), step S12 is skipped.

行動情報生成部23は、文字情報に含まれる文字数が設定文字数を超えるか否か判定する(S13)。設定文字数を超える場合(S13のY)、文章を要約する(S14)。行動情報生成部23は、一般的な文章要約ソフトウェアを用いて文章を要約する。設定文字数を超えない場合(S13のN)、ステップS14をスキップする。行動情報生成部23は、日時情報、位置情報とともに、文字情報を行動情報蓄積部12に蓄積する(S15)。   The behavior information generation unit 23 determines whether or not the number of characters included in the character information exceeds the set number of characters (S13). If the set number of characters is exceeded (Y in S13), the sentence is summarized (S14). The behavior information generation unit 23 summarizes sentences using general sentence summarization software. If the number of set characters is not exceeded (N in S13), step S14 is skipped. The behavior information generation unit 23 stores character information in the behavior information storage unit 12 together with the date information and the position information (S15).

図4に戻る。行動情報描画部26は、仮想世界内の対応する場所に、行動情報蓄積部12に蓄積されたユーザの行動情報を重畳的に描画する。行動再生部27は、仮想世界内においてユーザのアバターに、行動情報蓄積部12に蓄積された当該ユーザの行動情報にしたがった動作をさせる。これらの描画やアバターを使ったプレイバックは一日単位で実行されることが基本であるが、一日未満や一日を超えるタイムスパンで実行されてもよい。   Returning to FIG. The behavior information drawing unit 26 superimposes the user behavior information stored in the behavior information storage unit 12 at a corresponding place in the virtual world. The behavior reproducing unit 27 causes the user's avatar to perform an operation according to the behavior information of the user accumulated in the behavior information accumulating unit 12 in the virtual world. These drawings and playback using avatars are basically executed on a daily basis, but may be executed on a time span of less than one day or more than one day.

図7は、仮想世界内にユーザの行動情報を重畳的に描画した例を示す図である。図7に示す行動情報は、2010年7月25日の行動情報の一部である。その日の9:00に地点P1で当該ユーザは、携帯端末装置202を用いてミニブログに「これからタバコ買って出勤」と書き込んでいる。その後、9:10に地点P2で当該ユーザは携帯端末装置202を用いて誰かと電話をしている。その会話内容には「20時に銀座のソニービル前」という発言が含まれている。その後、9:20に地点P3で携帯端末装置202のカメラ機能を用いて動画を撮影している。動画の被写体はクラゲである。また、ユーザは「あ、運河のクラゲが綺麗」と発言している。なお、行動再生部27は、アバターを時間経過にしたがい移動させることができる。すなわち、動画としてその日の行動をプレイバック表示させることができる。これら地図を基礎とした行動情報の記録は、本人および本人が閲覧を許可した閲覧権限者が閲覧可能である。   FIG. 7 is a diagram illustrating an example in which user behavior information is drawn in a superimposed manner in the virtual world. The behavior information shown in FIG. 7 is a part of the behavior information on July 25, 2010. At 9:00 of the day, the user writes “buy a cigarette and go to work” on the miniblog using the mobile terminal device 202 at the point P1. Thereafter, at 9:10, the user is calling someone using the mobile terminal device 202 at the point P2. The content of the conversation includes the remark "In front of the Sony building in Ginza at 20:00." After that, at 9:20, a moving image is shot using the camera function of the mobile terminal device 202 at a point P3. The subject of the movie is a jellyfish. The user also said, “Oh, the jellyfish on the canal are beautiful.” In addition, the action reproducing unit 27 can move the avatar as time elapses. That is, the action of the day can be played back as a moving image. The record of action information based on these maps can be browsed by the person himself or a person authorized to view it.

図8は、仮想世界内にユーザの行動情報を重畳的に描画する処理を説明するためのフローチャートである。行動情報生成部23は、地図データ保持部13から地図データを取得し(S20)、仮想世界構築部25は、その地図データをもとに仮想世界を構築する。行動情報生成部23は、3Dオブジェクト保持部14からアバターを描画するためのデータを取得する(S21)。行動情報生成部23は、行動情報蓄積部12から対象ユーザの一日の行動情報を時刻順に取得する(S22)。行動情報生成部23は、取得した行動情報に含まれる位置情報により特定される位置にアバターを配置させ(S23)、その近傍に取得した行動情報に含まれる文字情報および/または画像情報を配置する(S24)。行動情報生成部23は、対象ユーザの一日のすべての行動情報を取得したか否か判定する(S25)。取得していない場合(S25のN)、ステップS22に遷移し、ステップS23〜S25の処理を繰り返す。取得した場合(S25のY)、対象ユーザの一日分の行動情報の描画処理を終了する。   FIG. 8 is a flowchart for explaining a process of drawing user behavior information in a virtual world in a superimposed manner. The behavior information generation unit 23 acquires map data from the map data holding unit 13 (S20), and the virtual world construction unit 25 constructs a virtual world based on the map data. The behavior information generation unit 23 acquires data for drawing an avatar from the 3D object holding unit 14 (S21). The behavior information generation unit 23 acquires the daily behavior information of the target user from the behavior information storage unit 12 in order of time (S22). The behavior information generation unit 23 places an avatar at a position specified by the position information included in the acquired behavior information (S23), and arranges character information and / or image information included in the acquired behavior information in the vicinity thereof. (S24). The behavior information generation unit 23 determines whether or not all the behavior information of the target user for one day has been acquired (S25). When not acquiring (N of S25), it changes to step S22 and repeats the process of steps S23-S25. When acquired (Y of S25), the drawing process of the action information for one day of the target user is ended.

図4に戻る。ウェブログコンテンツ生成部28は、行動情報生成部23により生成された行動情報から、ウェブログに掲載されるべき文章、画像および音声の少なくとも一つを生成し、ウェブログデータ蓄積部15に蓄積する。ここでは、図7および図8に示したように地図を基礎としたものではなく、既存のプラットフォーム上においてユーザが手作業で行っていた作業を自動化したものである。   Returning to FIG. The web log content generation unit 28 generates at least one of a sentence, an image, and a sound to be posted on the web log from the behavior information generated by the behavior information generation unit 23, and accumulates it in the web log data accumulation unit 15. . Here, it is not based on a map as shown in FIGS. 7 and 8, but is an automated work that a user has manually performed on an existing platform.

図9(a)−(c)は、ウェブログコンテンツ生成部28により生成されるブログの一例を示す図である。図9(a)はリアルパターンのブログを示し、図9(b)はマジメパターンのブログを示し、図9(c)はフザケパターンのブログを示す。ユーザはこれらのパターンから一つを選択することができる。   FIGS. 9A to 9C are diagrams illustrating an example of a blog generated by the weblog content generation unit 28. FIG. FIG. 9A shows a real pattern blog, FIG. 9B shows a serious pattern blog, and FIG. 9C shows a fuzzy pattern blog. The user can select one of these patterns.

図9(a)に示すようにリアルパターンのブログは、行動情報蓄積部12に蓄積された、ユーザにより携帯端末装置202により入力された文字情報や音声情報を、ほぼそのまま用いて作成されるものである。   As shown in FIG. 9A, a blog having a real pattern is created by using character information and voice information input from the mobile terminal device 202 by the user, which are stored in the behavior information storage unit 12, almost as they are. It is.

図9(b)に示すようにマジメパターンのブログは、リアルパターンのブログに記載される文章に加えて、その文章のテーマに対するユーザの感想や見識、ウェブ上のナレッジデータベースサイトから得られるナレッジ、またはウェブ上のシナリオデータベースサイトから得られるシナリオが追加される。ウェブログコンテンツ生成部28は、各文章のキーワードを検出することにより、そのキーワードに関連する当該ユーザの他の文章を抽出したり、そのキーワードに関するナレッジをウェブ上のナレッジデータベースサイトから抽出したり、そのキーワードに関するシナリオをウェブ上のシナリオデータベースサイトから抽出することにより、そのようなブログを生成することができる。   As shown in FIG. 9 (b), in addition to the text described in the real pattern blog, the serious pattern blog is the user's opinions and insights on the theme of the text, knowledge obtained from the knowledge database site on the web, Or a scenario obtained from a scenario database site on the web is added. The web log content generation unit 28 detects a keyword of each sentence, extracts other sentences of the user related to the keyword, extracts knowledge about the keyword from a knowledge database site on the web, Such a blog can be generated by extracting a scenario related to the keyword from a scenario database site on the web.

図9(c)に示すようにフザケパターンのブログは、その文章のテーマに対するユーザの感想、またはウェブ上のシナリオデータベースサイトから得られるシナリオが追加される。ウェブログコンテンツ生成部28は、各文章のキーワードを検出することにより、そのキーワードに関連する当該ユーザの他の文章を抽出したり、そのキーワードに関するシナリオをウェブ上のシナリオデータベースサイトから抽出することにより、そのようなブログを生成することができる。また、ウェブログコンテンツ生成部28は文体変換ソフトウェアを用いて文体を変換または加工することができる。   As shown in FIG. 9C, the blog of the fuzzy pattern is added with the user's impression on the sentence theme or a scenario obtained from a scenario database site on the web. The web log content generation unit 28 detects a keyword of each sentence, extracts other sentences of the user related to the keyword, or extracts a scenario related to the keyword from a scenario database site on the web. Can generate such a blog. Further, the web log content generation unit 28 can convert or process the style using style conversion software.

以上説明したように実施例1に係る行動情報記録装置100によれば、ユーザにより携帯端末装置202により入力された文字情報、音声情報または画像情報を蓄積することにより、当該ユーザの行動を正確に簡単に記録することができる。また、それらの情報が入力されたときの日時情報や位置情報も蓄積すれば、より正確に行動を記録することができる。また、同一のソーシャルネットワーキングサイトの登録ユーザの行動情報と照らし合わせることにより、より精度を高めることができる。   As described above, according to the behavior information recording apparatus 100 according to the first embodiment, by accumulating character information, voice information, or image information input by the user through the mobile terminal device 202, the user's behavior can be accurately determined. Easy to record. Further, if date / time information and position information when such information is input are also accumulated, the action can be recorded more accurately. Moreover, the accuracy can be further improved by comparing with the action information of the registered user of the same social networking site.

また、現実世界に対応した三次元仮想世界に、行動情報を表示させることにより、より直感的に行動記録を確認することができる。また、自己の行動記録に沿ってアバターを行動させることにより、行動記録を動画で確認することができる。また、蓄積された行動情報にもとづきブログを自動的に生成することにより、ブログを作成する手間を省くことができる。   Also, by displaying the action information in a three-dimensional virtual world corresponding to the real world, the action record can be confirmed more intuitively. Moreover, an action record can be confirmed with a moving image by making an avatar act along own action record. Also, by automatically generating a blog based on the accumulated behavior information, it is possible to save the trouble of creating a blog.

図10は、実施例2に係る行動情報記録装置100の構成を示すブロック図である。当該行動情報記録装置100は、通信部10、管理者コンソール11、行動情報蓄積部12、地図データ保持部13、3Dオブジェクト保持部14、動作データ保持部16、人物分析蓄積部17、行動パターン蓄積部18、ToDoリスト保持部19および処理部20を備える。   FIG. 10 is a block diagram illustrating the configuration of the behavior information recording apparatus 100 according to the second embodiment. The behavior information recording apparatus 100 includes a communication unit 10, an administrator console 11, a behavior information storage unit 12, a map data storage unit 13, a 3D object storage unit 14, a motion data storage unit 16, a person analysis storage unit 17, and a behavior pattern storage. Unit 18, ToDo list holding unit 19, and processing unit 20.

処理部20は、収集部21、音声文字変換部22、行動情報生成部23、サイト運営部24、仮想世界構築部25、分析部29、アバター動作制御部30、受付部31、行動履歴生成部32、達成率算出部33およびメッセージ生成部34を含む。これらの構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   The processing unit 20 includes a collection unit 21, a phonetic character conversion unit 22, a behavior information generation unit 23, a site management unit 24, a virtual world construction unit 25, an analysis unit 29, an avatar operation control unit 30, a reception unit 31, and a behavior history generation unit. 32, an achievement rate calculation unit 33 and a message generation unit 34 are included. These configurations can be realized by an arbitrary processor, memory, or other LSI in terms of hardware, and can be realized by a program loaded in the memory in terms of software, but here by their cooperation. Draw functional blocks. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

図10の構成要素と図4の構成要素で共通している構成要素については、適宜、その説明を省略する。動作データ保持部16は、仮想世界においてアバターを動作させるための動作データを保持する。人物分析蓄積部17は、分析部29により分析された各ユーザの人物分析情報を蓄積する。行動パターン蓄積部18は、分析部29により特定された各ユーザの行動パターンを蓄積する。ToDoリスト保持部19は、各ユーザの特定日における、なすべき行動が記述されたリストを保持する。   Description of components common to the components in FIG. 10 and the components in FIG. 4 will be omitted as appropriate. The motion data holding unit 16 holds motion data for operating the avatar in the virtual world. The person analysis storage unit 17 stores the person analysis information of each user analyzed by the analysis unit 29. The behavior pattern accumulation unit 18 accumulates each user's behavior pattern specified by the analysis unit 29. The ToDo list holding unit 19 holds a list in which actions to be performed on a specific date of each user are described.

分析部29は、行動情報蓄積部12により蓄積された行動情報をデータマイニングして、人物分析を行う。たとえば、上述したように蓄積された行動情報内の文字情報を形態素解析して、品詞分類した後、テキストマイニングすることにより、キーワードまたはキーフレーズを抽出する。分析部29は、このキーワードまたはキーフレーズをもとに、各ユーザの人物分析を行う。   The analysis unit 29 performs data analysis by mining the behavior information accumulated by the behavior information accumulation unit 12. For example, as described above, the character information in the accumulated behavior information is subjected to morphological analysis, classified as part of speech, and then text mined to extract a keyword or key phrase. The analysis unit 29 performs person analysis of each user based on the keyword or key phrase.

図11は、人物分析チャートの一例を示す。このチャートでは、四つのパラメータで人物を分析している。第1パラメータは活力に関するパラメータであり、外向型か内向型かを示す。第2パラメータは情報収集に関するパラメータであり、現実型か直感型かを示す。第3パラメータは決断に関するパラメータであり、思考型か情緒型かを示す。第4パラメータは生活様式に関するパラメータであり、規範型か柔軟型かを示す。図11では、各パラメータごとに九段階に分類されている。分析部29は、各パラメータの値を調整する。   FIG. 11 shows an example of a person analysis chart. This chart analyzes a person with four parameters. The first parameter is a parameter related to vitality, and indicates whether it is an outward type or an inward type. The second parameter is a parameter related to information collection, and indicates whether it is a real type or an intuitive type. The third parameter is a parameter related to decision, and indicates whether it is a thinking type or an emotional type. The fourth parameter is a parameter related to the lifestyle, and indicates whether it is a normative type or a flexible type. In FIG. 11, each parameter is classified into nine stages. The analysis unit 29 adjusts the value of each parameter.

図12は、図11のパラメータ調整の基礎となるキーワードおよびキーフレーズを規定したテーブルである。たとえば、分析部29は、対象ユーザの行動情報内の文字情報から、外向型であることを推測させるキーワードである「話す」、「喋る」、「付き合い」、「外出」、・・・をカウントし、そのカウント数に応じて、第1パラメータを現在値(初期値は「1」)から加算方向へ移動させる。同様に、分析部29は、対象ユーザの行動情報内の文字情報から、内向型であることを推測させるキーワードである「聞く」、「考える」、「集中」、「一人」、・・・をカウントし、そのカウント数に応じて、第1パラメータを現在値から減算方向へ移動させる。これらの処理を他のパラメータについても行う。   FIG. 12 is a table that defines keywords and key phrases that are the basis of parameter adjustment in FIG. For example, the analysis unit 29 counts keywords “speak”, “speak”, “associate”, “go out”,... Which are keywords that cause the user to be inferred from the character information in the behavior information of the target user. Then, the first parameter is moved from the current value (initial value is “1”) in the addition direction according to the count number. Similarly, the analysis unit 29 selects “listening”, “thinking”, “concentration”, “one person”,..., Which are keywords for inferring the introverted type from the character information in the behavior information of the target user. Counting is performed, and the first parameter is moved from the current value in the subtraction direction in accordance with the count number. These processes are also performed for other parameters.

パラメータを一単位移動させるために必要なキーワード数、分析対象とすべきデータの期間的範囲は設計者が任意に設定可能である。また、直近の傾向をより強く反映させるために重み付けしてもよい。たとえば、現在に近い文字情報から検出されたキーワードほど、大きな値(1を超える)として取り扱ってもよい。   The number of keywords required to move a parameter by one unit and the period range of data to be analyzed can be arbitrarily set by a designer. Further, weighting may be performed to reflect the latest tendency more strongly. For example, a keyword detected from character information close to the present may be handled as a larger value (greater than 1).

図10に戻る。サイト運営部24は、ネットワーク300上に人物に関する書込サイトを運営する。分析部29は、当該書込サイトに書き込まれたユーザに対する書込も参酌して、当該ユーザの人物分析を行う。すなわち、その書き込みからもキーワードまたはキーフレーズを抽出する。   Returning to FIG. The site management unit 24 operates a writing site related to a person on the network 300. The analysis unit 29 performs person analysis of the user in consideration of writing for the user written in the writing site. That is, a keyword or key phrase is extracted from the writing.

図13は、人物に関する書込サイトの具体例を説明するための図である。サイト運営部24は推論エンジン241を含む。上記ソーシャルネットワーキングサイト内の会員は、家族、友人、同僚などの人物評価を上記書込サイトに登録することができる。その際、原則的に投稿者は匿名で投稿する。なお、評価対象人物は正確に特定される必要があるため、評価対象人物を識別するための情報はできるだけ多く記述されることが好ましい。   FIG. 13 is a diagram for explaining a specific example of a writing site related to a person. The site management unit 24 includes an inference engine 241. Members in the social networking site can register personal evaluations of family members, friends, colleagues, etc. in the writing site. At that time, in principle, the contributor posts anonymously. Since the evaluation target person needs to be accurately specified, it is preferable that as much information as possible to identify the evaluation target person is described.

図13において、投稿A1〜A3には、野村一郎氏の定量評価、定性評価が書き込まれている。図13では説明を簡単化するため、投稿数を三つして描いていなが、投稿数が多いほど、より客観的で正確な他人からの評価が得られることが期待できる。推論エンジン241は、投稿された複数の書き込みを名寄せしたり、定量評価を平均化することにより、評価レポートB1を作成する。この評価レポートBは、本人および本人が閲覧を許可した閲覧権限者が閲覧可能である。   In FIG. 13, posts A1 to A3 are filled with the quantitative evaluation and qualitative evaluation by Ichiro Nomura. In order to simplify the explanation in FIG. 13, three posts are not drawn. However, as the number of posts increases, it can be expected that a more objective and accurate evaluation from others is obtained. The inference engine 241 creates an evaluation report B1 by assembling a plurality of posted postings or averaging quantitative evaluations. This evaluation report B can be browsed by the person himself or a person authorized to view the report.

なお、他人からの人物評価を受けたいユーザがそれを希望することを契機として、当該ユーザに対する人物評価の投稿が可能となる仕組みであってもよい。また、推論エンジン241により生成された評価レポートと近似する投稿を行ったユーザに特典が付与されてもよい。たとえば、評価レポートの定量評価の点数と、投稿内の定量評価の点数との差が、設定値未満の投稿を行ったユーザに対して特典を付与してもよい。当該特典として、上記ソーシャルネットワーキングサイト内で使用可能なポイントやアイテム、または有料サービスの一部減免などが挙げられる。   In addition, it may be a mechanism that allows a user who wants to receive a person evaluation from another person to post a person evaluation for the user when the user desires it. In addition, a privilege may be given to a user who has made a post that approximates the evaluation report generated by the inference engine 241. For example, a privilege may be given to a user who has made a posting in which the difference between the quantitative evaluation score of the evaluation report and the quantitative evaluation score in the post is less than the set value. Such benefits include points and items that can be used within the social networking site, or partial reduction or exemption of paid services.

図10に戻る。分析部29は、行動情報蓄積部12に蓄積された行動情報をもとに、ユーザの曜日単位または日付単位の行動パターンを特定し、行動パターン蓄積部18に蓄積する。図14は、曜日単位の行動パターンを記述した行動パターンテーブルの一例を示す図である。分析部29は、行動情報蓄積部12に蓄積された行動情報に含まれる文字情報をテキストマイニングすることにより、曜日単位で頻出する行動に関するキーワード、キーフレーズ、キーセンテンスを抽出する。分析部29は、抽出したキーワード、キーフレーズ、キーセンテンスのうち、設定回数を超えるキーワード、キーフレーズ、キーセンテンスを各曜日の行動パターンとして採用する。図14はこのようにして生成された行動パターンテーブルである。   Returning to FIG. Based on the behavior information accumulated in the behavior information accumulation unit 12, the analysis unit 29 identifies the behavior pattern of the user's day of the week or date unit and accumulates it in the behavior pattern accumulation unit 18. FIG. 14 is a diagram illustrating an example of an action pattern table describing action patterns in units of days of the week. The analysis unit 29 extracts keywords, key phrases, and key sentences related to actions that frequently appear on a day-of-week basis by text mining the character information included in the action information stored in the action information storage unit 12. The analysis unit 29 employs keywords, key phrases, and key sentences exceeding the set number of times among the extracted keywords, key phrases, and key sentences as action patterns for each day of the week. FIG. 14 is an action pattern table generated in this way.

図10に戻る。行動履歴生成部32は、行動情報蓄積部12に蓄積されたユーザの行動情報をもとに、ユーザの特定日の行動を集計して特定日の行動履歴を生成する。達成率算出部33は、行動履歴生成部32により生成された行動履歴と、特定日になすべき行動が記述されたToDoリストとを照合して、特定日になすべき行動の達成率を算出する。メッセージ生成部34は、達成率算出部33により算出された達成率が設定値に満たない場合、なすべき行動の実行を促すメッセージを生成する。   Returning to FIG. Based on the user behavior information accumulated in the behavior information accumulation unit 12, the behavior history generation unit 32 aggregates the behavior of the user on a specific day and generates a behavior history of the specific day. The achievement rate calculation unit 33 compares the behavior history generated by the behavior history generation unit 32 with the ToDo list describing the behavior to be performed on a specific day, and calculates the achievement rate of the behavior to be performed on the specific day. . When the achievement rate calculated by the achievement rate calculation unit 33 is less than the set value, the message generation unit 34 generates a message that prompts execution of an action to be taken.

図15は、特定日、ToDoリストおよび達成率の一例を示す図である。ToDoリストへの、なすべき行動の登録は基本的にユーザにより行われる。なお、初詣や年賀状投函など、習慣上のなすべき行動については、ToDoリストにデフォルトで設定されていてもよい。ユーザはその設定を削除、変更することができる。また、日付をずらすこともできる。達成率算出部33は、特定日の行動履歴から、当該なすべき行動の達成率を算出する。たとえば、過去四年間で一回しか、なすべき行動をしていない場合、達成率は25%となる。図15に示すテーブルは、ユーザはいつでも参照可能である。   FIG. 15 is a diagram illustrating an example of a specific date, a ToDo list, and an achievement rate. Registration of actions to be performed in the ToDo list is basically performed by the user. It should be noted that behaviors that should be customary, such as new year's greetings and New Year's card postings, may be set in the ToDo list by default. The user can delete or change the setting. You can also shift the date. The achievement rate calculation unit 33 calculates the achievement rate of the action to be taken from the action history of the specific day. For example, if an action has to be taken only once in the past four years, the achievement rate is 25%. The table shown in FIG. 15 can be referred to by the user at any time.

図16は、メッセージ生成部34により生成される、なすべき行動の実行を促すメッセージの一例を示す図である。このメッセージは、なすべき行動の達成率が設定値(たとえば、50%)に満たない場合、生成される。当該メッセージは、なすべき行動の日付到来より前(たとえば、前日、三日前または一週間前)に、ユーザに通知される。通知手段として、電子メール、ブログトップ画面への掲示などが挙げられる。   FIG. 16 is a diagram illustrating an example of a message that is generated by the message generation unit 34 and that prompts execution of an action to be performed. This message is generated when the achievement rate of the action to be taken is less than a set value (for example, 50%). The message is notified to the user before the date of the action to be taken (for example, the previous day, three days ago, or one week ago). Examples of notification means include e-mail and posting on a blog top screen.

図10に戻る。アバター動作制御部30は、仮想世界においてユーザのアバターに、当該ユーザの人物分析を反映させた自律動作をさせる。アバター動作制御部30は、既存の人工知能技術を用いて、当該アバターを自律動作させることができる。人工知能技術にはニューラルネットや遺伝アルゴリズムなど様々な手法が存在するが、以下では、比較的簡易なモデルを説明する。   Returning to FIG. The avatar operation control unit 30 causes the user's avatar to perform an autonomous operation reflecting the user's analysis in the virtual world. The avatar operation control unit 30 can autonomously operate the avatar using existing artificial intelligence technology. There are various methods of artificial intelligence technology such as neural networks and genetic algorithms, but a relatively simple model is described below.

図17(a)−(f)は、動作データ保持部16に構築されるデータ構造の一例を説明するための図である。この例では、アバターがなすべき行動を階層的に定義している。図17(a)に示すテーブルは、アバターの「行動」を「外出する」と「家にいる」に二分類している。図17(b)−(d)に示すテーブルは、図17(a)のテーブルで「外出する」が選択された場合に、その目的地、その移動手段、同伴者、・・・をそれぞれ選択するためのテーブルである。図17(e)に示すテーブルは、図17(b)に示すテーブルで「映画館」が選択された場合に、その映画のジャンルを選択するためのテーブルである。図17(f)に示すテーブルは、図17(a)に示すテーブルで「家にいる」が選択された場合に、家ですることを選択するためのテーブルである。   FIGS. 17A to 17F are diagrams for explaining an example of a data structure constructed in the operation data holding unit 16. In this example, actions to be performed by the avatar are hierarchically defined. The table shown in FIG. 17A divides the “action” of the avatar into “going out” and “at home”. The tables shown in FIGS. 17B to 17D select the destination, the moving means, the accompanying person,... When “go out” is selected in the table of FIG. It is a table to do. The table shown in FIG. 17E is a table for selecting the genre of the movie when “Movie Theater” is selected in the table shown in FIG. The table shown in FIG. 17F is a table for selecting being a house when “I am at home” is selected in the table shown in FIG.

図18は、アバター動作制御部30によるアバターの自律動作の基本処理を説明するためのフローチャートである。まず、アバター動作制御部30は人物分析パラメータで乱数の発生確率を重み付けする(S30)。原則的に、乱数は選択肢数の範囲内で整数が等確率で発生する。図17(a)に示したテーブルでは、選択肢数は「2」であり、「1」か「2」が等確率で発生する。ステップS30では、この発生確率を調整する。図14に示した人物評価パラメータを持つユーザの場合、活力に関する第1パラメータが1.4(すなわち、やや内向型である)であるため、「家にいる」の発生確率を1.4、「外出する」の発生確率を「0.6」に調整する。   FIG. 18 is a flowchart for explaining basic processing of an avatar autonomous operation by the avatar operation control unit 30. First, the avatar motion control unit 30 weights the probability of random number generation with the person analysis parameter (S30). In principle, random numbers are generated with equal probability within the range of the number of choices. In the table shown in FIG. 17A, the number of options is “2”, and “1” or “2” occurs with equal probability. In step S30, the occurrence probability is adjusted. In the case of the user having the person evaluation parameter shown in FIG. 14, the first parameter relating to vitality is 1.4 (that is, slightly introverted), so the occurrence probability of “at home” is 1.4, “ The occurrence probability of “going out” is adjusted to “0.6”.

アバター動作制御部30は発生確率の調整後、乱数を発生させる(S31)。そして、その乱数に応じたアバターの動作を決定する(S32)。この基本処理を繰り返し実行することにより、アバターの具体的な動作が決定される。   The avatar movement control unit 30 generates a random number after adjusting the occurrence probability (S31). And the operation | movement of the avatar according to the random number is determined (S32). By repeating this basic process, the specific operation of the avatar is determined.

図10に戻る。受付部31は、ユーザの設置型端末装置201または携帯端末装置202からネットワーク300を介して、当該ユーザのアバターに実行させる行動を指示するための命令(以下、行動命令という)を受け付ける。アバター動作制御部30は、ユーザの人物分析を反映させたプログラムおよび受付部31により受け付けられた行動命令に応じて、仮想世界においてユーザのアバターを動作させる。   Returning to FIG. The accepting unit 31 accepts a command (hereinafter referred to as a behavior command) for instructing an action to be executed by the user's avatar from the user's stationary terminal device 201 or the mobile terminal device 202 via the network 300. The avatar operation control unit 30 operates the user's avatar in the virtual world according to the program reflecting the user's person analysis and the action command received by the receiving unit 31.

図19は、行動命令を受け付けた場合の、アバター動作制御部30によるアバターの自律動作の基本処理を説明するためのフローチャートである。受付部31は、ユーザの設置型端末装置201または携帯端末装置202からネットワーク300を介して行動命令を受け付ける(S40)。アバター動作制御部30は、その行動命令に係る行動が動作データ保持部16内に存在するか否か探索する(S41)。   FIG. 19 is a flowchart for explaining basic processing of an avatar autonomous operation by the avatar operation control unit 30 when an action command is received. The receiving unit 31 receives an action command from the user's stationary terminal device 201 or the mobile terminal device 202 via the network 300 (S40). The avatar movement control unit 30 searches whether or not the action related to the action command exists in the movement data holding unit 16 (S41).

存在しない場合(S41のN)、その行動は実行不可である旨のメッセージを設置型端末装置201または携帯端末装置202に返信し、受付部31は別の行動命令を待つ(S40)。存在する場合(S41のY)、アバター動作制御部30は、受け付けた行動命令に応じた動作を確定させる(42)。たとえば、行動命令が「映画館へ行く」であれば、図17(b)に示したテーブルでは「映画館」が選択される。以下、これより下位の階層について、図18のステップS30〜ステップS32と同様の処理を行う(S43〜S45)。   If it does not exist (N in S41), a message indicating that the action cannot be executed is returned to the stationary terminal device 201 or the portable terminal device 202, and the receiving unit 31 waits for another action command (S40). When it exists (Y of S41), the avatar action control part 30 determines the action according to the received action command (42). For example, if the action command is “go to movie theater”, “movie theater” is selected in the table shown in FIG. Hereinafter, processing similar to Step S30 to Step S32 in FIG. 18 is performed for lower layers (S43 to S45).

なお、アバター動作制御部30は、このような乱数を用いた動作制御ではなく、図14に示したような行動パターンテーブルを用いてアバターの動作を決定してもよい。図14の例では、曜日を特定することにより、アバターに実行させるべき行動を決定することができる。   Note that the avatar motion control unit 30 may determine the motion of the avatar using an action pattern table as shown in FIG. 14 instead of motion control using such a random number. In the example of FIG. 14, by specifying the day of the week, the action to be executed by the avatar can be determined.

以上説明したように実施例2に係る行動情報記録装置100によれば、蓄積された自己の行動情報をもとに自己を分析することにより、客観的な自己分析を簡単に行うことができる。また、蓄積された行動情報の量が多くなるほど、より高精度な分析が可能となる。また、他人が投稿サイトに書き込んだ評価を閲覧することにより、他人からの評価を簡単に得ることができる。また、その他人からの書き込みを上記自己分析の基礎データとすることもでき、その場合、コンピュータによる分析と人間による分析が組み合わさったハイブリットな評価を得ることができる。   As described above, according to the behavior information recording apparatus 100 according to the second embodiment, objective self-analysis can be easily performed by analyzing the self based on the accumulated self-behavior information. Further, as the amount of accumulated behavior information increases, more accurate analysis can be performed. Also, by browsing the evaluations written by other people on the posting site, it is possible to easily obtain evaluations from other people. In addition, writing from other people can be used as basic data for the self-analysis, and in this case, a hybrid evaluation in which analysis by a computer and analysis by a human being are combined can be obtained.

また、自己の人物分析を反映させたアバターを自律動作させることにより、自分のキャラクターを客観的立場から観察することができ、娯楽として楽しむことができる。また、自己改革にもつなげることができる。   In addition, by autonomously operating an avatar that reflects his / her personal analysis, his / her character can be observed from an objective standpoint and can be enjoyed as entertainment. It can also lead to self-reform.

図20は、実施例2の変形例を説明するためのブロック図である。当該変形例では、アバター動作制御部30は会話ボット部310を含む。会話ボット部310は、会話文受付部311、会話文解析部312および会話文応答部313を含む。また、動作データ保持部16は会話データ保持部161を含む。会話データ保持部161は種々の会話データを保持する。この会話データは適宜、アップデートされることが好ましい。   FIG. 20 is a block diagram for explaining a modification of the second embodiment. In the modification, the avatar operation control unit 30 includes a conversation bot unit 310. The conversation bot unit 310 includes a conversation sentence reception unit 311, a conversation sentence analysis unit 312, and a conversation sentence response unit 313. The operation data holding unit 16 includes a conversation data holding unit 161. The conversation data holding unit 161 holds various conversation data. The conversation data is preferably updated as appropriate.

当該変形例では、アバター動作制御部30は、ユーザの不在後、仮想世界において当該ユーザのアバターに、当該ユーザの人物分析を反映させた自律動作をさせる。ここで、ユーザの不在には、死亡、失踪などの永続的な不在、および僻地への赴任、入院(会話ができない程度の症状)、収監などの比較的長期の不在が含まれる。   In the modification, the avatar operation control unit 30 causes the user's avatar to perform an autonomous operation reflecting the user's analysis in the virtual world after the absence of the user. Here, the absence of the user includes a permanent absence such as death and disappearance, and a relatively long absence such as assignment to a remote place, hospitalization (a symptom of an inability to talk), imprisonment, and the like.

アバター動作制御部30は、不在ユーザの人物分析を反映させたプログラムに応じて、当該ユーザのアバターと現実世界の別のユーザとのコミュニケーションを実現させる。すなわち、不在ユーザとのコミュニケーションを擬似的に実現される。当該コミュニケーションとして、主に会話を想定するが、表情の変化や仕草も含まれる。   The avatar operation control unit 30 realizes communication between the user's avatar and another user in the real world in accordance with a program reflecting the person analysis of the absent user. That is, communication with an absent user is realized in a pseudo manner. The communication mainly assumes conversation, but also includes facial expression changes and gestures.

アバター動作制御部30は、行動情報蓄積部12に蓄積されたユーザの不在前(死亡している場合、生前)の行動情報から当該ユーザの口癖または口調を抽出し、コミュニケーションにおける会話に反映させる。たとえば、当該行動情報に含まれる文字情報を形態素解析し、文章の語尾に付けられる、最頻する接尾語を抽出する。その接尾語の多くは方言に由来する。   The avatar movement control unit 30 extracts the user's moustache or tone from the behavior information before the user's absence (when dying, the lifetime) accumulated in the behavior information accumulation unit 12 and reflects it in the conversation in communication. For example, the morphological analysis is performed on the character information included in the action information, and the most frequent suffix added to the end of the sentence is extracted. Many of its suffixes come from dialects.

会話ボット部310は、不在ユーザの家族や友人などと、不在ユーザのアバターとの会話を擬似的に実現させる。会話ボットには、自然言語処理技術を用いて相手方の会話の意味を理解して応答する手法も研究されているが、以下では、比較的簡易なモデルを説明する。   The conversation bot unit 310 realizes a conversation between the absent user's family and friends and the absent user's avatar in a pseudo manner. For conversational bots, methods for understanding and responding to the meaning of the other party's conversation using natural language processing techniques have been studied, but in the following, a relatively simple model will be described.

会話文受付部311は、不在ユーザのアバターと会話したいユーザの設置型端末装置201または携帯端末装置202からネットワーク300を介して、会話文を受け付ける。受け付けた情報が音声情報の場合、文字情報に変換する。会話文解析部312は、受け付けた会話文内から一つ以上のキーワードまたはキーフレーズを抽出する。会話文解析部312は、そのキーワードまたはキーフレーズと最も関連付けが強い会話文を会話データ保持部161から抽出する。たとえば、「孫」、「生まれた」という二つのキーワードが抽出された場合、「本当によかった」という会話文が抽出される。これらキーワードと会話文との関連付けは既存技術を用いるため、その詳細な説明を省略する。会話文解析部312は、会話文を抽出した後、上記口調を用いて当該会話文をモディファイしたり、上記口癖を当該会話文に追加してもよい。会話文解析部312は、その会話文を文字情報または音声情報として、上記ユーザの設置型端末装置201または携帯端末装置202に返信する。   The conversation sentence receiving unit 311 receives a conversation sentence from the user's stationary terminal device 201 or the portable terminal device 202 who wants to talk with the avatar of the absent user via the network 300. When the received information is voice information, it is converted into character information. The conversation sentence analysis unit 312 extracts one or more keywords or key phrases from the accepted conversation sentence. The conversation sentence analysis unit 312 extracts the conversation sentence that is most strongly associated with the keyword or key phrase from the conversation data holding unit 161. For example, when two keywords “grandchild” and “born” are extracted, a conversation sentence “really good” is extracted. Since the existing technology is used for associating these keywords with conversational sentences, detailed description thereof is omitted. The conversation sentence analysis unit 312 may extract the conversation sentence and then modify the conversation sentence using the tone, or add the mustache to the conversation sentence. The conversation sentence analysis unit 312 returns the conversation sentence as character information or voice information to the user's stationary terminal device 201 or the portable terminal device 202.

図21は、現実世界のユーザと不在ユーザのアバターとの会話処理を説明するためのフローチャートである。会話文受付部311は、不在ユーザのアバターと会話したいユーザが設置型端末装置201または携帯端末装置202に入力した会話文を受け付ける(S50)。会話文解析部312は、受け付けた会話文内から一つ以上のキーワードまたはキーフレーズを検出する(S51)。会話文解析部312は、そのキーワードまたはキーフレーズと最もマッチング度が高い会話文を会話データ保持部161から抽出する(S52)。会話文解析部312は、抽出した会話文を上記ユーザの設置型端末装置201または携帯端末装置202に返信する(S53)。会話ボット部310は当該会話が終了したか否か判定し(S54)、終了していない間(S54のN)、ステップS50に遷移し、ステップS50〜S54の処理が繰り返し実行される。終了した場合(S54のY)、当該会話処理は終了する。   FIG. 21 is a flowchart for explaining a conversation process between a real-world user and an absent user's avatar. The conversation sentence receiving unit 311 receives a conversation sentence input to the stationary terminal device 201 or the portable terminal device 202 by a user who wants to talk to the absent user's avatar (S50). The conversation sentence analysis unit 312 detects one or more keywords or key phrases from the accepted conversation sentence (S51). The conversation sentence analysis unit 312 extracts the conversation sentence having the highest matching degree with the keyword or key phrase from the conversation data holding unit 161 (S52). The conversation sentence analysis unit 312 returns the extracted conversation sentence to the user's stationary terminal device 201 or the portable terminal device 202 (S53). The conversation bot unit 310 determines whether or not the conversation has ended (S54). If the conversation has not ended (N in S54), the process proceeds to step S50, and the processes in steps S50 to S54 are repeatedly executed. When it is finished (Y in S54), the conversation process is finished.

図20に戻る。分析部29は、行動情報蓄積部12に蓄積されたユーザの不在前の行動情報をもとに、ユーザの不在前の行動パターンを特定する。たとえば、図14に示したような行動パターンテーブルを生成する。アバター動作制御部30は、当該ユーザのアバターに当該ユーザの不在前の行動パターンを反映させた自律動作をさせる。   Returning to FIG. The analysis unit 29 identifies a behavior pattern before the user's absence based on the behavior information before the user's absence accumulated in the behavior information accumulation unit 12. For example, an action pattern table as shown in FIG. 14 is generated. The avatar operation control unit 30 causes the avatar of the user to perform an autonomous operation that reflects the behavior pattern before the user is absent.

以上説明したように実施例2の変形例に係る行動情報記録装置100によれば、不在後に自己の人格を反映させたアバターをネットワーク上の仮想世界に残すことにより、不在者が周囲の者に存在時の自分を印象強く残すことができる。また、家族や友人は不在者と擬似的なコミュニケーションをとることができる。   As described above, according to the behavior information recording apparatus 100 according to the modified example of the second embodiment, by leaving an avatar reflecting its personality in the virtual world on the network after the absence, You can leave a strong impression of yourself when you exist. In addition, family members and friends can communicate with absentees in a pseudo manner.

以上、本発明をいくつかの実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on some embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. By the way.

上述した実施例では、分析部29は主に、行動情報蓄積部12に蓄積された行動情報に含まれる文字情報をテキストマイニングして、人物分析を行なう手法を説明した。これに加えてまたはこれに代えて、行動情報蓄積部12に蓄積された画像情報の被写体から得られる心理学的分析を用いて、人物分析を行ってもよい。   In the embodiment described above, the analysis unit 29 has mainly described a technique for performing character analysis by text mining character information included in the behavior information accumulated in the behavior information accumulation unit 12. In addition to or instead of this, person analysis may be performed using psychological analysis obtained from the subject of the image information stored in the behavior information storage unit 12.

100 行動情報記録装置、 201 設置型端末装置、 202 携帯端末装置、 201A 設置型端末装置、 202A 携帯端末装置、 201B 設置型端末装置、 202B 携帯端末装置、 201C 設置型端末装置、 202C 携帯端末装置、 10 通信部、 11 管理者コンソール、 12 行動情報蓄積部、 13 地図データ保持部、 14 3Dオブジェクト保持部、 15 ウェブログデータ蓄積部、 16 動作データ保持部、 161 会話データ保持部、 17 人物分析蓄積部、 18 行動パターン蓄積部、 19 ToDoリスト保持部、 20 処理部、 21 収集部、 22 音声文字変換部、 23 行動情報生成部、 24 サイト運営部、 241 推論エンジン、 25 仮想世界構築部、 26 行動情報描画部、 27 行動再生部、 28 ウェブログコンテンツ生成部、 29 分析部、 30 アバター動作制御部、 310 会話ボット部、 311 会話文受付部、 312 会話文解析部、 313 会話文応答部、 31 受付部、 32 行動履歴生成部、 33 達成率算出部、 34 メッセージ生成部、 41 アンテナ、 42 無線通信部、 42a 通信部、 43 位置検出部、 44 撮影部、 45 外部入出力部、 46 文字入力部、 47 音声入力部、 48 表示部、 49 音声出力部、 50 時計部、 51 処理部、 52 記憶部、 300 ネットワーク、 500 行動情報記録システム。   DESCRIPTION OF SYMBOLS 100 Action information recording device, 201 Installation type terminal device, 202 Mobile terminal device, 201A Installation type terminal device, 202A Mobile terminal device, 201B Installation type terminal device, 202B Mobile terminal device, 201C Installation type terminal device, 202C Mobile terminal device, DESCRIPTION OF SYMBOLS 10 Communication part, 11 Administrator console, 12 Action information storage part, 13 Map data holding part, 14 3D object holding part, 15 Weblog data storage part, 16 Action data holding part, 161 Conversation data holding part, 17 Person analysis storage Unit, 18 behavior pattern storage unit, 19 ToDo list holding unit, 20 processing unit, 21 collection unit, 22 phonetic character conversion unit, 23 behavior information generation unit, 24 site management unit, 241 inference engine, 25 virtual world construction unit, 26 Behavior information drawing section 27 behavior reproducing unit, 28 web log content generating unit, 29 analyzing unit, 30 avatar operation control unit, 310 conversation bot unit, 311 conversation sentence receiving unit, 312 conversation sentence analyzing unit, 313 conversation sentence response unit, 31 receiving unit, 32 Action history generation unit, 33 achievement rate calculation unit, 34 message generation unit, 41 antenna, 42 wireless communication unit, 42a communication unit, 43 position detection unit, 44 shooting unit, 45 external input / output unit, 46 character input unit, 47 voice Input unit, 48 display unit, 49 audio output unit, 50 clock unit, 51 processing unit, 52 storage unit, 300 network, 500 action information recording system.

Claims (6)

ユーザが端末装置に入力した文字情報および音声情報の少なくとも一方を、ネットワークを介して収集する収集部と、
前記収集部により収集された情報から、前記ユーザの行動情報を生成する行動情報生成部と、
前記行動情報生成部により生成された行動情報を蓄積する蓄積部と、
前記蓄積部により蓄積された行動情報から、人物分析を行う分析部と、
ネットワーク上に仮想世界を構築する仮想世界構築部と、
前記仮想世界においてユーザのアバターに、当該ユーザの人物分析を反映させた自律動作をさせるアバター動作制御部と、
を備えることを特徴とする行動情報記録装置。
A collection unit that collects at least one of character information and voice information input to a terminal device by a user via a network;
From the information collected by the collection unit, a behavior information generation unit that generates the user behavior information,
An accumulation unit that accumulates the behavior information generated by the behavior information generation unit;
From the behavior information accumulated by the accumulation unit, an analysis unit that performs person analysis,
A virtual world building department that builds a virtual world on the network;
An avatar operation control unit for causing the user's avatar to perform an autonomous operation reflecting the user's analysis in the virtual world;
A behavior information recording apparatus comprising:
ネットワーク上に人物に関する書込サイトを運営するサイト運営部をさらに備え、
前記分析部は、前記書込サイトに書き込まれた前記ユーザに対する書込も参酌して、当該ユーザの人物分析を行うことを特徴とする請求項1に記載の行動情報記録装置。
A site management department that operates a writing site about people on the network,
The behavior information recording apparatus according to claim 1, wherein the analysis unit analyzes a person of the user in consideration of writing to the user written in the writing site.
前記ユーザの端末装置から、当該ユーザのアバターに実行させる行動を指示するための命令を受け付ける受付部をさらに備え、
前記アバター動作制御部は、前記ユーザの人物分析を反映させたプログラムおよび前記受付部により受け付けられた命令に応じて、前記仮想世界において前記ユーザのアバターを動作させることを特徴とする請求項1または2に記載の行動情報記録装置。
A reception unit that receives a command for instructing an action to be executed by the user's avatar from the user's terminal device;
The avatar movement control unit operates the user's avatar in the virtual world according to a program reflecting a user analysis of the user and a command received by the reception unit. 2. The behavior information recording device according to 2.
前記仮想世界構築部は、現実世界に対応する仮想世界をネットワーク上に構築することを特徴とする請求項1から3のいずれかに記載の行動情報記録装置。   The behavior information recording apparatus according to claim 1, wherein the virtual world construction unit constructs a virtual world corresponding to the real world on a network. 前記蓄積部に蓄積された前記ユーザの行動情報をもとに、前記ユーザの特定日の行動を集計して特定日の行動履歴を生成する行動履歴生成部と、
前記行動履歴と、前記特定日になすべき行動が記述されたリストとを照合して、前記特定日になすべき行動の達成率を算出する達成率算出部と、を備えることを特徴とする請求項1から4のいずれかに記載の行動情報記録装置。
Based on the user behavior information stored in the storage unit, an action history generation unit that aggregates the behavior of the user on a specific day and generates an action history on the specific day;
An achievement rate calculating unit that calculates an achievement rate of an action to be performed on the specific day by comparing the action history with a list in which an action to be performed on the specific day is described. Item 5. The behavior information recording device according to any one of Items 1 to 4.
前記達成率算出部により算出された達成率が設定値に満たない場合、前記なすべき行動の実行を促すメッセージを生成するメッセージ生成部と、をさらに備えることを特徴とする請求項5に記載の行動情報記録装置。   The message generation unit according to claim 5, further comprising: a message generation unit that generates a message that prompts execution of the action to be performed when the achievement rate calculated by the achievement rate calculation unit is less than a set value. Behavior information recording device.
JP2011030834A 2011-02-16 2011-02-16 Behavior information recording apparatus Withdrawn JP2012168863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011030834A JP2012168863A (en) 2011-02-16 2011-02-16 Behavior information recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011030834A JP2012168863A (en) 2011-02-16 2011-02-16 Behavior information recording apparatus

Publications (1)

Publication Number Publication Date
JP2012168863A true JP2012168863A (en) 2012-09-06

Family

ID=46972938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011030834A Withdrawn JP2012168863A (en) 2011-02-16 2011-02-16 Behavior information recording apparatus

Country Status (1)

Country Link
JP (1) JP2012168863A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199611A (en) * 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント Application control program, application control method, and application control device
JP5692444B1 (en) * 2014-05-22 2015-04-01 株式会社アルティ Entertainment providing apparatus for performing simulation of virtual world, entertainment providing method, program for entertainment providing apparatus
JP2018189726A (en) * 2017-04-28 2018-11-29 日本電信電話株式会社 Device, method, and program for processing information
JPWO2020075647A1 (en) * 2018-10-12 2021-02-15 株式会社豊崎会計事務所 Information processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199611A (en) * 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント Application control program, application control method, and application control device
JP5692444B1 (en) * 2014-05-22 2015-04-01 株式会社アルティ Entertainment providing apparatus for performing simulation of virtual world, entertainment providing method, program for entertainment providing apparatus
JP2018189726A (en) * 2017-04-28 2018-11-29 日本電信電話株式会社 Device, method, and program for processing information
JPWO2020075647A1 (en) * 2018-10-12 2021-02-15 株式会社豊崎会計事務所 Information processing device
JP7002085B2 (en) 2018-10-12 2022-01-20 株式会社豊崎会計事務所 Information processing equipment

Similar Documents

Publication Publication Date Title
US11449907B2 (en) Personalized contextual suggestion engine
KR102067278B1 (en) Method and server for recommending friends, and terminal thereof
US10891342B2 (en) Content data determination, transmission and storage for local devices
US8768693B2 (en) Automatic tag extraction from audio annotated photos
US10748121B2 (en) Enriching calendar events with additional relevant information
US8972498B2 (en) Mobile-based realtime location-sensitive social event engine
CN109643412A (en) Email is personalized
KR20170068379A (en) System and method for providing user customized content
CN102822826A (en) Creating and propagating annotated information
CN103650035A (en) Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context
CN101681462A (en) Method, apparatus, and computer program product for determining user status indicators
KR20150016786A (en) Device and sever for providing a subject of conversation and method for providing the same
CN113569037A (en) Message processing method and device and readable storage medium
CN104035995A (en) Method and device for generating group tags
CN102915493A (en) Information processing apparatus and method
KR20140027011A (en) Method and server for recommending friends, and terminal thereof
KR101133515B1 (en) Apparatus and Method for Managing Personal Life
JP2012168862A (en) Behavior information recording apparatus
US11227296B2 (en) Information processing system and information processing method
JP2012168863A (en) Behavior information recording apparatus
KR101905012B1 (en) Sns managed system for integrated management of social network services
JP2012168861A (en) Behavior information recording apparatus
EP3040915A1 (en) Method and apparatus for identifying trends
KR20240036715A (en) Evolution of topics in messaging systems
CN110291768A (en) Information processing unit, information processing method and information processing system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513