JP2005352923A - Device and method for storing information - Google Patents

Device and method for storing information Download PDF

Info

Publication number
JP2005352923A
JP2005352923A JP2004174762A JP2004174762A JP2005352923A JP 2005352923 A JP2005352923 A JP 2005352923A JP 2004174762 A JP2004174762 A JP 2004174762A JP 2004174762 A JP2004174762 A JP 2004174762A JP 2005352923 A JP2005352923 A JP 2005352923A
Authority
JP
Japan
Prior art keywords
information
annotation
input
user
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004174762A
Other languages
Japanese (ja)
Inventor
Shinako Matsuyama
科子 松山
Kenzo Akagiri
健三 赤桐
Koji Suginuma
浩司 杉沼
Nobuo Kato
伸雄 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004174762A priority Critical patent/JP2005352923A/en
Publication of JP2005352923A publication Critical patent/JP2005352923A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To store information which is extremely useful to an individual. <P>SOLUTION: An information storage device 1 is provided with an annotation button 44 indicating that information is characteristic for a user and then an annotation can be added to experience information for the user which is obtained from a GPS 41, a CCD 42, or a microphone 43. Once the annotation is added, an object as contents for presentation is generated from contents nearly at the time when the annotation is added. For example, when the user presses the annotation button 44 for an experience A, time information and GPS information are added as an annotation A to part of contents being acquired at the time. Thus, the annotation can be added to the experience information being recorded, and then experience information can be classified into user's categories and stored. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、情報蓄積装置及び情報蓄積方法に関し、特に、使用者が経験した事象に関連する情報と使用者が私的に必要とするアノテーションとを関連付けて記憶する情報蓄積装置及び情報蓄積方法に関する。   The present invention relates to an information storage device and an information storage method, and more particularly, to an information storage device and an information storage method for storing information related to an event experienced by a user and an annotation privately required by the user in association with each other. .

近年、いわゆるインターネットのようなネットワーク網の発達や、大容量記録媒体の普及等により、膨大な情報を提供したり入手したりできる環境が整備されつつある。また、これに伴って種々の情報提供サービスが提案されており、これら情報提供サービスでは、大量の情報を効率的・効果的に取り扱うために様々な工夫がされている。膨大な情報のなかから個人が個別に必要とする情報を如何に効率よく提供するかは、1つの重要な要素となっている。   2. Description of the Related Art In recent years, an environment in which a vast amount of information can be provided and obtained has been improved due to the development of a network such as the Internet and the spread of a large-capacity recording medium. Along with this, various information providing services have been proposed, and these information providing services have been devised in various ways to handle a large amount of information efficiently and effectively. One of the important factors is how to efficiently provide information that an individual needs from a vast amount of information.

一例として、情報を提供する側は、提供先である使用者個人の嗜好性を抽出することによって個人毎に特徴付けをし、これに合致した情報やサービスを提供する手法(提供する情報のパーソナライゼーション)を採っている。これは、例えばネットワーク上のサイトから物品を購入できるオンラインサービス等に採用されている。   As an example, the information providing side characterizes each individual by extracting the personal preference of the user who is the providing destination, and provides information and services that match this (a personal information provider). )). This is adopted for an online service or the like that can purchase goods from a site on a network, for example.

ネットワーク上で書籍を購入できるサービスでは、情報のパーソナライゼーションを導入することによって、ユーザがある書籍を購入したとき、購入した書籍の著者の作品一覧から推薦図書を提示する機能、このユーザと同一書籍を購入したほかのユーザ群が購入したほかの書籍を提示する機能、このユーザが役立つと思う情報を他のユーザへと知らせる機能等を実現している。また、情報提供を受ける側(情報を閲覧する側)は、使用者個人の嗜好に応じて動作環境や設定等がカスタマイゼーション(変更)できるようにしている。カスタマイゼーションのなかには、例えば、パーソナルコンピュータ、携帯型個人情報端末等の電子機器において、マウスの応答性を変更できたりウィンドウの配色やフォントを個人の好みに合わせて変更できたりする機能も含まれる。このように、情報のパーソナライゼーションやカスタマイゼーションを行うことで、情報を効率的かつ効果的に使用できるようにしたシステムは、既に知られている。   In a service that allows you to purchase books on the network, by introducing information personalization, when a user purchases a book, a function that presents a recommended book from the work list of the author of the purchased book, the same book as this user A function of presenting other books purchased by other user groups who purchased the product, a function of notifying other users of information that the user thinks useful, and the like are realized. In addition, the side receiving information (the side viewing information) can customize (change) the operating environment, settings, and the like according to individual user preferences. The customization includes, for example, a function of changing the responsiveness of the mouse and changing the color scheme and font of the window according to personal preference in an electronic device such as a personal computer or a portable personal information terminal. As described above, a system that can use information efficiently and effectively by performing personalization and customization of the information is already known.

また、パーソナライゼーションの発展型として、ネットワーク上におけるユーザの行動をリアルタイムでプロファイリングする技術や、ユーザの操作癖を学習してユーザ嗜好にあったGUIを提供する技術や、ユーザのリアクションを監視することによって、エージェントが推薦したコンテンツに対するユーザの嗜好性や反応を観測する技術等が考えられている。   Also, as an advanced form of personalization, technology that profiles user behavior on the network in real time, technology that provides user-preferred GUIs by learning user behavior, and monitoring user reactions Therefore, a technique for observing the user's preference and response to the content recommended by the agent is considered.

上述したように、現在では、提供者が情報やサービスを望むユーザに合った最適な情報を提供する、いわゆるプッシュ型の情報提供が可能になり、情報提供を受ける側にとっては、所望とする情報を容易に入手できるようになった。   As described above, it is now possible to provide so-called push-type information that provides optimal information suitable for a user who wants information or services, and for the information receiving side, desired information is provided. Can now be easily obtained.

しかし、提供情報を各個人にあわせるパーソナライゼーションを実現するためには、情報提供者は、紙面やサイト等のアンケートによって個人レベルの情報を収集したり、個々のユーザに対してユーザの行動履歴(上記書籍の例では購入履歴等)を収集したりすることが必要になる。   However, in order to realize personalization that matches the provided information to each individual, the information provider collects personal level information through questionnaires such as paper and websites, and the user's action history ( In the example of the book, it is necessary to collect purchase history and the like.

例えば、インターネットを用いた情報提供サービスのなかには、結婚式の挙式・披露宴会場、英会話教室、各種カルチャースクール等に関する料金情報、雰囲気、サービス内容等に関する情報を、既にこれらを利用したことがあるものからアンケート等によって収集し、収集結果を予め決定した規則にあてはめて、これにマッチングした情報、すなわち施設に関する情報や利用者からの体験情報を表示画面上に一緒に表示することにより、これから利用しようとするものに施設や提供会社を決定する際の判断材料を提供するサービスがある(例えば特許文献1参照)。   For example, some information services using the Internet have already used information on rates, atmosphere, service contents, etc. related to wedding ceremony / banquet halls, English conversation classes, various culture schools, etc. By using a questionnaire, etc. and applying the collected results to a predetermined rule, information that matches them, that is, information about the facility and experience information from the user will be displayed together on the display screen, so that it will be used in the future. There is a service that provides a judgment material for determining a facility or a provider to the one to be performed (for example, see Patent Document 1).

この情報提供サービスでは、情報を複数ユーザ間で利用できるようにする際、ユーザが体験データを公開する場合には体験レベルに応じて情報を提供して貰い、情報を検索するユーザが精度の高い情報又は所望の情報に近い情報を取得できるように、収集した各ユーザの体験データを視覚化することによって、多くの文字情報のなかから所望の情報を検索するための検索操作ステップを簡略化している。   In this information providing service, when the information is made available among a plurality of users, when the user publishes the experience data, the user can provide the information according to the experience level, and the user who searches for information has high accuracy. By visualizing the collected experience data of each user so that the information or information close to the desired information can be acquired, the search operation step for searching for the desired information from a lot of character information can be simplified. Yes.

この特許文献1に記載の技術では、既に挙式・披露宴会場を利用したことがあるユーザから収集する情報の多くは文字情報であり、提供されている文字情報のなかにユーザが重要視している情報内容が含まれているか否かを直ちに認識することは困難である。そのため、従来のシステムでは、ユーザは、本来必要としない文字情報も多数読まなくてはならず、ユーザは必要とする情報を探し出すことが困難な場合もあった。また、提供情報を各個人にあわせるパーソナライゼーション技術の多くは、情報提供者が技術を駆使してユーザの嗜好性モデルを抽出するものである。パーソナライゼーションすることにより、個々のユーザにあったサービスを提供することができるとはいえ、嗜好が類似した複数のユーザに対して同一の情報を提供用情報とするため、提供される情報に個々のユーザの細かな嗜好性を必ずしも反映させることができなかった。また、個人の行動に関わる情報(事象)が利用できないという問題があった。   In the technique described in Patent Document 1, much of the information collected from users who have already used the wedding / banquet hall is character information, and the user attaches importance to the provided character information. It is difficult to immediately recognize whether or not information content is included. Therefore, in the conventional system, the user has to read a lot of character information that is not originally required, and it may be difficult for the user to find the information that is required. In addition, many personalization technologies for matching provided information to each individual are information providers who use the technology to extract user preference models. Although personalized services can provide services that are tailored to individual users, the same information is provided for multiple users with similar preferences. It was not always possible to reflect the fine palatability of users. In addition, there is a problem that information (events) related to individual behavior cannot be used.

特開2003−16202号公報JP 2003-16202 A

本発明は、ユーザが経験した事象に関連する情報を蓄積し効率よく読み出しできるように管理することにより、ネットワークにてキーワード検索する手法よりも応答がよく、抽出される情報から所望の情報を選択する処理も効率的で、尚かつ個人にとって実益の高い情報が取り出せる情報蓄積装置及び情報蓄積方法を提供することを目的とする。   The present invention manages information related to events experienced by the user so that it can be stored and read efficiently, so that the response is better than the keyword search method in the network, and the desired information is selected from the extracted information. An object of the present invention is to provide an information storage device and an information storage method that can efficiently extract information that is highly effective for an individual.

上述した目的を達成するために、本発明に係る情報蓄積装置は、使用者が経験した事象に関連する経験情報を取得する情報取得手段と、情報取得手段によって取得された経験情報が蓄積される蓄積手段と、情報取得手段によって取得された経験情報に対する注釈となる注釈情報が入力される注釈情報入力手段と、注釈情報入力手段によって注釈情報が付加された経験情報を抽出して提示用コンテンツを生成する提示用コンテンツ生成手段と、生成された提示用コンテンツと注釈情報とを対応付けて提示用コンテンツリストとして記憶する提示用コンテンツリスト記憶手段と、情報取得手段にてある経験情報が取得されたとき注釈情報入力手段によって注釈情報が入力されると提示用コンテンツ生成手段に対して提示用コンテンツの生成を指示し生成された提示用コンテンツを注釈情報とともに提示用コンテンツリスト記憶手段に記憶する制御を行う提示用コンテンツリスト作成制御手段と、使用者によって検索条件が注釈情報として入力される検索入力手段と、使用者に検索結果を提示する情報提示手段と、検索入力手段にて入力された検索条件としての注釈情報に対応する経験情報を提示用コンテンツリスト記憶手段から抽出して情報提示手段に提示する検索制御手段とを備える。   In order to achieve the above-described object, an information storage device according to the present invention stores information acquisition means for acquiring experience information related to an event experienced by a user, and experience information acquired by the information acquisition means. Accumulation means, annotation information input means for inputting annotation information to be annotated with respect to the experience information acquired by the information acquisition means, and experience information to which the annotation information is added by the annotation information input means are extracted to present content for presentation The presentation content generation means to be generated, the presentation content list storage means for storing the generated presentation content and the annotation information in association with each other, and the experience information as the information acquisition means have been acquired. When the annotation information is input by the annotation information input means, the presentation content generation means is instructed to generate the presentation content Presentation content list creation control means for performing control for storing the generated presentation content together with annotation information in the presentation content list storage means, search input means for inputting search conditions as annotation information by the user, and user Information presenting means for presenting the search result to the user, and search control means for extracting the experience information corresponding to the annotation information as the search condition inputted by the search input means from the presentation content list storage means and presenting it to the information presenting means With.

これにより、本発明に係る情報蓄積装置は、使用者にとって特徴的な情報であることを示す注釈情報を取得されたユーザにとっての経験情報に対して付加できるようにし、この注釈情報を用いて蓄積されたコンテンツのなかから特定の情報を抽出する。ここで、注釈情報入力手段において入力される注釈情報としては、時刻情報、位置情報を使用する。提示用コンテンツは、時刻情報に基づいて、注釈情報が入力された時刻の前後期間を所定期間分抽出したものにする。取得中の経験情報に対して注釈情報を付加できるようにしたことにより、経験情報を使用者独自のカテゴリに分類して蓄積できる。   Thereby, the information storage device according to the present invention enables annotation information indicating characteristic information for the user to be added to the acquired experience information for the user, and stores the annotation information using the annotation information. Specific information is extracted from the content that has been recorded. Here, time information and position information are used as the annotation information input by the annotation information input means. The presentation content is obtained by extracting a period before and after the time when the annotation information is input based on the time information for a predetermined period. Since the annotation information can be added to the acquired experience information, the experience information can be classified and stored in a category unique to the user.

また、上述した目的を達成するために、本発明に係る情報蓄積方法は、使用者が経験した事象に関連する経験情報を取得する情報取得工程と、情報取得工程で取得された経験情報がメモリに蓄積される蓄積工程と、情報取得工程で取得された経験情報に対する注釈情報が入力される注釈情報入力工程と、注釈情報入力工程で注釈情報が付加された経験情報を抽出して提示用コンテンツを生成する提示用コンテンツ生成工程と、生成された提示用コンテンツと注釈情報とを対応付けて提示用コンテンツリストとして提示用コンテンツリストメモリに記憶する提示用コンテンツリスト記憶工程と、使用者によって検索条件が注釈情報として入力される検索入力工程と、検索入力工程で入力された検索条件としての注釈情報に対応する経験情報を提示用コンテンツリストメモリから抽出して使用者に提示する情報提示工程とを有する。   In order to achieve the above-described object, an information storage method according to the present invention includes an information acquisition step of acquiring experience information related to an event experienced by a user, and the experience information acquired in the information acquisition step is stored in a memory. Content for presentation, extracting the annotation information added in the annotation information input step, the annotation information input step in which the annotation information for the experience information acquired in the information acquisition step is input, and the content for presentation A presentation content generation step for generating the content, a presentation content list storage step for storing the generated presentation content and the annotation information in association with each other in the presentation content list memory, and a search condition by the user Search input process in which is input as annotation information and experience information corresponding to the annotation information as the search condition input in the search input process Extracted from use content list memory and an information presenting step of presenting to the user.

これにより、本発明に係る情報蓄積方法は、使用者にとって特徴的な情報であることを示す注釈情報を取得されたユーザにとっての経験情報に対して付加できるようにし、この注釈情報を用いて蓄積されたコンテンツのなかから特定の情報を抽出する。ここで、注釈情報入力工程で入力される注釈情報としては、時刻情報、位置情報を使用する。提示用コンテンツは、時刻情報に基づいて、注釈情報が入力された時刻の前後期間を所定期間分抽出したものにする。取得中の経験情報に対して注釈情報を付加できるようにしたことにより、経験情報を使用者独自のカテゴリに分類して蓄積できる。   Thus, the information storage method according to the present invention allows annotation information indicating characteristic information for the user to be added to the acquired experience information for the user, and stores using the annotation information. Specific information is extracted from the content that has been recorded. Here, time information and position information are used as the annotation information input in the annotation information input step. The presentation content is obtained by extracting a period before and after the time when the annotation information is input based on the time information for a predetermined period. Since the annotation information can be added to the acquired experience information, the experience information can be classified and stored in a category unique to the user.

本発明に係る情報蓄積装置によれば、ユーザが経験している事象を記録しているときに、注釈情報入力手段で入力することによって、そのときの体験をユーザなりのカテゴリ毎に分類して蓄積することができる。これにより、蓄積した情報をユーザに提示する場合には、インターネットの検索エンジンを使用してキーワード検索する手法を使用するよりも応答がよく、抽出される情報から所望の情報を選択する処理も効率的で尚かつ個人にとって実益の高い、個人の行動により密接に関わる情報が取り出せる。   According to the information storage device of the present invention, when an event that the user is experiencing is recorded, the experience at that time is classified by the user's category by inputting with the annotation information input means. Can be accumulated. As a result, when the accumulated information is presented to the user, the response is better than using a keyword search method using an Internet search engine, and the process of selecting desired information from the extracted information is also efficient. Information that is more relevant to the individual's behavior and is more profitable for the individual can be extracted.

本発明は、ユーザが経験した事象に関連する情報と、ユーザが必要とする情報とを後から利用できるように蓄積する仕組みを提案したものである。本発明の具体例として示す情報蓄積装置は、ユーザの周囲の情報を記録できるようになっており、例えば、周囲の情報のうちユーザが個人的に必要とする情報や特徴的な情報等があった場合に、この情報に対する注釈(アノテーション;annotation)を付加できるようにした。   The present invention proposes a mechanism for accumulating information related to an event experienced by a user and information required by the user so that the information can be used later. The information storage device shown as a specific example of the present invention can record information around the user. For example, the information storage device includes personal information necessary for the user and characteristic information. In this case, an annotation for this information can be added.

本具体例で示す注釈とは、ユーザにとって特徴的な情報であることを指し示す目印(以下、ポインタと記す。)であって、このポインタを“カテゴリ”として使用して、取得した情報を分類したり、ポインタを“検索条件”の1つとして使用して情報を検索することができる。   The annotation shown in this specific example is a mark (hereinafter referred to as a pointer) indicating that it is characteristic information for the user. This pointer is used as a “category” to classify the acquired information. Alternatively, information can be searched using the pointer as one of “search conditions”.

本発明の具体例では、ユーザがある「経験」をした日時や場所、またそのときの映像や音声といった情報は、ユーザが経験した事象に関連する経験情報と記し、経験した情報に対してユーザが付加する情報を注釈(アノテーション;annotation)と記す。以下では、経験情報に対してユーザが付加した注釈をアノテーションと記す。   In a specific example of the present invention, information such as the date and place where the user “experienced” and the video and audio at that time are described as experience information related to the event experienced by the user. The information added by is described as an annotation. Hereinafter, the annotation added by the user to the experience information is referred to as annotation.

本発明の一例として示す情報蓄積装置は、上述したアノテーションが付加された情報をユーザに提示することもできる。例えば、ユーザは、情報提示を望む場合にアノテーションを抽出するためのボタンとして設けるアノテーション入力ボタンを押せば、過去にアノテーションが付加されたコンテンツの一部分を取り出すことができる。以前に同じアノテーションを付加したことがある情報は、その日時、その場所等の情報が提示される。また、ユーザによって入力されたアノテーションに基づいて、アノテーションが付加された情報を優先的に提示することもできる。   The information storage device shown as an example of the present invention can also present information to which the above-described annotation is added to the user. For example, if the user presses an annotation input button provided as a button for extracting an annotation when information presentation is desired, a part of content to which an annotation has been added in the past can be taken out. Information such as the date / time and location of the information that has previously been added with the same annotation is presented. In addition, based on the annotation input by the user, the information with the annotation can be preferentially presented.

以下、本発明の具体例として示す情報蓄積装置1の概略を図1に示す。情報蓄積装置1は、情報を入力する情報登録フェーズのための情報登録部10と、これらの情報を蓄積する手段と、取得した情報を後に利用する情報利用フェーズのための情報利用部30とを備えている。   An outline of an information storage apparatus 1 shown as a specific example of the present invention is shown in FIG. The information storage device 1 includes an information registration unit 10 for an information registration phase for inputting information, means for storing these information, and an information use unit 30 for an information use phase for using the acquired information later. I have.

情報蓄積装置1は、情報登録部10として、経験した事象に関連する経験情報を取得するための情報取得部11と、ユーザが取得された経験情報に対して目印になるアノテーションを付加するとき入力に使用するアノテーション入力部12と、取得した情報を認識するデータ認識処理部13と、認識したデータを予め決められた定義にしたがって分類するデータ定義処理部14と、定義にしたがって分類されたデータを格納するデータ蓄積部15とを備えている。   The information storage device 1 is input as an information registration unit 10 when adding an information acquisition unit 11 for acquiring experience information related to an experienced event and an annotation that serves as a landmark for the acquired experience information. An annotation input unit 12 used for processing, a data recognition processing unit 13 for recognizing acquired information, a data definition processing unit 14 for classifying recognized data according to a predetermined definition, and data classified according to a definition And a data storage unit 15 to be stored.

情報取得部11は、ユーザ周囲の情報を取得する機能を備え、カメラ、マイク、GPS(Global Positioning System)用ユニット等、画像情報、音声情報、位置情報、日時等を取得できる取得部が含まれる。   The information acquisition unit 11 has a function of acquiring information around the user, and includes an acquisition unit that can acquire image information, audio information, position information, date and time, such as a camera, a microphone, and a GPS (Global Positioning System) unit. .

データ認識処理部13は、カメラ、マイク、GPS等にて取得した画像情報、音声情報、位置情報、日時等から特定の情報を抽出する処理を行っている。データ認識処理部13は、画像認識部16とテキスト処理部17と音声処理部18とを有しており、カメラから取得した画像データを画像認識部16及びテキスト処理部17にて画像認識処理及びテキスト認識処理し、特定の画像データ及びテキストデータを抽出する。マイクから取得した音声データであれば、音声認識部19にて音声を認識し、言語処理部20にて音声情報をテキストデータに変換し、キーワード抽出部21では変換されたテキストデータからキーワードを抽出する。   The data recognition processing unit 13 performs processing for extracting specific information from image information, audio information, position information, date and time, etc. acquired by a camera, a microphone, GPS, or the like. The data recognition processing unit 13 includes an image recognition unit 16, a text processing unit 17, and an audio processing unit 18. Image data acquired from the camera is subjected to image recognition processing and image processing by the image recognition unit 16 and the text processing unit 17. Text recognition processing is performed to extract specific image data and text data. If it is voice data acquired from a microphone, the voice recognition unit 19 recognizes the voice, the language processing unit 20 converts the voice information into text data, and the keyword extraction unit 21 extracts a keyword from the converted text data. To do.

データ認識処理部13にて抽出されたデータは、データ定義処理部14において、予め決められた定義にしたがって分類される。例えば、定義には、人物画像、この人物画像に関する家族、兄弟、配偶者、職場関係、友人、年齢層、居住域、国籍等の識別情報、画像データから判別される密集度(高い・低い)、画像データから判別される建物の種類(看板等によるサービス業の種別)、建物の名称(文字列)、日時、天候(晴、雨、曇り等)、気温(高・低)、湿度(高・低)、風(強・弱)、位置情報(緯度、経度、高度)、最寄駅、またユーザのみ理解できる通称名等があり、これら定義に基づいて、取得したデータが分類される。データ蓄積部15は、上述の定義に基づいて分類されたデータを格納している。   The data extracted by the data recognition processing unit 13 is classified by the data definition processing unit 14 according to a predetermined definition. For example, the definition includes a person image, family, brother, spouse, work relationship, friend, age group, residence area, nationality and other identification information related to this person image, and density determined from image data (high / low) , Type of building identified from image data (type of service industry by signboard, etc.), building name (character string), date and time, weather (clear, rainy, cloudy, etc.), temperature (high / low), humidity (high -Low), wind (strong / weak), location information (latitude, longitude, altitude), nearest station, common name that can be understood only by the user, etc., and the acquired data is classified based on these definitions. The data storage unit 15 stores data classified based on the above definition.

また、情報登録部10は、情報取得部11で取得されデータ蓄積部15に蓄積される情報に対して、ユーザの入力操作によってアノテーションが付加されたとき、記録される情報から提示用コンテンツを生成し、提示用コンテンツとアノテーションとを対応付けてアノテーションリストを作成するデータ処理部22と、データ処理部22で作成された提示用コンテンツ及びアノテーションリストが記憶されるリスト記憶部23とを備えている。   The information registration unit 10 generates presentation content from recorded information when an annotation is added to the information acquired by the information acquisition unit 11 and stored in the data storage unit 15 by a user input operation. And a data processing unit 22 that creates an annotation list by associating the presentation content and the annotation, and a list storage unit 23 that stores the presentation content and the annotation list created by the data processing unit 22. .

続いて、上述の情報登録部10にて登録されたユーザによるアノテーションを情報利用部30において利用する場合について説明する。   Next, the case where the user's annotation registered in the information registration unit 10 is used in the information use unit 30 will be described.

情報蓄積装置1は、情報利用部30として、現在の状態を取得する情報取得部31と、検索条件が入力される検索入力部32と、取得した情報を認識するデータ認識処理部33と、データ蓄積部15から検索条件に適合した情報又は類似した情報を抽出する検索部34と、抽出された情報をユーザに提示する情報提示部35とを備えている。   The information storage device 1 includes an information acquisition unit 31 that acquires a current state, a search input unit 32 that receives a search condition, a data recognition processing unit 33 that recognizes the acquired information, and data A search unit 34 that extracts information suitable for the search condition or similar information from the storage unit 15 and an information presentation unit 35 that presents the extracted information to the user are provided.

情報取得部31及びデータ認識処理部33は、情報登録フェーズと同様の方法で現在地の位置情報やそのほかの情報を取得して認識する。検索入力部32には、ユーザによって検索条件が入力される。入力方法としては、音声入力、テキスト入力、画像入力等があげられる。検索入力部32にて音声として入力されれば、データ認識処理部33は、音声から時間、場所、人に関するキーワードを抽出し、検索入力部32にテキストデータが入力されれば、データ認識処理部33は、テキストからキーワードを抽出し、検索入力部32に画像データが入力されれば、データ認識処理部33は、画像からキーワードを抽出する。また、スケジュール管理ソフトに記録されたデータを使用することもできる。   The information acquisition unit 31 and the data recognition processing unit 33 acquire and recognize the current location information and other information by the same method as in the information registration phase. Search conditions are input to the search input unit 32 by the user. Examples of input methods include voice input, text input, and image input. If it is input as speech by the search input unit 32, the data recognition processing unit 33 extracts keywords related to time, place, and person from the speech, and if text data is input to the search input unit 32, the data recognition processing unit 33 extracts a keyword from the text, and if image data is input to the search input unit 32, the data recognition processing unit 33 extracts the keyword from the image. Data recorded in the schedule management software can also be used.

検索部34は、データ蓄積部15から検索条件に類似した情報を抽出する提示データ推論部37と、データ蓄積部15から検索条件に適合した情報を抽出する提示データ検索部38とを備えている。データ蓄積部15から情報を検索する際には、リスト記憶部23に記憶されたアノテーションリストを参照して提示するコンテンツの優先度を決めている。検索部34によって抽出された、テキストデータ、音声案内、画像表示、またこれらの組み合わせからなる提示用コンテンツが情報提示部35によってユーザに提示される。   The search unit 34 includes a presentation data reasoning unit 37 that extracts information similar to the search condition from the data storage unit 15, and a presentation data search unit 38 that extracts information that matches the search condition from the data storage unit 15. . When retrieving information from the data storage unit 15, the priority of the content to be presented is determined by referring to the annotation list stored in the list storage unit 23. Content for presentation consisting of text data, voice guidance, image display, or a combination thereof extracted by the search unit 34 is presented to the user by the information presentation unit 35.

この情報蓄積装置1によれば、ユーザが経験した事象に対して、その経験の特徴に応じてユーザがアノテーションを付加して蓄積することができる。また、この装置のデータ蓄積部15を検索して得られる情報は、ユーザが一旦経験した情報であるため、インターネットのようなネットワークにてキーワード検索する手法に比べ効率的でかつ実益の高い情報を取り出すことができる。   According to the information storage device 1, an event that the user has experienced can be accumulated by the user adding annotations according to the characteristics of the experience. In addition, since the information obtained by searching the data storage unit 15 of this device is information that the user has experienced once, information that is more efficient and more profitable than a keyword search method using a network such as the Internet. It can be taken out.

本発明の特徴は、この情報蓄積装置1にて管理された情報を利用するのが登録した本人である点である。そのため、上述した情報蓄積装置1を使用したシステムでは、ユーザが経験によって得た情報、またこの経験情報のポインタとなるアノテーションは、例えば、食事をしたときに付けられるアノテーション、タバコを吸ったときに付けられるアノテーション、といったように明確に決める必要はない。単に経験情報に付加されるフラグでよい。例えば、このフラグによって抽出された情報のもつ意味や情報のカテゴリは、ユーザがみれば容易に判るからである。   A feature of the present invention is that the registered person uses the information managed by the information storage device 1. Therefore, in the system using the information storage device 1 described above, the information obtained by the user through experience, and the annotation that becomes the pointer of this experience information are, for example, the annotation that is attached when eating, or when smoking a cigarette There is no need to decide clearly, such as annotations to be attached. It may simply be a flag added to the experience information. For example, the meaning and category of information extracted by the flag can be easily understood by the user.

経験した事象に関連する情報の取得は、上述した例のように、カメラ、マイク、GPS等によって可能な限り自動的に取得されることが好ましい。本発明に係る情報蓄積装置1が必要とされるのは、ユーザが経験したあらゆる事象に対して意識的に「メモ書き」、「覚え書き」を残すことが現実的には困難であって、重要な情報を記録する機会を逃してしまうことがあり再び同様の状況になっても前回の経験を想起し、これを今回の経験に生かすことが難しいことがある、という実情があるからである。   Acquisition of information related to an experienced event is preferably acquired automatically as much as possible using a camera, a microphone, a GPS, or the like, as in the example described above. The information storage device 1 according to the present invention is required because it is actually difficult to consciously leave “memo writing” and “memorandum” for every event experienced by the user. This is because there is a situation that it is sometimes difficult to record the previous experience and to make use of this experience in the current experience even if the situation becomes similar again.

アノテーションリストの作成処理又は更新処理が行われる局面としては、次の場合があげられる。例えば、(1)情報登録フェーズにて取得した経験情報としてのコンテンツに対してアノテーションが付加されたとき提示用コンテンツを作成する処理と、(2)アノテーションリストにあげられた提示用コンテンツをユーザに提示する処理とがあげられる。ここでは、特にデータベース53に格納された情報のうち、“時刻情報”と、“位置情報”に対してアノテーションリストを作成する場合について示す。   The following are examples of situations in which an annotation list creation process or update process is performed. For example, (1) processing for creating presentation content when annotation is added to content as experience information acquired in the information registration phase; and (2) presentation content listed in the annotation list to the user. And processing to present. Here, a case where an annotation list is created for “time information” and “position information” among the information stored in the database 53 will be described.

(1)情報登録フェーズにて取得した経験情報としてのコンテンツに対してアノテーションが付加されたとき提示用コンテンツを作成する処理
以下、本発明の具体例として示す情報蓄積装置1について図2及び図3を用いて詳細に説明する。
(1) Processing for Creating Presentation Content When Annotation is Added to Content as Experience Information Acquired in the Information Registration Phase Hereinafter, the information storage device 1 shown as a specific example of the present invention will be described with reference to FIGS. Will be described in detail.

図2は、情報蓄積装置1を用いて行われる情報登録フェーズと情報利用フェーズとを分けて表した図であり、図3は、情報蓄積装置1の具体的な構成を示したものである。図2は、“ユーザがレストラン(店舗)で食事をする”という経験情報を記録する場合について説明している。図2において、情報登録フェーズは、レストランで食事をしたときの周囲の情報及びこのときユーザが特徴付けて記録したい情報があって、ここで経験した事象に対する情報の特徴部分に目印としてのアノテーションを付加する場面である。また、情報利用フェーズは、別の機会に過去の経験にアノテーションを付加した情報を検索する場面である。   FIG. 2 is a diagram showing an information registration phase and an information use phase performed using the information storage device 1 separately, and FIG. 3 shows a specific configuration of the information storage device 1. FIG. 2 illustrates a case where experience information “a user eats at a restaurant (store)” is recorded. In FIG. 2, in the information registration phase, there is surrounding information when eating at a restaurant and information that the user wants to characterize and record at this time, and an annotation as a mark is added to the characteristic part of the information for the event experienced here. It is a scene to add. The information use phase is a scene in which information obtained by adding annotations to past experiences is retrieved at another opportunity.

ユーザがある事象を経験するとき、常に情報蓄積装置1を所持していることが重要である。そのため、本具体例では情報蓄積装置1は、携帯可能なタイプになっている。また、情報蓄積装置自体は携帯型であっても、例えば、家庭用の据置型PC100又はサーバ装置に相当する機器と接続可能になっていて、取得した情報を据置型PC100又はサーバ装置に蓄積できる構成になっていれば好ましい。この場合、情報蓄積装置1のデータ蓄積部15として機能することができるデータ蓄積部を据置型PC100又はサーバ装置側に用意し、情報蓄積装置1との間で無線或いは有線通信インターフェイスを介して情報を送受信できるようにする。   When a user experiences an event, it is important to always have the information storage device 1. Therefore, in this specific example, the information storage device 1 is a portable type. Further, even if the information storage device itself is portable, for example, it can be connected to a device equivalent to a home stationary PC 100 or server device, and the acquired information can be stored in the stationary PC 100 or server device. A configuration is preferable. In this case, a data storage unit that can function as the data storage unit 15 of the information storage device 1 is prepared on the stationary PC 100 or the server device side, and information is exchanged with the information storage device 1 via a wireless or wired communication interface. Can be sent and received.

情報蓄積装置1は、図3に示すように、位置情報を取得するGPSユニット41、ユーザの周囲の情報を取得するCCD(Charge Coupled Device)42及びマイク43を備えている。これらは、図1に示した情報登録フェーズのための情報取得部11と情報利用フェーズのための情報取得部31とを兼ねている。情報蓄積装置1は、ユーザによる操作なくして自動的に画像データ、音声データを取得することができる、CCD42及びマイク43は、所定間隔若しくはユーザ周囲の環境の変化等をトリガとしてデータを取得し、データモデルに基づいて格納形式データを生成し、このデータを後述するデータベース53に格納している。例えば、突然大きな音を検出したとき、後述のキーワード抽出部51にて指定されたキーワードが検出されたときなどをデータベース作成のためのトリガとする。本具体例の説明では、このように情報取得部11にて取得されるユーザの経験に関するユーザ周囲の情報を必要に応じて経験情報と記す。   As shown in FIG. 3, the information storage device 1 includes a GPS unit 41 that acquires position information, a CCD (Charge Coupled Device) 42 that acquires information around the user, and a microphone 43. These also serve as the information acquisition unit 11 for the information registration phase and the information acquisition unit 31 for the information use phase shown in FIG. The information storage device 1 can automatically acquire image data and audio data without any user operation. The CCD 42 and the microphone 43 acquire data triggered by a change in the environment around the predetermined interval or the user, Storage format data is generated based on the data model, and this data is stored in a database 53 to be described later. For example, when a sudden loud sound is detected or a keyword specified by the keyword extraction unit 51 described later is detected, the trigger for database creation is used. In the description of this specific example, information about the user's experience acquired by the information acquisition unit 11 in this way is referred to as experience information as necessary.

また、情報蓄積装置1は、蓄積した情報に対してユーザがアノテーションを付加するための入力操作が行われるアノテーション入力部12としてのアノテーションボタン44と、情報利用フェーズにおける検索入力やこの装置の操作入力を行う操作入力部45とを備えている。アノテーションが付加される対象となるコンテンツは、情報取得部11で取得されるコンテンツである。図3で示すマイク43で取得された音声データ、CCD42で取得した画像データ等があげられる。また、アノテーションボタン44が押されたときのGPS情報も同時に付加する。   The information storage device 1 also includes an annotation button 44 as an annotation input unit 12 for performing an input operation for a user to add an annotation to the stored information, a search input in the information use phase, and an operation input of this device. An operation input unit 45 is provided. The content to which the annotation is added is content acquired by the information acquisition unit 11. Examples include audio data acquired by the microphone 43 shown in FIG. 3, image data acquired by the CCD 42, and the like. Also, GPS information when the annotation button 44 is pressed is added at the same time.

操作入力部45は、検索モードか記録モードかの選択、更に自動検索モードか手動検索モードかの選択が行われる。操作入力部45は、表示部としてのLCD54と組み合わせたタッチパネル方式の入力部であってもよいし、LCD54に表示されるGUIを選択する方式であってもよい。   The operation input unit 45 selects a search mode or a recording mode, and further selects an automatic search mode or a manual search mode. The operation input unit 45 may be a touch panel type input unit combined with an LCD 54 as a display unit, or may be a method of selecting a GUI displayed on the LCD 54.

なお、情報蓄積装置1は、情報取得部11に対応する構成として上述した構成のほかに気温、湿度、天気等の天候情報を取得する構成を備えていてもよい。これら位置情報や天候情報を取得する手法としては、例えば、既に携帯電話にて実現されているような、基地局から定期的に送信される基地局情報に加えて位置情報や天候情報等を定期配信する手法があげられる。また、情報蓄積装置1に簡易的な温度センサ、湿度センサを設けてもよい。   Note that the information storage device 1 may include a configuration for acquiring weather information such as temperature, humidity, and weather in addition to the configuration described above as a configuration corresponding to the information acquisition unit 11. As a method for acquiring the position information and the weather information, for example, in addition to the base station information periodically transmitted from the base station, which is already realized by a mobile phone, the position information and the weather information are periodically transmitted. There is a method of distribution. The information storage device 1 may be provided with a simple temperature sensor and humidity sensor.

情報蓄積装置1は、取得した画像データ、文章データ、音声データを認識する画像認識部46と文章認識部47と音声認識部48とを備える。画像認識部46は、CCD42から取得した画像データに対して画像認識処理を実行し、例えば、人物の顔部分を認識して抽出する処理を行う。また、文章認識部47は、CCD42から取得した画像データに対してテキスト認識処理を実行し、例えば、看板等の文字のように画像のなかにある文字列や記号を認識して建物や標識の名称をテキストデータとして抽出する処理を行う。音声認識部48は、音声認識処理部49と言語処理部50とキーワード抽出部51とを有し、マイク43から取得した音声データを音声認識処理部40にて音声認識処理し、言語処理部50にて音声情報をテキストデータに変換し、キーワード抽出部51では、変換されたテキストデータからキーワードを抽出する。   The information storage device 1 includes an image recognition unit 46, a text recognition unit 47, and a voice recognition unit 48 that recognize the acquired image data, text data, and voice data. The image recognition unit 46 performs image recognition processing on the image data acquired from the CCD 42, for example, performs processing for recognizing and extracting a human face portion. In addition, the text recognition unit 47 performs text recognition processing on the image data acquired from the CCD 42, and recognizes a character string or a symbol in the image like a character such as a signboard to recognize a building or a sign. A process of extracting the name as text data is performed. The voice recognition unit 48 includes a voice recognition processing unit 49, a language processing unit 50, and a keyword extraction unit 51. The voice recognition processing unit 40 performs voice recognition processing on the voice data acquired from the microphone 43, and the language processing unit 50. The voice information is converted into text data at, and the keyword extraction unit 51 extracts keywords from the converted text data.

また、情報蓄積装置1は、画像認識部46、文章認識部47、音声認識部48から抽出されたデータを定義付けするデータ定義処理部52を備えている。データ定義処理部52は、情報登録フェーズのためのデータ定義処理部14及び情報利用フェーズのための検索部34に相当し、抽出されたデータを予め決められた定義にしたがって分類する或いは検索条件に応じてデータベース53から情報を検索する。   The information storage device 1 also includes a data definition processing unit 52 that defines data extracted from the image recognition unit 46, the text recognition unit 47, and the voice recognition unit 48. The data definition processing unit 52 corresponds to the data definition processing unit 14 for the information registration phase and the search unit 34 for the information use phase. The data definition processing unit 52 classifies the extracted data according to a predetermined definition or sets it as a search condition. In response, information is retrieved from the database 53.

例えば、情報蓄積装置1には、画像データとこの画像データに対する情報が記述されたテキストデータがデータベース53に登録されている。例えば、人物の顔の画像データに対して友人の名前、住所、連絡先、年齢等が対応付けて記憶されている。また、更にこの人物に関連した家族、兄弟、配偶者、職場関係者、友人等の情報があればあわせ記憶されている。画像認識部46、文章認識部47、音声認識部48にて抽出された画像データ、テキストデータ、及び音声データから判別される人物、建物の種類、建物の名称(文字列)等がデータベース53に格納されたデータと比較して分類され新規データとして蓄積される。また、定義には、上述した位置情報(緯度、経度、高度)、日時データ、天候情報(晴、雨、曇り等)、気温(高・低)、湿度(高・低)、風(強・弱)、最寄駅、またユーザのみ理解できる通称名、評価値、評価の対象(立地条件、店員の評価、商品の評価、店の雰囲気、値段設定、料理の提供時間、その他の条件等)等があり、取得された情報は、これら定義に基づいて分類される。   For example, in the information storage device 1, image data and text data describing information on the image data are registered in the database 53. For example, a friend's name, address, contact information, age, and the like are stored in association with image data of a person's face. In addition, if there is information on the person, such as family, brother, spouse, work-related person, friend, etc., they are stored together. A person, type of building, name of building (character string), and the like determined from the image data, text data, and voice data extracted by the image recognition unit 46, the text recognition unit 47, and the voice recognition unit 48 are stored in the database 53. Compared with the stored data, it is classified and accumulated as new data. The definition includes the position information (latitude, longitude, altitude), date / time data, weather information (sunny, rainy, cloudy, etc.), temperature (high / low), humidity (high / low), wind (strong / high). Weak), nearest station, popular name that can be understood only by the user, evaluation value, evaluation target (location conditions, evaluation of store clerk, evaluation of products, store atmosphere, pricing, serving time, other conditions, etc.) The acquired information is classified based on these definitions.

取得後、定義付けされたデータは、データモデルに応じてモデル変換され、データベース管理システム(DBMS)を用いてデータベース53に格納される。モデル変換の例としては、例えば、表形式で各データを定義しDBMSとしてリレーショナルデータベース(RDB)を用いて管理する手法や、各データをRDFs・OWLを用いて分類しDBMSとしてRDFDB或いはXMLDBを用いて管理する手法がある。データベース53に格納されたユーザが経験した事象に関する情報及びアノテーションが付加されて生成された提示用コンテンツは、後々ユーザの意図で編集できてもよい。   After acquisition, the defined data is model-converted according to the data model and stored in the database 53 using a database management system (DBMS). Examples of model conversion include, for example, a method of defining each data in a tabular format and managing it using a relational database (RDB) as a DBMS, or classifying each data using RDFs / OWL and using RDFDB or XMLDB as the DBMS There is a method to manage. The presentation content generated by adding information and annotations related to the events experienced by the user stored in the database 53 may be edited later by the user's intention.

このほかに情報蓄積装置1は、ユーザに対して情報を提示するための構成として、表示部としてのLCD54、表示用デバイス55、スピーカ56、音声出力デバイス57とを備えている。   In addition, the information storage device 1 includes an LCD 54 as a display unit, a display device 55, a speaker 56, and an audio output device 57 as a configuration for presenting information to the user.

情報蓄積装置1は、アノテーションリスト及び提示用コンテンツを作成するためのデータ処理部59を備えている。データ処理部59は、ユーザによって入力されたアノテーションで指定された情報の一部を抽出し提示用コンテンツを作成し、作成した提示用コンテンツとアノテーションとを関連づけしてアノテーションリストを作成する。また、データ処理部59は、検索部34として機能している。データ処理部59は、取得される位置情報及び時刻情報からアノテーションが付加された提示用コンテンツを自動的に抽出する処理、ユーザが検索を希望するアノテーションが入力された場合に検索条件に適合した類似した提示用コンテンツを抽出する処理、アノテーションリスト及び提示用コンテンツを編集する処理等を実行する。   The information storage device 1 includes a data processing unit 59 for creating an annotation list and presentation content. The data processing unit 59 extracts part of the information specified by the annotation input by the user to create a presentation content, and creates an annotation list by associating the created presentation content with the annotation. Further, the data processing unit 59 functions as the search unit 34. The data processing unit 59 automatically extracts presentation content with annotations added from the acquired position information and time information, and is similar to the search conditions when an annotation that the user wants to search is input. A process for extracting the presented content, a process for editing the annotation list and the presented content, and the like are executed.

データ処理部59は、ユーザに対して“発生した経験”に伴って取得され、データベース53に記録される経験情報としてのコンテンツのうち、アノテーションが入力された時刻の前後の情報を含めてユーザに対して提示するための提示用コンテンツを作成する。そして、アノテーションと提示用コンテンツとを関連付けたアノテーションリストを作成する。データ処理部59にて作成されたアノテーションリストは、アノテーションリスト記憶部60に格納される。また、データ処理部59によって作成された提示用コンテンツは、提示用コンテンツリスト61に登録される。   The data processing unit 59 acquires the user with the “experience that has occurred” and records the information as experience information recorded in the database 53 to the user including information before and after the time when the annotation is input. A presentation content to be presented is created. Then, an annotation list in which the annotation and the presentation content are associated is created. The annotation list created by the data processing unit 59 is stored in the annotation list storage unit 60. The presentation content created by the data processing unit 59 is registered in the presentation content list 61.

以上説明した各構成は、CPU、処理プログラム等が格納されたROM及びCPUの作業領域としてのRAMを備える制御部58によって統括制御されている。   Each configuration described above is centrally controlled by the control unit 58 including a CPU, a ROM storing processing programs, and a RAM as a work area of the CPU.

続いて、図4乃至図6を用いてアノテーションボタン44について説明する。図4に示すように、情報蓄積装置1は、側面若しくは正面にアノテーションボタン44を備えている。アノテーションボタン44は、複数のアノテーションを区別して指定できるよう複数個設けられていてもよい。また、ユーザの操作性を考慮して、同一のアノテーションを入力するためのボタンが複数箇所に設けられてもよい。アノテーションボタン44の設置位置は、図4に示したタイプに限定されることはなく、例えば、情報蓄積装置1の背面などでもよい。情報蓄積装置1のサイズがある程度大きくなる場合には、アノテーション入力部を情報蓄積装置1の本体部から分離し、ボタンと表示部とを備えた独立した入力装置として提供することもできる。この場合、本体装置との間は無線通信等により通信可能とする。   Next, the annotation button 44 will be described with reference to FIGS. As shown in FIG. 4, the information storage device 1 includes an annotation button 44 on the side or front. A plurality of annotation buttons 44 may be provided so that a plurality of annotations can be distinguished and designated. In consideration of user operability, buttons for inputting the same annotation may be provided at a plurality of locations. The installation position of the annotation button 44 is not limited to the type shown in FIG. 4, and may be the back surface of the information storage device 1, for example. When the size of the information storage device 1 increases to some extent, the annotation input unit can be separated from the main body of the information storage device 1 and provided as an independent input device including a button and a display unit. In this case, it is possible to communicate with the main body device by wireless communication or the like.

アノテーション入力部を独立させたタイプの入力装置を図5に示す。図5(a)〜図5(d)に示す独立型のアノテーション入力装置440は、アノテーションボタン44と簡単なテキストデータ等を表示可能な表示パネル441とを備えている。図5(a)、(b)に示すアノテーション入力装置440は、アノテーションボタン44を1つ備えたタイプである。アノテーションボタン44は、図5(a)のように表示パネル441と同一面に設けられていても、図5(b)のように表示パネル441に対して側面に設けられていてもよい。また、図5(c)、(d)に示すアノテーション入力装置440は、アノテーションボタン44を複数備えたタイプである。図5(c)のように表示パネル441と同一面に複数のアノテーションボタン44が設けられたタイプと、図5(d)のように表示パネル441に対して側面に設けられたタイプが示されている。   FIG. 5 shows an input device of a type in which the annotation input unit is made independent. The independent annotation input device 440 shown in FIGS. 5A to 5D includes an annotation button 44 and a display panel 441 capable of displaying simple text data and the like. An annotation input device 440 shown in FIGS. 5A and 5B is a type provided with one annotation button 44. The annotation button 44 may be provided on the same surface as the display panel 441 as shown in FIG. 5A or may be provided on the side surface with respect to the display panel 441 as shown in FIG. Also, the annotation input device 440 shown in FIGS. 5C and 5D is a type including a plurality of annotation buttons 44. A type in which a plurality of annotation buttons 44 are provided on the same surface as the display panel 441 as shown in FIG. 5C, and a type provided on the side surface with respect to the display panel 441 as shown in FIG. ing.

独立型のアノテーション入力装置440においてもアノテーションボタン44の設置位置は、図示したタイプに限定されることはない。ユーザの操作性を考慮した箇所に設ければよい。   Also in the independent annotation input device 440, the installation position of the annotation button 44 is not limited to the illustrated type. What is necessary is just to provide in the location which considered the operativity of the user.

図6に、アノテーション入力部を情報蓄積装置から独立させた独立タイプのアノテーション入力装置440の構成を示す。アノテーション入力装置440は、表示部としての液晶表示パネル(LCD;Liquid Crystal Display)441と、表示用デバイス442と、本体装置との間で通信するための通信インターフェイス443と、アノテーションボタン44と入力検出部444とからなるアノテーション入力部12とを備えている。アノテーションボタン44に対する入力の検出と本体装置との間の通信は、制御部445によって制御されている。   FIG. 6 shows a configuration of an independent type annotation input device 440 in which the annotation input unit is independent from the information storage device. The annotation input device 440 includes a liquid crystal display panel (LCD) 441 as a display unit, a display device 442, a communication interface 443 for communicating with the main device, an annotation button 44, and input detection. An annotation input unit 12 including a unit 444 is provided. Detection of input to the annotation button 44 and communication between the main body apparatus are controlled by the control unit 445.

ユーザは、上述したアノテーションボタン44を押下することによって、情報取得部11、31としての構成にて取得中のコンテンツのうち、ユーザにとって特に有益な情報に対してアノテーションを付加することができる。GPS41、CCD42、マイク43から取得された経験情報が後述するデータベース53に蓄積されるときにユーザによって付加されるアノテーションについて、図7を用いて説明する。   By pressing the annotation button 44 described above, the user can add an annotation to information that is particularly useful to the user among the contents being acquired in the configuration as the information acquisition units 11 and 31. The annotation added by the user when the experience information acquired from the GPS 41, the CCD 42, and the microphone 43 is accumulated in the database 53 described later will be described with reference to FIG.

アノテーションボタン44が1つ設けられ、アノテーションボタン44に1つのアノテーションが割り当てられた場合、このアノテーションボタン44によって付加されるアノテーションが図7(a)に示されている。図7(b)には、アノテーションボタン44が複数設けられ、個々のアノテーションボタン44に別々のアノテーションが割り当てられた場合、複数のアノテーションボタン44によって付加されるアノテーションが示されている。ユーザにとって特徴的な情報であること示すポインタとなるアノテーションには、時刻情報及び位置情報を使用する。すなわち、アノテーションが付加されると、取得中のコンテンツに、ユーザがアノテーションボタン44を操作した時刻情報とその位置情報が付加される。時刻情報は、例えば、2004年1月1日午前1時23分45秒であれば、“20040101012345”のように表される。位置情報及び時刻情報は、GPS衛星から送られる緯度及び経度が使用される。図における横軸は、取得したコンテンツの時間軸の正方向を表している。   When one annotation button 44 is provided and one annotation is assigned to the annotation button 44, an annotation added by the annotation button 44 is shown in FIG. FIG. 7B shows annotations added by a plurality of annotation buttons 44 when a plurality of annotation buttons 44 are provided and different annotations are assigned to the individual annotation buttons 44. Time information and position information are used as annotations that serve as pointers indicating characteristic information for the user. That is, when an annotation is added, time information when the user operates the annotation button 44 and its position information are added to the content being acquired. For example, if the time information is 1:23:45 AM on January 1, 2004, the time information is represented as “20040101012345”. As the position information and time information, latitude and longitude sent from a GPS satellite are used. The horizontal axis in the figure represents the positive direction of the time axis of the acquired content.

図7(a)に示すように、例えば、Aという経験に対して、ユーザがアノテーションボタン44を押したときには、そのとき取得中のコンテンツの一部に時刻情報及びGPS情報がアノテーションAとして付加される。アノテーションボタン44が複数個用意されている場合、図7(b)に示すように、アノテーションボタンが経験A、経験B、経験Cに対して割り当てられていて、ユーザがAという経験に対してアノテーションボタンAを押したときには、そのとき取得中のコンテンツの一部に時刻情報及びGPS情報がアノテーションAとして付加される。Bという経験に対しては、アノテーションBとしてそのときの時刻情報及びGPS情報が、またCという経験に対しては、アノテーションCとしてそのときの時刻情報及びGPS情報が付加される。   As shown in FIG. 7A, for example, when the user presses the annotation button 44 for the experience of A, time information and GPS information are added as annotation A to a part of the content being acquired at that time. The When a plurality of annotation buttons 44 are prepared, as shown in FIG. 7B, the annotation buttons are assigned to experience A, experience B, and experience C, and the user annotates the experience of A. When button A is pressed, time information and GPS information are added as annotation A to a part of the content being acquired at that time. For the experience of B, the time information and GPS information at that time are added as the annotation B, and for the experience of C, the time information and GPS information at that time are added as the annotation C.

データ処理部59がアノテーションが付加された情報を位置情報又は時刻情報に応じて統計的に自動的に整理してアノテーションの傾向を算出するようにしてもよい。これによりアノテーションを統計的にある集団で分類することができる。こうすると、1つのアノテーションボタンによって複数のアノテーションを入力することもできる。この手法では、入力されたアノテーションの数に応じて分類の精度が向上する。   The data processing unit 59 may calculate the annotation tendency by statistically automatically organizing the information with the annotation according to the position information or the time information. This makes it possible to classify annotations statistically into a certain group. In this way, a plurality of annotations can be input with one annotation button. In this method, the accuracy of classification is improved according to the number of input annotations.

記録したコンテンツにアノテーションを付加する処理の詳細は、後述する。このように、記録しているコンテンツにアノテーションを付加できるようにすれば、検索の際、アノテーションが付けられた情報は検索が容易になる。   Details of processing for adding annotations to recorded content will be described later. In this way, if an annotation can be added to the recorded content, the information with the annotation can be easily searched in the search.

ここでの説明に使用した経験とは、ユーザがアノテーションとして決めた行為、ユーザがアノテーションとして決めた情報などが含まれる。例えば、「気になっている音楽を聴いた」、「喫煙した」、「○○さんに会った」、「○○さんから電話がきた」、「食事をした」などがあげられる。アノテーションAが「喫煙した」であるならば、ユーザは記録されたコンテンツに付加されたアノテーションを検索すれば、喫煙した場所と時刻において取得したコンテンツを知ることができる。   The experience used for the description here includes actions determined by the user as annotations, information determined by the user as annotations, and the like. For example, “I listened to the music I was interested in”, “I smoked”, “I met Mr. XX”, “I received a call from Mr. XX”, “I ate”, etc. If the annotation A is “smoking”, the user can know the content acquired at the location and time of smoking by searching for the annotation added to the recorded content.

アノテーションボタン44によって入力される情報は、記録されているコンテンツに対する単なる目印であればよいため、アノテーションボタン44によって入力されるアノテーションの意味を情報蓄積装置上で設定する必要はない。したがって、例えば、アノテーション入力装置440が複数ボタンを備える場合、ユーザは、ボタンAに“喫煙”というアノテーションを割り当て、ボタンBに“食事”というアノテーションを割り当て、ボタンCに“買物”というアノテーションを割り当てるという設定操作を事前に情報蓄積装置1若しくはアノテーション入力装置440に対して行う必要はない。どの状況で若しくはどの経験情報に対して、どのボタンを使用するかは、ユーザが使い分ければよい。勿論、情報蓄積装置1或いはアノテーション入力装置440に対してアノテーションボタン44によって付加されるアノテーションが何を示すかを機器に対して設定することができてもよい。この場合、アノテーションボタン44に何が割り当てられているかをLCD441に表示する。   Since the information input by the annotation button 44 may be a simple mark for the recorded content, it is not necessary to set the meaning of the annotation input by the annotation button 44 on the information storage device. Therefore, for example, when the annotation input device 440 includes a plurality of buttons, the user assigns the annotation “smoking” to the button A, assigns the annotation “meal” to the button B, and assigns the annotation “shopping” to the button C. This setting operation need not be performed on the information storage device 1 or the annotation input device 440 in advance. The user can use which button to use in which situation or for which experience information. Of course, what the annotation added by the annotation button 44 to the information storage device 1 or the annotation input device 440 may be set for the device. In this case, what is assigned to the annotation button 44 is displayed on the LCD 441.

次に、データ処理部59にて作成される提示用コンテンツ及びアノテーションリストの一例を図8乃至図10を用いて説明する。   Next, an example of the presentation content and annotation list created by the data processing unit 59 will be described with reference to FIGS.

アノテーションリストについて図8を用いて説明する。アノテーションリストは、アノテーションリスト記憶部60に格納される。アノテーションリスト記憶部60のメモリ領域は、要素数M×N個の配列(以下、大領域と記す。)に区分され、M×N個の要素の1つが更にm×n個の配列に区分されている(以下、中領域と記す。)。そして提示用コンテンツの有無を表すビットを設ける。提示用コンテンツが用意されていれば、すなわちアノテーションが付加されていれば1を、アノテーションが付加されていなければ0とする。更に、中領域の1要素に対して時刻情報を記述する配列を定める。大領域又は中領域には、国、県、市町村等の行政区分、特定の地域内における領域区分、会社の支店、学校キャンパス等を割り当てることができる。例えば、東京23区を大領域とし、区内を緯度経度から分割される所定数の領域を中領域とすることができる。図8に示すように、アノテーションリストは、位置情報と時刻情報に関連付けられて、この順番に配列されている。また、中領域の要素に対応して回数を記述できるようにしてもよい。   The annotation list will be described with reference to FIG. The annotation list is stored in the annotation list storage unit 60. The memory area of the annotation list storage unit 60 is partitioned into an array of M × N elements (hereinafter referred to as a large area), and one of the M × N elements is further partitioned into an m × n array. (Hereinafter referred to as the middle region). And the bit showing the presence or absence of the content for presentation is provided. If presentation content is prepared, that is, if an annotation is added, 1 is set, and if no annotation is added, 0 is set. Further, an array describing time information for one element in the middle region is determined. Administrative divisions such as countries, prefectures, and municipalities, divisions within specific regions, company branches, school campuses, and the like can be assigned to large or middle regions. For example, the Tokyo 23 wards can be a large area, and a predetermined number of areas divided from the latitude and longitude can be a middle area. As shown in FIG. 8, the annotation list is associated with position information and time information and arranged in this order. Further, the number of times may be described in correspondence with the elements in the middle region.

図9を用いて提示用コンテンツについて説明する。図9には、データベース53に記録される一連の経験情報としてのコンテンツ530が時系列に沿って表されている。また、記録されたコンテンツ530に対してアノテーションが付加される。ここでは、情報蓄積装置1は、アノテーションボタン44は複数設けられたタイプであってボタンAによってアノテーションAが入力され、ボタンBによってアノテーションBが入力されるものとする。アノテーションの入力には、複数のアノテーションボタン44が設けられたアノテーション入力装置440を使用してもよい。   The presentation content will be described with reference to FIG. In FIG. 9, content 530 as a series of experience information recorded in the database 53 is represented in time series. An annotation is added to the recorded content 530. Here, it is assumed that the information storage apparatus 1 is a type in which a plurality of annotation buttons 44 are provided, the annotation A is input by the button A, and the annotation B is input by the button B. For inputting an annotation, an annotation input device 440 provided with a plurality of annotation buttons 44 may be used.

データ処理部59は、ユーザによってアノテーションが入力されると、GPS41、CCD42、マイク43等の情報取得部12によって随時取得している日時、位置、画像データ、音声データの一部から提示用コンテンツを生成する。以下、この提示用コンテンツをオブジェクトと記す。データ処理部59は、アノテーションボタン44でアノテーションが付加されると、上述した図8にて説明したメモリ構造内に記述された時刻情報の前後の所定期間のコンテンツを抽出し、適切な圧縮処理等を施して提示用コンテンツとしてのオブジェクトを生成する。また、データ処理部59は、アノテーションBに対しても同様にオブジェクトを生成する。   When an annotation is input by the user, the data processing unit 59 obtains content for presentation from a part of the date, time, position, image data, and audio data acquired by the information acquisition unit 12 such as the GPS 41, the CCD 42, and the microphone 43 as needed. Generate. Hereinafter, this presentation content is referred to as an object. When an annotation is added by the annotation button 44, the data processing unit 59 extracts content for a predetermined period before and after the time information described in the memory structure described with reference to FIG. To generate an object as a presentation content. Further, the data processing unit 59 similarly generates an object for the annotation B.

本具体例では、データ処理部59は、アノテーションAが入力された時刻から前後5秒の所定期間分のコンテンツを抽出し、アノテーションAが付加された時刻前後10秒間分の音声データ或いは映像データを提示用コンテンツとして用意する。画像データの場合、例えば10秒間分の動画像データであってもよいし、1秒間に1枚分の静止画像データを生成し10枚分を一纏まりとしてオブジェクトを作成してもよい。   In this specific example, the data processing unit 59 extracts content for a predetermined period of 5 seconds before and after the time when the annotation A is input, and outputs audio data or video data for 10 seconds before and after the time when the annotation A is added. Prepare as presentation content. In the case of image data, for example, moving image data for 10 seconds may be generated, or still image data for one sheet may be generated per second, and an object may be created by collecting 10 sheets as a group.

データ処理部59は、生成されたオブジェクトをオブジェクトリスト記憶部61に格納するとともに、格納場所を示すアドレス情報等がアノテーションと対応付けたアノテーションリストとしてアノテーションリスト記憶部60に格納される。アノテーションリストの一例を図10(a)及び図10(b)に示す。図10(a)には、データ処理部59において作成されるアノテーションボタン44のボタンAで付加されたアノテーションに対するアノテーションリストの一例が示されており、図10(b)には、アノテーションボタン44のボタンBで付加されたアノテーションに対するアノテーションリストの一例が示されている。アノテーションリストによって、アノテーションは、対応するオブジェクトにリンクされる構造になっている。アノテーションリストには、図8で示したビット配列が位置情報、時刻情報の順番に記述され、更にデータベース53内においてオブジェクトを特定するためのオブジェクトナンバ、オブジェクトが記録されたアドレス情報等が記述されている。   The data processing unit 59 stores the generated object in the object list storage unit 61, and stores address information indicating a storage location or the like in the annotation list storage unit 60 as an annotation list associated with the annotation. An example of the annotation list is shown in FIGS. 10 (a) and 10 (b). 10A shows an example of an annotation list for the annotation added by the button A of the annotation button 44 created in the data processing unit 59. FIG. 10B shows an example of the annotation button 44. An example of an annotation list for the annotation added with the button B is shown. The annotation has a structure linked to the corresponding object by the annotation list. In the annotation list, the bit arrangement shown in FIG. 8 is described in the order of position information and time information. Further, an object number for specifying an object in the database 53, address information where the object is recorded, and the like are described. Yes.

続いて、上述した情報蓄積装置1を用いて、ユーザが経験した事象に関連する情報(経験情報)とアノテーションとを登録する処理について説明する。ユーザがレストラン(店舗)で食事をするとき、この経験に関連するコンテンツが記録されるとともにアノテーションが付加され、付加されたアノテーションに基づいてオブジェクト及びアノテーションリストが生成される処理を図11に示す。   Next, a process of registering information (experience information) and annotation related to an event experienced by the user using the information storage device 1 described above will be described. When a user eats at a restaurant (store), content related to this experience is recorded, annotations are added, and an object and annotation list are generated based on the added annotations.

ユーザが情報蓄積装置1を携帯した状態でレストラン200にて食事をする場合(経験事象:図2矢印A)、レストランで食事をするという経験に関連して情報蓄積装置1において、音声データ、映像データ、位置情報等のコンテンツが取得される(図2矢印B)。経験情報は、このとき情報蓄積装置1によって、主に自動的に取得される。アノテーションは、ユーザによって入力される(図2矢印C)。但し、アノテーションの入力は、経験した事象に関する情報の取得と同時でない場合もある。   When the user eats at the restaurant 200 with the information storage device 1 carried (experience event: arrow A in FIG. 2), the information storage device 1 uses the audio data and video in relation to the experience of eating at the restaurant. Content such as data and position information is acquired (arrow B in FIG. 2). The experience information is mainly automatically acquired at this time by the information storage device 1. The annotation is input by the user (arrow C in FIG. 2). However, the annotation input may not be simultaneously with the acquisition of information about the experienced event.

経験情報としてのコンテンツが取得されるタイミングは、レストラン200に入る前にユーザが所定間隔で自動取得するモードに切り換えてもよいが、常時、記録動作を行っていてもよい。また、通常、ユーザはこのモード設定操作自体を意識的に行えない場合が多い。経験した事象に関連するコンテンツは、ユーザに意識されないように取得されていることが望ましいため、本具体例では、できる限り周囲の状況変化等をトリガとして自動的に経験情報を取得できるようにする。例えば、“いらっしゃいませ”という単語を記録開始のトリガとしてのキーワードとして予め定義したとすると、ユーザがレストラン200に入り、情報蓄積装置1が“いらっしゃいませ”という単語を検出したとき、これをトリガとしてコンテンツを記録する情報取得モードに入る(図11に示すステップS1及びステップS2)。   The timing at which content as experience information is acquired may be switched to a mode in which the user automatically acquires the content at a predetermined interval before entering the restaurant 200, but the recording operation may be performed all the time. Further, usually, the user often cannot consciously perform this mode setting operation itself. Since it is desirable that the content related to the experienced event is acquired so that it is not conscious of the user, in this specific example, it is possible to automatically acquire the experience information by using a surrounding situation change as a trigger as much as possible. . For example, assuming that the word “welcome” is defined in advance as a keyword as a trigger for starting recording, when the user enters the restaurant 200 and the information storage device 1 detects the word “welcome”, this is used as a trigger. The information acquisition mode for recording content is entered (step S1 and step S2 shown in FIG. 11).

アノテーションは、取得された経験情報に付加されて記憶される。ユーザがアノテーションを付加するタイミング(図2矢印C)は、経験情報の取得中であるが、取得した情報に対して時間的に後から付加することもできる。   The annotation is added to the acquired experience information and stored. The timing at which the user adds an annotation (arrow C in FIG. 2) is during the acquisition of experience information, but it can also be added later in time to the acquired information.

情報蓄積装置1は、ステップS1としてCCD、GPS等を起動し待機しているときにトリガが検出されると、ステップS2において、データ作成モードに移り経験情報を取得する。ステップS2にて取得された経験情報は、ステップS3以降において、それぞれ認識処理される。画像データであれば、ステップS3においてCCD42から取得した画像データに対して画像認識処理を実行する。このとき、画像データであって画像中に文字情報が含まれている場合、ステップS4において文章認識部47は、CCD42から取得した画像データに対してテキスト認識処理を実行し、例えば、看板等の文字のように画像のなかにある文字列や記号を認識して建物や標識の名称をテキストデータとして抽出する。また、音声データの場合、ステップS5において、取得した音声データを音声認識処理部40にて音声認識処理し、ステップS6において言語処理部50にて音声情報をテキストデータに変換し、ステップS7においてキーワード抽出部51にてテキストデータからキーワードを抽出する。GPS41によって取得された位置情報、日時データ等のGPSデータ及び操作部35から入力されたテキストデータ等はそのまま使用できるため、次のステップに進む。取得されたコンテンツは、ステップS8において定義に基づいて分類され、ステップS9においてデータベース53に登録される。   If a trigger is detected when the information storage apparatus 1 is waiting while starting CCD, GPS, etc. as step S1, it will move to a data creation mode and will acquire experience information in step S2. The experience information acquired in step S2 is recognized and processed after step S3. If it is image data, image recognition processing is executed on the image data acquired from the CCD 42 in step S3. At this time, if it is image data and character information is included in the image, the text recognition unit 47 executes text recognition processing on the image data acquired from the CCD 42 in step S4. It recognizes character strings and symbols in images like characters and extracts the names of buildings and signs as text data. In the case of voice data, in step S5, the acquired voice data is subjected to voice recognition processing in the voice recognition processing unit 40. In step S6, the voice information is converted into text data in the language processing unit 50. The extraction unit 51 extracts keywords from the text data. Since the position information acquired by the GPS 41, GPS data such as date and time data, and text data input from the operation unit 35 can be used as they are, the process proceeds to the next step. The acquired content is classified based on the definition in step S8, and registered in the database 53 in step S9.

情報蓄積装置1は、ステップS10においてアノテーションが入力されたか否か判別し、ユーザによってアノテーションが入力された場合には、ステップS11において、アノテーションリストの登録とオブジェクトの作成を行う。ステップS12においてアノテーションとオブジェクトとが関連づけされる。   The information storage apparatus 1 determines whether or not an annotation has been input in step S10. If an annotation has been input by the user, the information storage device 1 registers an annotation list and creates an object in step S11. In step S12, the annotation and the object are associated with each other.

ステップS12におけるアノテーションリストの登録処理について図12を用いて更に詳しく説明する。アノテーションリスト記憶部60のメモリ領域は、位置情報に対応付けられているので、データ処理部59は、図12に示すように、ステップS111において、位置情報を取得する。ステップS112においてデータ処理部59は、取得した位置情報とアノテーションリスト記憶部60に記憶したM×N配列の大領域のビット列Aとを比較し、現在の位置情報に対応する所定ビットが1の場合、ステップS113において、引き続きm×n配列の中領域のビット列Bをチェックする。ステップS113において0の場合、ステップS10に戻る。また、ステップS113において、m×n配列の中領域の配列において現在の位置情報に対応する所定ビットが1の場合、ステップS114において、データ処理部59は、この要素に対して現在の時刻情報を記述し、作成したオブジェクトをオブジェクトリストの最後に加えてステップS12に進む。m×n配列の中領域の配列において現在の位置情報に対応する所定ビットが0の場合、ステップS115において、中領域リストの対応するビットに1を立て、作成したオブジェクトをオブジェクトリストの最後に加えてステップS13に進む。   The annotation list registration process in step S12 will be described in more detail with reference to FIG. Since the memory area of the annotation list storage unit 60 is associated with the position information, the data processing unit 59 acquires the position information in step S111 as shown in FIG. In step S112, the data processing unit 59 compares the acquired position information with the bit string A in the large area of the M × N array stored in the annotation list storage unit 60, and the predetermined bit corresponding to the current position information is 1. In step S113, the bit string B in the middle region of the m × n array is checked. If 0 in step S113, the process returns to step S10. In step S113, if the predetermined bit corresponding to the current position information is 1 in the array of the middle region of the m × n array, in step S114, the data processing unit 59 displays the current time information for this element. The described and created object is added to the end of the object list, and the process proceeds to step S12. If the predetermined bit corresponding to the current position information is 0 in the middle area array of the m × n array, 1 is set to the corresponding bit in the middle area list in step S115, and the created object is added to the end of the object list. Then, the process proceeds to step S13.

アノテーションとオブジェクトは、ステップS12において互いに関連づけられて、ステップS13においてアノテーションリスト記憶部60に格納される。このようにして、情報蓄積装置1は、ユーザの経験情報のなかで特にユーザの興味があった状況に関連するコンテンツを容易に検索できるように整理してデータベース53に登録することができる。   The annotation and the object are associated with each other in step S12 and stored in the annotation list storage unit 60 in step S13. In this way, the information storage device 1 can organize and register in the database 53 so that content related to a situation that the user is particularly interested in can be easily searched among the user's experience information.

図11の処理で取得される経験情報の一例を図13に示す。以下の図では、便宜上、説明にかかる部分のみデータを記入しているが空欄の箇所にも別のデータが含まれているものとする。図13では、取得した情報の番号に対応付けられて、取得された時刻情報は、2003年7月22日17時30分であれば、“200307221730”のように表され、位置情報は、“605958,1354536,546”(緯度60°59′58″,経度135°45′36″,高度546m)のように登録される。またこのほか、例えば基地局から送信された天候情報等の付帯状況の情報が付加される。更に、この経験情報の取得よりも以前に取得した情報から明らかになっている事実があれば、その情報も付加される。なお、ここで取得される時刻情報は、GPSデータに含まれる正確な時刻情報でもよいし、例えば、“2003/07/22 夜 ”、単に“昼”、“夜”、“休日”、“平日”のように抽象的な表現も含まれる。また、位置情報も同様に緯度経度に代わって駅名、建物名、施設名、ユーザに馴染みのある通称名等で表してもよい。このほうが、ユーザが情報利用フェーズにて検索したときに、より分かり易く使い易い情報として取り出すことができるからである。これらの経験情報は、CCD42、マイク43にて取得した映像や音声といったコンテンツとともに記録される。   An example of the experience information acquired by the process of FIG. 11 is shown in FIG. In the following figure, for the sake of convenience, it is assumed that data is entered only for the part related to the explanation, but other data is also included in the blank part. In FIG. 13, the acquired time information associated with the acquired information number is represented as “200307221730” if it is 17:30 on July 22, 2003, and the position information is “ 605958, 1354536, 546 ″ (latitude 60 ° 59′58 ″, longitude 135 ° 45′36 ″, altitude 546 m). In addition, for example, information on incidental conditions such as weather information transmitted from the base station is added. Furthermore, if there is a fact that has been clarified from information acquired before the acquisition of this experience information, that information is also added. The time information acquired here may be accurate time information included in the GPS data. For example, “2003/07/22 night”, simply “day”, “night”, “holiday”, “weekday” An abstract expression is also included. Similarly, the position information may be represented by a station name, a building name, a facility name, a common name familiar to the user, or the like instead of the latitude and longitude. This is because when the user searches in the information use phase, it can be extracted as information that is easier to understand and use. These pieces of experience information are recorded together with contents such as video and audio acquired by the CCD 42 and the microphone 43.

一例として、ユーザが喫煙の度にアノテーションボタン44を押すように決めた場合には、アノテーションボタンAが押されると、記録されているコンテンツに対するアノテーションとして喫煙をした時間及び喫煙した場所を示す情報が記録される。このとき、喫煙中に情報蓄積装置1のCCD42から取得される画像データやマイクから取得される音声データからオブジェクトが作成される。作成されたオブジェクトは、ユーザにとって喫煙というアノテーションによって関連付けられるコンテンツである。アノテーションの位置情報及び時刻情報の傾向を統計的に処理して自動的に分類する手法を取り入れれば、1つのアノテーションボタン44に対して複数種類のアノテーションを入力することもできる。この手法ではオブジェクトの特徴は、オブジェクトが増えるほどに統計的に分類されたアノテーションのグループの傾向が現れ、グループを纏めるキーワードの精度が向上する。   As an example, when the user decides to press the annotation button 44 every time he or she smokes, when the annotation button A is pressed, information indicating the time and place of smoking as an annotation for the recorded content is displayed. To be recorded. At this time, an object is created from image data acquired from the CCD 42 of the information storage device 1 and audio data acquired from the microphone during smoking. The created object is content related to the user by the annotation of smoking. By adopting a method of statistically processing the trend of annotation position information and time information and automatically classifying them, a plurality of types of annotations can be input to one annotation button 44. In this method, as the number of objects increases, the tendency of the statistically classified annotation group appears as the number of objects increases, and the accuracy of keywords that group the group improves.

上述のようにデータベース53に登録されたコンテンツのうちアノテーションが付加されたコンテンツ毎にアノテーションリストを作成することによって、ユーザの経験情報及びこの経験情報のなかで特徴的な経験に対するコンテンツを抽出し易くすることができる。オブジェクトの入力からアノテーションリストの作成までの処理に関する詳細は後述する。   As described above, by creating an annotation list for each content to which annotations are added among the content registered in the database 53, it is easy to extract user experience information and content related to a characteristic experience from the experience information. can do. Details regarding processing from input of an object to creation of an annotation list will be described later.

最も原理的なアノテーションの付加方法は、上述したように、経験情報の自動検出とアノテーションボタン44のオンオフによる単純なアノテーションの入力によって実現できるが、例えば、表示部としてのLCD54、操作入力部45等を併用することでより複雑な情報の入力及び提示が可能になる。この場合、次の登録処理があげられる。   As described above, the most basic method of adding annotation can be realized by automatic detection of experience information and simple annotation input by turning on / off the annotation button 44. For example, the LCD 54 as a display unit, the operation input unit 45, etc. By using together, it becomes possible to input and present more complicated information. In this case, the following registration process is given.

図14及び図15に示す登録処理では、アノテーションボタン44及び操作入力部45からのユーザによる操作とその操作に基づくデータ処理部59の動作が示されている。   In the registration process shown in FIGS. 14 and 15, an operation by the user from the annotation button 44 and the operation input unit 45 and an operation of the data processing unit 59 based on the operation are shown.

ステップS21においてユーザによってアノテーションボタン44が押下されると、データ処理部59は、押下を検出した検出信号を受け取り、ステップS22において表示部としてのLCD54に、場所、日時等の選択メニューを提示する。ステップS23において、提示した選択メニューを表したGUI(Graphical User Interface)を介して、ユーザから場所を指定するGUIボタンが選択されると、ステップS24において場所が指定され、データ処理部59は、ステップS25において、現位置か任意の場所かを選択する選択メニューを表示する。   When the annotation button 44 is pressed by the user in step S21, the data processing unit 59 receives a detection signal that detects the pressing, and presents a selection menu such as a place, date and time on the LCD 54 as a display unit in step S22. In step S23, when a GUI button for designating a location is selected by the user via a GUI (Graphical User Interface) representing the presented selection menu, the location is designated in step S24, and the data processing unit 59 In S25, a selection menu for selecting the current position or an arbitrary place is displayed.

この選択メニューに対して、ステップS26において、提示した選択メニューを表したGUIを介して場所が選択されるがステップS27において更に詳しい場所の情報が選択されない場合、図15Aに続くステップS31のステップS311において現在場所を検索キーとしてアノテーションリストが検索される。   For this selection menu, in step S26, a location is selected via the GUI representing the presented selection menu, but in the case where further detailed location information is not selected in step S27, step S311 in step S31 following FIG. 15A is performed. The annotation list is searched using the current location as a search key.

また、ステップS26で提示した選択メニューを表したGUIを介して場所が選択された後、ステップS27において、更に詳しく任意の場所が指定された場合、データ処理部59は、ステップS28において地図ソフトを起動する。ステップS29においてLCD54上に地図とともに表示されたGUIによってユーザが所望とする場所が指定されると、データ処理部59は、指定された場所情報をステップS30にて受け取る。データ処理部59は、図15Cに続くステップS31のステップS313において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。   In addition, after a location is selected via the GUI representing the selection menu presented in step S26, if an arbitrary location is specified in more detail in step S27, the data processing unit 59 executes the map software in step S28. to start. When the location desired by the user is designated by the GUI displayed together with the map on the LCD 54 in step S29, the data processing unit 59 receives the designated location information in step S30. The data processing unit 59 searches the annotation list using the location information and time specified in step S313 of step S31 following FIG. 15C using the current time as a search key.

一方、ステップS24においてユーザによって場所が指定されなかった場合、ステップS32において、データ処理部59は、任意の時刻(未来)、翌日以降の同一時間、翌週以降の同一曜日、翌月以降の同一日、翌年以降の同一月、翌年以降の同一月日を選択するための選択メニューを表示する。   On the other hand, if the location is not specified by the user in step S24, in step S32, the data processing unit 59 selects an arbitrary time (future), the same time after the next day, the same day after the next week, the same day after the next month, A selection menu for selecting the same month after the following year and the same month and day after the following year is displayed.

データ処理部59は、ステップS33において任意の時刻を入力するメニューが選択されると、ステップS34において任意時刻を入力するための時刻入力用GUIをLCD54に表示する。この入力インターフェイスを介してユーザから時刻が指定されると時刻を認識し、データ処理部59は、図15Cに続くステップS31のステップS313において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。ステップS33において任意の時刻を入力するメニューが選択されない場合には、データ処理部59は、図15Bに続くステップS31のステップS312において、指定された日時を検索キーとしてアノテーションリストを検索する。   When a menu for inputting an arbitrary time is selected in step S33, the data processing unit 59 displays on the LCD 54 a time input GUI for inputting the arbitrary time in step S34. When the time is specified by the user via this input interface, the data processing unit 59 recognizes the time, and the data processing unit 59 uses the current time as the search key with the location information and time specified in step S313 of step S31 following FIG. 15C. Search the annotation list. If the menu for inputting an arbitrary time is not selected in step S33, the data processing unit 59 searches the annotation list using the specified date and time as a search key in step S312 of step S31 following FIG. 15B.

ステップS31以降は、図12に示したアノテーションリストの作成処理に準ずる。すなわち、ステップS35において、データ処理部59では、該当する時刻情報又は位置情報に対応するビットが1であるか否か判別が行われる。所定ビットが0の場合、ステップS36においてオブジェクトを作成し、オブジェクトリストの最後にここで作成したオブジェクトを登録するとともにアノテーションリストと関連づけしてアノテーションリストに加えて処理を終了する。一方、所定ビットが1の場合、データ処理部59は、ステップS37において、必要に応じてオブジェクトを更新しアノテーションリストを登録し直す。   Step S31 and subsequent steps are in accordance with the annotation list creation processing shown in FIG. That is, in step S35, the data processing unit 59 determines whether or not the bit corresponding to the corresponding time information or position information is 1. If the predetermined bit is 0, an object is created in step S36, the created object is registered at the end of the object list, and is associated with the annotation list and added to the annotation list, and the process is terminated. On the other hand, when the predetermined bit is 1, in step S37, the data processing unit 59 updates the object as necessary and re-registers the annotation list.

なお、上述した登録処理では、ユーザによって選択された場所の情報は、ネットワークを介して受信されてもよい。   In the registration process described above, the information on the location selected by the user may be received via the network.

以上説明したように、情報蓄積装置1は、取得した情報に対する意味づけをユーザが自由に行うことができるインターフェイスとしてアノテーションボタン44を備えることにより、取得した情報を個人に依存したデータとして管理することが可能になる。ユーザは、情報蓄積装置1を携帯することによって自分の経験から得たコンテンツを収集することができ、経験に基づくデータベースが作成されるため、いわゆるインターネットに検索語を入力して情報検索する場合と比べ、蓄積される情報及びコンテンツは、ユーザにとって有益度が高く、ユーザが希望する情報に近い情報になる。情報蓄積装置1は、自動的に取得され、大量に蓄積されるコンテンツを、ユーザによって付加されたアノテーションに基づいて分類することができる。   As described above, the information storage device 1 manages the acquired information as individual-dependent data by providing the annotation button 44 as an interface that allows the user to freely give meaning to the acquired information. Is possible. Since the user can collect contents obtained from his / her experience by carrying the information storage device 1 and a database based on the experience is created, the user searches for information by inputting a search term into the so-called Internet. In comparison, the stored information and content are highly useful for the user and are close to the information desired by the user. The information storage apparatus 1 can classify contents that are automatically acquired and stored in large quantities based on annotations added by the user.

また、情報蓄積装置1は、アノテーションを検索キーとする串刺し検索を行うこともできる。検索キーワードが入力されなくとも、検索モード時にアノテーションボタン44が選択されると、このアノテーションボタン44を使用して付加されたアノテーションで纏められたコンテンツを抽出することができる。   The information storage device 1 can also perform a skewer search using an annotation as a search key. Even if the search keyword is not input, if the annotation button 44 is selected in the search mode, the content grouped with the annotation added using the annotation button 44 can be extracted.

(2)アノテーションリストに基づいてオブジェクトをユーザに提示する処理
続いて、アノテーションリストに基づいてオブジェクトを検索する処理について、図16乃至図22を用いて説明する。この処理は、本発明の具体例として示す情報蓄積装置1における情報利用フェーズに対応する。
(2) Processing for Presenting Object to User Based on Annotation List Next, processing for searching for an object based on the annotation list will be described with reference to FIGS. This processing corresponds to the information use phase in the information storage device 1 shown as a specific example of the present invention.

情報蓄積装置1は、検索モードが用意されており、通常は、検索モードが選択されているときには、常に位置情報(場所)と時刻情報(時間)とを検索キーとした検索結果が提示されるようになっている。また、検索モード時にアノテーションボタン44が押下されると、そのアノテーションボタンに割り当てられたアノテーションを検索キーとする検索が実行されるようにしてもよい。本具体例の情報蓄積装置1では、情報検索モードと情報登録モードとが設けられ、ユーザによって検索モードが明示的に選択された場合にのみ検索するようになっている。   The information storage device 1 is provided with a search mode. Normally, when the search mode is selected, a search result is always presented using position information (location) and time information (time) as search keys. It is like that. Further, when the annotation button 44 is pressed in the search mode, a search using the annotation assigned to the annotation button as a search key may be executed. In the information storage apparatus 1 of this specific example, an information search mode and an information registration mode are provided, and the search is performed only when the search mode is explicitly selected by the user.

オブジェクト及びアノテーションを検索する検索モードの例として、ユーザが検索したいアノテーション条件を指定できる手動検索モードと、時刻情報又は位置情報に基づいてアノテーションリストから共通するアノテーションが付加されたオブジェクトを自動的に抽出する自動検索モードとがある。   As an example of search mode for searching for objects and annotations, manual search mode that allows users to specify the annotation conditions that they want to search, and automatically added objects with common annotations from the annotation list based on time information or location information There is an automatic search mode to do.

自動検索モードについて図16を用いて説明する。情報蓄積装置1における制御部58は、ステップS41としてCCD、GPS等を起動し、ステップS42として現在の位置情報及び時刻情報を取得する。また制御部58は、ステップS43で、操作入力部45においてユーザによって検索モードが選択されたか判別する。検索モードが選択された場合、ステップS44で更に選択されたモードが自動検索モードが否か判別される。手動検索モードが選択された場合の処理は、図19にて説明する。制御部58は、ユーザによって自動選択モードが選択されたことを検出すると、データ処理部59に指示し、データ処理部59は、ステップS42で取得した現在の位置情報及び時刻情報とアノテーションリストの位置情報及び時刻情報とを、ステップS45とステップS46において比較する。   The automatic search mode will be described with reference to FIG. The control unit 58 in the information storage device 1 activates the CCD, the GPS, etc. as step S41, and acquires the current position information and time information as step S42. In step S43, the control unit 58 determines whether the search mode is selected by the user in the operation input unit 45. When the search mode is selected, it is determined whether or not the mode further selected in step S44 is the automatic search mode. The processing when the manual search mode is selected will be described with reference to FIG. When the control unit 58 detects that the automatic selection mode has been selected by the user, the control unit 58 instructs the data processing unit 59, and the data processing unit 59 positions the current position information, time information, and annotation list acquired in step S42. Information and time information are compared in step S45 and step S46.

データ処理部59がステップS45において位置情報を比較する処理を図17に示す。データ処理部59は、ステップS451として、ステップS42で取得した現在の位置情報とアノテーションリスト記憶部60に記憶されたアノテーションリストに記述された位置情報とを比較する。ここで、データ処理部59は、場所に対するマッチングは必ずしも現在の位置情報として取得されるGPSデータの緯度経度(x,y)に完全に一致しなくとも、例えば、ある程度の精度範囲、(x+α、y+α)で略一致していれば一致と判断してもよい。   FIG. 17 shows a process in which the data processing unit 59 compares position information in step S45. In step S451, the data processing unit 59 compares the current position information acquired in step S42 with the position information described in the annotation list stored in the annotation list storage unit 60. Here, the data processing unit 59 does not always match the latitude and longitude (x, y) of the GPS data acquired as the current position information completely, but for example, a certain accuracy range, (x + α, If y + α) substantially matches, it may be determined that they match.

これにより、全く同一の場所でなくとも、アノテーションリストに登録された付近の情報を併せて提示することができる。ステップS452において、データ処理部59は、取得した現在の位置情報に適合する位置情報をもつアノテーションがあると判別した場合、ステップS453として提示用の結果リストを作成し、条件に適合するアノテーションを結果リストに加えてステップS46に移る。ステップS452において適合するアノテーションがない場合にもステップS46に移る。   As a result, even if the location is not exactly the same, information in the vicinity registered in the annotation list can be presented together. In step S452, if the data processing unit 59 determines that there is an annotation having position information that matches the acquired current position information, the data processing unit 59 creates a result list for presentation as step S453, In addition to the list, the process proceeds to step S46. If there is no matching annotation in step S452, the process also proceeds to step S46.

続いて、データ処理部59がステップS46において位置情報を比較する処理を図18に示す。データ処理部59は、ステップS461として、ステップS42で取得した現在の時刻情報とアノテーションリスト記憶部60に記憶されたアノテーションリストに記述された時刻情報とを比較する。データ処理部59は、時刻で適合データが得られないときには、日、曜日、月で適合する時刻情報を検索する。   Subsequently, a process in which the data processing unit 59 compares position information in step S46 is shown in FIG. In step S461, the data processing unit 59 compares the current time information acquired in step S42 with the time information described in the annotation list stored in the annotation list storage unit 60. When the matching data cannot be obtained at the time, the data processing unit 59 searches for time information that matches the date, day of the week, and month.

また、データ処理部59は、取得した時刻情報に対して、例えば、ある程度の範囲を持たせた値を検索値として、アノテーションリストの時刻情報と比較してもよい。これにより、全く同一時刻でなくとも、アノテーションリストに登録された付近の情報を併せて提示することができる。ステップS462においてデータ処理部59は、適合するアノテーションがないと判別した場合、ステップS463として条件に適合するアノテーションがアノテーションリストに登録されていない旨を返し、ステップS47に移る。一方、データ処理部59は、取得した現在の時刻情報に適合する時刻情報をもつアノテーションがあると判別した場合、ステップS464として提示用の結果リストに適合するアノテーションを加えてステップS47に移る。なお、ここで、ステップS45とステップS46の処理の順序は図16に示す順序に限定されない。   Further, the data processing unit 59 may compare the acquired time information with the time information in the annotation list, for example, using a value having a certain range as a search value. Thereby, even if it is not exactly the same time, the nearby information registered in the annotation list can be presented together. If the data processing unit 59 determines in step S462 that there is no matching annotation, it returns in step S463 that no annotations matching the conditions are registered in the annotation list, and the process proceeds to step S47. On the other hand, if the data processing unit 59 determines that there is an annotation having time information that matches the acquired current time information, the data processing unit 59 adds an annotation that matches the presentation result list in step S464, and proceeds to step S47. Here, the order of the processes in steps S45 and S46 is not limited to the order shown in FIG.

アノテーションリストが複数ある場合、制御部58はステップS47の判別処理を行って、データ処理部59に対して、ステップS45及びステップS46の処理を各アノテーションリストについて繰り返し実行させる。また、検索モード時にユーザに選択されたアノテーションボタンに対するアノテーションリストを検索するようにもできる。制御部58は、全てのアノテーションリストに関して検索が終了すると、ステップS48でユーザに対して結果リストを提示する。   When there are a plurality of annotation lists, the control unit 58 performs the determination processing in step S47, and causes the data processing unit 59 to repeatedly execute the processing in steps S45 and S46 for each annotation list. It is also possible to search the annotation list for the annotation button selected by the user in the search mode. When the search is completed for all annotation lists, the control unit 58 presents a result list to the user in step S48.

最も原理的なオブジェクトの提示方法は、上述したように、現在情報とアノテーションリストの位置情報及び時刻情報とを比較することによるアノテーションの検索によって実現できるが、例えば、表示部としてのLCD54、操作入力部45等を併用することでより複雑な情報の入力及び提示が可能になる。手動による検索処理について、図19及び図20を用いて説明する。   As described above, the most basic method for presenting an object can be realized by searching for an annotation by comparing the current information with the position information and time information of the annotation list. By using the unit 45 and the like together, it becomes possible to input and present more complicated information. Manual search processing will be described with reference to FIGS. 19 and 20.

情報蓄積装置1における制御部58は、図16に示すステップS44において手動検索モードが選択されたことを検出すると、データ処理部59に手動検索モードを実行するよう指示する。図19及び図20に示す検索処理では、アノテーションボタン44及び操作入力部45からのユーザによる操作とその操作に基づくデータ処理部59の動作が示されている。   When detecting that the manual search mode is selected in step S44 shown in FIG. 16, the control unit 58 in the information storage device 1 instructs the data processing unit 59 to execute the manual search mode. In the search processing shown in FIGS. 19 and 20, an operation by the user from the annotation button 44 and the operation input unit 45 and an operation of the data processing unit 59 based on the operation are shown.

ステップS51においてユーザによって手動検索モードが選択されると、データ処理部59は、選択による検出信号を受け取り、ステップS52において表示部としてのLCD54に、場所、日時等の選択メニューを提示する。ステップS53において、提示した選択メニューを表したGUIを介して、ユーザから場所を指定するGUIボタンが選択されると、ステップS54において場所が指定される。データ処理部59は、ステップS55において現位置か任意の場所かを選択する選択メニューを表示する。この選択メニューに対して、ステップS56において、提示した選択メニューを表したGUIを介してユーザから場所が選択されるがステップS57において更に詳しい場所の情報が選択されない場合には、図20Aに続くステップS61のステップS611において現在場所を検索キーとしてアノテーションリストが検索される。   When the manual search mode is selected by the user in step S51, the data processing unit 59 receives a detection signal by selection, and presents a selection menu such as a place, date and time on the LCD 54 as a display unit in step S52. In step S53, when a GUI button for designating a location is selected from the user via the GUI representing the presented selection menu, the location is designated in step S54. In step S55, the data processing unit 59 displays a selection menu for selecting whether the current position or an arbitrary place. In response to this selection menu, in step S56, a location is selected by the user via the GUI representing the presented selection menu, but if more detailed location information is not selected in step S57, the step following FIG. 20A is performed. In step S611 of S61, the annotation list is searched using the current location as a search key.

また、ステップS56で提示した選択メニューを表したGUIを介してユーザが場所を選択した後、ステップS57において、更に詳しく任意の場所が指定された場合には、データ処理部59は、ステップS58において地図ソフトを起動する。ステップS59においてLCD54上に地図とともに表示されたGUIによってユーザが所望とする場所が指定されると、データ処理部59は、指定された場所情報をステップS60にて受け取る。データ処理部59は、図20Cに続くステップS61のステップS612において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。   In addition, after the user selects a location via the GUI representing the selection menu presented in step S56, if an arbitrary location is specified in more detail in step S57, the data processing unit 59 determines in step S58. Start the map software. When the location desired by the user is designated by the GUI displayed together with the map on the LCD 54 in step S59, the data processing unit 59 receives the designated location information in step S60. The data processing unit 59 searches the annotation list using the location information and time specified in step S612 of step S61 following FIG.

一方、ステップS54においてユーザによって場所が指定されなかった場合、ステップS62において、データ処理部59は、任意の時刻(未来)、翌日以降の同一時間、翌週以降の同一曜日、翌月以降の同一日、翌年以降の同一月、翌年以降の同一月日を選択するための選択メニューを表示する。   On the other hand, if the location is not specified by the user in step S54, in step S62, the data processing unit 59 selects an arbitrary time (future), the same time after the next day, the same day after the next week, the same day after the next month, A selection menu for selecting the same month after the following year and the same month and day after the following year is displayed.

データ処理部59は、ステップS63において任意の時刻を入力するメニューを選択すると、ステップS64において任意時刻を入力するための時刻入力用GUIをLCD54に表示する。この入力インターフェイスを介してユーザから時刻が指定されると時刻を認識し、データ処理部59は、図20Cに続くステップS61のステップS612において指定された場所情報及び時刻を現在の時刻を検索キーとしてアノテーションリストを検索する。ステップS63において任意の時刻を入力するメニューが選択されない場合には、データ処理部59は、図20Bに続くステップS61のステップS612において、指定された日時を検索キーとしてアノテーションリストを検索する。   When the data processing unit 59 selects a menu for inputting an arbitrary time in step S63, the data input unit 59 displays a time input GUI for inputting the arbitrary time on the LCD 54 in step S64. When the time is specified by the user via this input interface, the data processing unit 59 recognizes the time, and the data processing unit 59 uses the location information and time specified in step S612 of step S61 following FIG. Search the annotation list. If the menu for inputting an arbitrary time is not selected in step S63, the data processing unit 59 searches the annotation list using the specified date and time as a search key in step S612 of step S61 following FIG. 20B.

データ処理部59は、ステップS65において検索条件に適合するアノテーションがある場合、ステップS66として結果リストを作成する。結果リストは、ユーザに提示される。適合するアノテーションがない場合には、ステップS67において、データ処理部59は、該当するアノテーションが見つからない旨を表示してステップS52に戻る。   If there is an annotation that matches the search condition in step S65, the data processing unit 59 creates a result list in step S66. The result list is presented to the user. If there is no matching annotation, in step S67, the data processing unit 59 displays that the corresponding annotation is not found and returns to step S52.

上述したステップS453及びS464で作成される結果リストについて説明する。
図21(a)には位置情報に基づく結果リストが、図21(b)には時刻情報に基づく結果リストが示されている。情報蓄積装置1がアノテーションボタン44を複数備えるタイプであれば、結果リストがアノテーションボタン44に割り当てられたアノテーションの数だけ用意される。ユーザは、操作入力部45によって結果リストに提示されたオブジェクトを選択すると対応するオブジェクトにリンクされ、オブジェクトが再生される。
The result list created in steps S453 and S464 described above will be described.
FIG. 21A shows a result list based on position information, and FIG. 21B shows a result list based on time information. If the information storage device 1 is a type having a plurality of annotation buttons 44, the result list is prepared for the number of annotations assigned to the annotation buttons 44. When the user selects an object presented in the result list by the operation input unit 45, the user is linked to the corresponding object, and the object is reproduced.

情報蓄積装置1では、ユーザは、結果リストからアノテーションリスト及びオブジェクトの編集、削除等を行うこともできる。また、情報提供装置1は、オブジェクトが参照された回数をカウントする機能を有する。これにより、情報提供装置1は、結果リストを通じてオブジェクトが利用された際、ユーザによるアノテーションリストの使用状況をリスト内に“利用度”として登録しておくようにしてもよい。   In the information storage device 1, the user can also edit and delete the annotation list and the object from the result list. In addition, the information providing apparatus 1 has a function of counting the number of times an object is referred to. Thus, when the object is used through the result list, the information providing apparatus 1 may register the usage status of the annotation list by the user as “usage” in the list.

情報蓄積装置1が結果リストを介したユーザから操作入力によりオブジェクトの参照ポインタを付加する処理を図22に示す。   FIG. 22 shows a process in which the information storage device 1 adds an object reference pointer by an operation input from the user via the result list.

データ処理部59は、ステップS71において、結果リストからオブジェクトが選択されたことを検出すると、ステップS72として、データ処理部59は、確認ボタンが選択されたか否か判別する。確認ボタンが選択された場合、ステップS73において、選択されたオブジェクトを再生するとともに、ステップS74で結果リスト及びこのオブジェクトに対応付けられるアノテーションリストの参照カウンタを+1する。   When the data processing unit 59 detects in step S71 that an object has been selected from the result list, in step S72, the data processing unit 59 determines whether or not a confirmation button has been selected. When the confirmation button is selected, the selected object is reproduced in step S73, and the reference counter of the result list and the annotation list associated with this object is incremented by 1 in step S74.

一方、ステップS72及びステップS75において、データ処理部59は、確認ボタンではなく削除ボタンが選択されたことを検出すると、ステップS76において、ユーザに対して削除を確認するメッセージを提示し、ステップS77において、確認ボタンが選択されたことを検出すると、データ処理部59は、ステップS78において選択されたオブジェクトをオブジェクトリストから削除する。また、オブジェクトに関連付けられたアノテーションリストにおけるアノテーションも削除する。このとき、データベース53に格納された元のコンテンツまで削除される必要はない。   On the other hand, in step S72 and step S75, when the data processing unit 59 detects that the delete button is selected instead of the confirmation button, the data processing unit 59 presents a message confirming the deletion to the user in step S76, and in step S77. When it is detected that the confirmation button has been selected, the data processing unit 59 deletes the object selected in step S78 from the object list. Also, the annotation in the annotation list associated with the object is deleted. At this time, it is not necessary to delete the original content stored in the database 53.

データ処理部59は、ステップS79において、結果リストに他のオブジェクトがある場合には、ステップS71より処理を繰り返す。   If there is another object in the result list in step S79, the data processing unit 59 repeats the processing from step S71.

このように、検索結果のオブジェクトが表示されたときに、例えば、“参照した(利用した)”ことをカウントできるようにすると、ユーザは、情報処理装置1によって作成されたオブジェクトがどの程度有効活用されていることを知ることができる。   As described above, when the object of the search result is displayed, for example, if it is possible to count “referred (used)”, the user can effectively use the object created by the information processing apparatus 1. You can know what is being done.

上述した検索処理によれば、情報蓄積装置1は、アノテーションを検索キーとする串刺し検索を行うことができる。また、情報蓄積装置1は、アノテーションボタン44によってアノテーションを付加して管理されているコンテンツがデータベースとなるため、ユーザにとって有益度が高く、ユーザが希望する情報に近い情報を検索することができる。   According to the search processing described above, the information storage device 1 can perform a skewer search using an annotation as a search key. In addition, the information storage device 1 can search for information that is highly useful for the user and that is close to the information desired by the user because the content managed by adding the annotation by the annotation button 44 is a database.

以上説明したように、情報蓄積装置1によるアノテーションの登録処理とアノテーションの検索処理によれば、例えば、実際には次のことが可能になる。例えば、ユーザがアノテーションボタンを友人の一人に割り当て、この友人に会ったとき、この友人に電話したとき、この友人の話題が出たときなどにアノテーションボタンを押して情報蓄積装置1が取得するコンテンツにアノテーションを付加しておけば、取得されたコンテンツをこの友人で分類しておくことができる。   As described above, according to the annotation registration process and the annotation search process by the information storage device 1, for example, the following can actually be performed. For example, when the user assigns an annotation button to one of his friends and meets this friend, calls this friend, when the friend's topic comes out, etc., the content is acquired by the information storage device 1 by pressing the annotation button. If an annotation is added, the acquired content can be classified by this friend.

また、アノテーションボタンは、取得されるコンテンツに対するユーザ独自の目印であるため、例えば、ユーザが過去、12日の17時に取得されるコンテンツにアノテーションを付加しているとき、翌月の12日の17時がくる(又は近づくと)とオブジェクトを再生してユーザの注意を促すようにすることもできる。アノテーションボタンがユーザによって、ユーザの“自分の好きなもの”に対して割り当てられたとすれば、取得されたコンテンツを自動的にこのアノテーションで分類することができる。次回、このアノテーションによって検索される検索結果は、位置情報であれば、これがユーザの“気に入った場所”であるし、検索されたオブジェクトが音楽コンテンツであれば、これがユーザの“気に入った音楽”であるし、検索されたオブジェクトに人が写っていれば、これがユーザの“好きな人物”ということになる。   Further, since the annotation button is a user-specific mark for the acquired content, for example, when the user has added annotation to the content acquired at 17:00 on the 12th in the past, the 17:00 on the 12th of the next month It is also possible to reproduce the object to call the user's attention when it comes (or approaches). If the annotation button is assigned by the user to the user's “favorite”, the acquired content can be automatically classified by this annotation. Next time, if the search result searched by this annotation is location information, this is the user's “favorite place”, and if the searched object is music content, this is the user ’s “favorite music”. If there is a person in the retrieved object, this is the user's “favorite person”.

また、アノテーションボタンがユーザの“失敗”に対して割り当てられたとすれば、取得されたコンテンツを自動的にこのアノテーションで分類することができる。次回、このアノテーションによって検索される検索結果は、位置情報であれば、ユーザが“迷った場所”であるし、検索されたオブジェクトが音楽コンテンツであれば、ユーザが“気に入らなかった音楽”であるし、検索されたオブジェクトに人が写っていれば、ユーザが“失態をしてしまった人物”ということになる。このように、情報蓄積装置1は、取得されるコンテンツをアノテーションによって自動的に分類できる。   If an annotation button is assigned to the user's “failure”, the acquired content can be automatically classified by this annotation. Next time, the search result searched by this annotation is “the place where the user is lost” if it is position information, and if the searched object is music content, it is “music that the user did not like”. If a person is reflected in the searched object, it means that the user has “lost”. As described above, the information storage device 1 can automatically classify the acquired content based on the annotation.

本発明は、ユーザが経験した事象に関連する情報を取得して蓄積し提示できる装置であればよい。具体例では、携帯型情報処理端末として示されているが、情報処理端末としての機能、カメラ、マイク等といった情報取得機能等が複数のユニットとして用意され、これらをユーザの身体各部に分散して装着するタイプの、いわゆるウェアラブルコンピュータに使用して好適である。   The present invention may be any device that can acquire, store, and present information related to an event experienced by a user. In the specific example, it is shown as a portable information processing terminal, but the function as an information processing terminal, information acquisition functions such as a camera, a microphone, etc. are prepared as a plurality of units, and these are distributed to each part of the user's body. It is suitable for use in a so-called wearable computer of the type to be mounted.

本発明の最良の形態として示す情報蓄積装置を説明する構成図である。It is a block diagram explaining the information storage device shown as the best form of this invention. 本発明の具体例として示す情報蓄積装置を用いて情報を取得する場合と情報を検索する場合とを説明する図である。It is a figure explaining the case where information is acquired using the information storage device shown as a specific example of the present invention, and the case where information is searched. 上記情報蓄積装置を説明する構成図である。It is a block diagram explaining the said information storage device. アノテーションボタンが設けられた情報蓄積装置を説明する外観図である。It is an external view explaining the information storage device provided with the annotation button. (a)及び(b)はアノテーションボタンと簡略な表示部分とを備えたアノテーション入力装置を説明する外観図である。(c)及び(d)は複数のアノテーションボタンを備えたアノテーション入力装置を説明する外観図である。(A) And (b) is an external view explaining the annotation input device provided with the annotation button and the simple display part. (C) And (d) is an external view explaining the annotation input device provided with the some annotation button. アノテーション入力部を情報蓄積装置から独立させた独立タイプのアノテーション入力装置を説明する構成図である。It is a block diagram explaining the independent type annotation input device which made the annotation input part independent of the information storage device. (a)は1つのアノテーションボタンに1つのアノテーションが割り当てられた場合、このボタンによって入力されるアノテーションを説明する図であり、(b)は複数のアノテーションボタンによって入力されるアノテーションを説明する図である。(A) is a figure explaining the annotation input by this button when one annotation is assigned to one annotation button, (b) is a figure explaining the annotation inputted by a plurality of annotation buttons. is there. アノテーションリストを記憶するメモリ構成を説明する模式図である。It is a schematic diagram explaining the memory structure which memorize | stores an annotation list. 上記情報蓄積装置のオブジェクトデータ生成部においてオブジェクトを作成する処理を説明する模式図である。It is a schematic diagram explaining the process which produces an object in the object data generation part of the said information storage device. (a)は上記情報蓄積装置のオブジェクトデータ生成部において作成されるボタンAで付加されたアノテーションに対するアノテーションリストを説明する図であり、(b)はボタンBで付加されたアノテーションに対するアノテーションリストを説明する図である。(A) is a figure explaining the annotation list with respect to the annotation added with the button A created in the object data generation part of the said information storage apparatus, (b) explains the annotation list with respect to the annotation added with the button B. It is a figure to do. 上記情報蓄積装置が経験情報とユーザによって入力されたアノテーションとを記録する処理を説明するフローチャートである。It is a flowchart explaining the process which the said information storage device records experience information and the annotation input by the user. アノテーションリストの登録処理を説明するフローチャートである。It is a flowchart explaining the registration process of an annotation list. 図11の処理で取得される経験情報の一例を説明する図である。It is a figure explaining an example of the experience information acquired by the process of FIG. 複雑な情報入力及び情報提示が可能な場合のアノテーションの登録処理を説明するフローチャートである。It is a flowchart explaining the registration process of an annotation when complicated information input and information presentation are possible. 複雑な情報入力及び情報提示が可能な場合のアノテーションの登録処理を説明するフローチャートである。It is a flowchart explaining the registration process of an annotation when complicated information input and information presentation are possible. 上記情報蓄積装置におけるコンテンツの検索処理を説明するフローチャートである。It is a flowchart explaining the search process of the content in the said information storage device. 検索モードにおいて取得した現在の位置情報とアノテーションリストの位置情報とを比較する処理を説明するフローチャートである。It is a flowchart explaining the process which compares the present position information acquired in search mode, and the position information of an annotation list. 検索モードにおいて取得した現在の時刻情報とアノテーションリストの時刻情報とを比較する処理を説明するフローチャートである。It is a flowchart explaining the process which compares the present time information acquired in search mode, and the time information of an annotation list. 複雑な情報入力及び情報提示が可能な場合のアノテーションの検索処理を説明するフローチャートである。It is a flowchart explaining the search process of an annotation when complicated information input and information presentation are possible. 複雑な情報入力及び情報提示が可能な場合のアノテーションの検索処理を説明するフローチャートである。It is a flowchart explaining the search process of an annotation when complicated information input and information presentation are possible. 上記情報蓄積装置において検索結果としてユーザに提示される結果リストを説明する図である。It is a figure explaining the result list shown to a user as a search result in the above-mentioned information storage device. 上記情報蓄積装置が結果リストを介したユーザの操作入力により参照ポインタを付加する処理を示す図である。It is a figure which shows the process in which the said information storage device adds a reference pointer by the user's operation input via a result list.

符号の説明Explanation of symbols

1 情報蓄積装置、 10 情報登録部、 11 情報取得部、 12 アノテーション付加部、 13 データ認識処理部、 14 データ定義処理部、 15 データ蓄積部、 16 画像認識部、 17 テキスト処理部、 18 音声処理部、 19 音声認識部、 20 言語処理部、 30 情報利用部、 31 情報取得部、 32 検索入力部、 33 データ認識処理部、 34 検索部、 35 情報提示部 41 GPS、 42 CCDカメラ、 43 マイク、 44 アノテーションボタン、 45 操作入力部、 46 画像認識部、 47 文章認識部、 48 音声認識部、 49 音声認識処理部、 50 言語処理部、 51 キーワード抽出部、 52 データ定義処理部、 53 データベース、 54 LCD、 55 表示用デバイス、 56 スピーカ、 57 音声出力デバイス、 58 制御部、 60 アノテーションリスト記憶部、 61 オブジェクトリスト記憶部   DESCRIPTION OF SYMBOLS 1 Information storage device, 10 Information registration part, 11 Information acquisition part, 12 Annotation addition part, 13 Data recognition processing part, 14 Data definition processing part, 15 Data storage part, 16 Image recognition part, 17 Text processing part, 18 Voice processing Unit, 19 voice recognition unit, 20 language processing unit, 30 information utilization unit, 31 information acquisition unit, 32 search input unit, 33 data recognition processing unit, 34 search unit, 35 information presentation unit 41 GPS, 42 CCD camera, 43 microphone , 44 annotation buttons, 45 operation input unit, 46 image recognition unit, 47 sentence recognition unit, 48 speech recognition unit, 49 speech recognition processing unit, 50 language processing unit, 51 keyword extraction unit, 52 data definition processing unit, 53 database 54 LCD, 55 display device, 56 speaker, 57 audio output device, 58 control unit, 60 annotation list storage unit, 61 object list storage unit

Claims (7)

使用者が経験した事象に関連する経験情報を取得する情報取得手段と、
上記情報取得手段によって取得された経験情報が蓄積される蓄積手段と、
上記情報取得手段によって取得された経験情報に対する注釈となる注釈情報が入力される注釈情報入力手段と、
上記注釈情報入力手段によって注釈情報が付加された経験情報を抽出して提示用コンテンツを生成する提示用コンテンツ生成手段と、
上記生成された提示用コンテンツと上記注釈情報とを対応付けて提示用コンテンツリストとして記憶する提示用コンテンツリスト記憶手段と、
上記情報取得手段にてある経験情報が取得されたとき上記注釈情報入力手段によって注釈情報が入力されると提示用コンテンツ生成手段に対して提示用コンテンツの生成を指示し生成された提示用コンテンツを上記注釈情報とともに上記提示用コンテンツリスト記憶手段に記憶する制御を行う提示用コンテンツリスト作成制御手段と、
上記使用者によって検索条件が注釈情報として入力される検索入力手段と、
上記使用者に検索結果を提示する情報提示手段と、
上記検索入力手段にて入力された検索条件としての注釈情報に対応する経験情報を上記提示用コンテンツリスト記憶手段から抽出して上記情報提示手段に提示する検索制御手段と
を備えることを特徴とする情報蓄積装置。
Information acquisition means for acquiring experience information related to the event experienced by the user;
Storage means for storing the experience information acquired by the information acquisition means;
Annotation information input means for inputting annotation information as an annotation for the experience information acquired by the information acquisition means;
Presentation content generation means for extracting the experience information with the annotation information added by the annotation information input means and generating the presentation content;
A presentation content list storage unit that stores the generated presentation content and the annotation information in association with each other as a presentation content list;
When the empirical information is acquired by the information acquisition unit, when the annotation information is input by the annotation information input unit, the presentation content generation unit is instructed to generate the presentation content, and the generated presentation content is displayed. Presentation content list creation control means for performing control to store the annotation information together with the presentation content list storage means;
Search input means for inputting search conditions as annotation information by the user,
Information presenting means for presenting search results to the user;
And search control means for extracting experience information corresponding to the annotation information as the search condition input by the search input means from the presentation content list storage means and presenting the information to the information presentation means. Information storage device.
上記注釈情報入力手段は、上記情報取得手段によって取得された経験情報に対する注釈情報として時刻情報を入力し、
上記提示用コンテンツリスト作成制御手段は、上記情報取得手段にてある経験情報が取得されたとき上記注釈情報入力手段によって注釈情報としての時刻情報が入力されると提示用コンテンツ生成手段に対して提示用コンテンツの生成を指示し生成された提示用コンテンツを上記時刻情報とともに上記提示用コンテンツリスト記憶手段に記憶する制御を行い、
上記検索制御手段は、上記時刻情報に対応する経験情報を上記提示用コンテンツリスト記憶手段から抽出すること
を特徴とする請求項1記載の情報蓄積装置。
The annotation information input means inputs time information as annotation information for the experience information acquired by the information acquisition means,
The presentation content list creation control means presents to the presentation content generation means when time information as annotation information is input by the annotation information input means when experience information is acquired by the information acquisition means. Control to store the presentation content generated instructing the generation of the presentation content in the presentation content list storage unit together with the time information,
The information storage apparatus according to claim 1, wherein the search control means extracts experience information corresponding to the time information from the presentation content list storage means.
位置情報を取得する位置情報取得手段を備え、
上記注釈情報入力手段は、上記情報取得手段によって取得された経験情報に対する注釈情報として位置情報を入力し、
上記提示用コンテンツリスト作成制御手段は、上記情報取得手段においてある経験情報が取得されたとき上記注釈情報入力手段によって注釈情報としての位置情報が入力されると提示用コンテンツ生成手段に対して提示用コンテンツの生成を指示し生成された提示用コンテンツを上記位置情報とともに上記提示用コンテンツリスト記憶手段に記憶する制御を行い、
上記検索制御手段は、上記位置情報に対応する経験情報を上記提示用コンテンツリスト記憶手段から抽出すること
を特徴とする請求項1記載の情報蓄積装置。
Comprising location information acquisition means for acquiring location information;
The annotation information input means inputs position information as annotation information for the experience information acquired by the information acquisition means,
The presenting content list creation control means is configured to present information to the presenting content generation means when position information as annotation information is input by the annotation information input means when certain experience information is acquired by the information acquisition means. Instructing the generation of content and performing control to store the generated content for presentation together with the position information in the content list storage unit for presentation,
The information storage apparatus according to claim 1, wherein the search control means extracts experience information corresponding to the position information from the presentation content list storage means.
上記情報取得手段は、外部の音声データを取得する音声データ取得手段であり、上記音声データ取得手段にて取得した音声データから特徴単語の発音を認識する音声認識手段を備え、
上記提示用コンテンツ作成制御手段は、上記音声データ取得手段で特徴単語の音声データが取得されたとき上記注釈情報入力手段によってユーザから注釈情報が入力されると提示用コンテンツ生成手段に対して提示用コンテンツの生成を指示し、上記提示用コンテンツ生成手段は、注釈情報が付加された時刻から所定期間分の音声データを提示用コンテンツとして抽出することを特徴とする請求項1記載の情報蓄積装置。
The information acquisition means is voice data acquisition means for acquiring external voice data, and includes voice recognition means for recognizing a pronunciation of a feature word from the voice data acquired by the voice data acquisition means,
The presentation content creation control means provides a presentation content to the presentation content generation means when the annotation information is input by the annotation information input means when the voice data of the characteristic word is acquired by the voice data acquisition means. 2. The information storage apparatus according to claim 1, wherein an instruction to generate content is given, and the content generation means for presentation extracts audio data for a predetermined period from the time when the annotation information is added as content for presentation.
上記情報取得手段は、外部の画像データを取得する画像データ取得手段であり、上記画像データ取得手段にて取得した画像データから特徴画像を認識する画像認識手段を備え、
上記提示用コンテンツ作成制御手段は、上記画像データ取得手段で特徴画像の画像データが取得されたとき上記注釈情報入力手段によってユーザから注釈情報が入力されると提示用コンテンツ生成手段に対して提示用コンテンツの生成を指示し、上記提示用コンテンツ生成手段は、注釈情報が付加された時刻から所定期間分の画像データを提示用コンテンツとして抽出することを特徴とする請求項1記載の情報蓄積装置。
The information acquisition means is image data acquisition means for acquiring external image data, and includes image recognition means for recognizing a feature image from the image data acquired by the image data acquisition means,
The presentation content creation control means provides a presentation content generation means for presentation when annotation information is input from the user by the annotation information input means when the image data of the feature image is acquired by the image data acquisition means. 2. The information storage apparatus according to claim 1, wherein an instruction to generate content is given, and the content generation means for presentation extracts image data for a predetermined period from the time when the annotation information is added as content for presentation.
上記注釈情報入力手段及び上記検索入力手段は、複数の入力部として設けられ、上記経験情報の属性毎に割り当てられることを特徴とする請求項1記載の情報蓄積装置。   2. The information storage device according to claim 1, wherein the annotation information input unit and the search input unit are provided as a plurality of input units and are assigned for each attribute of the experience information. 使用者が経験した事象に関連する経験情報を取得する情報取得工程と、
上記情報取得工程で取得された経験情報がメモリに蓄積される蓄積工程と、
上記情報取得工程で取得された経験情報に対する注釈情報が入力される注釈情報入力工程と、
上記注釈情報入力工程で注釈情報が付加された経験情報を抽出して提示用コンテンツを生成する提示用コンテンツ生成工程と、
上記生成された提示用コンテンツと注釈情報とを対応付けて提示用コンテンツリストとして提示用コンテンツリストメモリに記憶する提示用コンテンツリスト記憶工程と、
上記使用者によって検索条件が注釈情報として入力される検索入力工程と、
上記検索入力工程で入力された検索条件としての注釈情報に対応する経験情報を上記提示用コンテンツリストメモリから抽出して上記使用者に提示する情報提示工程と
を有することを特徴とする情報蓄積方法。
An information acquisition process for acquiring experience information related to the event experienced by the user;
An accumulation step in which the experience information acquired in the information acquisition step is accumulated in a memory;
An annotation information input step in which annotation information for the experience information acquired in the information acquisition step is input;
A presentation content generation step of generating the presentation content by extracting the experience information with the annotation information added in the annotation information input step;
A presentation content list storage step of storing the generated presentation content and annotation information in association with each other in a presentation content list memory as a presentation content list;
A search input process in which search conditions are input as annotation information by the user,
And an information presentation step of extracting experience information corresponding to the annotation information as the search condition input in the search input step from the presentation content list memory and presenting the information to the user. .
JP2004174762A 2004-06-11 2004-06-11 Device and method for storing information Pending JP2005352923A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004174762A JP2005352923A (en) 2004-06-11 2004-06-11 Device and method for storing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004174762A JP2005352923A (en) 2004-06-11 2004-06-11 Device and method for storing information

Publications (1)

Publication Number Publication Date
JP2005352923A true JP2005352923A (en) 2005-12-22

Family

ID=35587338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004174762A Pending JP2005352923A (en) 2004-06-11 2004-06-11 Device and method for storing information

Country Status (1)

Country Link
JP (1) JP2005352923A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194790A (en) * 2015-03-31 2016-11-17 大日本印刷株式会社 Sever device, program and information providing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331779A (en) * 1998-05-20 1999-11-30 Sharp Corp Image retrieving method
JP2001092853A (en) * 1999-07-16 2001-04-06 Fuji Xerox Co Ltd Information registering device
JP2002297630A (en) * 2001-03-30 2002-10-11 Internatl Business Mach Corp <Ibm> Method and device for index generation, index addition system, program, and storage medium
JP2004070882A (en) * 2002-08-09 2004-03-04 Nippon Telegr & Teleph Corp <Ntt> Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331779A (en) * 1998-05-20 1999-11-30 Sharp Corp Image retrieving method
JP2001092853A (en) * 1999-07-16 2001-04-06 Fuji Xerox Co Ltd Information registering device
JP2002297630A (en) * 2001-03-30 2002-10-11 Internatl Business Mach Corp <Ibm> Method and device for index generation, index addition system, program, and storage medium
JP2004070882A (en) * 2002-08-09 2004-03-04 Nippon Telegr & Teleph Corp <Ntt> Metadata preparing method, contents providing server, metadata preparing program, and recording medium recording the program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016194790A (en) * 2015-03-31 2016-11-17 大日本印刷株式会社 Sever device, program and information providing method

Similar Documents

Publication Publication Date Title
US20210042662A1 (en) Interactive Information Capture and Retrieval with User-Defined and/or Machine Intelligence Augmented Prompts and Prompt Processing
JP5611829B2 (en) Operation control system and operation control method for information processing apparatus
CN101329678B (en) Searching and naming items based on metadata
JP4823135B2 (en) Information processing device, information processing method, information processing program, and portable terminal device
JP2005149126A (en) Information acquiring system and method, and information processing program
TWI443532B (en) System and method for context based query augmentation
JP2006031379A (en) Information presentation apparatus and information presentation method
KR101194186B1 (en) A lifelog system by using intelligent context-aware
JP2006024060A (en) Information acquisition utilization managing apparatus, and information acquisition utilization managing method
JP3895892B2 (en) Multimedia information collection management device and storage medium storing program
JPWO2010047336A1 (en) Image photographing system and image photographing method
JP7257703B2 (en) PERSONALIZED CONTENT RECOMMENDATION METHOD, GRAPHICAL USER INTERFACE AND SYSTEM THEREOF
CN111541946A (en) Automatic video generation method and system for resource matching based on materials
JP2005115867A (en) Private information storing device and method, and private information managing device and method
JP5779938B2 (en) Playlist creation device, playlist creation method, and playlist creation program
EP4060523A1 (en) Method and system for recommending location-based digital content
JP2005115868A (en) Private information storage device and method, and private information management device and method
TWI806207B (en) Method and system for initiating a location-based topic
JP2005352923A (en) Device and method for storing information
JP2005352922A (en) Device and method for storing information
WO2020158536A1 (en) Information processing system, information processing method, and information processing device
KR20160119738A (en) System for recommend the customized information, method thereof, and recordable medium storing the method
JP2005122488A (en) Private information storage apparatus, private information management apparatus, information management method, and program executing information management processing
CN114615524B (en) Training method of server and media asset recommendation network and media asset recommendation method
JP2005149125A (en) Private information storage system and private information management apparatus, and information storage method and information management method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100427