JP2008252356A - Information editing apparatus - Google Patents

Information editing apparatus Download PDF

Info

Publication number
JP2008252356A
JP2008252356A JP2007089398A JP2007089398A JP2008252356A JP 2008252356 A JP2008252356 A JP 2008252356A JP 2007089398 A JP2007089398 A JP 2007089398A JP 2007089398 A JP2007089398 A JP 2007089398A JP 2008252356 A JP2008252356 A JP 2008252356A
Authority
JP
Japan
Prior art keywords
information
data
life log
subject
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007089398A
Other languages
Japanese (ja)
Inventor
Fumiko Kikuchi
史子 菊池
Hiroharu Kato
大晴 加藤
Hiroshi Chokai
博 鳥海
Keigo Sakurai
啓悟 櫻井
Junko Oe
純子 大江
Kei Tanaka
慶 田中
Akio Fukushima
章雄 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2007089398A priority Critical patent/JP2008252356A/en
Publication of JP2008252356A publication Critical patent/JP2008252356A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prepare a personal history of a subject by editing information data and specified material information. <P>SOLUTION: The information editing apparatus comprises: biological information data 5a in which biological information 5a indicating the state of the subject is recorded; information data in which the information data relating to video images and sound that can be felt by the subject are recorded; time information acquisition data in which the recording time information relating to the time of recording the information data is acquired; a material information acquisition means for acquiring the specified material information generated for the time of recording the information data based on the recording time information in a material information group when decided that the state of the subject is a specified state on the basis of the biological information 5a; and an information editing means for editing the information data and the specified material information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、人間がある体験を通じて感じ取りうる映像や音声などをライフログとして残すとともに、これらを編集して自分史を作成することができる情報編集装置に関する。   The present invention relates to an information editing apparatus that can leave video or audio that can be felt through a certain experience as a life log and edit these to create a personal history.

近年、映像や音声(以下「映像等」という)を取り扱う技術の発達が目覚ましく、いわゆるデジタルビデオカメラといった撮影装置について性能の向上に関する技術開発が盛んに行われている。近年、このような技術を応用して映像や音声を自動的に記録するシステムが考案されている(特許文献1及び特許文献2参照)。このシステムを応用して、人間がその五感のうち少なくとも1つの感覚によって感じ取りうる映像や音などのライフログを恒常的に採取するアイデアが提案されている。   2. Description of the Related Art In recent years, technology for handling video and audio (hereinafter referred to as “video and the like”) has been remarkably developed, and technical development relating to improvement in performance of so-called digital video cameras has been actively conducted. In recent years, a system for automatically recording video and audio by applying such technology has been devised (see Patent Document 1 and Patent Document 2). An idea has been proposed in which this system is applied to constantly collect life logs such as images and sounds that humans can feel with at least one of the five senses.

このようなアイデアは、利用者が意識することなく自らの体験などを残すことができる点において、ある意味、自らの自分史を残すことに応用することができる。このように利用者のライフログを恒常的に採取するには、例えば利用者が生活に支障なく装着可能なデジタルビデオカメラなどを装着しておき、日常的にライフログを採取し続ける手法を採用することができる。そして利用者は、日常的に採取した自らのライフログを編集して所望の自分史を作成することができる。
特開2005−117541号公報(段落番号0141〜0152、図11) 特開2002−204419号公報(段落番号0006〜0007、図1)
Such an idea can be applied to leave one's own history in a sense in that the user can leave his / her own experience without being conscious of it. In order to constantly collect the user's life log in this way, for example, a method is adopted in which the user keeps collecting the life log on a daily basis by wearing a digital video camera that the user can wear without affecting their life. can do. The user can edit his / her life log collected on a daily basis to create a desired personal history.
Japanese Patent Laying-Open No. 2005-117541 (paragraph numbers 0141 to 0152, FIG. 11) JP 2002-204419 A (paragraph numbers 0006 to 0007, FIG. 1)

しかしながらこの公知技術では、このように利用者の自分史を作成するにあたり、自らが採取したライフログから作成すると、自分史を構成する素材としての映像等に自らが登場していないという問題点がある。これでは、利用者が満足するような自分史を作成することが困難であった。   However, with this known technology, when creating the user's own history in this way, if created from the life log collected by himself, there is a problem that himself does not appear in the video etc. as the material constituting his history. is there. This made it difficult to create a personal history that would satisfy users.

本発明が解決しようとする課題には、上記した問題が一例として挙げられる。   The problem to be solved by the present invention includes the above-described problem as an example.

上記課題を解決するために、請求項1記載の発明は、素材として採用しうる素材情報群を、各前記素材情報の生成時刻を表す素材時刻情報に関連づけて管理し、前記素材時刻情報に関連づけて前記素材情報を提供可能な素材情報提供手段と、被験者の状態を表す生体情報に基づいて前記被験者の状態が規定の状態であると判断した場合、前記素材情報群のうち、前記被験者が感じ取りうる情報を記録した情報データの記録時刻に関して生成された特定の素材情報を取得する素材情報取得手段と、前記情報データ及び前記特定の素材情報を編集する情報編集手段とを有する。   In order to solve the above-mentioned problem, the invention according to claim 1 manages a material information group that can be adopted as a material in association with material time information indicating a generation time of each material information, and associates the material information group with the material time information. The material information providing means capable of providing the material information, and the subject's state in the material information group when the subject's state is determined to be a prescribed state based on the biological information representing the state of the subject. Material information acquisition means for acquiring the specific material information generated with respect to the recording time of the information data in which the possible information is recorded, and information editing means for editing the information data and the specific material information.

以下、本発明の一実施の形態を図面を参照しつつ説明する。
<第1実施形態>
図1は、本発明の第1実施形態としての自分史作成システム100の構成例を示すシステム構成図である。
自分史作成システム100は、利用者自らの体験に基づく映像や音などのみならず、その他の素材(素材情報)を利用して編集することで、利用者の体験に基づく歴史(以下「自分史」という)を作成するシステムである。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a system configuration diagram showing a configuration example of a self-history creation system 100 as a first embodiment of the present invention.
The self-history creation system 100 uses not only video and sound based on the user's own experience but also other materials (material information) to edit the history based on the user's experience (hereinafter referred to as “self history”). ”).

この自分史作成システム100は複数のライフログ記録装置1を含んでいる。これら複数のライフログ記録装置1は互いに同一の構成及び機能である。各ライフログ記録装置1は、利用者としての自分や他人が各々利用する端末装置である。このライフログ記録装置1は、利用者が日常的に少なくとも1つの感覚によって感じ取りうる情報(情報データ)を記録する機能を有する。   The personal history creation system 100 includes a plurality of life log recording devices 1. The plurality of life log recording apparatuses 1 have the same configuration and function. Each life log recording device 1 is a terminal device used by a user or others as a user. The life log recording apparatus 1 has a function of recording information (information data) that a user can feel on a daily basis with at least one sense.

各ライフログ記録装置1は、カメラ2(自己情報記録手段)、マイクロフォン3(自己情報記録手段)、生体情報取得部5(生体情報取得手段)、インターフェース部4、バッファ6(情報記憶装置)、通信部7(素材情報取得手段)、測位部8、計時部11、表示部99(自分史出力手段)、スピーカー12(自分史出力手段)、取得出力制御部9(素材情報取得手段)及び制御部10(情報編集手段)を備えている。   Each life log recording device 1 includes a camera 2 (self-information recording unit), a microphone 3 (self-information recording unit), a biological information acquisition unit 5 (biological information acquisition unit), an interface unit 4, a buffer 6 (information storage device), Communication unit 7 (material information acquisition unit), positioning unit 8, timing unit 11, display unit 99 (self history output unit), speaker 12 (self history output unit), acquisition output control unit 9 (material information acquisition unit) and control A unit 10 (information editing means) is provided.

カメラ2及びマイクロフォン3は、例えば利用者が装着可能な眼鏡形状の部材に設けられている。カメラ2は、その眼鏡形状の部材における利用者の目の近傍に配置されており、利用者の視点からその周囲を撮影する機能を有する。このカメラ2が撮影した映像は、カメラ2から映像データ2aとして出力される。この映像は、例えば色、形、温度及び動き(速さ)のいずれか又はこれらいずれかの組み合わせを表すものである。   The camera 2 and the microphone 3 are provided, for example, on eyeglass-shaped members that can be worn by the user. The camera 2 is arranged in the vicinity of the user's eyes in the glasses-shaped member, and has a function of photographing the periphery from the user's viewpoint. The video imaged by the camera 2 is output from the camera 2 as video data 2a. This image represents, for example, any one of color, shape, temperature, movement (speed), or any combination thereof.

マイクロフォン3は、その眼鏡形状の部材における例えば利用者の耳の近傍に配置され、利用者の周囲の音を採取する機能を有する。このマイクロフォン3が採取した音は、マイクロフォン3から音データ3a(例えば音声データ)として出力される。この音としては、例えば環境音、人の話し声及び自分の発言のいずれか又はこれらいずれかの組み合わせを挙げることができる。   The microphone 3 is disposed, for example, in the vicinity of the user's ear in the eyeglass-shaped member, and has a function of collecting sounds around the user. The sound collected by the microphone 3 is output from the microphone 3 as sound data 3a (for example, voice data). As this sound, for example, any one or a combination of environmental sound, human speech, and own speech can be cited.

本実施形態では、これら映像データ2a及び音データ3aのように利用者の体験を表す情報を「ライフログ」と総称している。なおライフログとしては、映像データ2a及び音データ3aの両方のみならず、一方のみ或いはその他のデータ(例えば匂い、位置、味、温度、湿度、気圧のいずれか又はそれらいずれかの組み合わせに関するデータ)を採用してもよい。   In the present embodiment, information representing the user's experience such as the video data 2a and the sound data 3a is collectively referred to as “life log”. Note that the life log includes not only both the video data 2a and the sound data 3a, but also only one or other data (for example, data on any one of odor, position, taste, temperature, humidity, pressure, or a combination thereof). May be adopted.

生体情報取得部5は、利用者がライフログ記録装置1を装着した際に、その利用者の生体情報を取得する機能を有する。ここで生体情報とは、利用者の生体に関する情報の総称であり、例えば心拍数(脈拍)、血圧、発汗量及び涙量の少なくとも1つ又はこれらの組み合わせに関する情報を含んでいる。この生体情報としては、その利用者に関するその他の情報(体温等)であってもよい。   The biometric information acquisition unit 5 has a function of acquiring the biometric information of the user when the user wears the life log recording device 1. Here, the biological information is a general term for information related to a user's biological body, and includes, for example, information related to at least one of a heart rate (pulse), blood pressure, sweat volume, and tear volume, or a combination thereof. This biological information may be other information (such as body temperature) related to the user.

インターフェース部4は、カメラ2、マイクロフォン3及び生体情報取得部5が接続されているとともに、バッファ6が接続されている。このインターフェース部4は、カメラ2、マイクロフォン3及び生体情報取得部5とバッファ6とのインターフェース機能を有する。   The interface unit 4 is connected to the camera 2, the microphone 3, and the biological information acquisition unit 5, and is connected to a buffer 6. The interface unit 4 has an interface function between the camera 2, the microphone 3, the biological information acquisition unit 5 and the buffer 6.

バッファ6は、インターフェース部4を経由して入力された映像データ2a、音データ3a及び生体情報5aを各々記憶可能な情報記録媒体(情報記憶装置)である。この生体情報5aとしては、例えば心拍数、発汗量、握力、体温、瞬き、血圧、筋電図、匂い及び涙量のいずれか又はこれらいずれかの組み合わせを挙げることができる。測位部8は、例えばGPS(Global Positioning System)を用いて、ライフログ記録装置1の現在地を測位して位置情報を取得する測位装置である。   The buffer 6 is an information recording medium (information storage device) capable of storing the video data 2a, the sound data 3a, and the biological information 5a input via the interface unit 4, respectively. Examples of the biological information 5a include heart rate, sweating amount, grip strength, body temperature, blink, blood pressure, electromyogram, smell, and tear volume, or any combination thereof. The positioning unit 8 is a positioning device that acquires the position information by positioning the current location of the life log recording device 1 using, for example, GPS (Global Positioning System).

計時部11は、それら映像データ2a及び音データ3aの記録と同期して時刻を計測する計時機能を有している。この計時部11は、映像データ2a及び音データ3aを記録した時刻を計時して時刻情報を取得する機能を有する(時刻情報取得手段)。   The timekeeping unit 11 has a timekeeping function for measuring time in synchronization with the recording of the video data 2a and the sound data 3a. The timer unit 11 has a function of measuring time when the video data 2a and the sound data 3a are recorded and acquiring time information (time information acquisition means).

制御部10は、取得した時刻情報に同期させつつ、さらに、取得した位置情報に関連づけつつ、バッファ6への映像データ2a及び音データ3aの記録を制御している。このバッファ6には、利用者のライフログデータとして映像データ2a及び音データ3aが恒常的に記録されている(以下「ライフログ恒常記録機能」という)。   The control unit 10 controls the recording of the video data 2a and the sound data 3a in the buffer 6 while synchronizing with the acquired time information and further associating with the acquired position information. In this buffer 6, video data 2a and sound data 3a are constantly recorded as user life log data (hereinafter referred to as "life log constant recording function").

取得出力制御部9は、制御部10の制御によって、他人のライフログとして他人の映像データ2a及び音データ3aを、他人の利用するライフログ記録装置1から取得する機能を有する(他人ライフログ取得機能)。具体的には制御部10は、生体情報5aに基づいて利用者の状態が上記規定の状態に移行したと判明した時に、他人ライフログ取得機能を作動させる。本実施形態では、上記規定の状態として、例えばライフログ記録装置1の利用者が「嬉しい」と感じている状態を挙げて説明するが、この規定の状態は目的に応じて様々な感情の状態を採用してもよい。   The acquisition output control unit 9 has a function of acquiring the other person's video data 2a and sound data 3a as the other person's life log from the life log recording device 1 used by the other person under the control of the control unit 10 (acquisition of another person's life log). function). Specifically, when it is determined that the state of the user has shifted to the specified state based on the biological information 5a, the control unit 10 activates the other person's life log acquisition function. In the present embodiment, as the above-mentioned prescribed state, for example, a state in which the user of the life log recording apparatus 1 feels “happy” will be described, but this prescribed state is a state of various emotions depending on the purpose. May be adopted.

制御部10は、通信部7を制御し、他人が利用するライフログ記録装置1に記録済みの他人の映像データ2a及び他人の音データ3aを取得する。通信部7は、制御部10の制御によって、他人のライフログ記録装置1から他人の映像データ2a及び他人の音データ3aを無線或いは有線によってデータ通信を行う機能を有する。   The control unit 10 controls the communication unit 7 to acquire the other person's video data 2a and the other person's sound data 3a recorded in the life log recording device 1 used by another person. The communication unit 7 has a function of performing data communication between the other person's life log recording device 1 and the other person's video data 2a and the other person's sound data 3a by wireless or wired under the control of the control unit 10.

さらに取得出力制御部9は、表示部99に映像を表示させたり音出力部12に音を出力させる機能を有する。表示部99は、例えば液晶ディスプレイのような表示装置である。音出力部12は、例えばスピーカーのような音出力装置である。   Further, the acquisition output control unit 9 has a function of causing the display unit 99 to display an image and causing the sound output unit 12 to output a sound. The display unit 99 is a display device such as a liquid crystal display. The sound output unit 12 is a sound output device such as a speaker.

図2は、図1に示すバッファ6及び取得出力制御部9の構成例を示すブロック図である。
さらに図2に示す取得出力制御部9は、上記他人ライフログ取得機能の作動により取得したライフログ(映像データ2a及び音データ3a)を編集する機能を有する(ライフログ編集機能)。
FIG. 2 is a block diagram illustrating a configuration example of the buffer 6 and the acquisition output control unit 9 illustrated in FIG.
Further, the acquisition output control unit 9 shown in FIG. 2 has a function of editing the life log (video data 2a and sound data 3a) acquired by the operation of the other person's life log acquisition function (life log editing function).

取得出力制御部9は、指定部21(素材情報取得手段)、検索部22(素材情報取得手段)、取得部23(素材情報取得手段)、自分史データ作成部24(情報編集手段)及び出力制御部25を有する。バッファ6には、上記ライフログ恒常記録機能によって、利用者が自らのライフログ記録装置1で取得した映像データ2a及び音データ3a(図示の例では「自分ライフログデータ28」に相当)がライフログとして記録されている。   The acquisition output control unit 9 includes a designation unit 21 (material information acquisition unit), a search unit 22 (material information acquisition unit), an acquisition unit 23 (material information acquisition unit), a personal history data creation unit 24 (information editing unit), and an output. A control unit 25 is included. The buffer 6 stores video data 2a and sound data 3a (corresponding to “self life log data 28” in the illustrated example) acquired by the user with his / her life log recording device 1 by the life log constant recording function. It is recorded as a log.

指定部21は、主指定部21a、従指定部21b及び見方指定部21cを有する。
主指定部21aは、自分史を作成するにあたり素材として用いたい自己のライフログデータ28(以下「自己ライフログデータ」という)を指定する機能を有する(自己ライフログ指定機能)。
The designation unit 21 includes a main designation unit 21a, a sub designation unit 21b, and a viewing designation unit 21c.
The main designating unit 21a has a function of designating its own life log data 28 (hereinafter referred to as “self life log data”) to be used as a material when creating its own history (self life log designating function).

従指定部21bは、自分史を作成するにあたり素材として用いたい他人ライフログデータ27(以下「他人ライフログデータ」という)の検索条件を指定する機能を有する。この他人ライフログデータ27としては、例えば、このライフログデータ28に付随する記録時刻情報に基づいて特定した時刻(自己ライフログデータ28を記録した時刻)に、指定済みのライフログデータ28に付随する記録位置情報に基づいて特定した位置の近傍(自己のライフログ記録装置1の近傍)に配置していた、他人のライフログ記録装置1によって取得されたライフログデータを例示することができる。   The sub-designating unit 21b has a function of designating a search condition for other person life log data 27 (hereinafter referred to as “other person life log data”) that is desired to be used as a material in creating the personal history. As the other person life log data 27, for example, at the time specified based on the recording time information attached to the life log data 28 (the time when the self life log data 28 was recorded), the other person life log data 27 is attached to the specified life log data 28. The life log data acquired by another person's life log recording apparatus 1 arranged near the position specified based on the recording position information to be performed (in the vicinity of the own life log recording apparatus 1) can be exemplified.

見方指定部21cは、最終的に編集すべき自分史(電子自分史)の見せ方に応じて、例えばある映画監督風(△○監督風)又はドキュメンタリ風というように、自分史の見せ方を指定する機能を有する。なおこれらの各指定は、例えば音声入力による指定を採用することもできるし、又は、例えばPDA(Personal Digital Assistant)タイプの入力装置を用いた手入力による指定を採用することもできる。   Depending on how the personal history (electronic personal history) to be edited finally is shown, the view designating unit 21c shows how to show the personal history, for example, a movie director style (△ ○ director style) or a documentary style. Has the function to specify. Each of these designations can adopt, for example, designation by voice input, or designation by manual input using, for example, a PDA (Personal Digital Assistant) type input device.

検索部22は、指定部21によって指定された検索条件に従って、他人ライフログデータ27を検索し、利用者が望む素材を探し出す機能を有する。取得部23は、検索部22によって検索した際にヒットしたレコードが存在する場合、他人ライフログデータ27(他人の映像データ2a及び他人の音データ3a)を他人のライフログ記録装置1から取得する。取得部23は、取得した他人ライフログデータ27をバッファ6に記録させる。   The search unit 22 has a function of searching the other person's life log data 27 in accordance with the search condition specified by the specifying unit 21 and searching for a material desired by the user. When there is a record hit when the search unit 22 searches, the acquisition unit 23 acquires other person's life log data 27 (other person's video data 2a and other person's sound data 3a) from the other person's life log recording apparatus 1. . The acquisition unit 23 records the acquired other person life log data 27 in the buffer 6.

このように他人のライフログを取得するのは、自己のライフログ記録装置1では自己周辺の音データ3aを記録することができるものの、自己の映像データ2aを自ら記録することができないためである。このようにすると、利用者による自分史の作成にあたって他人のライフログから自分の映像や音などを素材として調達することができる。   The other person's life log is acquired in this way because his / her own life log recording apparatus 1 can record the sound data 3a around him / herself but cannot record his / her own video data 2a himself / herself. . In this way, when the user creates his / her own history, his / her own video or sound can be procured as a material from another person's life log.

自分史データ作成部24は、このように取得した他人ライフログデータ27及び自分ライフログデータ28を編集して、自分の体験に関する電子データ(以下「自分史データ」という)を作成する機能を有する。具体的には、自分史データ作成部24は、自分史データとして、例えば自分史として視覚に訴える表示を実現するための表示用データを作成したり、例えば自分史として聴覚に訴える音を出力するための音出力用データを作成する。   The personal history data creation unit 24 has a function of editing the other person's life log data 27 and the personal life log data 28 acquired in this way to create electronic data relating to his / her own experience (hereinafter referred to as “self history data”). . Specifically, the personal history data creation unit 24 creates, as personal history data, for example, display data for realizing a display appealing visually as personal history, or outputs a sound appealing to hearing as personal history, for example. Create sound output data.

出力制御部25は、このように作成された表示用データに基づいて上記表示部99に自分史を映像として表示させたり、このように作成された音出力用データに基づいて音出力部12に自分史を音として出力させる。   The output control unit 25 causes the display unit 99 to display the history as a video based on the display data created in this way, or causes the sound output unit 12 to display the sound output data created in this way. Output your own history as sound.

図3は、本実施形態において用いるデータの一例を示すイメージ図である。なお、図3において図示した「DB」の文字は「データベース」を表している。   FIG. 3 is an image diagram showing an example of data used in the present embodiment. Note that the letters “DB” illustrated in FIG. 3 represent “database”.

自己ライフログデータベース28aは、少なくとも1つの自己ライフログデータ28を有する。他人ライフログデータベース27aは、少なくとも1つの他人ライフログデータ27を有する。生体情報データベース5bは、例えば少なくとも1つの生体情報5aを有する。ここでいう生体情報5aは、例えば利用者が心地よさを感じた場合に脳波として出力される「α波」などを挙げることができる。   The self life log database 28 a has at least one self life log data 28. The other person life log database 27 a includes at least one other person life log data 27. The biological information database 5b has at least one biological information 5a, for example. The biometric information 5a here can include, for example, an “α wave” that is output as an electroencephalogram when the user feels comfortable.

また本実施形態では、上記制御部10は、予め定められたアルゴリズムを用いて、この生体情報データベース5bから感情データベース30を生成している。この感情データベース30は、生体情報データベース5bに含まれる生体情報5aから生成された感情データ31の集合体である。   Moreover, in this embodiment, the said control part 10 produces | generates the emotion database 30 from this biometric information database 5b using a predetermined algorithm. The emotion database 30 is a collection of emotion data 31 generated from the biological information 5a included in the biological information database 5b.

この感情データ31は、少なくとも1つの生体情報5aによって特定される利用者の感情状態(例えば嬉しい状態、楽しい状態、悲しい状態)を表している。つまり利用者がある感情状態に移行している場合には、利用者に関する1つの生体情報5a或いは複数の生体情報5aの組み合わせによって、その感情状態を特定することができる。本実施形態では、このように利用者の特定の感情状態を表す感情データ31の雛形(パターン)を「特定感情パターン」と呼ぶ。   This emotion data 31 represents a user's emotional state (for example, a happy state, a pleasant state, a sad state) specified by at least one biological information 5a. That is, when the user has transitioned to a certain emotional state, the emotional state can be specified by one biological information 5a regarding the user or a combination of a plurality of biological information 5a. In the present embodiment, the template (pattern) of the emotion data 31 representing the specific emotional state of the user is referred to as a “specific emotion pattern”.

このような感情データ31(特定感情パターン)を感情データベース30に登録しておけば、利用者の生体情報5aからある感情データが割り出された際に、この感情データを感情データベース30の特定感情パターンと比較して、利用者が現在どのような感情状態に遷移しているのかについて判断することができる。   If such emotion data 31 (specific emotion pattern) is registered in the emotion database 30, when the emotion data is determined from the user's biological information 5a, the emotion data is stored in the emotion database 30 as the specific emotion. Compared with the pattern, it is possible to determine what emotional state the user is currently transitioning to.

具体的な判断方法としては、例えば利用者の生体情報5aによって特定された感情データが、感情データベース30の特定感情パターンにおおよそ一致するか否かを判断する。すなわち、この判断方法では、一定時間内における感情データと特定感情パターンとの一致ポイント数を計測し、そのポイント数が一定数以上(例えば10個)である場合、利用者がその特定感情パターンが示す感情状態(例えば嬉しい状態、楽しい状態又は悲しい状態)に遷移しているものと推定する。   As a specific determination method, for example, it is determined whether or not the emotion data specified by the user's biological information 5a substantially matches the specific emotion pattern in the emotion database 30. That is, in this determination method, the number of matching points between emotion data and a specific emotion pattern within a predetermined time is measured, and when the number of points is equal to or greater than a predetermined number (for example, 10), the user determines that the specific emotion pattern is It is presumed that the state has changed to an emotional state (for example, a happy state, a pleasant state, or a sad state).

自分史作成システム100は各々以上のような構成であり、次に図1〜図3を参照しつつ自分史作成システム100の動作例を説明する。
図4は、自分史作成処理の手順の一例を示すフローチャートである。
本実施形態では、他人が視覚や聴覚により感じ取った体験に関する情報(他人ライフログデータ27)を素材(素材情報)として用いつつ、自己が視覚や聴覚により感じ取った体験に関する情報(自己ライフログデータ28)を編集して、(電子)自分史を作成する。
The personal history creation system 100 is configured as described above. Next, an example of the operation of the personal history creation system 100 will be described with reference to FIGS.
FIG. 4 is a flowchart showing an example of the procedure of the personal history creation process.
In the present embodiment, information (experience life log data 27) related to experiences sensed by others visually or auditorily is used as material (material information), while information (self life log data 28) regarding experiences experienced by oneself visually or auditorily is used. ) Edit to create your own (electronic) history.

まず概略を説明すると、ステップS10では、後述する感情データベース(感情DB)生成処理を実行する。次にステップS20では、後述するライフログ検索処理を実行する。次にステップS40では、バッファ6に記憶済みの他人ライフログデータ27及び自己ライフログデータ28に基づいて自分史の編集処理を実行する。以下、各処理について具体的に説明する。   First, the outline will be described. In step S10, an emotion database (emotion DB) generation process described later is executed. Next, in step S20, a life log search process described later is executed. In step S40, the personal history editing process is executed based on the other person life log data 27 and the self life log data 28 stored in the buffer 6. Each process will be specifically described below.

<感情データベース生成処理>
図5は、図4に示す感情データベース31の生成処理の一例を示すフローチャートである。
ライフログ記録装置1では、カメラ2が利用者の周囲の映像を撮影して得た映像データ2aを恒常的にバッファ6に記録している。またライフログ記録装置1では、マイクロフォン3が利用者の周囲の音を採取して得た音データ3aを恒常的にバッファ6に記録している。これら映像データ2a及び音データ3aは、互いに同期が取られた状態でバッファ6に記録されている。これら映像データ2a及び音データ3aは、各々映像及び音の取得時刻を特定可能なタイムコードが付されている。
<Emotion database generation processing>
FIG. 5 is a flowchart showing an example of the generation process of the emotion database 31 shown in FIG.
In the life log recording device 1, video data 2 a obtained by the camera 2 shooting a video around the user is constantly recorded in the buffer 6. In the life log recording device 1, the microphone 3 constantly records sound data 3 a obtained by collecting sounds around the user in the buffer 6. These video data 2a and sound data 3a are recorded in the buffer 6 in a synchronized state. These video data 2a and sound data 3a have time codes that can specify the acquisition time of the video and sound, respectively.

これらと同期して、生体情報取得部5が、利用者の生体に関する情報を取得して得た生体情報5aを恒常的にバッファ6に記録している。以下の説明では、このようにバッファ6に記憶済みの映像データ2a及び音データ3aをライフログデータ28と呼んでおり、このライフログデータ28の集合体をライフログデータベースと呼んでいる。   In synchronization with these, the biometric information acquisition unit 5 constantly records the biometric information 5a obtained by acquiring information about the user's biometrics in the buffer 6. In the following description, the video data 2a and the sound data 3a stored in the buffer 6 in this way are called life log data 28, and an aggregate of the life log data 28 is called a life log database.

ステップS11では、制御部10が、バッファ6に記憶済みの生体情報データベース5bから規定の少なくとも1つの生体情報5aを取得する。ここで生体情報5aの選択方法としては、例えば嬉しかった体験に基づく自分史を生成する場合、嬉しい場合に特徴的に現れる少なくとも1つの生体情報5aを選択することを挙げることができる。例えば嬉しい場合、生体情報としてα波などを選択することができるため、制御部10は、生体情報5aによって利用者の「α波」などを採取する。   In step S <b> 11, the control unit 10 acquires at least one prescribed biological information 5 a from the biological information database 5 b stored in the buffer 6. Here, as a method for selecting the biometric information 5a, for example, when generating a personal history based on a happy experience, at least one biometric information 5a that appears characteristically when the user is happy can be selected. For example, if the user is happy, an α wave or the like can be selected as the biological information, and therefore the control unit 10 collects the user's “α wave” or the like using the biological information 5a.

ステップS12では、感情データベースアルゴリズム処理を実行する。この感情データベースアルゴリズム処理では、少なくとも1つの生体情報5a(又は複数の生体情報5aの組み合わせ)によって利用者の感情を特定できることを利用している。つまり、例えば生体情報5aとしての「α波」などが規定の閾値以上である場合には、利用者が「嬉しさ」を感じているものと推測することができる。   In step S12, emotion database algorithm processing is executed. This emotion database algorithm process utilizes the fact that a user's emotion can be specified by at least one biological information 5a (or a combination of a plurality of biological information 5a). That is, for example, when the “α wave” as the biological information 5a is equal to or greater than a predetermined threshold, it can be assumed that the user feels “joyful”.

次にステップS13では、これら「α波」などという生体情報5aの組み合わせ(のグラフ特性)を感情データ31(特定感情パターン)として感情データベース30に格納する。このようにすると、制御部10は、図3に示すように生体情報データベース5b(1次データベース:1次DB)から感情データベース30(2次データベース:2次DB)を予め生成しておくことができる。   Next, in step S13, the combination (graph characteristic) of the biological information 5a such as “α wave” is stored in the emotion database 30 as emotion data 31 (specific emotion pattern). If it does in this way, the control part 10 may produce | generate the emotion database 30 (secondary database: secondary DB) previously from the biometric information database 5b (primary database: primary DB), as shown in FIG. it can.

図6は、感情データベース30に存在する感情データの一例を示す特性図である。なお、図示の感情データの特性例においては、その縦軸が感情データの強度Nを示しており、その横軸が時間t[sec]を示している。横軸は左から右に進むにつれて時間が経過するように図示している。   FIG. 6 is a characteristic diagram showing an example of emotion data existing in the emotion database 30. In the illustrated example of emotion data characteristics, the vertical axis indicates the intensity N of emotion data, and the horizontal axis indicates time t [sec]. The horizontal axis is illustrated so that time elapses from left to right.

図示の感情データは、最初のうち高い特性を示しているが、中盤に徐々に低下し、最後に一気に増加する特性を示している。比べる対象としての被比較感情データが、図6に示すような感情データの特性を示す場合、この被比較感情データは利用者が嬉しい状態にあると判断することができる。よって感情データベース30には、例えば「嬉しい」という感情状態を表す特定感情パターンとして図示のような感情特性が時間の経過に応じて登録される。   The emotion data shown in the figure shows a high characteristic at first, but gradually decreases to the middle and finally increases at a stroke. When the compared emotion data as a comparison target shows the characteristics of emotion data as shown in FIG. 6, it can be determined that the compared emotion data is in a state in which the user is happy. Therefore, in the emotion database 30, for example, an emotion characteristic as shown in the figure is registered with the passage of time as a specific emotion pattern representing an emotional state of “happy”.

図7は、感情データベース30に存在する感情データの他の一例を示す特性図である。図7は、ある利用者の時刻ごとの感情の状態例を示している。なお、図7において縦軸は感情の種類の具体例を示しており、横軸は時刻t[sec]を示している。横軸は左から右になるほど時間が経過するように表されている。縦軸には、上から「嬉しい状態(嬉)」、「楽しい状態(楽)」、「躁鬱状態(躁)」、「安心状態(安心)」、「不安状態(不安)」、「鬱状態(鬱)」、「哀愁状態(哀)」が例示されている。   FIG. 7 is a characteristic diagram showing another example of emotion data existing in the emotion database 30. FIG. 7 shows an example of emotional state for each user's time. In FIG. 7, the vertical axis indicates a specific example of the type of emotion, and the horizontal axis indicates time t [sec]. The horizontal axis is represented such that time elapses from left to right. On the vertical axis, from above, “happy state (joy)”, “fun state (easy)”, “躁 depression state (躁)”, “relief state (relief)”, “anxiety state (anxiety)”, “depressed state” (Depressed) "and" sorrowful state (sorrow) "are illustrated.

各感情状態の横に配置された小さな丸印(○)は、各時刻における利用者の感情状態を示している。同時刻(図示の縦方向)において複数の感情状態に丸印が配列しているのは、利用者がこれら複数の感情状態に移行していることを示す。図7に示すように利用者の感情状態がマッピングされた場合においては、例えば利用者が連続的に丸印が配列している箇所の感情に該当していると考えられる。例えば時刻t[sec]が早い時間帯においては、丸印が連続しており、利用者の感情が「嬉しい」状態であると判断することができる。上記感情データベース30は、各時刻における利用者の感情の遷移がわかるように、時間経過に応じて感情データを管理している。   A small circle (o) arranged beside each emotional state indicates the emotional state of the user at each time. The fact that circles are arranged in a plurality of emotional states at the same time (vertical direction in the drawing) indicates that the user has transitioned to these emotional states. In the case where the emotional state of the user is mapped as shown in FIG. 7, it is considered that the user corresponds to the emotion of the place where the circles are continuously arranged, for example. For example, in a time zone where the time t [sec] is early, the circles are continuous, and it can be determined that the user's emotion is “happy”. The emotion database 30 manages emotion data according to the passage of time so that the transition of the user's emotion at each time can be understood.

<ライフログ検索処理>
図8は、ライフログ検索取得処理の手順の一例を示すフローチャートである。
このライフログ検索取得処理では、例えば2つのライフログデータを取得している。1つは、利用者本人の自己ライフログデータ28であり、もう1つは、その本人以外の人(他人)に関する他人ライフログデータ27である。
<Life log search processing>
FIG. 8 is a flowchart illustrating an example of the procedure of the life log search acquisition process.
In this life log search acquisition process, for example, two life log data are acquired. One is the self life log data 28 of the user himself / herself, and the other is the other person life log data 27 relating to a person (other person) other than the user himself / herself.

本実施形態では、例えば「嬉しい」という感情に基づく利用者の自分史を作成する場合を例示して説明する。まずステップS21では、取得出力制御部9が、利用者の望む感情(例えば嬉しい)を設定する。次にステップS22では、取得出力制御部9が、この「嬉しい」という感情に関する特定感情パターンが感情データベース30に登録されているか否かを確認する。取得出力制御部9は、この特定感情パターンが感情データベース30に存在していない(登録されていない)場合、後述するステップS28に進む。制御部10は、この感情データパターンが感情データベース30に存在している(登録されている)である場合、ステップS23に進む。   In the present embodiment, for example, a case where a user's own history based on the feeling of “happy” is created will be described. First, in step S21, the acquisition output control unit 9 sets an emotion desired by the user (for example, happy). Next, in step S <b> 22, the acquisition output control unit 9 confirms whether or not the specific emotion pattern related to the emotion of “happy” is registered in the emotion database 30. When the specific emotion pattern does not exist (is not registered) in the emotion database 30, the acquisition output control unit 9 proceeds to step S28 described later. If this emotion data pattern exists (is registered) in the emotion database 30, the control unit 10 proceeds to step S23.

利用者は、自らの自分史の作成にあたり素材として用いたいライフログデータを次のように特定する。まず表示部99には、取得出力制御部9の制御によって、図9に示すようなライフログデータの種類などの指定画面が表示される。この指定画面は、主ライフログデータID入力エリア99a、見方指定エリア99c、従ライフログデータID入力エリア99b、見方指定エリア99d及び決定ボタン99dを含んでいる。   The user specifies life log data to be used as a material in creating his / her own history as follows. First, under the control of the acquisition output control unit 9, a designation screen such as the type of life log data as shown in FIG. This designation screen includes a main life log data ID input area 99a, a view designation area 99c, a sub life log data ID input area 99b, a view designation area 99d, and a decision button 99d.

利用者は、主ライフログデータID入力エリア99aに所望の自己ライフログデータ28の識別子(IDentification)、例えばファイル名や配置場所を入力し、例えば見方指定エリア99cに所望の見せ方として「○×監督風」と指定する。また利用者は、従ライフログデータID入力エリア99bに所望の他人ライフログデータ27のファイル名や配置場所を入力し、例えば見方指定エリア99dに所望の見せ方として「△○監督風」と指定する。利用者は、入力内容が所望の入力内容であることを確認したら、決定ボタン99dをクリックして入力内容を確定する。   The user inputs an identifier (IDentification) of a desired self-life log data 28 in the main life log data ID input area 99a, for example, a file name and an arrangement location, and for example, “○ × Designated as “Director Style”. Further, the user inputs the file name and location of the desired other person's life log data 27 in the sub life log data ID input area 99b, and designates “Δ ○ supervisory style” as the desired way of viewing in the view designation area 99d, for example. To do. When the user confirms that the input content is the desired input content, the user clicks the enter button 99d to confirm the input content.

決定ボタン99dをクリックすると、図2に示す主指定部21a、従指定部21b及び見方指定部21cが次のように作動する。つまり主指定部21aは、図9に示す主ライフログデータID入力エリア99aの入力内容に基づいて、自己ライフログデータ28の指定を行う。図2の従指定部21bは、図9に示す従ライフログデータID入力エリア99bの入力内容に基づいて、他人ライフログデータ27の指定を行う。図2の見方指定部21cは、図9に示す見方指定エリア99dの指定内容に従って、自分ライフログデータ28を「○×監督風」にアレンジするとともに他人ライフログデータ27を「△○監督風」にアレンジして編集するように自分史の見せ方の指定を行う。   When the determination button 99d is clicked, the main designation unit 21a, the sub designation unit 21b, and the view designation unit 21c shown in FIG. 2 operate as follows. That is, the main designation unit 21a designates the self life log data 28 based on the input contents of the main life log data ID input area 99a shown in FIG. The sub-specification unit 21b of FIG. 2 specifies the life log data 27 of the other person based on the input contents of the sub-life log data ID input area 99b shown in FIG. The view designating unit 21c shown in FIG. 2 arranges its own life log data 28 in the “supervision style” according to the designation content of the view designation area 99d shown in FIG. Specify how to show your history to arrange and edit.

<自己ライフログデータの取得>
ここで利用者は、過去の嬉しかった体験に基づく電子自分史を作成しようとしているため、取得出力制御部9は、制御部10の制御によって、利用者(自己)が望む感情状態として、例えば嬉しい状態を設定する。上述のように生体情報取得部5は恒常的に生体情報5aを取得しており、この生体情報5aの取得時刻とともに生体情報5aをバッファ6に記憶している。
<Obtain self-life log data>
Here, since the user is trying to create an electronic history based on a past happy experience, the acquisition output control unit 9 is happy, for example, as an emotional state desired by the user (self) under the control of the control unit 10. Set the state. As described above, the biological information acquisition unit 5 constantly acquires the biological information 5a, and stores the biological information 5a in the buffer 6 together with the acquisition time of the biological information 5a.

図8のステップS21では、まず取得出力制御部9が、感情データベース30において所望の感情状態(例えば嬉しい状態)を表す特定感情パターンを特定する。そして次にステップS23では、取得出力制御部9が、この生体情報5a又はその組み合わせに基づく感情データに、この特定感情パターンと一致する部分があるか否かを判断する。このステップS23では、一致する部分があると、取得出力制御部9は、その取得時刻をキーとして自己のライフログデータベース28aから、自己ライフログデータ28(映像データ2a及び音データ3a)の同時刻の部分を電子自分史の素材として取得する。取得出力制御部9は、自己のライフログデータ28から取得した部分をバッファ6に記憶させる。   In step S <b> 21 of FIG. 8, first, the acquisition output control unit 9 specifies a specific emotion pattern representing a desired emotion state (for example, a happy state) in the emotion database 30. Then, in step S23, the acquisition output control unit 9 determines whether or not there is a portion that matches the specific emotion pattern in the emotion data based on the biological information 5a or a combination thereof. In this step S23, if there is a matching part, the acquisition output control unit 9 uses the acquisition time as a key and from the own life log database 28a, the same time of the own life log data 28 (video data 2a and sound data 3a). Is acquired as a material of electronic history. The acquisition output control unit 9 stores the part acquired from its own life log data 28 in the buffer 6.

<他人ライフログデータの取得>
図8のステップS24では、取得出力制御部9が、記録時刻情報に基づく時刻(自己ライフログデータ28を採取した時刻)に、記録位置情報に基づく位置(自己の近辺)に存在していた他人のライフログ記録装置1で記録されていた他人ライフログデータ27を取得する。ここでいう他人ライフログデータ27は、例えば他人の映像データ2a及び他人の音データ3aの少なくとも一方を含んでいる。音は元々指向性が低いため、自己と他人が近接している場合、音データ3aは自己及び他人で同一の音源を重複して記録できていることが多い。このため取得出力制御部9が映像データ2aのみを取得するようにすると、取得出力制御部9が他人ライフログデータ27を取得するデータ量を低減することができる。
<Acquisition of other person's life log data>
In step S24 of FIG. 8, the acquisition output control unit 9 has another person who was present at the position based on the recording position information (the vicinity of the self) at the time based on the recording time information (the time when the self-life log data 28 was collected). The other person's life log data 27 recorded in the life log recording device 1 is acquired. The other person life log data 27 here includes, for example, at least one of the other person's video data 2a and the other person's sound data 3a. Since the sound is originally low in directivity, when the self and another person are close to each other, the sound data 3a can often record the same sound source by itself and the other person. For this reason, when the acquisition output control unit 9 acquires only the video data 2a, the data amount by which the acquisition output control unit 9 acquires the other person's life log data 27 can be reduced.

ステップS25では、取得出力制御部9(顔検出手段)が、パターンマッチング処理を実行する。具体的にはステップS26では、取得出力制御部9が、画像処理によってパターンマッチングを行い、他人ライフログより取得した他人の映像データ2aから自己がその映像データ2aに基づく映像中に映り込んでいる時間帯の部分を特定する。自己が映り込んでいる(他人のライフログに自己の映像が存在している)場合にはステップS27に進み、自己が映り込んでいない(他人のライフログに自己の映像が存在していない)場合には後述するステップS28に進む。   In step S25, the acquisition output control unit 9 (face detection means) executes a pattern matching process. Specifically, in step S26, the acquisition output control unit 9 performs pattern matching by image processing, and the self is reflected in the video based on the video data 2a from the video data 2a of the other person acquired from the other person's life log. Specify the time zone part. If the self is reflected (the self video is present in the life log of another person), the process proceeds to step S27, and the self is not reflected (the self video is not present in the life log of the other person). In this case, the process proceeds to step S28 described later.

またステップS26では、取得出力制御部9(音声検出手段)が、他人ライフログから取得した他人の音データ3aに基づく環境音中に、例えば自己の音データ3aとしての自らの声が含まれているか否かを判断する。自己の声が含まれている(他人のライフログに自己の声が存在している)場合にはステップS27に進み、自己の声が含まれていない(他人のライフログに自己の声が存在していない)場合には後述するステップS28に進む。なお、自己が他人のライフログに映り込みしているかどうかや自己の声が他人のライフログに含まれているかどうかに至るまで細かく確認する必要がない場合、上述したステップS25及びステップS26を省略してもよい。   In step S26, the acquisition output control unit 9 (speech detection means) includes, for example, own voice as own sound data 3a in the environmental sound based on the other person's sound data 3a acquired from the other person's life log. Determine whether or not. If the self voice is included (the self voice is present in the other person's life log), the process proceeds to step S27, and the self voice is not included (the self voice is present in the life log of the other person). If not, the process proceeds to step S28 described later. If it is not necessary to check in detail whether the self is reflected in the other person's life log or whether the person's voice is included in the other person's life log, the above-described steps S25 and S26 are omitted. May be.

次にステップS27では、取得出力制御部9が、自己ライフログデータ28から素材として抽出した自己の映像データ2a及び自己の音データ3a並びに、他人ライフログデータ27から素材として抽出した他人の映像データ2a及び他人の音データ3aをバッファ6に残す。以上のようにして利用者は、取得出力制御部9の機能によって、自分史を作成するにあたり素材とすべき映像データ2a及び音データ3aをバッファ6に揃えることができる。   Next, in step S27, the acquisition output control unit 9 extracts the own video data 2a and the own sound data 3a extracted from the self life log data 28 as materials, and the other person's video data extracted as materials from the other person life log data 27 2a and other person's sound data 3a are left in the buffer 6. As described above, the user can align the video data 2a and the sound data 3a, which should be used as materials, in the buffer 6 with the function of the acquisition output control unit 9, in the buffer 6.

<図4のステップS40に相当>
自分史データ作成部24は、以上のようにバッファ6に揃った映像データ2a及び音データ3aを用いて、例えば自己の映像データ2a及び音データ3aは全て自分史データの作成に用いるとともに、他人の映像データ2a及び他人の音データ3aは少なくとも一部を自分史データの作成の素材として用いることができる。このように作成した自分史は、上記感情データベース30の検索時に指定したように、自己が「嬉しい」と感じている状態における自己のライフログ及び他人のライフログに関する映像データ2a及び音データ3aを用いて作成されるようになる。つまり利用者は、最も心地よく視聴することのできる自分史データを作成することができる。
<Equivalent to step S40 in FIG. 4>
The personal history data creation unit 24 uses the video data 2a and the sound data 3a arranged in the buffer 6 as described above. For example, all of the own video data 2a and the sound data 3a are used for creating personal history data, and others. At least a part of the video data 2a and the other person's sound data 3a can be used as a material for creating personal history data. The personal history created in this way includes video data 2a and sound data 3a relating to the life log of the person and the life log of another person in a state where he / she feels “happy” as specified at the time of searching the emotion database 30. Will be created. In other words, the user can create personal history data that can be viewed most comfortably.

上記実施形態における情報編集装置100(自分史作成システム)においては、素材として採用しうる素材情報群を、各素材情報の生成時刻を表す素材時刻情報に関連づけて管理し、この素材時刻情報に関連づけて素材情報を提供可能な素材情報提供手段1(例えば他人のライフログ記録装置)と、被験者(利用者)の状態を表す生体情報5aに基づいて前記被験者の状態が規定の状態(例えば心地よく感じる状態)であると判断した場合、上記素材情報群27(他人のライフログデータ)のうち、上記被験者が感じ取りうる情報を記録した情報データ28の記録時刻に関して生成された特定の素材情報を取得する素材情報取得手段21,22,23(取得出力制御部の一部)と、この情報データ28及び特定の素材情報27を編集する情報編集手段24(情報編集手段)とを有することを特徴とする。   In the information editing apparatus 100 (self history creation system) in the above embodiment, a material information group that can be adopted as a material is managed in association with the material time information indicating the generation time of each material information, and is associated with this material time information. Based on the material information providing means 1 (for example, another person's life log recording device) capable of providing material information and the biological information 5a representing the state of the subject (user), the state of the subject is a prescribed state (for example, feels comfortable) State), the specific material information generated with respect to the recording time of the information data 28 that records the information that can be felt by the subject in the material information group 27 (the life log data of the other person) is acquired. Material information acquisition means 21, 22, 23 (part of the acquisition output control unit) and information for editing this information data 28 and specific material information 27 And having a collecting means 24 (information editing means).

被験者(利用者)は、情報編集装置1(自己のライフログ記録装置)を装着して情報データ28を恒常的に記録していると、この情報データ28を編集して電子自分史を作成することができる。しかも利用者は、この電子自分史に接することで過去の懐かしい記憶を蘇らせ、心理的な安堵感を感じることができる。   When the subject (user) wears the information editing apparatus 1 (its own life log recording apparatus) and records the information data 28 constantly, the subject edits the information data 28 and creates an electronic history. be able to. Moreover, the user can feel a sense of peace of mind by reviving a nostalgic memory by touching this electronic history.

ここで、その記録済みの情報データ28は、自らの視点に立って記録したものであり、この自己の情報データ28に基づく映像には、自らの姿はほとんどないと考えられる。これでは、せっかく電子自分史を作成しても、利用者(自己)自身の楽しさが減ってしまうことも考えられる。   Here, the recorded information data 28 is recorded from its own viewpoint, and it is considered that the image based on this information data 28 has almost no appearance of itself. In this case, even if an electronic personal history is created, the enjoyment of the user (self) may be reduced.

しかしながら、このような構成によれば、作成される電子自分史は、自己の情報データ28(自己ライフログデータ)のよい時期(例えば人生において輝いていた時期)の部分のみならず、素材情報27(他人ライフログデータ)をも素材として編集されたものとなる。従って、作成される電子自分史は、本来自分自身が取得できない自らの姿を含んだものとなり、これに接した利用者が自らの姿を電子自分史中に発見し、この自分史に深く感動をしつつ楽しむことができる。   However, according to such a configuration, the created electronic self-history includes not only the portion of the self-information data 28 (self-life log data) at a good time (for example, the time when it was shining in life) but also the material information 27. (Others' life log data) is also edited as material. Therefore, the created electronic self-history includes one's own figure that cannot be obtained by itself, and a user who contacts this discovers his / her own figure in the electronic self-history and is deeply moved by this self-history. You can enjoy while doing.

本実施形態における情報編集装置1(自分史作成システム)は、上記構成に加えてさらに、素材情報提供手段は、その素材情報として、被験者としての他人が感じ取りうる情報を記録した他人の情報データ27を記録した他人の情報データ27を提供し、素材情報取得手段21,22,23(取得出力制御部の一部)は、その記録時刻情報に基づくその情報データ28の取得時刻に、上記他人の素材情報(他人ライフログデータ27)のうち、その記録時刻情報に基づいて特定される時刻帯の部分を取得することを特徴とする。   In addition to the above-described configuration, the information editing apparatus 1 (self history creation system) according to the present embodiment further includes material information providing means that records information that can be felt by another person as a subject as the material information. The information information 27 of the other person who recorded the information is provided, and the material information acquisition means 21, 22, 23 (part of the acquisition output control unit) at the acquisition time of the information data 28 based on the recording time information, A part of the time zone specified based on the recording time information is obtained from the material information (other person life log data 27).

このような構成によれば、作成される電子自分史は、自己の情報データ28(自己ライフログデータ)及び、例えば他人端末1(他人のライフログ記録装置)が記録した他人の情報データ27(他人ライフログデータ)を素材としたものである。従って他人の情報データ27には、自己の様子が含まれていると考えられる。よって作成された電子自分史は、自らの様子を含んだものとなることから、これに接した利用者が自らの過去の様子に接して深く感銘を受け、利用者が心をリラックスさせることができる。   According to such a configuration, the electronic history to be created includes the own information data 28 (self-life log data) and the other person's information data 27 (recorded by another person's life log recording device), for example. Others' life log data). Therefore, it is considered that the other person's information data 27 includes his / her state. Therefore, since the electronic history created by the project includes its own state, users who come in contact with it are deeply impressed by their own past state, and users can relax their minds. it can.

上記実施形態における情報編集装置1(自分史作成システム)は、上記構成に加えてさらに、上記素材情報は映像データであり、情報検索手段21,22,23(指定部、検索部、取得部)は、映像データ2aのうち被験者(利用者)の顔が映り込んでいるか否かを画像処理によって検出する顔検出手段と、この顔検出手段によって自己の顔が検出された場合、映像データ2aからその被験者の顔が含まれている時間帯の部分を取得する映像取得手段とを備えることを特徴とする。   In the information editing apparatus 1 (self-history creation system) in the above embodiment, in addition to the above configuration, the material information is video data, and information search means 21, 22, 23 (designation unit, search unit, acquisition unit) Is a face detection means for detecting whether or not the face of the subject (user) is reflected in the video data 2a by image processing, and when the face detection means detects its own face, from the video data 2a Video acquisition means for acquiring a portion of a time zone in which the face of the subject is included.

このような構成によれば、利用者は、自らの過去の顔が映り込んだ映像を含む電子自分史を視覚的に楽しむことができるため、利用者自らの姿を含む映像に触れてさらに懐かしさに浸ることができる。   According to such a configuration, the user can visually enjoy his / her own electronic history including the image of his / her past face, so that he / she can touch the image including the user's own image and feel nostalgic. Can be soaked in.

上記実施形態における自分史作成システム1は、上記構成に加えてさらに、上記素材情報は音声データであり、情報検索手段21,22,23(指定部、検索部、取得部)は、音声データ2aのうち被験者(利用者)の音声が含まれるか否かを検出する音声検出手段と、この音声検出手段によって検出された場合、この音声データから被験者の音声が含まれる時間帯の部分を音声認識処理により取得する音声取得手段とを備えることを特徴とする。   In the self-history creation system 1 in the above embodiment, in addition to the above configuration, the material information is voice data, and the information search means 21, 22, 23 (designation part, search part, acquisition part) are voice data 2a. Voice detecting means for detecting whether or not the voice of the subject (user) is included, and when detected by the voice detecting means, the time zone portion including the voice of the subject is recognized from the voice data. And voice acquisition means for acquiring by processing.

このような構成によれば、利用者は、自らの顔のみならず自らの声を含む電子自分史を視覚のみならず聴覚でも楽しむことができるため、自らの声の変化を実感しつつ時間の経過を実感してさらに懐かしさに浸ることができる。   According to such a configuration, the user can enjoy not only his / her face but also his / her own electronic history including his / her voice, not only by his / her eyes but also by his / her hearing. You can feel the progress and immerse yourself in nostalgia.

上記実施形態における情報編集装置1(自分史作成システム)は、上記構成に加えてさらに、情報編集手段24(自分史データ作成部)によって編集されたその被験者(利用者)の体験に基づく電子自分史を出力する自分史出力手段12,99(音出力部、表示部)を有することを特徴とする。   In addition to the above configuration, the information editing apparatus 1 (self history creation system) in the above embodiment further includes an electronic self based on the experience of the subject (user) edited by the information editing means 24 (self history data creation unit). It has personal history output means 12, 99 (sound output unit, display unit) for outputting history.

このような構成によれば、利用者は、作成した電子自分史に接して楽しむことができるため、例えば記憶の片隅にあった懐かしい思い出に深く浸り、心をリラックスさせることができる。   According to such a configuration, the user can enjoy touching the created electronic personal history, so that, for example, the user can immerse deeply in nostalgic memories in one corner of the memory and relax the mind.

<第2実施形態>
第2実施形態では、第1実施形態とほぼ同様の構成でありほぼ同様の動作であることから、同一の構成及び動作については第1実施形態における図1乃至図9と同一の符号を用いるとともに、その説明を省略し、以下の説明では異なる点を中心として説明する。
Second Embodiment
In the second embodiment, the configuration is almost the same as that of the first embodiment and the operation is almost the same. Therefore, the same reference numerals as in FIGS. 1 to 9 in the first embodiment are used for the same configuration and operation. The description will be omitted, and the following description will focus on different points.

図10は、第2実施形態としての自分史作成システム100aの構成例を示すブロック図であり、図11は、図10に示すバッファ6及び取得出力制御部9の構成例を示すブロック図である。図10及び図11に示す構成例は、各々第1実施形態における図1及び図2とほぼ同様の構成例である。
第2実施形態としての自分史作成システム100aは、第1実施形態における他人のライフログ記録装置1の代わりに、図10に示すようにWebサーバ101(素材情報提供手段)が存在している点が異なっている。
FIG. 10 is a block diagram illustrating a configuration example of the personal history creation system 100a as the second embodiment, and FIG. 11 is a block diagram illustrating a configuration example of the buffer 6 and the acquisition output control unit 9 illustrated in FIG. . The configuration examples shown in FIGS. 10 and 11 are substantially the same configuration examples as in FIGS. 1 and 2 in the first embodiment.
The self-history creation system 100a as the second embodiment has a Web server 101 (material information providing means) as shown in FIG. 10 instead of the life log recording device 1 of another person in the first embodiment. Is different.

つまりライフログ記録装置1a(情報編集装置)は、その利用者の自分史の作成にあたり他人ライフログデータ27を利用する代わりに、予めWebサーバ101に用意されたコンテンツデータ(素材情報)を利用する点が異なっている。なお、自己のライフログ記録装置1aは、その外部より他人ライフログデータ27の代わりに、図10及び図11に示すようにコンテンツデータ(素材情報)を取得する点を除いてほぼ同様の動作を実行するため、以下では異なる点を中心として説明する。   That is, the life log recording device 1a (information editing device) uses content data (material information) prepared in advance in the Web server 101 instead of using the other person's life log data 27 in creating the user's own history. The point is different. In addition, self life log recording device 1a performs substantially the same operation except that it acquires content data (material information) as shown in FIGS. 10 and 11 instead of other person life log data 27 from the outside. In order to execute, the following description will focus on the different points.

Webサーバ101は、コンテンツ提供部61及びコンテンツデータ60を有している。このコンテンツデータ60は、任意の対象を表す映像や音声に関するデータを含んでいる。このコンテンツデータ60には、その対象物を採取した時刻(採取時刻)に関する時刻情報及び、その対象物を採取した際における位置情報が関連づけられている。コンテンツ提供部61は、このコンテンツデータ60を提供する機能を有する。   The Web server 101 has a content providing unit 61 and content data 60. The content data 60 includes video and audio data representing an arbitrary target. The content data 60 is associated with time information related to the time (collection time) at which the object is collected and position information at the time of the collection of the object. The content providing unit 61 has a function of providing the content data 60.

自己のライフログ記録装置1においては、取得出力制御部9が、自己ライフログデータ28の位置情報及び時刻情報に基づいて、Webサーバ101から該当するコンテンツデータ60を取得する。具体的には、このコンテンツデータの取得にあたり、取得出力制御部9が、第1実施形態と同様に位置情報及び時刻情報を検索キーとしているため、図11に示すようにバッファ6に取り込んだコンテンツデータ60に基づく素材に自己が映り込んでいたり自己の声が含まれている可能性が高い。   In the own life log recording device 1, the acquisition output control unit 9 acquires the corresponding content data 60 from the Web server 101 based on the position information and time information of the own life log data 28. Specifically, when acquiring the content data, the acquisition output control unit 9 uses the position information and the time information as search keys as in the first embodiment, so the content captured in the buffer 6 as shown in FIG. There is a high possibility that the material based on the data 60 reflects the self or the voice of the self is included.

図12は、コンテンツ検索取得処理の手順の一例を示すフローチャートである。なお、図12のフローチャートは、取得出力制御部9が他人ライフログデータ28の代わりにコンテンツデータ60を取得することを除き、第1実施形態における図8のフローチャートとほぼ同様の手順を含んでいる。   FIG. 12 is a flowchart illustrating an example of a procedure of content search acquisition processing. The flowchart in FIG. 12 includes almost the same procedure as the flowchart in FIG. 8 in the first embodiment, except that the acquisition output control unit 9 acquires the content data 60 instead of the other person life log data 28. .

すなわち、自己のライフログ記録装置1は、その取得出力制御部9が、第1実施形態と同様に位置情報及び時刻情報を検索キーとして、Webサーバ101に対してコンテンツデータ60を要求する(ステップS24)。Webサーバ101では、そのコンテンツデータ提供部61が、これら指定された位置情報及び時刻情報に基づいて、該当するコンテンツデータ60を、無線或いは有線によりライフログ記録装置1に提供する機能を有する。   That is, in the self life log recording device 1, the acquisition output control unit 9 requests the content data 60 from the Web server 101 using the position information and the time information as search keys as in the first embodiment (step). S24). In the Web server 101, the content data providing unit 61 has a function of providing the corresponding content data 60 to the life log recording device 1 wirelessly or by wire based on the designated position information and time information.

コンテンツデータ60は、上述した他人ライフログデータ27ではなく、利用者(自己)に関係すると思われる素材であればいかなるデータであってもよい。コンテンツデータ60としては、例えば時刻情報を関連づけた音楽データを挙げることができる。このようなコンテンツデータ60を用意しておくと、自己のライフログ記録装置1は、その取得出力制御部9が音楽を伴う電子自分史を作成することができるため、利用者は懐かしい音楽を伴った電子自分史を楽しむことができる。   The content data 60 may be any data as long as it is a material that is considered to be related to the user (self), not the other person life log data 27 described above. Examples of the content data 60 include music data associated with time information. If such content data 60 is prepared, the user's life log recording apparatus 1 can create an electronic history with music by the acquisition output control unit 9, so that the user is accompanied by nostalgic music. You can enjoy electronic history.

第2実施形態によれば、作成した電子自分史は、他人の情報データ27(他人ライフログデータ)の代わりに素材情報60(コンテンツデータ)を編集して作成されている。この場合、素材情報60としてWebサーバ101に多くの情報を用意しておけば、自分史データ作成部24が、様々な素材情報を用いて電子自分史に関する自分史データを作成することができる。このような莫大に調達しうるコンテンツデータ60を用いて作成された(電子)自分史は、その内容を時代などに応じて様々な態様とすることができるため、利用者の興味をより引きつける内容とすることができる。   According to the second embodiment, the created electronic history is created by editing the material information 60 (content data) instead of the other person's information data 27 (other person life log data). In this case, if a large amount of information is prepared in the Web server 101 as the material information 60, the personal history data creation unit 24 can create personal history data related to the electronic personal history using various material information. The (electronic) personal history created using such enormous content data 60 that can be procured can take various forms depending on the times, etc. It can be.

<表示例1>
図13は、上記各実施形態により作成された自分史の表示例を示すイメージ図である。
図示の例では、表示部99の表示領域が左右2つに分割された態様を表している。右側の表示領域91には、例えば利用者の両親がくつろいでいる様子が表示されている。この右側の表示領域91には、利用者の自己ライフログデータ28に基づいて、利用者自らが過去に見ていた風景が表示されている。一方、左側の表示領域92には、利用者に対して物理的に他人に相当する両親の他人ライフログデータ27に基づいて、利用者本人の幼少時代の姿が表示されている。つまりこの左側の表示領域92には、利用者の自己ライフログデータ28を用いるのではなく、両親が過去に見ていた風景が表示されている。
<Display example 1>
FIG. 13 is an image diagram showing a display example of the personal history created according to each of the above embodiments.
In the illustrated example, the display area of the display unit 99 is divided into left and right two parts. In the display area 91 on the right side, for example, a state where the parents of the user are relaxing is displayed. In the display area 91 on the right side, based on the user's own life log data 28, scenery that the user himself / herself has seen in the past is displayed. On the other hand, the left display area 92 displays the child's childhood appearance based on the other person's life log data 27 that physically corresponds to the user. That is, in the display area 92 on the left side, instead of using the user's own life log data 28, the scenery that the parents have seen in the past is displayed.

このような表示態様を採用すると、利用者は、同時に2種類の自分史を並べて見ることができるため、同時により多くの映像によって過去の思い出に浸ることができる。   By adopting such a display mode, the user can view two types of personal history side by side at the same time, and can soak up past memories with more images at the same time.

<表示例2>
図14は、上記各実施形態により作成された自分史の表示例を示すイメージ図である。
図示の例では、表示部99自体が2つに分割された態様を表している。右側の表示部993には、上記表示例1における右側の表示領域91と同一の自分史が表示される。一方、左側の表示部994には、上記表示例1における左側の表示領域92と同一の自分史が表示される。
<Display example 2>
FIG. 14 is an image diagram showing a display example of one's own history created according to the above embodiments.
In the illustrated example, the display unit 99 itself is divided into two parts. The right display unit 993 displays the same personal history as the right display area 91 in the display example 1 described above. On the other hand, the left display unit 994 displays the same personal history as the left display area 92 in the display example 1 described above.

このような表示態様を採用すると、例えば2つの画面の間が、利用者の歩く速度に応じて床面が移動する床構造となっている場合、利用者が歩む速度に合わせて、表示部993,994の映像が順行させたり逆行させたりすることで、あたかも自分史をたどる散歩のようなエンターテイメント的な利用の仕方もできる。また利用者は、同時に2種類の自分史を並べて見ることができるため、同時により多くの映像によって過去の思い出に浸ることができる。さらに利用者は、視認しやすい角度でこれら2種類の自分史を見ることができる。   When such a display mode is adopted, for example, when a floor structure between the two screens moves in accordance with the walking speed of the user, the display unit 993 is adapted to the walking speed of the user. , 994 images can be moved forwards or backwards, making it possible to use them as if they were taking a walk through their history. In addition, since the user can view two types of personal history side by side at the same time, the user can immerse in memories of the past with more images. In addition, the user can see these two types of personal history at an easy-to-view angle.

<表示例3>
図15は、上記各実施形態により作成された自分史の表示例を示すイメージ図である。
図示の例では、表示部99の表示領域が左右及び縦横4つに分割された態様を表している。これらの表示態様は、自分史を、複数のライフログを利用して表示した様子を表している。これら複数のライフログとしては、例えば自分のライフログ、友人のライフログ、飼い犬のライフログを挙げることができる。右上側の表示領域95には、飼い主が飼い犬とくつろいでいる様子が表示されている。この右上側の表示領域95には、飼い主の自己ライフログデータ28に基づいて表示されている。
<Display example 3>
FIG. 15 is an image diagram showing a display example of the personal history created according to each of the above embodiments.
In the illustrated example, the display area of the display unit 99 is divided into left and right and four vertically and horizontally. These display modes represent a state in which one's own history is displayed using a plurality of life logs. Examples of the plurality of life logs include one's life log, a friend's life log, and a dog's life log. The display area 95 on the upper right side displays a state where the owner is relaxing with the dog. The display area 95 on the upper right side is displayed based on the owner's own life log data 28.

右下側の表示領域96には、例えば「?」疑問を意味する図形が表示されている。この右下側の表示領域96には、利用者の自己ライフログデータ28に基づいて利用者自らが過去に見ていた風景が表示されている。   In the display area 96 on the lower right side, for example, a graphic meaning “?” Question is displayed. In the display area 96 on the lower right side, based on the user's own life log data 28, the scenery that the user himself has viewed in the past is displayed.

また左上の表示領域98には、利用者の友人が日常見た風景が表示されている。この右上の表示領域98には、各々、利用者の友人の他人ライフログデータ27に基づいてその友人が過去に見ていた風景が表示されている。   In the upper left display area 98, the scenery that the user's friend has seen everyday is displayed. In the display area 98 on the upper right, the scenery that the friend has viewed in the past is displayed based on the other person's life log data 27 of the user's friend.

このような表示態様を採用すると、利用者は、同時に4種類の自分史を並べて見ることができるため、同時にさらに多くの映像によって過去の思い出に浸ることができる。そしてさらには左下側の表示領域97に示すように、例えばその時の自分の感情(喜び)の動き(喜びの度合い)をグラフで表示して見るのも興味深く、利用者は自分の思い出に浸ることができる。   By adopting such a display mode, the user can view four types of personal history side by side at the same time, and can soak in past memories with more images at the same time. Furthermore, as shown in the display area 97 on the lower left side, for example, it is interesting to display the movement (degree of joy) of one's emotion (joy) at that time in a graph, and the user can be immersed in his / her memories. Can do.

なお、本実施形態は、上記に限られず、種々の変形が可能である。以下、そのような変形例を順を追って説明する。
<変形例1>
上記各実施形態では、他人のライフログ記録装置1が1台であることを例示しているが、これに限られず、多数の他人のライフログ記録装置1が存在している形態を例示してもよい。つまり、図1及び図10に各々示す取得出力制御部9が、1人の他人に関係する他人ライフログデータ27を編集して電子自分史を作成することのみならず、複数の他人に各々関係する他人ライフログデータ27を編集して電子自分史を作成するようにしてもよい。
In addition, this embodiment is not restricted above, A various deformation | transformation is possible. Hereinafter, such modifications will be described in order.
<Modification 1>
In each of the above embodiments, the life log recording device 1 of another person is exemplified as one unit. However, the present invention is not limited to this, and an example in which a number of life log recording devices 1 of other people are present is illustrated. Also good. That is, the acquisition output control unit 9 shown in FIG. 1 and FIG. 10 not only edits other person life log data 27 related to one other person to create an electronic personal history but also relates to a plurality of other persons. The other person's life log data 27 may be edited to create an electronic personal history.

<変形例2>
上記実施形態では、図1及び図10に各々示すライフログ記録装置1は、作成した電子自分史に関する電子自分史データを、ライフログ記録装置1に対して着脱可能な記録メディア(情報記録媒体)に記憶させて持ち運べるようにしてもよい。このようにすると、利用者は、作成した電子自分史を第三者に配布することができる。
<Modification 2>
In the above-described embodiment, the life log recording device 1 shown in FIGS. 1 and 10 is a recording medium (information recording medium) in which the created electronic personal history data about the electronic personal history can be attached to and detached from the life log recording device 1. You may make it memorize and carry it. In this way, the user can distribute the created electronic history to a third party.

<変形例3>
上記実施形態では、図1及び図10に各々示す自己のライフログ記録装置1において取得出力制御部9は、自己ライフログデータ28と、他人ライフログデータ27或いはコンテンツデータ60との組み合わせを編集して、電子自分史を作成しているが、これに限られない。すなわち取得出力制御部9は、自己ライフログデータ28はあくまでも電子自分史を作成するための素材の検索用データとして取り扱い、これを素材として採用せず、他人ライフログデータ27及びコンテンツデータ60の少なくとも一方を素材として電子自分史を作成するようにしてもよい。
<Modification 3>
In the above embodiment, the acquisition output control unit 9 edits the combination of the self life log data 28 and the other person life log data 27 or the content data 60 in the self life log recording device 1 shown in FIG. 1 and FIG. The electronic personal history is created, but it is not limited to this. That is, the acquisition output control unit 9 treats the self-life log data 28 as material search data for creating an electronic self-history to the last, does not adopt it as a material, and includes at least the life log data 27 and the content data 60 of other people. Electronic personal history may be created using one of the materials.

<変形例4>
上記実施形態では、利用者の感情状態として「嬉しい状態」を例示して電子自分史を作成しているがこれに限られず、例えば悲しい状態やその他の感情状態における電子自分史を作成するようにしてもよい。
<Modification 4>
In the above embodiment, the electronic personal history is created by exemplifying “happy state” as the emotional state of the user. However, the electronic personal history is not limited to this. For example, the electronic personal history is created in a sad state or other emotional state. May be.

<変形例5>
上記実施形態では、作成する電子自分史の時間的な期間の定めがないが、例えば学生時代のみの電子自分史を作る場合、小学時代、中学時代、高校時代、大学時代にまず分けて、それらの各期間の中で、感情データベース30の感情データパターンが、例えば嬉しい時間が最も長いものや嬉しさが飛び抜けて高いものを主として(例えば視聴時間中、長い時間を取るように)、電子自分史を編集するようにしてもよい。このようにすると、利用者は、小学時代、中学時代、高校時代及び大学時代のうち最も嬉しいと感じる電子自分史を作成することができ、嬉しかった時代を存分に振り返ることができる。
<Modification 5>
In the above embodiment, there is no provision for the time period of electronic personal history to be created. For example, when making electronic personal history only for student days, first categorized into elementary school age, junior high school age, high school age, university age, In each period, the emotion data pattern of the emotion database 30 is mainly the one with the longest joyful time or the one with the highest joyfulness (for example, taking a long time during viewing time), and the electronic personal history. May be edited. In this way, the user can create the electronic personal history that he / she feels most happy among in elementary school, junior high school, high school and university, and can fully look back on his happy time.

上記各実施形態においては、上記情報データとして、例えば映像、音声、気温、気圧など、被験者が五感のうち少なくとも1つの感覚で感じ取ることができる情報(特定情報)を取り扱っている。しかも、上記各実施形態においては、上記生体情報として、例えば心拍数、血圧、発汗量など、被験者の状態を表す生体情報(例えば生体情報データ)を取り扱っている。   In each of the embodiments described above, information (specific information) that the subject can feel with at least one of the five senses, such as video, audio, temperature, and atmospheric pressure, is handled as the information data. Moreover, in each of the embodiments described above, biological information (for example, biological information data) representing the state of the subject such as heart rate, blood pressure, and sweating amount is handled as the biological information.

また、上記各実施形態においては、上記ライフログとして、例えばこれら特定情報、生体情報、時刻データ(素材時刻情報など)、場所データ(位置情報)のいずれか又はこれらいずれかの組み合わせを含んでいる。上記各実施形態では、上記特定情報のみならず、このライフログが記録対象とされたり編集対象とされるようにすることができる。このライフログに関しては、上記特定情報のみならず、上記生体情報も記録対象としたり編集対象としている。上記実施形態では、このような記録対象及び編集対象の少なくとも一方として上記生体情報が含まれるようにしてもよい。   In the above embodiments, the life log includes, for example, any one of these specific information, biological information, time data (material time information, etc.), location data (position information), or any combination thereof. . In each of the above embodiments, not only the specific information but also this life log can be set as a recording target or an editing target. Regarding this life log, not only the specific information but also the biological information is to be recorded or edited. In the above embodiment, the biological information may be included as at least one of such a recording target and an editing target.

本発明の第1実施形態としての自分史作成システムの構成例を示すシステム構成図である。It is a system configuration figure showing an example of composition of a personal history creation system as a 1st embodiment of the present invention. 図1に示すバッファ及び取得出力制御部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the buffer and acquisition output control part which are shown in FIG. 本実施形態において用いるデータの一例を示すイメージ図である。It is an image figure which shows an example of the data used in this embodiment. 自分史作成処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a self-history creation process. 図4に示す感情データベースの生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the production | generation process of the emotion database shown in FIG. 感情データベースに存在する感情データの一例を示す特性図である。It is a characteristic view which shows an example of the emotion data which exists in an emotion database. 感情データベースに存在する感情データの他の一例を示す特性図である。It is a characteristic view which shows another example of the emotion data which exist in an emotion database. ライフログ検索取得処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a life log search acquisition process. 自分史の素材として採用すべきライフログを選択する様子の一例を示す図である。It is a figure which shows an example of a mode that the life log which should be employ | adopted as a raw material is selected. 第2実施形態としての自分史作成システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the self-history creation system as 2nd Embodiment. 図10に示すバッファ及び取得出力制御部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the buffer and acquisition output control part which are shown in FIG. コンテンツ検索取得処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of a content search acquisition process. 上記各実施形態により作成された自分史の表示例を示すイメージ図である。It is an image figure which shows the example of a display of the self history produced by each said embodiment. 上記各実施形態により作成された自分史の表示例を示すイメージ図である。It is an image figure which shows the example of a display of the self history produced by each said embodiment. 上記各実施形態により作成された自分史の表示例を示すイメージ図である。It is an image figure which shows the example of a display of the self history produced by each said embodiment.

符号の説明Explanation of symbols

1 ライフログ記録装置(情報編集装置、素材情報提供手段)
1a ライフログ記録装置(情報編集装置、素材情報提供手段)
2 カメラ
2a 映像データ(情報データの一部)
3 マイクロフォン
3a 音データ(情報データの一部)
5 生体情報取得部(生体情報取得手段)
5a 生体情報
6 バッファ(素材情報記録装置)
9 取得出力制御部(素材情報取得手段)
11 計時部
12 音出力部(自分史出力手段)
21 指定部(素材情報取得手段)
22 検索部(素材情報取得手段)
23 取得部(素材情報取得手段)
24 自分史データ作成部(情報編集手段)
27 他人ライフログデータ(素材情報)
28 自己ライフログデータ(情報データ)
60 コンテンツ(素材情報)
99 表示部(自分史出力手段)
100 自分史作成システム
101 Webサーバ(素材情報提供手段)
1 Life log recording device (information editing device, material information providing means)
1a Life log recording device (information editing device, material information providing means)
2 Camera 2a Video data (part of information data)
3 Microphone 3a Sound data (part of information data)
5 Biometric information acquisition unit (Biometric information acquisition means)
5a Biological information 6 Buffer (Material information recording device)
9 Acquisition output control unit (material information acquisition means)
11 Timekeeping section 12 Sound output section (personal history output means)
21 Designation part (material information acquisition means)
22 Search part (material information acquisition means)
23 Acquisition unit (material information acquisition means)
24 Self-history data creation department (information editing means)
27 Others life log data (material information)
28 Self-life log data (information data)
60 content (material information)
99 Display (personal history output means)
100 Self-history creation system 101 Web server (material information providing means)

Claims (5)

素材として採用しうる素材情報群を、各前記素材情報の生成時刻を表す素材時刻情報に関連づけて管理し、前記素材時刻情報に関連づけて前記素材情報を提供可能な素材情報提供手段と、
被験者の状態を表す生体情報に基づいて前記被験者の状態が規定の状態であると判断した場合、前記素材情報群のうち、前記被験者が感じ取りうる情報を記録した情報データの記録時刻に関して生成された特定の素材情報を取得する素材情報取得手段と、
前記情報データ及び前記特定の素材情報を編集する情報編集手段と
を有することを特徴とする情報編集装置。
A material information providing unit capable of managing a material information group that can be adopted as a material in association with material time information indicating a generation time of each material information, and providing the material information in association with the material time information;
When it is determined that the state of the subject is a prescribed state based on the biological information representing the state of the subject, it is generated with respect to the recording time of the information data in which the information that can be felt by the subject is recorded in the material information group Material information acquisition means for acquiring specific material information;
An information editing apparatus comprising: information editing means for editing the information data and the specific material information.
請求項1記載の情報編集装置において、
前記素材情報提供手段は、前記素材情報として、被験者としての他人が感じ取りうる情報を記録した他人の情報データを提供し、
前記素材情報取得手段は、
前記記録時刻情報に基づく前記情報データの取得時刻に、前記他人の情報データのうち、前記記録時刻情報に基づいて特定される時刻帯の部分を取得することを特徴とする情報編集装置。
The information editing apparatus according to claim 1,
The material information providing means provides, as the material information, other person's information data in which information that can be felt by another person as a subject is recorded,
The material information acquisition means
An information editing apparatus, wherein a part of a time zone specified based on the recording time information is acquired from the information data of the other person at an acquisition time of the information data based on the recording time information.
請求項1又は請求項2記載の情報編集装置において、
前記素材情報は映像データであり、
前記情報検索手段は、
前記映像データのうち前記被験者の顔が映り込んでいるか否かを画像処理によって検出する顔検出手段と、
前記顔検出手段によって前記被験者の顔が検出された場合、前記映像データから前記自己の顔が含まれている時間帯の部分を取得する映像取得手段と
を備えることを特徴とする情報編集装置。
In the information editing device according to claim 1 or 2,
The material information is video data,
The information search means includes
Face detection means for detecting whether or not the subject's face is reflected in the video data by image processing;
An information editing apparatus, comprising: a video acquisition unit that acquires, from the video data, a portion of a time zone in which the face of the subject is included when the face detection unit detects the subject's face.
請求項1乃至請求項3のいずれか記載の情報編集装置において、
前記素材情報は音声データであり、
前記情報検索手段は、
前記音声データのうち前記被験者の音声が含まれるか否かを検出する音声検出手段と、
前記音声検出手段によって検出された場合、前記音声データから前記被験者の音声が含まれる時間帯の部分を音声認識処理により取得する音声取得手段と
を備えることを特徴とする情報編集装置。
The information editing apparatus according to any one of claims 1 to 3,
The material information is audio data,
The information search means includes
Voice detection means for detecting whether the subject's voice is included in the voice data;
An information editing apparatus comprising: a voice acquisition unit that acquires, by voice recognition processing, a portion of a time zone in which the voice of the subject is included from the voice data when detected by the voice detection unit.
請求項1乃至請求項4のいずれか記載の情報編集装置において、
前記情報編集手段によって編集された前記被験者の体験に基づく電子自分史を出力する自分史出力手段を備えることを特徴とする情報編集装置。
The information editing apparatus according to any one of claims 1 to 4,
An information editing apparatus comprising: a personal history output unit that outputs an electronic personal history based on the experience of the subject edited by the information editing unit.
JP2007089398A 2007-03-29 2007-03-29 Information editing apparatus Pending JP2008252356A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007089398A JP2008252356A (en) 2007-03-29 2007-03-29 Information editing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007089398A JP2008252356A (en) 2007-03-29 2007-03-29 Information editing apparatus

Publications (1)

Publication Number Publication Date
JP2008252356A true JP2008252356A (en) 2008-10-16

Family

ID=39976816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007089398A Pending JP2008252356A (en) 2007-03-29 2007-03-29 Information editing apparatus

Country Status (1)

Country Link
JP (1) JP2008252356A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115326A (en) * 2014-12-16 2016-06-23 ドン ウン インターナショナル カンパニー,リミテッド Video autobiography service providing method and providing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115326A (en) * 2014-12-16 2016-06-23 ドン ウン インターナショナル カンパニー,リミテッド Video autobiography service providing method and providing system

Similar Documents

Publication Publication Date Title
US20230414159A1 (en) System and method for associating music with brain-state data
US20190387998A1 (en) System and method for associating music with brain-state data
CN104298722B (en) Digital video interactive and its method
KR20200130231A (en) Direct live entertainment using biometric sensor data for detection of neural conditions
CN109804389A (en) Emotional state is extracted from device data
Berrens An emotional cartography of resonance
JP2005237561A (en) Information processing device and method
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
JP2005056205A (en) Content reproducing device and method
US20070259318A1 (en) System for interacting with developmentally challenged individuals
WO2019040524A1 (en) Method and system for musical communication
US20200275875A1 (en) Method for deriving and storing emotional conditions of humans
CN103823551A (en) System and method for realizing multidimensional perception of virtual interaction
CN105955490A (en) Information processing method based on augmented reality, information processing device based on augmented reality and mobile terminal
JP2006293979A (en) Content providing system
Klausen 'Safe and sound': What technologically-mediated ASMR is capable of through sound
JP2005346471A (en) Information processing method and apparatus
JP2023052235A (en) Output control apparatus, output control method, and program
JP2014030657A (en) Stimulation inducing device, stimulation inducing method and program
JP2008252356A (en) Information editing apparatus
JP7131542B2 (en) Information processing device, information processing method and program
JP7130290B2 (en) information extractor
JP7279121B2 (en) USER ACTION SUPPORT DEVICE, METHOD AND PROGRAM
JP2009032056A (en) Communication system
JP2005044120A (en) Information storage apparatus, information retrieval apparatus, information storage method, information retrieval method, information storage system, information retrieval system, client apparatus and server apparatus