JP4264717B2 - Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method - Google Patents

Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method Download PDF

Info

Publication number
JP4264717B2
JP4264717B2 JP2003292857A JP2003292857A JP4264717B2 JP 4264717 B2 JP4264717 B2 JP 4264717B2 JP 2003292857 A JP2003292857 A JP 2003292857A JP 2003292857 A JP2003292857 A JP 2003292857A JP 4264717 B2 JP4264717 B2 JP 4264717B2
Authority
JP
Japan
Prior art keywords
information
emotion
visualization
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003292857A
Other languages
Japanese (ja)
Other versions
JP2005063163A (en
Inventor
哲 佐々
千里 橘川
博輝 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003292857A priority Critical patent/JP4264717B2/en
Publication of JP2005063163A publication Critical patent/JP2005063163A/en
Application granted granted Critical
Publication of JP4264717B2 publication Critical patent/JP4264717B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

この発明は、例えば、人の日々の体験を、そのときの人の感情から、あるいは再生コンテンツを、そのコンテンツを鑑賞した人の感情から検索することができるようにするための装置および方法に関する。また、この発明は、前記装置および方法に用いることができる、ある感情と近似する感情を検索する装置および方法に関する。   The present invention relates to an apparatus and a method for making it possible to search, for example, the daily experience of a person from the emotion of the person at that time, or the reproduced content from the emotion of the person who has watched the content. The present invention also relates to an apparatus and method for searching for an emotion that approximates a certain emotion that can be used in the apparatus and method.

人は、例えば過去の、ある期間やある時に、どのような感情の状態で過ごしていたか、そのとき当該人はどのような環境にいたか、あるいは、どのような体験をしていたか、などを知りたい場合がある。例えば日記に、そのときの出来事および感情が文章として書き記されている場合には、その日記を読むことで、上記の感情およびその感情を持ったときの出来事などを推し量ることができる。   For example, what kind of emotional state a person has spent in a past period or at a certain time, what kind of environment the person was at that time, what kind of experience he had I want to know. For example, when the event and emotion at that time are written as a sentence in a diary, the above emotion and the event when the emotion is held can be estimated by reading the diary.

しかしながら、日記の場合、人の文章表現力にもよるが、一般的には、そのときの経験や出来事およびその際の感情を、客観的に、かつ、正確に書き記すことは困難である。また、日記は、それを読まなければ、そのときの経験や出来事およびその際の人の感情を知ることはできない。また、文章から感情を推し量ることになるので、そのときの経験や出来事およびその際の人の感情を、正確に認識することも困難である。   However, in the case of a diary, although it depends on a person's ability to express sentences, in general, it is difficult to objectively and accurately write down experiences and events at that time and emotions at that time. Also, if you do not read the diary, you cannot know the experiences and events at that time and the emotions of the people at that time. In addition, since emotions are estimated from sentences, it is difficult to accurately recognize experiences and events at that time and human emotions at that time.

特許文献1(特開2002−230011号公報)には、文書に表現されている感情を判別し、その判別した感情を、アイコンなどの視覚的表示形式に変換して表示することができる感情認識システムが提供されている。   Patent Document 1 (Japanese Patent Laid-Open No. 2002-230011) discloses an emotion recognition that can discriminate an emotion expressed in a document and convert the discriminated emotion into a visual display format such as an icon for display. A system is provided.

この特許文献1においては、予め、単語ごとに、例えば「喜び」、「悲しみ」、「驚き」、「恐怖」、「怒り」、「嫌悪」などの感情要素を数値化して割り当てた感情表現辞書を用意しておき、認識対象文書を、単語に分解して、前記感情表現辞書を用いて、当該認識対象文書に表現されている感情を認識する。そして、特許文献1においては、認識した「喜び」、「悲しみ」、「驚き」、「恐怖」、「怒り」、「嫌悪」などの感情を、アイコンなどの視覚的表示形式に変換して、視覚化表示するようにしている。
特開2002−230011号公報
In this Patent Document 1, an emotion expression dictionary in which emotion elements such as “joy”, “sadness”, “surprise”, “fear”, “anger”, “disgust”, etc. are quantified and assigned in advance for each word. Is prepared, the recognition target document is decomposed into words, and the emotion expressed in the recognition target document is recognized using the emotion expression dictionary. In Patent Document 1, the recognized emotions such as “joy”, “sadness”, “surprise”, “fear”, “anger”, “disgust” are converted into visual display formats such as icons, Visualization is displayed.
JP 2002-230011 A

しかしながら、上述の特許文献1の技術では、日記に記述されている文章に表現されている感情を判別することができたとしても、その感情を人が持ったときの出来事や経験を検索することができない。また、ある感情、例えばリラックスしていると感じる状態と、同様の感情を持った状態を検索しようとしても、それを検索することはできない。   However, even if the technique of the above-mentioned patent document 1 can discriminate the emotion expressed in the text described in the diary, the event or experience when the person has the emotion is searched. I can't. Further, even if an attempt is made to search for a certain emotion, for example, a state where the user feels relaxed and a state having the same emotion, the search cannot be performed.

人は、ある種の感情を持ったときに、それと同様な感情を持ったのは、何時であったかなどを知りたいことがある。そのような感情を持った時点が判れば、日記やその他の資料、記憶などにより、ある程度は、そのときに当該人の周囲で起こったことは判明すると期待できる。さらには、その感情を持った時点で、どのような出来事が生じていたか、あるいは、どのような経験をしていたかを客観的に知る手立てがあれば、非常に便利である。   A person may want to know when, for example, when he / she had a certain emotion, it was the same emotion. If you know when you have such feelings, you can expect to find out to some extent what happened around the person at that time, based on diaries, other materials, and memories. Furthermore, it would be very convenient if there was a way to objectively know what happened at the time of having that emotion or what experience he had.

また、あるコンテンツ(この明細書で、コンテンツとは、視覚的あるいは聴覚的に鑑賞できるものを称し、例えば映画、音楽、小説などの文書、絵画などを含むものである)を鑑賞したときの感情(例えば興奮したなど)と同様の感情を得たいときに、その感情が得られるコンテンツを検索することができれば、非常に便利である。   Also, in this specification, content refers to something that can be visually or audibly appreciated, and includes emotions (for example, movies, music, novels, documents, etc.) It would be very convenient if you could search for content that would give you the feelings you want when you want to get the same feelings as if you were excited.

この発明は、以上のような要求に答えることができる装置および方法を提供することを目的とする。   An object of this invention is to provide the apparatus and method which can respond to the above requests.

上記の課題を解決するために、請求項1の発明は、
撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出手段と、
前記感情情報検出手段で得られた感情情報を、前記感情情報格納部から検索する検索手段と、
前記検索手段で検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置を提供する。
In order to solve the above problems, the invention of claim 1
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information by the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the emotion information corresponding to the detected visualization information is detected. Emotion information detection means obtained using the conversion table information;
Search means for searching emotion information obtained by the emotion information detection means from the emotion information storage unit;
Means for reading out and reproducing the imaging information corresponding to the time position of the emotion information searched by the search means from the imaging information storage unit;
An apparatus for retrieving and reproducing imaging information is provided.

請求項1の発明による撮像情報の検索再生装置においては、人が体験した出来事や経験は、撮像されて撮像情報格納部に格納されると共に、そのときに人が持った感情を表わす感情情報が感情情報格納部に格納される。この場合に、撮像時刻の時間情報を媒介にして、撮像情報と感情情報とは、互いに対応関係を持って格納される。   In the image information retrieval / playback apparatus according to the first aspect of the present invention, an event or experience experienced by a person is imaged and stored in the image information storage unit, and emotion information representing a person's emotion at that time is stored. It is stored in the emotion information storage unit. In this case, the imaging information and the emotion information are stored in correspondence with each other through the time information of the imaging time.

そして、請求項1の発明においては、感情情報は、変換テーブル情報により変換可能な可視化情報が用いられた感情可視化画像として表示画面に表示される。この感情可視化画像を構成する各可視化情報は、前述したように、各感情情報に対応している。したがって、この感情可視化画像上において、ある位置や範囲を指示すると、その指示は、感情や感情範囲の指示に対応する。   And in invention of Claim 1, emotion information is displayed on a display screen as an emotion visualization image using the visualization information which can be converted by conversion table information. As described above, each visualization information constituting the emotion visualization image corresponds to each emotion information. Therefore, when a certain position or range is designated on the emotion visualized image, the instruction corresponds to an instruction of the emotion or emotion range.

そして、この表示画面上において、感情可視化画像上の任意の画像位置あるいは任意の画像範囲がユーザにより指定されると、その指定された任意の画像位置あるいは前記任意の画像範囲の前記可視化情報に対応する前記感情情報が、前記変換テーブル情報が用いられて検出される。   Then, on the display screen, when an arbitrary image position or an arbitrary image range on the emotion visualization image is specified by the user, it corresponds to the visualization information of the specified arbitrary image position or the arbitrary image range. The emotion information to be detected is detected using the conversion table information.

そして、この検出された感情情報が、感情情報格納部から検索されて、当該感情情報に対応する時間情報が検出される。そして、この検出された時間情報で特定される撮像情報が、撮像情報格納部から読み出されて再生される。   Then, the detected emotion information is searched from the emotion information storage unit, and time information corresponding to the emotion information is detected. Then, the imaging information specified by the detected time information is read from the imaging information storage unit and reproduced.

したがって、この請求項1の発明によれば、感情情報を、可視化情報に変換して生成した感情可視化画像を用いることにより、感情の可視化情報を用いて、特定の感情や感情変化範囲の指定が可能になる。   Therefore, according to the first aspect of the present invention, by using the emotion visualization image generated by converting the emotion information into the visualization information, it is possible to specify a specific emotion or emotion change range using the emotion visualization information. It becomes possible.

そして、この請求項1の発明によれば、指定された特定の感情、あるいは特定の感情変化が生じたときの、撮像情報が検索されて再生されるので、指定された特定の感情や感情変化が、どのような出来事の元で得られたかが容易にわかる。   According to the first aspect of the present invention, since the imaging information is retrieved and reproduced when the specified specific emotion or the specific emotion change occurs, the specified specific emotion or emotion change is specified. However, it is easy to see what happened.

撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索手段と、
前記検索手段で検索された前記時間位置情報に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置を提供する。
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the time position in time series of the detected visualization information is determined. A search means for searching;
The imaging information corresponding to the time position information searched by the searching means, and means for reading out and reproducing from the imaging information storage unit,
An apparatus for retrieving and reproducing imaging information is provided.

この請求項2の発明による撮像情報の検索再生装置においては、感情情報は、変換テーブル情報により変換可能な可視化情報が用いられて時系列に可視化された感情可視化画像として表示画面に表示される。したがって、この感情可視化画像上において、ある位置や範囲を指示すると、その指示は、感情情報が得られた時間情報に対応する。   In the image information retrieval / playback apparatus according to the second aspect of the present invention, emotion information is displayed on the display screen as an emotion visualization image visualized in time series using visualization information that can be converted by conversion table information. Therefore, when a certain position or range is designated on the emotion visualized image, the instruction corresponds to time information from which emotion information is obtained.

そして、この表示画面上において、感情可視化画像上の任意の画像位置あるいは任意の画像範囲がユーザにより指定されると、その指定された任意の画像位置あるいは前記任意の画像範囲に対応する時間情報が検索される。そして、この検索された時間情報で特定される撮像情報が、撮像情報格納部から読み出されて再生される。   On the display screen, when an arbitrary image position or an arbitrary image range on the emotion visualization image is specified by the user, time information corresponding to the specified arbitrary image position or the arbitrary image range is obtained. Searched. Then, the imaging information specified by the retrieved time information is read from the imaging information storage unit and reproduced.

したがって、この請求項2の発明によれば、感情情報を、可視化情報に変換して生成した感情可視化画像を用いることにより、感情の可視化情報を用いて、特定の感情や感情変化範囲に対応する時間の指定が可能になる。   Therefore, according to the invention of claim 2, by using the emotion visualization image generated by converting the emotion information into the visualization information, the emotion visualization information is used to correspond to a specific emotion or emotion change range. The time can be specified.

そして、この請求項1の発明によれば、指定された特定の感情、あるいは特定の感情変化が生じたときの、撮像情報が検索されて再生されるので、指定された特定の感情や感情変化が、どのような出来事の元で得られたかが容易にわかる。   According to the first aspect of the present invention, since the imaging information is retrieved and reproduced when the specified specific emotion or the specific emotion change occurs, the specified specific emotion or emotion change is specified. However, it is easy to see what happened.

また、請求項3の発明は、請求項1または請求項2に記載の撮像情報の検索再生装置において、
記可視化情報は、色情報であって、
前記変換テーブル情報保持手段は、前記変換テーブル情報として、前記感情情報と、当該感情情報により表わされる感情に対応する色との間の対応関係を示す色変換テーブル情報を備え、
前記変換処理手段は、前記色変換テーブル情報を用いて、入力される前記感情情報を、当該感情情報により表わされる感情に対応する色情報に変換して、前記色情報からなる前記可視化情報を得る
ことを特徴とする。
According to a third aspect of the present invention, there is provided a retrieval / reproduction apparatus for imaging information according to the first or second aspect,
Before asked visualization information, a color information,
The conversion table information holding means stage as the conversion table information comprises said emotion information, the color conversion table information indicating a correspondence relationship between the color corresponding to the emotion represented by the emotion information,
The conversion processing means converts the input emotion information into color information corresponding to the emotion represented by the emotion information using the color conversion table information, and obtains the visualization information including the color information. It is characterized by that.

請求項3の発明によれば、感情情報を可視化するための情報としては、色情報を用い、感情情報を色に変換して表示するようにするので、例えば、「赤色」が濃いほど快適の感情を示し、「青色」が濃いほど不快の感情を示すように表示するなどすることにより、当該色の変化として感情の変化が可視化されると共に、色の分布状態により感情の状態分布を表示することが可能になる。   According to the invention of claim 3, since the color information is used as the information for visualizing the emotion information and the emotion information is converted into a color and displayed, for example, the darker “red” is, the more comfortable it is. The emotional change is visualized as the color change, and the emotional state distribution is displayed according to the color distribution state, for example, by displaying the emotion and displaying the unpleasant emotion as “blue” is darker. It becomes possible.

請求項6の発明は、
撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出手段と、
前記感情情報検出手段で得られた感情情報で表わされる感情に近似する感情を表わす感情情報を前記感情情報格納部に格納された感情情報から検索する検索手段と、
前記検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置を提供する。
The invention of claim 6
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information by the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the emotion information corresponding to the detected visualization information is detected. Emotion information detection means obtained using the conversion table information;
Search means for searching emotion information representing an emotion similar to the emotion represented by the emotion information obtained by the emotion information detection means from the emotion information stored in the emotion information storage unit;
Means for reading out and reproducing the imaging information corresponding to the time position of the searched emotion information from the imaging information storage unit;
Provide search playback device that an imaging information comprising a.

この請求項6の発明においては、ユーザにより感情可視化画像上において指定された可視化情報に対応する感情情報が表わす感情に近似する感情を示すものとなる感情情報が感情情報格納部から検索される。そして、その検索された感情情報の時間位置に対応する撮像情報が再生される。   In the invention of claim 6, emotion information indicating an emotion approximate to the emotion represented by the emotion information corresponding to the visualization information designated on the emotion visualization image by the user is retrieved from the emotion information storage unit. And the imaging information corresponding to the time position of the searched emotion information is reproduced.

したがって、この請求項6の発明によれば、ある特定の感情と近似する感情が得られたときを検索することができると共に、その近似する感情が得られたときの出来事など、周辺の環境を知ることができる。   Therefore, according to the invention of claim 6, it is possible to search when an emotion that approximates a specific emotion is obtained, and to determine the surrounding environment such as an event when the approximate emotion is obtained. I can know.

また、請求項16の発明は、
コンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じてユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出手段と、
前記感情情報検出手段で得られた感情情報を、前記感情情報格納部から検索する検索手段と、
前記検索手段で検索された感情情報の時間位置に対応する前記コンテンツデータを、前記コンテンツ格納部から読み出して再生する手段と、
を備えるコンテンツの検索再生装置を提供する。
The invention of claim 16
A content storage unit in which content data is stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information when the viewer appreciates the content into the visualization information using the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the emotion information corresponding to the detected visualization information is Emotion information detection means obtained using the conversion table information;
Search means for searching emotion information obtained by the emotion information detection means from the emotion information storage unit;
The content data corresponding to the time position of the emotion information searched by the searching means, and means for reading out and reproducing from the content storage unit,
A content search / playback apparatus comprising:

この請求項16の発明によれば、感情可視化画像により、例えば所定の放送番組や映画コンテンツなどを視聴しているときの感情の変化を可視化することができる。また、所定の放送番組や映画コンテンツなどを視聴したときの感情の状態分布を可視化することができる。 According to the sixteenth aspect of the present invention, it is possible to visualize changes in emotion when, for example, a predetermined broadcast program or movie content is viewed using the emotion visualization image. It is also possible to visualize the emotional state distribution when viewing a predetermined broadcast program or movie content.

そして、この表示画面上において、感情可視化画像上の任意の画像位置あるいは任意の画像範囲がユーザにより指定されると、その指定された任意の画像位置あるいは前記任意の画像範囲の前記可視化情報に対応する前記感情情報が、前記変換テーブル情報が用いられて検出される。   Then, on the display screen, when an arbitrary image position or an arbitrary image range on the emotion visualization image is specified by the user, it corresponds to the visualization information of the specified arbitrary image position or the arbitrary image range. The emotion information to be detected is detected using the conversion table information.

そして、この検出された感情情報が、感情情報格納部から検索されて、当該感情情報に対応する時間情報が検出される。そして、この検出された時間情報で特定されるコンテンツが再生される。   Then, the detected emotion information is searched from the emotion information storage unit, and time information corresponding to the emotion information is detected. Then, the content specified by the detected time information is reproduced.

したがって、請求項16の発明によれば、例えば映画コンテンツにおいて、感情可視化画像で指定した感情の状態から検索した場面を視聴することができる。つまり、感情可視化画像上において、例えば興奮している感情に応じた可視化画像部分を指示すると、その興奮状態を現出させる場面が再生される。 Therefore, according to the sixteenth aspect of the present invention, for example, in a movie content, it is possible to view a scene retrieved from the emotion state designated by the emotion visualization image. That is, on the emotion visualized image, for example, when a visualized image portion corresponding to an excited emotion is indicated, a scene that makes the excited state appear is reproduced.

また、請求項21の発明は、
複数個のコンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像の情報を格納する感情可視化画像情報格納部と、
前記感情可視化画像情報格納部に格納される感情可視化画像情報を表示画面に表示する表示手段と、
前記表示画面に表示された複数の感情可視化画像の中から任意の感情可視化画像をユーザが指定するための指定手段と、
前記指定手段を通じて指定された前記感情可視化画像と近似する感情可視化画像となる感情可視化画像情報を前記感情可視化画像情報格納部に格納された感情可視化画像情報から検索し、検索結果の感情可視化画像情報に対応するコンテンツを提示する検索提示手段と、
前記提示されたコンテンツのデータを、前記コンテンツ格納部から読み出して再生する手段と、
を備えるコンテンツの検索再生装置を提供する。
The invention of claim 21
A content storage unit in which data of a plurality of contents are stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information when the viewer appreciates the content into the visualization information using the conversion table information ;
And emotion visible image information storage unit for storing information of visualized Ru emotion visualization by the visualization information generated by the conversion processing means,
Display means for displaying emotion visualized image information stored in the emotion visualized image information storage unit on a display screen;
A designation means for the user to designate an arbitrary emotion visualization image from among the plurality of emotion visualization images displayed on the display screen;
Emotion visualization image information stored in the emotion visualization image information storage unit is searched for emotion visualization image information that becomes an emotion visualization image that approximates the emotion visualization image specified through the specifying means, and the emotion visualization image information of the search result Search and presentation means for presenting content corresponding to
Means for reading out and reproducing the data of the presented content from the content storage unit;
Provide search reproducing apparatus Turkey content comprising a.

この請求項21の発明においては、コンテンツのそれぞれに対応して、鑑賞者が当該コンテンツを鑑賞したときの感情情報を、変換テーブル情報により変換可能な可視化情報により可視化した感情可視化画像が生成され、当該感情可視化画像が感情可視化画像情報格納部に格納されている。 In the invention of claim 21 , corresponding to each content, an emotion visualization image is generated by visualizing emotion information when the viewer views the content with visualization information that can be converted by conversion table information, The emotion visualized image is stored in the emotion visualized image information storage unit.

この場合、感情可視化画像は、対応するコンテンツを鑑賞したときの鑑賞者の感情の状態が示されている。   In this case, the emotion visualization image shows the emotional state of the viewer when viewing the corresponding content.

そして、表示画面には、この感情可視化画像情報格納部に格納されている複数個の感情可視化画像が表示される。そして、ユーザは、その複数個の感情可視化画像を指定手段を通じて指定することができる。いずれかの感情可視化画像が選択指定されると、指定された前記感情可視化画像と近似する感情可視化画像となる感情可視化画像情報が、感情可視化画像情報格納部に格納された感情可視化画像情報から検索される。そして、検索結果の感情可視化画像情報に対応するコンテンツが提示される。   A plurality of emotion visualized images stored in the emotion visualized image information storage unit are displayed on the display screen. Then, the user can designate the plurality of emotion visualized images through the designation means. When any emotion visualized image is selected and specified, emotion visualized image information that becomes an emotion visualized image that approximates the specified emotion visualized image is searched from the emotion visualized image information stored in the emotion visualized image information storage unit. Is done. Then, the content corresponding to the emotion visualized image information of the search result is presented.

つまり、ある感情可視化画像をユーザが指定すると、その感情可視化画像に表現されている感情の状態と同様の感情の状態が得られるコンテンツが検索されて提示される。そして、ユーザは、その提示されたコンテンツを再生させることができる。   That is, when a user designates a certain emotion visualized image, content that can obtain an emotional state similar to the emotional state expressed in the emotion visualized image is retrieved and presented. Then, the user can reproduce the presented content.

したがって、この請求項21の発明によれば、感情可視化画像に表れている感情状態を基準にして、自分が鑑賞したいコンテンツを選択することが可能になる。 Therefore, according to the twenty-first aspect of the present invention, it is possible to select content that the user wants to appreciate based on the emotional state appearing in the emotion visualization image.

また、請求項29の発明は、
人から取得した生体情報が解析されて得られた前記人の感情を表わす感情情報が、当該感情情報を取得した時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記感情情報格納部に格納されている前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索手段と、
検索結果の時間位置を前記ユーザに報知するようにする手段と、
を備える感情検索装置を提供する。
The invention of claim 29 provides
Emotion information storing the emotion information representing the emotion of the person obtained by analyzing the biological information acquired from a person, corresponding to the time information acquired the emotion information;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information stored in the emotion information storage unit into the time-series visualization information using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
Search for detecting the visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image specified through the specifying means, and searching for a time position in the time series of the detected visualization information Means,
Means for informing the user of the time position of the search result;
To provide sensitive information retrieval device Ru equipped with.

この請求項29の発明においては、ユーザにより感情可視化画像上において指定された可視化情報に対応する感情情報あるいは感情情報範囲に対応する時間が検索され、その時間情報がユーザに報知される。 In this invention of Claim 29 , the time corresponding to the emotion information or emotion information range corresponding to the visualization information designated on the emotion visualization image by the user is searched, and the time information is notified to the user.

したがって、この請求項29の発明によれば、ある特定の感情が得られた日時などを検索することができる。 Therefore, according to the invention of claim 29 , it is possible to search for the date and time when a specific emotion is obtained.

また、請求項30の発明は、
人から取得した生体情報が解析されて得られた前記人の感情を表わす感情情報が、当該感情情報を取得した時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記感情情報格納部に格納されている前記感情情報により表わされる感情を、前記変換テーブル情報を用いて前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて検出する手段と、
前記検出した感情情報に近似する感情情報を前記感情情報格納部に格納された感情情報から検索する検索手段と、
検索結果の感情情報あるいは感情情報範囲に対応する時間が判るように前記ユーザに報知するようにする手段と、
を備える感情検索装置を提供する。
The invention of claim 30
Emotion information storing the emotion information representing the emotion of the person obtained by analyzing the biological information acquired from a person, corresponding to the time information acquired the emotion information;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information stored in the emotion information storage unit into the visualization information using the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated through the designation means is detected, and the emotion information corresponding to the detected visualization information is converted to the conversion table. Means for detecting using information;
Search means for searching emotion information stored in the emotion information storage unit for emotion information similar to the detected emotion information;
Means for informing the user so that the time corresponding to the emotion information or emotion information range of the search result is known;
To provide sensitive information retrieval device Ru equipped with.

この請求項30の発明においては、ユーザにより感情可視化画像上において指定された可視化情報に対応する感情情報が表わす感情に近似する感情を示すものとなる感情情報が感情情報格納部から検索され、その検索された感情情報あるいは感情情報範囲に対応する時間が判るようにユーザに報知される。 In the invention of claim 30 , emotion information indicating an emotion approximate to the emotion represented by the emotion information corresponding to the visualization information designated on the emotion visualization image by the user is retrieved from the emotion information storage unit, The user is informed so that the time corresponding to the searched emotion information or emotion information range is known.

したがって、この請求項30の発明によれば、ある特定の感情と近似する感情が得られた日時などを検索することができる。 Therefore, according to the invention of claim 30 , it is possible to search for the date and time when an emotion approximate to a specific emotion is obtained.

この発明によれば、人が持った感情および感情の変化を感情可視化画像として表示し、当該感情可視化画像を通じて、所定の感情を検索指示することができる。そして、請求項1の発明によれば、前記感情可視化画像上で指定された感情を持ったときに得られた撮像情報を検索して、再生することができる。   According to the present invention, it is possible to display emotions and changes in emotions held by a person as emotion visualized images, and to search and instruct predetermined emotions through the emotion visualized images. According to the first aspect of the present invention, it is possible to retrieve and reproduce the imaging information obtained when the emotion visualized on the emotion visualized image is designated.

また、請求項6の発明によれば、前記感情可視化画像上で指定された感情と近似する感情を持った時点あるいは時間範囲を検索することができる。そして、その検索結果の中から、特定の時点あるいは時間範囲の感情が指定されると、それに対応する撮像情報を検索して再生することができる。したがって、ある特定の感情と近似する感情が得られたときを検索することができると共に、その近似する感情が得られたときの出来事など、周辺の環境を知ることができる。   According to the sixth aspect of the present invention, it is possible to search for a point in time or a time range having an emotion similar to the emotion designated on the emotion visualization image. Then, when an emotion at a specific time point or time range is specified from the search results, the corresponding imaging information can be searched and reproduced. Therefore, it is possible to search when an emotion that approximates a specific emotion is obtained, and to know the surrounding environment such as an event when the approximate emotion is obtained.

また、請求項16の発明によれば、感情可視化画像により、例えば所定の放送番組や映画コンテンツなどを視聴しているときの感情の変化や感情の状態分布を可視化することができる。 According to the sixteenth aspect of the present invention, it is possible to visualize emotional changes and emotional state distributions when, for example, a predetermined broadcast program or movie content is viewed using the emotional visualization image.

そして、この表示画面上において、感情可視化画像上の任意の画像位置あるいは任意の画像範囲がユーザにより指定されると、当該指定された画像位置あるいは画像範囲に対応する感情あるいは感情範囲が検索され、対応するコンテンツの場面を視聴することができる。   Then, on this display screen, when an arbitrary image position or an arbitrary image range on the emotion visualization image is specified by the user, an emotion or an emotion range corresponding to the specified image position or image range is searched, The corresponding content scene can be viewed.

また、請求項21の発明によれば、感情可視化画像に表れている感情状態を基準にして、自分が鑑賞したいコンテンツを選択することが可能になる。 According to the twenty-first aspect of the present invention, it is possible to select content that the user wants to appreciate based on the emotional state appearing in the emotion visualization image.

また、請求項29の発明によれば、ある特定の感情が得られた日時などを検索することができる。さらに、請求項30の発明によれば、ある特定の感情と近似する感情が得られた日時などを検索することができる。 According to the invention of claim 29 , it is possible to search for the date and time when a specific emotion is obtained. Furthermore, according to the invention of claim 30 , it is possible to search for a date and time when an emotion approximate to a specific emotion is obtained.

[第1の実施形態]
以下に説明する第1の実施形態は、この発明による撮像情報の検索再生装置および方法を、撮像情報記録再生装置に適用した場合である。この第1の実施形態における撮像情報記録再生装置は、撮像部を備え、当該撮像部により撮像しているときの撮影者の生体情報を取り込んで、感情解析し、その感情解析結果を色変換して可視化データ(色情報)を得、この可視化データに基づいて生成した感情可視化画像情報を、撮像情報と共に、時間情報に関連させて記録するようにする機能を備える。
[First Embodiment]
The first embodiment described below is a case where the imaging information searching / reproducing apparatus and method according to the present invention are applied to an imaging information recording / reproducing apparatus. The imaging information recording / reproducing apparatus according to the first embodiment includes an imaging unit, captures the photographer's biological information when the imaging unit is imaging, performs emotion analysis, and performs color conversion on the emotion analysis result. Visualization data (color information) is obtained, and emotion visualized image information generated based on the visualization data is recorded in association with time information together with imaging information.

この実施形態では、可視化データとしては、色情報を用いる。すなわち、この実施形態では、感情解析結果の感情情報を、色情報に変換して可視化するようにする。ここで、色は、色相と彩度と明度とにより決まるものであるので、色の変化は、それらの組み合わせによりなされる。したがって、色相が変わるものに限らず、色相が同一で、彩度や明度が変化するものも含まれるものである。   In this embodiment, color information is used as the visualization data. That is, in this embodiment, the emotion information of the emotion analysis result is converted into color information and visualized. Here, since the color is determined by the hue, saturation, and brightness, the color change is made by a combination thereof. Accordingly, not only those whose hue changes but also those whose hue is the same and whose saturation and brightness change.

<撮像情報記録再生装置のハードウエア構成例>
図1は、この実施形態の撮像情報記録再生装置100のブロック図である。
<Example of hardware configuration of imaging information recording / reproducing apparatus>
FIG. 1 is a block diagram of an imaging information recording / reproducing apparatus 100 of this embodiment.

この撮像情報記録再生装置100は、CPU(Central Processing Unit)101に対して、システムバス102を介して、ROM(Read Only Memory)103と、RAM(Random Access Memory)104とが接続されたコンピュータを備える構成となっている。   The imaging information recording / reproducing apparatus 100 includes a computer in which a ROM (Read Only Memory) 103 and a RAM (Random Access Memory) 104 are connected to a CPU (Central Processing Unit) 101 via a system bus 102. It is configured to be equipped.

そして、システムバス102に対して、撮像部コントローラ105と、撮像信号処理部106と、生体情報入力部コントローラ107と、感情解析処理部108と、データ格納部コントローラ109と、再生処理部110と、計時部111と、ビジュアルデータ処理部112と、表示部コントローラ113と、キー入力インターフェース(図ではインターフェースはI/Fと記載する。以下同じ)114と、ネットワークインターフェース115と、プリンタコントローラ116と、検索処理部117とが接続されている。   Then, with respect to the system bus 102, an imaging unit controller 105, an imaging signal processing unit 106, a biological information input unit controller 107, an emotion analysis processing unit 108, a data storage unit controller 109, a reproduction processing unit 110, Timekeeping unit 111, visual data processing unit 112, display unit controller 113, key input interface (in the figure, the interface is described as I / F. The same applies hereinafter) 114, network interface 115, printer controller 116, search A processing unit 117 is connected.

撮像部コントローラ105は、ROM103に格納されているプログラムにしたがったCPU101からの制御に基づいて、撮像部コントロール信号を撮像部121に供給する。   The imaging unit controller 105 supplies an imaging unit control signal to the imaging unit 121 based on control from the CPU 101 according to a program stored in the ROM 103.

撮像部121は、レンズ系と、例えばCCD(Charge Coupled Device)で構成される撮像素子とを備え、撮像部コントローラ105からの撮像部コントロール信号を受けて、撮像記録の開始、停止、ズーム倍率、露出値、オートフォーカスなどの制御がなされる。   The imaging unit 121 includes a lens system and an imaging device configured by, for example, a CCD (Charge Coupled Device), receives an imaging unit control signal from the imaging unit controller 105, and starts and stops imaging recording, zoom magnification, The exposure value, auto focus, etc. are controlled.

撮像部121からの撮像画像信号は、A/D(Analog to Digital)変換器122によりデジタル信号に変換された後、撮像信号処理部106に供給される。撮像信号処理部106では、ROM103に記憶されているプログラムに従ったCPU101からの制御指示命令により処理が実行されて、A/D変換器122からの撮像画像信号が、例えばMPEG(Moving Picture Experts Group)方式により画像データ圧縮されると共に、適切な記録フォーマットに変換される。また、撮像信号処理部106では、計時部111からの時刻情報が用いられて、撮像画像データに撮像時刻の情報が付加される処理も行なわれる。   The captured image signal from the imaging unit 121 is converted into a digital signal by an A / D (Analog to Digital) converter 122 and then supplied to the imaging signal processing unit 106. In the imaging signal processing unit 106, processing is executed by a control instruction command from the CPU 101 according to a program stored in the ROM 103, and an imaging image signal from the A / D converter 122 is converted into, for example, an MPEG (Moving Picture Experts Group). ) Image data is compressed by the method and converted into an appropriate recording format. Further, the imaging signal processing unit 106 uses the time information from the time measuring unit 111 to perform processing for adding imaging time information to the captured image data.

そして、撮像信号処理部106で適切な記録フォーマットに変換された、撮像時刻の情報を含む撮像画像データは、システムバス102を通じてデータ格納部コントローラ109に転送される。データ格納部コントローラ109は、受け取った撮像画像データを、データ格納部123に格納する。   Then, the captured image data including the information on the imaging time, which has been converted into an appropriate recording format by the imaging signal processing unit 106, is transferred to the data storage unit controller 109 through the system bus 102. The data storage unit controller 109 stores the received captured image data in the data storage unit 123.

データ格納部123は、この例では、ハードディスクドライブで構成され、例えば1日分以上のデータを格納する記憶容量を備えるものである。なお、データ格納部123は、DVD(Digital Versatile Disc)などの大容量記録形光ディスクや、半導体メモリなどを記憶媒体に用いる装置を用いるようにしても良い。   In this example, the data storage unit 123 is composed of a hard disk drive, and has a storage capacity for storing data for one day or more, for example. The data storage unit 123 may be a device that uses a large-capacity recording type optical disc such as a DVD (Digital Versatile Disc) or a semiconductor memory as a storage medium.

生体情報入力部コントローラ107は、生体情報入力部124からの生体情報を、A/D変換部125を通じて受け取る。生体情報入力部124は、詳しくは後述するが、当該撮像情報記録再生装置100の使用者(撮影者)の生体情報を取得する手段を構成するものである。   The biological information input unit controller 107 receives the biological information from the biological information input unit 124 through the A / D conversion unit 125. As will be described in detail later, the biological information input unit 124 constitutes means for acquiring biological information of the user (photographer) of the imaging information recording / reproducing apparatus 100.

ここで、生体情報とは、この明細書では、生理的、生化学的、または身体的な反応または状態の情報をいうものとする。生体情報としては、例えば、人間が自発的・誘発的に発する情報、例えば、心拍、脈波、呼吸、血圧、心電、脳波、皮膚発汗、皮膚抵抗、体動、体位、脳磁図、筋電、体表面温度、瞳孔径の大きさ、マイクロバイブレーション、瞬目(瞬き)、生化学反応などが挙げられる。   Here, the biological information in this specification refers to information on physiological, biochemical, or physical reactions or states. Biological information includes, for example, information spontaneously and evoked by humans, such as heartbeat, pulse wave, respiration, blood pressure, electrocardiogram, electroencephalogram, skin sweating, skin resistance, body movement, body position, magnetoencephalogram, myoelectricity. , Body surface temperature, pupil size, microvibration, blink (blink), biochemical reaction, and the like.

したがって、人の生体情報には、人に装着された電極を通じて検出するもののみではなく、体動、体位などのようにカメラで撮影した情報から検出されるもの、体表面温度などのようにセンサにより遠隔で検出できるものを含む。   Therefore, human biological information is not only detected through electrodes attached to humans, but also detected from information captured by a camera such as body movement and body position, and sensors such as body surface temperature. Includes those that can be detected remotely.

生体情報入力部124で取得されたユーザの生体情報は、A/D変換部125でデジタル信号に変換され、生体信号入力部コントローラ107およびCPU101、ROM103のプログラム、ワークエリア用RAM104によって、適切な記録フォーマットに変換され、データ格納部コントローラ109によって、データ格納部123に格納される。このとき、撮像画像データの場合と同様に対応して、生体情報には取得時刻の情報が付加されるデータ格納部123に格納される。   The biometric information of the user acquired by the biometric information input unit 124 is converted into a digital signal by the A / D conversion unit 125, and is appropriately recorded by the biometric signal input unit controller 107, the CPU 101, the ROM 103 program, and the work area RAM 104. The data is converted into a format and stored in the data storage unit 123 by the data storage controller 109. At this time, corresponding to the captured image data, the biometric information is stored in the data storage unit 123 to which the information on the acquisition time is added.

生体情報入力部124で取得された生体情報は、また、A/D変換部125でデジタル信号に変換された後、感情解析処理部108に供給され、ここで後述もするように、所定の方式にしたがって感情解析が行なわれる。そして、この感情解析処理部108での感情解析の結果得られたユーザの感情を表わすための情報(以下、感情データという)は、ROM103のプログラムにしたがって、CPU101、RAM104によって、適切な記録フォーマットに変換され、データ格納部コントローラ109によって、データ格納部123に格納される。この感情データにも、時刻情報が付加され、撮像画像データや生体情報との対応が可能とされている。   The biometric information acquired by the biometric information input unit 124 is also converted into a digital signal by the A / D conversion unit 125 and then supplied to the emotion analysis processing unit 108. Here, as described later, a predetermined method is used. Emotion analysis is performed accordingly. Then, information (hereinafter referred to as emotion data) representing the user's emotion obtained as a result of the emotion analysis in the emotion analysis processing unit 108 is converted into an appropriate recording format by the CPU 101 and the RAM 104 according to the program of the ROM 103. The data is converted and stored in the data storage unit 123 by the data storage controller 109. Time information is also added to the emotion data, and correspondence with captured image data and biological information is possible.

なお、感情データは、上述のようにリアルタイムで生体情報から生成するのではなく、撮像情報および生体情報のデータ格納部123への格納が終了した後、当該データ格納部123に格納されている生体情報を読み出して、感情解析し、その解析結果をデータ格納部123に格納するようにすることもできる。ただし、その場合には、後述するようなリアルタイムでの感情の可視化表示はできない。   Note that the emotion data is not generated from the biological information in real time as described above, but after the storage of the imaging information and the biological information in the data storage unit 123 is completed, the biological data stored in the data storage unit 123 is stored. It is also possible to read out information, analyze emotions, and store the analysis result in the data storage unit 123. In this case, however, the emotion display in real time as described later cannot be performed.

また、上述の説明では、撮像部121により取得した被写体の撮像画像データや生体情報入力部124を通じて取得したユーザの生体情報、また、感情解析処理部108で生体情報を解析することによって得られる感情を表わす感情データは、すべてデータ格納部123に記憶して格納するものとして説明したが、これに限るものではない。   In the above description, the captured image data of the subject acquired by the imaging unit 121, the user's biological information acquired through the biological information input unit 124, and the emotion obtained by analyzing the biological information by the emotion analysis processing unit 108. Although it has been described that the emotion data representing is stored and stored in the data storage unit 123, the present invention is not limited to this.

例えば、ネットワークインターフェース115を通じてインターネットなどのネットワークに接続し、ネットワーク上に設けられた所定のサーバ装置に送信して、そのサーバ装置に、撮像画像データや生体情報、感情状態を示す情報を記憶保持させるようにするようにすることも可能である。   For example, it connects to a network such as the Internet through the network interface 115, transmits it to a predetermined server device provided on the network, and causes the server device to store and hold captured image data, biological information, and information indicating an emotional state. It is also possible to do so.

感情解析処理部108は、後で詳述するように、生体情報入力部124を通じて取得した種々の生体情報、または、データ格納部123に格納された生体情報を、この例では、感情モデルを解析する方法で感情状態の抽出を行なう。   As will be described in detail later, the emotion analysis processing unit 108 analyzes various biological information acquired through the biological information input unit 124 or biological information stored in the data storage unit 123, in this example, an emotion model. To extract emotional state.

再生処理部110は、再生時に、データ格納部123からデータ格納部コントローラ109を通じて読み出された圧縮画像データの伸張デコード処理等を行って再生用の画像データを形成するものである。再生処理部110において処理された画像データは、ビジュアルデータ処理部112に供給される。   The reproduction processing unit 110 performs image data for reproduction by performing decompression decoding processing on the compressed image data read from the data storage unit 123 through the data storage unit controller 109 during reproduction. The image data processed in the reproduction processing unit 110 is supplied to the visual data processing unit 112.

計時部111は、カレンダー機能つきの時計回路であって、年月日および時刻情報をシステムバス102に送出する。   The timer unit 111 is a clock circuit with a calendar function, and sends out date and time information to the system bus 102.

ビジュアルデータ処理部112は、感情解析処理部108からの感情データあるいはデータ格納部123に格納されている感情データから、後で詳述するように、色変換テーブル情報記憶部126に格納されている変換テーブル情報を用いて感情の可視化データ(この例では色情報となる)を得、その可視化データを用いた感情可視化画像情報を生成し、生成した感情可視化画像情報を、データ格納部コントローラ109を通じてデータ格納部123に格納する機能を備える。後述するように、ビジュアルデータ処理部112は、感情変化可視化手段および感情分布可視化手段の役割機能も備える。   The visual data processing unit 112 is stored in the color conversion table information storage unit 126 from the emotion data from the emotion analysis processing unit 108 or the emotion data stored in the data storage unit 123, as will be described in detail later. Emotion visualization data (in this example, color information) is obtained using the conversion table information, emotion visualization image information using the visualization data is generated, and the generated emotion visualization image information is transmitted through the data storage controller 109. A function of storing in the data storage unit 123 is provided. As will be described later, the visual data processing unit 112 also includes role functions of emotion change visualization means and emotion distribution visualization means.

また、ビジュアルデータ処理部112は、再生時には、データ格納部123から読み出された撮像画像データおよび感情可視化画像情報とを、時間軸に同期させて再生し、表示部コントローラ113を通じて表示部127の画面に表示させるようにする機能を備える。なお、この再生時、データ格納部123から読み出された撮像画像データは、上述したように、再生処理部110で伸長デコード処理された後、ビジュアルデータ処理部112に供給されるものである。   Further, the visual data processing unit 112 reproduces the captured image data and the emotion visualized image information read from the data storage unit 123 at the time of reproduction in synchronization with the time axis, and through the display unit controller 113, the display unit 127 It has a function to be displayed on the screen. At the time of reproduction, the captured image data read from the data storage unit 123 is supplied to the visual data processing unit 112 after being decompressed and decoded by the reproduction processing unit 110 as described above.

表示部コントローラ113は、表示部127に供給する表示用画像信号を形成し、これを表示部127に供給する。表示部127は、LCD(Liquid Crystal Display)などのディスプレイであり、表示部コントローラ113からの画像信号に応じた画像をその表示画面に表示する。   The display controller 113 forms a display image signal to be supplied to the display unit 127 and supplies this to the display unit 127. The display unit 127 is a display such as an LCD (Liquid Crystal Display), and displays an image corresponding to an image signal from the display unit controller 113 on the display screen.

キー入力インターフェース114には、キー入力操作部128が接続される。キー入力操作部128は、撮像記録開始キー、再生開始キー、早送りキー、巻戻しキー、ジャンプキー、停止キーなどのキーを備える。キー入力操作部128のいずれかのキーが操作されると、キー入力インターフェース114を通じてその操作入力情報がシステムバス102に供給される。CPU101は、この操作入力情報を判別して、どのキーが操作されたかを判別し、その操作されたキーに対応する処理を実行する。   A key input operation unit 128 is connected to the key input interface 114. The key input operation unit 128 includes keys such as an imaging recording start key, a reproduction start key, a fast forward key, a rewind key, a jump key, and a stop key. When any key of the key input operation unit 128 is operated, the operation input information is supplied to the system bus 102 through the key input interface 114. The CPU 101 determines the operation input information, determines which key is operated, and executes processing corresponding to the operated key.

プリンタコントローラ116には、この例ではカラープリンタ129が接続され、後述するように、ビジュアルデータ処理部112から得られる感情の可視化データによる出力画像が、このカラープリンタ129によりカラー印刷出力されるように構成されている。   In this example, a color printer 129 is connected to the printer controller 116. As will be described later, an output image based on emotion visualization data obtained from the visual data processing unit 112 is printed out in color by the color printer 129. It is configured.

なお、図1では省略したが、撮像部121にマイクロホンが取り付けられており、撮像時に、被写体周辺の音声がこのマイクロホンにより収音され、A/D変換され、また必要に応じてデータ圧縮されて、撮像画像データと共にデータ格納部123に格納されて、記録される。   Although not shown in FIG. 1, a microphone is attached to the imaging unit 121. During imaging, sound around the subject is picked up by the microphone, A / D converted, and data compressed as necessary. The data is stored and recorded in the data storage unit 123 together with the captured image data.

検索処理部117は、感情可視化画像情報による出力画像(感情可視化画像)を通じて指定された感情あるいは感情範囲に応じて、以下に説明するような検索処理を実行する。すなわち、この実施形態では、検索モードとして、単純検索モードと近似検索モードとを備える。   The search processing unit 117 executes search processing as described below according to the emotion or emotion range specified through the output image (emotion visualized image) based on the emotion visualized image information. That is, in this embodiment, a simple search mode and an approximate search mode are provided as search modes.

単純検索モードは、感情可視化画像情報による出力画像(感情可視化画像)を通じて指定された感情あるいは感情範囲に対応する時間位置あるいは時間範囲を検索し、その検索結果に基づいて、データ格納部123から対応する時間位置あるいは時間範囲の撮像情報を検索するモードである。この単純検索モードは、指定された感情に対応する撮像情報を検索して再生するモードである。   The simple search mode searches the time position or time range corresponding to the specified emotion or emotion range through the output image (emotion visualized image) based on the emotion visualized image information, and corresponds from the data storage unit 123 based on the search result. This is a mode for retrieving imaging information of a time position or a time range to be performed. This simple search mode is a mode for searching and reproducing imaging information corresponding to a specified emotion.

近似検索モードは、感情可視化画像情報による出力画像(感情可視化画像)を通じて指定された感情あるいは感情範囲に近似する他の感情あるいは感情範囲を検索し、その検索結果の感情あるいは感情範囲の時間あるいは時間範囲をユーザに報知するモードである。この近似検索モードにおいては、検索結果の時間あるいは時間範囲がユーザにより指示されたときには、その時間あるいは時間範囲に対応する撮像情報を読み出して再生することができる。   The approximate search mode searches other emotions or emotion ranges that approximate the specified emotion or emotion range through the output image (emotional visualization image) based on emotion visualized image information, and the emotion or emotion range time or time of the search result In this mode, the range is notified to the user. In this approximate search mode, when the time or time range of the search result is instructed by the user, the imaging information corresponding to the time or time range can be read and reproduced.

この検索処理部117でなされる単純検索モードおよび近似検索モードの詳細な処理動作は、後で詳述する。   Detailed processing operations in the simple search mode and approximate search mode performed by the search processing unit 117 will be described in detail later.

<生体情報入力部124〜生体信号入力部コントローラ107の部分の構成例>
ここで、上述した生体情報入力部124、A/D変換部125および生体信号入力部コントローラ107の部分の、より具体的な構成例について説明する。図2は、生体情報入力部124、A/D変換器部125および生体情報入力部コントローラ107の部分の詳細構成例を示すブロック図である。
<Configuration Example of Portion of Biological Information Input Unit 124 to Biological Signal Input Unit Controller 107>
Here, a more specific configuration example of the biometric information input unit 124, the A / D conversion unit 125, and the biosignal input unit controller 107 described above will be described. FIG. 2 is a block diagram illustrating a detailed configuration example of the biometric information input unit 124, the A / D converter unit 125, and the biometric information input unit controller 107.

人の感情を表わす感情データは、適切な一つの生体情報のみを用いて得るようにすることもできるが、より正確に人の感情を表わす感情データを得るために、この例では、複数個の生体情報を用いる。図2の例では、ユーザの生体情報として、脳波、心電、脈波(脈拍)、体温などを電極(センサを含む)を通じて検出する場合を例にして説明する。  Emotion data representing human emotion can be obtained using only one appropriate biological information, but in order to obtain emotion data representing human emotion more accurately, in this example, a plurality of emotion data are represented. Use biological information. In the example of FIG. 2, a case where brain waves, electrocardiograms, pulse waves (pulses), body temperature, and the like are detected through electrodes (including sensors) as user biometric information will be described as an example.

図2に示すように、この例の生体情報入力部124は、人に装着されて、複数の生体情報、この例においては、脳波、心電、脈波、体温、筋電など、に対応する生体信号を収集するための複数個の電極1241a,1241b,1241c,1241d,・・・,1241eと、それぞれの電極1241a,1241b,1241c,1241d,・・・,1241eからの生体信号を増幅するための複数個の増幅部1242a,1242b,1242c,1242d,・・・,1242eとからなる。   As shown in FIG. 2, the living body information input unit 124 of this example is worn by a person and corresponds to a plurality of living body information, in this example, brain waves, electrocardiograms, pulse waves, body temperature, myoelectricity, and the like. , 1241e and a plurality of electrodes 1241a, 1241b, 1241c, 1241d,..., 1241e for collecting biological signals, and for amplifying the biological signals from the respective electrodes 1241a, 1241b, 1241c, 1241d,. The plurality of amplifiers 1242a, 1242b, 1242c, 1242d,.

電極1241a,1241b,1241c,1241d,・・・,1241eは、脳波をはじめとする生体電気現象や脳磁気をはじめとする生体磁気現象を測定する機能を有するものであり、この例においては、撮影者に装着される。増幅部1242a,1242b,1242c,1242d,・・・,1242eは、増幅のみでなく、必要に応じて、数種類の周波数帯域に分けるなどのフィルタリング処理を行なう場合もある。   The electrodes 1241a, 1241b, 1241c, 1241d,..., 1241e have a function of measuring bioelectric phenomena including brain waves and biomagnetic phenomena including brain magnetism. Worn by the person. The amplifying units 1242a, 1242b, 1242c, 1242d,..., 1242e may perform not only amplification but also filtering processing such as dividing into several types of frequency bands as necessary.

例えば、生体情報が脳波であれば、増幅部1242aは、電極1241aから得られた数マイクロボルトの電位の生体情報信号を増幅し、アルファ波、ベータ波、などの数種類の周波数帯域の成分に分けるようにフィルタリングをかける処理を行なう。   For example, if the biological information is an electroencephalogram, the amplifying unit 1242a amplifies the biological information signal having a potential of several microvolts obtained from the electrode 1241a and divides it into components of several frequency bands such as an alpha wave and a beta wave. In this way, the filtering process is performed.

電極1241a、1241b、1241c、1241d、・・・、1241eを通じて検出された各生体情報は、対応する増幅部1242a、1242b、1242c、1242d、・・・、1242eに供給されて増幅され、A/D変換部125に供給される。この実施形態においては、A/D変換部125は、図2に示すように、供給される生体情報に応じた複数個のA/Dコンバータ125a、125b、125c、125d、・・・、125eを備えたものであり、供給される生体情報(アナログ信号)をデジタル信号に変換する。   Each biological information detected through the electrodes 1241a, 1241b, 1241c, 1241d,..., 1241e is supplied to the corresponding amplifiers 1242a, 1242b, 1242c, 1242d,. This is supplied to the conversion unit 125. In this embodiment, the A / D converter 125 includes a plurality of A / D converters 125a, 125b, 125c, 125d,..., 125e corresponding to the supplied biological information, as shown in FIG. The biometric information (analog signal) supplied is converted into a digital signal.

例えば、脳波の電位レベルは一般には50μV(マイクロボルト)程度、心電の電位レベルは1mV(ミリボルト)程度と生体信号の種類により異なる。このため、各A/D変換器125a、125b、125c、125d、・・・、125eにおいてのA/D変換時の量子化ビット数は、増幅された各種生体信号の電位レベルを下回らない程度の精度を有するようにされている。   For example, the potential level of the electroencephalogram is generally about 50 μV (microvolt), and the potential level of the electrocardiogram is about 1 mV (millivolt), which varies depending on the type of biological signal. Therefore, the number of quantization bits at the time of A / D conversion in each of the A / D converters 125a, 125b, 125c, 125d,..., 125e is such that it does not fall below the potential level of the various biological signals amplified. It is made to have accuracy.

そして、A/D変換された後の各生体情報は、生体情報入力部コントローラ107に供給される。生体情報入力部コントローラ107は、デジタル化された各種生体信号を受信するための受信部1071と、それらの生体情報を感情解析処理部108、データ格納部123、表示部127、再生処理部110で利用可能な信号にするための処理を行なう生体信号処理部1072と、処理された生体信号をバス102に出力するための送信部1073とから構成される。   Each biometric information after A / D conversion is supplied to the biometric information input unit controller 107. The biometric information input unit controller 107 receives the various biometric digital signals, and receives the biometric information by the emotion analysis processing unit 108, the data storage unit 123, the display unit 127, and the reproduction processing unit 110. A biological signal processing unit 1072 that performs processing for making a usable signal and a transmission unit 1073 that outputs the processed biological signal to the bus 102 are configured.

受信部1071は、A/Dコンバータ125a、125b、125c、125d、・・・、125eから出力される、もとの生体信号が再現される程度の間隔のサンプリング周波数を有するデジタル生体情報を受信して、これを後段の生体信号処理部1072に供給する。   The receiving unit 1071 receives digital biometric information having a sampling frequency at an interval at which the original biosignal is reproduced, which is output from the A / D converters 125a, 125b, 125c, 125d,. This is supplied to the biological signal processing unit 1072 in the subsequent stage.

生体信号処理部1072は、受信部1071からのデジタル生体情報の供給を受けて、生体情報のそれぞれについて、例えば振幅調整や帯域通過のためのフィルタ演算処理、FFTやウェーブレット解析をはじめとする時間−周波数解析、あるいは、ニューラルネットやカオス解析をはじめとする非線形解析などを行って、感情解析処理部108、データ格納部123、表示部127、再生処理部110で利用可能な形式の信号に変換し、変換後の生体情報(生体信号)を送信部1073に供給する。   The biological signal processing unit 1072 receives the digital biological information supplied from the receiving unit 1071, and for each biological information, for example, filter operation processing for amplitude adjustment and band pass, time including FFT and wavelet analysis, etc. Frequency analysis or nonlinear analysis such as neural network or chaos analysis is performed to convert the signal into a format that can be used by the emotion analysis processing unit 108, the data storage unit 123, the display unit 127, and the reproduction processing unit 110. Then, the converted biological information (biological signal) is supplied to the transmission unit 1073.

送信部1073は、バス102に対し逐次適切なタイミングで、上述のように処理されて形成された生体信号を出力し、上述もしたように、データ格納部コントローラ109を通じてデータ格納部123に記録させたり、また、感情解析処理部108に供給して、生体情報の解析を行なわせたりするようにする。   The transmission unit 1073 outputs the biological signal formed by processing as described above to the bus 102 at appropriate timing sequentially, and records it in the data storage unit 123 through the data storage unit controller 109 as described above. Or, it is supplied to the emotion analysis processing unit 108 to perform analysis of biological information.

<感情解析処理部108における感情解析の一例>
次に、感情解析処理部108において行われる感情解析処理の一例について説明する。感情解析処理部108には、前述したように、生体情報入力部124、A/D変換部125、生体情報入力部コントローラ107を通じて、必要な信号処理や解析処理が行われて得られたデジタル化された複数の生体情報が入力される。
<Example of emotion analysis in emotion analysis processing unit 108>
Next, an example of emotion analysis processing performed in the emotion analysis processing unit 108 will be described. As described above, the emotion analysis processing unit 108 performs digitization obtained by performing necessary signal processing and analysis processing through the biological information input unit 124, the A / D conversion unit 125, and the biological information input unit controller 107. The plurality of pieces of biological information that have been input are input.

感情解析処理部108には、生体情報入力部コントローラ107からバス102を通じて生体情報が供給される場合だけではなく、データ格納部123に一旦格納された生体情報が、データ格納部コントローラ109を通じて読み出されて、これがバス102を通じて供給される場合もある。また、感情解析処理部108は、ネットワークインターフェース115を通じて外部機器や外部サーバに記憶するようにした生体情報の供給を受けるようにすることもできる。   The biometric information once stored in the data storage unit 123 is read out to the emotion analysis processing unit 108 through the data storage unit controller 109, not only when biometric information is supplied from the biometric information input unit controller 107 through the bus 102. In some cases, this is supplied through the bus 102. In addition, the emotion analysis processing unit 108 can be supplied with biometric information stored in an external device or an external server through the network interface 115.

感情解析処理部108では、複数の生体情報の入力を受け付けて、これらの複数の生体情報を元に解析処理を行ない、感情データとして、感情モデルで定義される複数の感情パラメータ値を出力する。感情モデルとしては、例えば2軸モデル、3軸モデル、6軸モデル等がある。これらのモデルの一例を図3に示す。   The emotion analysis processing unit 108 receives input of a plurality of pieces of biological information, performs analysis processing based on the plurality of pieces of biological information, and outputs a plurality of emotion parameter values defined by the emotion model as emotion data. Examples of the emotion model include a 2-axis model, a 3-axis model, and a 6-axis model. An example of these models is shown in FIG.

2軸モデルは、最も簡易なモデルであり、図3Aに示すように、感情として、例えば、快適と不快とのどちらに、より近いかの度合いを示す第1軸と、興奮または緊張とリラックスとのどちらに、より近いかの度合いを示す第2軸との2軸により、感情モデルを形成する。そして、前記2軸で定まる感情2次元空間におけるそれぞれ感情の状態を、前記第1軸方向のパラメータ(座標値)および第2軸方向のパラメータ(座標値)からなる感情パラメータ値により表現する。   The two-axis model is the simplest model, and as shown in FIG. 3A, as emotions, for example, a first axis indicating a degree closer to comfort or discomfort, excitement or tension and relaxation. An emotion model is formed by two axes, the second axis indicating the degree of which is closer. Each emotion state in the two-dimensional emotion space determined by the two axes is expressed by an emotion parameter value composed of the parameter (coordinate value) in the first axis direction and the parameter (coordinate value) in the second axis direction.

3軸モデルは、図3Bに示すように、感情として、例えば、快適と不快とのどちらに、より近いかの度合いを示す第1軸と、興奮または緊張とリラックスとのどちらに、より近いかの度合いを示す第2軸と、緊張と弛緩とのどちらに、より近いかの度合いを示す第3軸との3軸により、感情モデルを形成し、当該3軸空間における座標値からなる感情パラメータにより感情の状態を表現するものである。   As shown in FIG. 3B, the three-axis model is closer to emotion, for example, a first axis indicating the degree of comfort or discomfort, and excitement, tension, or relaxation. An emotion model is formed by the three axes of the second axis that indicates the degree of movement and the third axis that indicates the degree of closer to tension or relaxation, and the emotion parameter is composed of coordinate values in the three-axis space. It expresses the state of emotion.

6軸モデルは、図3Cに示すように、怒りの度合いを示す第1軸と、恐れの度合いを示す第2軸と、悲しみの度合いを示す第3軸と、喜びの度合いを示す第4軸と、嫌悪の度合いを示す第5軸と、驚きの度合いを示す第6軸との6軸により、感情モデルを形成し、当該3軸空間における座標値からなる感情パラメータにより感情の状態を表現するものである。   As shown in FIG. 3C, the six-axis model includes a first axis indicating the degree of anger, a second axis indicating the degree of fear, a third axis indicating the degree of sadness, and a fourth axis indicating the degree of joy. Then, an emotion model is formed by six axes including a fifth axis indicating the degree of disgust and a sixth axis indicating the degree of surprise, and the emotional state is expressed by emotion parameters including coordinate values in the three-axis space. Is.

感情解析処理部108は、例えば、上述した感情モデルのいずれかを用いるようにし、例えば、学習済み、あるいは、ユーザ個別に再学習を行った3層バックプロパゲーション、自己組織化マップ(SOM : Self Organizing Map)等のニューラルネットワークの手法を利用して、入力として受け付けた複数種類の生体情報から、当該生体情報の発信元である人の感情の解析処理を行って、その解析結果として求められた感情を表わす感情データとしての感情パラメータ値を求める。   The emotion analysis processing unit 108 uses, for example, any of the emotion models described above. For example, a three-layer back propagation or self-organization map (SOM: Self Using neural network techniques such as Organizing Map, the emotions of the person who is the source of the biological information are analyzed from multiple types of biological information received as input, and the analysis results are obtained. An emotion parameter value is obtained as emotion data representing emotion.

このように、この実施の形態の感情解析処理部108においては、所定の感情モデルとニューラルネットワークの手法を用いて、複数種類の生体情報を解析することによって、それらの生体情報の提供元であるユーザの感情の状態を感情パラメータ値として把握することが可能となる。   As described above, the emotion analysis processing unit 108 of this embodiment is a provider of biological information by analyzing a plurality of types of biological information using a predetermined emotion model and a neural network technique. It becomes possible to grasp the emotional state of the user as an emotion parameter value.

そして、この感情解析結果の感情パラメータ値を、後述するように、ビジュアルデータ処理部112において、色変換テーブル情報記憶部126の変換テーブル情報を用いて色情報出力に変換して、時間情報に対応して可視化する。これにより、例えば、喜びの感情が表れている期間、悲しみの感情が表れている期間、怒りの感情が表れている期間、恐れの感情が表れている期間を容易に把握することができ、また、それらの感情の変化などを色の変化として容易に把握することができる。   Then, as described later, the emotion parameter value of the emotion analysis result is converted into color information output by using the conversion table information in the color conversion table information storage unit 126 in the visual data processing unit 112, and corresponds to time information. And visualize. Thus, for example, it is possible to easily grasp the period in which the feeling of joy appears, the period in which the feeling of sadness appears, the period in which the feeling of anger appears, and the period in which the feeling of fear appears. , Those emotional changes can be easily grasped as color changes.

そして、後述するように、例えば、1日、1ヶ月などの所定期間におけるユーザの感情の状態分布、すなわち、喜びの感情が何%、悲しみの感情が何%というように、各感情の分布を、対応する色の面積により把握するなどのことが可能となる。   Then, as will be described later, for example, the distribution of the emotions of the user in a predetermined period such as one day or one month, i.e., what percentage of pleasure feelings and what percentage of sadness feelings, It becomes possible to grasp by the area of the corresponding color.

生体情報を用いた感情状態の解析の具体例としては、以下のように、種々のものが考えられる。例えば、リラックス状態の評価については、生体情報として脳波を用いることができる。一般的にはα波の周波数成分とβ波の周波数成分の比をとり、α波成分の割合が大きくなるほどリラックス状態にあることが知られている。また、呼吸や心拍の周期の安定性や脈拍の振幅増加量に基づいて、評価することも可能である。   As specific examples of the analysis of the emotional state using the biological information, various types can be considered as follows. For example, for evaluation of the relaxed state, an electroencephalogram can be used as biological information. In general, it is known that the ratio of the frequency component of the α wave and the frequency component of the β wave is taken, and the more the ratio of the α wave component is, the more relaxed the state is. It is also possible to make an evaluation based on the stability of the cycle of breathing and heartbeat and the amount of increase in pulse amplitude.

また、驚きの評価については、皮膚の電気抵抗値を用いることができる。一般的には驚きや恐怖、心配によって皮膚電気抵抗値が上昇することが知られており、この皮膚電気抵抗値によって、感情状態の1つである驚きの評価を行なうことができる。   For surprising evaluation, the electrical resistance value of the skin can be used. In general, it is known that the electrical resistance value of the skin increases due to surprise, fear, or worry. By this electrical resistance value of the skin, the evaluation of surprise, which is one of emotional states, can be performed.

また、喜びを評価する場合には、心拍数、皮膚温度(体温)、心電(心電図周波数)を用いて評価することが可能である。すなわち、喜びの感情が大きい時には、心拍数が下がり、皮膚温度が上がり、心電図周波数が上がることが知られている。   When joy is evaluated, it can be evaluated using heart rate, skin temperature (body temperature), and electrocardiogram (electrocardiogram frequency). That is, it is known that when the emotion of joy is great, the heart rate decreases, the skin temperature increases, and the electrocardiogram frequency increases.

また、一般に、精神的、心理的に安定な状態にある場合は、末梢血管が拡張して、抹消血管に動脈血が流入するため、心拍数や脈拍はゆっくりとした変化を示し、体温は上昇傾向にある。逆に、精神的、心理的に高い緊張状態にある場合は、末梢血管が収縮し、抹消血管への動脈血の流入が減るため、心拍や脈拍は速まり、体温は下降傾向にある。このような生理的な変化に応じて、感情の状態を評価し、把握することが可能となる。   In general, when mentally and psychologically stable, the peripheral blood vessels dilate and arterial blood flows into the peripheral blood vessels, so the heart rate and pulse change slowly, and the body temperature tends to rise It is in. On the other hand, in a high mental and psychological tension state, peripheral blood vessels contract and arterial blood flows into the peripheral blood vessels, so the heart rate and pulse rate increase, and the body temperature tends to decrease. It is possible to evaluate and grasp the emotional state according to such physiological changes.

なお、上述のような生理指標とともに、表情による筋電の変化や画像による表情認識、加速度センサや傾斜センサなどによる姿勢認識、音声認識などを複合的に用いることによって、ユーザの怒りや悲しみなどの感情状態を評価するようにしてもよい。   In addition to the physiological indices as described above, the combined use of myoelectric changes by facial expressions, facial expression recognition by images, posture recognition by acceleration sensors, tilt sensors, etc., voice recognition, etc. The emotional state may be evaluated.

すなわち、人間の顔面の筋電の変化によって、泣いているのか、笑っているのか、怒っているのかなどを把握することが可能であるし、同様に、画像による表情認識によっても泣いているのか、笑っているのか、怒っているのかなどを把握することが可能である。   In other words, it is possible to grasp whether the person is crying, laughing, or angry by changing the myoelectricity on the human face. It is possible to know whether you are laughing or angry.

また、加速度センサや傾斜センサを用いることにより、ユーザの姿勢を判断し、胸をはった状態か、前屈みの状態などかを検出することにより、感情状態を評価する場合の情報として用いることも可能である。   It can also be used as information when evaluating emotional states by judging the user's posture by using an acceleration sensor or tilt sensor and detecting whether the chest is worn or bent forward. Is possible.

また、音声認識の結果を感情状態を評価する場合の情報として用いることも可能である。例えば、喜んでいる場合などには、人の声は比較的に高くなり、逆に、落ち込んでいる場合などには、人の声は比較的に低くなるという傾向にあり、これを利用することにより、感情状態を評価することが可能である。また、音声信号の大きさ(レベル)に基づいて、感情状態を評価することも可能である。   Moreover, it is also possible to use the result of speech recognition as information when evaluating the emotional state. For example, when you are happy, the voice of the person is relatively high, and when you are depressed, the voice of the person tends to be relatively low. Thus, it is possible to evaluate the emotional state. It is also possible to evaluate the emotional state based on the magnitude (level) of the audio signal.

また、例えば、感情データの解析技術として、特開平8−117199号公報には、脳波のα波ゆらぎを利用したニューラルネットワークによる覚醒度と気分の解析が開示されている。これは、心理学や精神生理学では覚醒度と気分の2つの軸が基本的な指標であるという知見を利用し、定量的な解析を行なうようにしたものである。   For example, as an emotion data analysis technique, Japanese Patent Laid-Open No. 8-117199 discloses an analysis of arousal and mood by a neural network using α wave fluctuation of an electroencephalogram. This is based on the knowledge that two axes of arousal level and mood are basic indicators in psychology and psychophysiology, and quantitative analysis is performed.

また、NICOGRAPH 論文集pp.17-25, 1993において表情認識の報告が行われており、また、電子情報通信学会論文集D-II Vol.J77-D-II No.8 pp.1512-1521においては音声律情報などの非言語情報からユーザの感情を認識する報告を行われている。このような種々の解析方法を利用して、ユーザの感情状態を把握するようにしてももちろんよい。   In addition, facial expression recognition has been reported in the NICOGRAPH papers pp.17-25, 1993, and in the IEICE Transactions D-II Vol.J77-D-II No.8 pp.1512-1521. Has been reported to recognize user's emotions from non-verbal information such as phonetic information. Of course, the user's emotional state may be grasped using such various analysis methods.

上述のように、この実施の形態の撮像情報記録再生装置100は、ユーザの生体情報を継続的に検出して、検出した生体情報を分析することによりユーザの感情を把握することができる。そして、把握したユーザの感情を表わす感情データ(感情パラメータ値)を求め、ビジュアルデータ処理部112により、当該感情パラメータ値を後述するように色変換して、感情を色出力として可視化することができる。   As described above, the imaging information recording / reproducing apparatus 100 according to this embodiment can continuously detect user's biological information and analyze the detected biological information to grasp the user's emotion. Then, emotion data (emotion parameter value) representing the grasped user emotion can be obtained, and the visual data processing unit 112 can color-convert the emotion parameter value as described later to visualize the emotion as a color output. .

この実施形態では、感情解析処理部108においては、感情モデルとして上述した2軸モデルを採用し、第1軸をX座標軸と、第2軸をY座標軸として感情パラメータ値を検出する。 In this embodiment, in the emotion analysis processing unit 108 employs a two-axis model described above as the emotion model, the first axis is X axis, to detect the emotion parameter value and the second axis as Y axis.

そして、この例では、色変換テーブル情報記憶部126には、感情モデルとして上述した2軸モデルの場合における色変換テーブル情報が記憶されている。この例の色変換テーブル情報を、図4を用いて説明する。すなわち、図4は、この色変換テーブル情報により感情パラメータ値が色情報出力されたときのカラー出力を示すものであるが、図4では、便宜上、白黒の濃淡により示されている。   In this example, the color conversion table information storage unit 126 stores color conversion table information in the case of the biaxial model described above as the emotion model. The color conversion table information in this example will be described with reference to FIG. That is, FIG. 4 shows color output when emotion parameter values are output as color information based on this color conversion table information, but in FIG.

この色変換テーブル情報の作成に当たっては、感情に対して変換出力される色として、見た目で感覚的に感情を掴める色を用いるようにしている。以下に、この色変換テーブル情報の一例を説明する。   In creating the color conversion table information, a color that can be perceived emotionally by appearance is used as a color that is converted and output for emotion. An example of this color conversion table information will be described below.

すなわち、図4の色変換テーブルを説明すると、X軸方向において、快適は黄色で、不快はブルー(青)で表現される。そして、快適なほど、濃い黄色とされ、また、不快なほど、濃いブルーとなるようにされる。したがって、X軸方向においては、不快から快適の方向に沿って、濃いブルー→薄いブルー→白→薄い黄色→濃い黄色のように変化するものとされる。   That is, the color conversion table of FIG. 4 will be described. In the X-axis direction, comfort is expressed in yellow and discomfort is expressed in blue. The more comfortable, the darker yellow, and the more unpleasant, the darker blue. Accordingly, in the X-axis direction, the color changes in the order of dark blue → light blue → white → light yellow → dark yellow along the direction from uncomfortable to comfortable.

また、Y軸方向において、興奮、緊張はマゼンタ色で、リラックスはブルーで表現される。そして、興奮、緊張しているほど、ピュアなマゼンタ色になり、また、リラックスしているほど、ピュアなブルーとなり、興奮、緊張とリラックスとの間では、リラックスから興奮、緊張の方向に沿って、ピュアなブルーから、徐々にマゼンタ色の混色の割合が増加して、ピュアなマゼンタに至るような変化をするものとされる。   In the Y-axis direction, excitement and tension are expressed in magenta, and relaxation is expressed in blue. And the more excited and tense, the more pure magenta, and the more relaxed, the more pure blue, and between excitement, tension and relaxation, from relaxation to excitement, along the direction of tension. From the pure blue, the ratio of the magenta color mixture gradually increases to change to pure magenta.

そして、興奮、緊張、かつ、快適な感情の状態(図4の色変換テーブル上では、右上隅位置が対応する)は、マゼンタ色と黄色との減法混色の結果としての赤色が割り当てられる。そして、図4の右下隅から右上隅までの色の変化としては、ピュアな黄色から、黄色に対して徐々に赤色の混色の割合が増加して、ピュアな赤に至る。ここで、黄色と赤色の混合色は、橙色である。   The state of excitement, tension and comfortable emotion (corresponding to the upper right corner position on the color conversion table in FIG. 4) is assigned red as a result of subtractive color mixture of magenta and yellow. As the color change from the lower right corner to the upper right corner in FIG. 4, the ratio of the mixed color of red gradually increases from pure yellow to pure red. Here, the mixed color of yellow and red is orange.

また、同様に、図4の左上隅から右上隅までの色の変化としては、濃いマゼンタ色→ブルー混じりの徐々に薄くなるマゼンタ色→黄色混じりの徐々に濃くなる赤→濃い赤、のように変化するものとなる。   Similarly, the color change from the upper left corner to the upper right corner in FIG. 4 is as follows: dark magenta color → magenta color that gradually fades with blue → red that gradually fades with yellow → dark red It will change.

そして、このとき、感情解析処理部108からは、感情パラメータ値として、X軸方向のパラメータ値(座標値)およびY軸方向のパラメータ値(座標値)が得られるが、この感情パラメータ値は、ビジュアルデータ処理部112では、図4の色変換テーブル空間上でそれらのパラメータ値によって定まる色情報に変換される。そして、この色情報が感情の可視化データとして出力されることになる。   At this time, the emotion analysis processing unit 108 obtains parameter values (coordinate values) in the X-axis direction and parameter values (coordinate values) in the Y-axis direction as emotion parameter values. The visual data processing unit 112 converts the color information determined by the parameter values in the color conversion table space of FIG. This color information is output as emotion visualization data.

ビジュアルデータ処理部112では、色変換テーブル情報を用いて、感情パラメータ値に対して変換して得た色情報を、そのまま出力するではなく、時系列順に、時間の経過に対応する感情の変化がわかるような表示出力態様(以下、このタイプの表示出力態様を時系列表示タイプと呼ぶ)で出力する。この機能は、感情変化可視化手段に対応する。この時系列表示タイプは、撮像部121により撮像された画像データに時系列順に対応して、感情可視化画像を表示するようにする場合に用いられる。   The visual data processing unit 112 does not output the color information obtained by converting the emotion parameter value using the color conversion table information as it is, but changes the emotion corresponding to the passage of time in chronological order. The output is performed in a display output manner that can be understood (hereinafter, this type of display output manner is referred to as a time-series display type). This function corresponds to the emotion change visualization means. This time-series display type is used when emotion visualized images are displayed corresponding to the image data captured by the imaging unit 121 in time-series order.

この時系列表示タイプの感情可視化画像の各画像位置は、その画像位置の感情データが得られた時間情報に対応するものとなっている。この場合に、各画像位置に対応して時間情報を記憶するようにしてもよいし、時系列表示タイプの感情可視化画像が生成される時間範囲の先頭と、終わりの時間を保持するようにすれば、各画像位置に対応して、例えば連続番号を付与するようにすれば、各画像位置に対応する時間情報は容易に得られる。   Each image position of this time-series display type emotion visualized image corresponds to time information from which emotion data of the image position is obtained. In this case, time information may be stored corresponding to each image position, or the start and end times of a time range in which a time series display type emotion visualization image is generated may be held. For example, time information corresponding to each image position can be easily obtained by assigning, for example, a serial number to each image position.

また、ビジュアルデータ処理部112は、所定時間内において移り変わる感情を、興奮、リラックス、快適、不快などの個々の感情が当該所定時間内において、どのくらいの割合ずつ含まれるかを、この例では、矩形領域における各感情に対応する色の分布で表わす表示出力態様(以下、このタイプの表示出力態様を分布表示タイプと呼ぶ)で出力することもできる。この機能は、感情分布可視化手段に対応する。この分布表示タイプは、撮像部121により撮像された所定期間分において、どのような感情の状態分布をしていたかを表示する場合に用いられる。例えば、全体としては、快適な気分であったが、一部、緊張した期間があったなどを表示することができる。   Further, in this example, the visual data processing unit 112 determines how much of each emotion such as excitement, relaxation, comfort, and discomfort is included in the predetermined time. It is also possible to output in a display output mode (hereinafter, this type of display output mode is referred to as a distribution display type) represented by a color distribution corresponding to each emotion in the region. This function corresponds to the emotion distribution visualization means. This distribution display type is used when displaying what kind of emotional state distribution was made for a predetermined period of time taken by the imaging unit 121. For example, it is possible to display that the user feels comfortable as a whole, but that there is a partly tense period.

この分布表示タイプの感情可視化画像の各画像位置も、その画像位置の感情データが得られた時間情報と対応が付くようにしておくとよい。例えば、分布表示タイプの感情可視化画像が生成される時間範囲の先頭と、終わりの時間を保持すると共に、当該感情可視化画像の各画像位置に対応して、例えば時系列方向(時間方向)の連続番号を付与するようにすれば、各画像位置に対応する時間情報は容易に得られる。   Each image position of this distribution display type emotion visualized image may be associated with the time information from which emotion data at the image position is obtained. For example, the beginning and end time of a time range in which a distribution display type emotion visualized image is generated are held, and for example, continuous in time series direction (time direction) corresponding to each image position of the emotion visualized image If a number is assigned, time information corresponding to each image position can be easily obtained.

図5(A),(B),(C)は、時系列表示タイプのいくつかの例を示しており、また、図5(D)は、分布表示タイプの例を示している。   5A, 5B, and 5C show some examples of the time series display type, and FIG. 5D shows an example of the distribution display type.

時系列表示タイプにおいては、瞬時瞬時の感情に対応する色情報を順次に表示するようにしてもよいが、それでは、細かな感情変化も表現され過ぎてしまい、かえって、人の感情の変化が判りにくくなる場合ある。   In the time-series display type, color information corresponding to instantaneous emotions may be displayed sequentially, but this causes too many subtle emotional changes to be expressed. It may be difficult.

そこで、図5(A),(B),(C)の例では、予め定めた所定の単位時間を平均化間隔とし、当該平均化間隔の単位時間区間で得られる感情データを平均化し、その平均化した感情データを、色変換テーブルを用いて色情報に変換するようにしている。このため、図5(A),(B),(C)の例では、感情データに対応する色情報出力は、前記単位時間区間に対応する所定の幅単位でなされる。この場合には、時間情報は、単位時間区間単位の情報となる。そして、前述したように、この例の場合には、時間情報は、感情を表示すべき所定の期間の先頭と、終わりの時間と、各単位時間区間単位の時間方向の番号を記憶する。各単位時間区間毎の時間情報を逐一記憶するようにしてもよいことは勿論である。   Therefore, in the examples of FIGS. 5A, 5B, and 5C, the predetermined predetermined unit time is set as the averaging interval, and the emotion data obtained in the unit time interval of the averaging interval is averaged. The averaged emotion data is converted into color information using a color conversion table. Therefore, in the examples of FIGS. 5A, 5B, and 5C, the color information output corresponding to the emotion data is performed in a predetermined width unit corresponding to the unit time interval. In this case, the time information is unit time interval unit information. As described above, in the case of this example, the time information stores the start and end times of the predetermined period in which the emotion is to be displayed, and the number in the time direction of each unit time interval. Of course, the time information for each unit time interval may be stored one by one.

図5(A)は、時系列表示タイプのうちのスライドバータイプを示しており、前記単位時間区間毎の前記感情データに対応する色情報による色の表示領域を、矩形領域に1次元的に展開して、前記単位時間区間毎の前記感情の変化を可視化するものである。   FIG. 5A shows a slide bar type among time series display types, and a color display area based on color information corresponding to the emotion data for each unit time interval is one-dimensionally represented as a rectangular area. It expands and visualizes the change of the emotion for each unit time interval.

図5(A)の例では、横方向に時間の経過をとったとき、当該時間の経過に沿って、各単位時間区間における感情データに対応する色情報を縦バーとして描画してゆくような表示態様である。このスライドバータイプは、例えば撮像画像を再生したときに、その表示画像の下欄あるいは上欄に表示し、かつ、現在、表示されている時間位置をスライドバーにおいて輝点などにより示すようにすれば、当該画面の場面において、ユーザがどのような感情であったかを容易に知ることができる。   In the example of FIG. 5A, when time elapses in the horizontal direction, color information corresponding to emotion data in each unit time interval is drawn as a vertical bar along the time elapse. It is a display mode. In this slide bar type, for example, when a captured image is reproduced, it is displayed in the lower or upper column of the display image, and the currently displayed time position is indicated by a bright spot or the like on the slide bar. For example, it is possible to easily know what emotion the user has in the scene of the screen.

また、図5(B)は、時系列表示タイプのうちのブロックタイプを示しており、前記単位時間区間毎の前記感情データに対応する色情報による色の表示領域を、矩形領域に2次元的に展開して、前記単位時間区間毎の前記感情の変化を可視化するものである。   FIG. 5B shows a block type among time-series display types. A color display area based on color information corresponding to the emotion data for each unit time interval is two-dimensionally represented as a rectangular area. And the change in the emotion for each unit time interval is visualized.

すなわち、感情を表示すべき所定の期間分を等分割して、複数の分割時間区間(単位時間区間)にし、当該分割時間区間を、複数段に並べて表示する表示態様である。このブロックタイプは、例えば1日の感情変化を表わす場合に、6時間毎に、横バーを4段にして24時間分の表示する場合などに便利である。   That is, this is a display mode in which a predetermined period in which emotion is to be displayed is equally divided into a plurality of divided time sections (unit time sections), and the divided time sections are displayed in a plurality of stages. This block type is convenient, for example, when the emotional change of the day is expressed, and when the horizontal bar is displayed in four rows every 6 hours and displayed for 24 hours.

また、図5(C)は、時系列表示タイプのうちのサークルタイプを示しており、感情を表示すべき所定の期間を環状領域の1周分に割り当てて、感情に対応する色出力は、周方向に前記単位時間区間に対応する所定の幅単位で順次に表示するようにする表示態様である。   FIG. 5C shows a circle type among the time-series display types. A predetermined period in which emotion is to be displayed is assigned to one round of the annular area, and the color output corresponding to emotion is This is a display mode in which images are sequentially displayed in a predetermined width unit corresponding to the unit time interval in the circumferential direction.

なお、図5(E)および(F)は、作成したブロックタイプあるいはサークルタイプの表示態様において、色変換出力による可視化画像に特殊効果を付けてアート的に表現したり、金属的に表現したりしたものである。例えば、ぼかしを使い感情の単位時間区間ごとの変化部分を滑らかにする処理をする。また、感情変化のピーク点に対応する色変化の大きい部分に、ハイライトや影を入れることにより、金属的な表現をする。さらに、これに幾何学的な変換を行なってアート的な表現をしてもよい。   5 (E) and 5 (F) show the created block type or the circle type display mode with a special effect on the visualized image by the color conversion output, and can be expressed in an artistic manner. It is a thing. For example, a process of smoothing a change part for each unit time interval of emotion using blurring is performed. In addition, a metallic expression is made by adding a highlight or a shadow to a portion with a large color change corresponding to the peak point of emotion change. Further, it may be converted into an artistic expression by performing a geometrical transformation.

図5(D)は、分布表示タイプの例である。これは、感情を表示すべき所定の期間内において経験された(感情として発現された)感情状態に応じたマップが作成され、それが表現されたものである。これは、自己組織化マップを利用して作成される。この場合には、時間情報は、各感情データ単位の情報となる。そして、前述したように、この例の場合には、時間情報は、感情を表示すべき所定の期間の先頭と、終わりの時間と、各感情データ単位の時間方向の番号を記憶する。なお、各感情可視化画像上における各画像位置に対応して、感情データ毎の時間情報を逐一記憶するようにしてもよいことは勿論である。   FIG. 5D shows an example of a distribution display type. In this case, a map corresponding to an emotional state (expressed as an emotion) experienced within a predetermined period in which the emotion is to be displayed is created and expressed. This is created using a self-organizing map. In this case, the time information is information for each emotion data unit. As described above, in the case of this example, the time information stores the beginning and end times of a predetermined period in which emotions are to be displayed, and the number in the time direction of each emotion data unit. Of course, time information for each emotion data may be stored one by one in correspondence with each image position on each emotion visualized image.

この分布表示タイプの表示態様によれば、所定の期間内において、概ねどの感情が優勢であったかなどが判る。例えば、分布表示タイプの表示において、黄色で表現された部分が優勢を占めていて、しかも、残りが赤色やマゼンタ色になっていたときには、興奮および緊張した感情であったが、心地良いものであったことが判る。   According to this distribution display type display mode, it is possible to know which emotion is dominant in a predetermined period. For example, in the distribution display type display, when the portion expressed in yellow dominates and the rest is in red or magenta, it was a feeling of excitement and tension, but it was a pleasant one You can see that there was.

図6は、ビジュアルデータ処理部112におけるビジュアルデータの作成処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining visual data creation processing in the visual data processing unit 112.

この図6の例は、ビジュアルデータ処理部112が、データ格納部123に格納されている感情解析処理部108で生成された感情データを、色変換テーブル情報を用いて色情報からなる可視化データに変換して感情ビジュアルデータ(感情可視化画像情報)を生成する場合の例である。   In the example of FIG. 6, the visual data processing unit 112 converts emotion data generated by the emotion analysis processing unit 108 stored in the data storage unit 123 into visualization data including color information using color conversion table information. It is an example in the case of converting and producing | generating emotion visual data (emotional visualization image information).

先ず、初期設定を行なう(ステップS101)。この初期設定の内容は、作成する感情データの可視化情報の表示タイプの選択設定、平均化間隔の長さの設定、その他の属性データの設定などである。   First, initial setting is performed (step S101). The contents of this initial setting are selection setting of display type of visualization information of emotion data to be created, setting of length of averaging interval, setting of other attribute data, and the like.

次に、先ず、最初の平均化間隔分の単位時間区間を設定する(ステップS102)。次に、設定された単位時間区間内の感情データを平均化して、当該単位時間区間内の平均の感情の感情パラメータ値を算出する(ステップS103)。次に、色変換テーブル情報記憶部126の色変換テーブル情報を用いて、ステップS103で算出された感情パラメータ値に対する色変換出力情報を得る(ステップS104)。   Next, first, a unit time interval for the first averaging interval is set (step S102). Next, the emotion data within the set unit time interval is averaged, and the emotion parameter value of the average emotion within the unit time interval is calculated (step S103). Next, color conversion output information for the emotion parameter value calculated in step S103 is obtained using the color conversion table information in the color conversion table information storage unit 126 (step S104).

次に、表示出力態様のタイプは、時系列表示タイプであるか否か判別し(ステップS105)、時系列表示タイプであると判別したときには、前述した時系列表示タイプのうちのいずれか設定された表示タイプに応じた表示図形領域において、対応する単位時間区間に対応する位置に、ステップS104で求められた色変換出力情報による色を描画するような画像データを生成するとともに、当該画像データを、前記単位時間区間に対応して一時保存する(ステップS106)。   Next, it is determined whether or not the type of display output mode is a time series display type (step S105), and when it is determined that it is a time series display type, one of the time series display types described above is set. In the display graphic region corresponding to the display type, image data is generated so as to draw the color based on the color conversion output information obtained in step S104 at a position corresponding to the corresponding unit time interval. Temporary storage is performed corresponding to the unit time interval (step S106).

そして、対象となるすべての感情データについての処理を終了したか否か判別し(ステップS107)、すべての感情データについては、未だ終了していないと判別したときには、次の平均化間隔分の単位時間区間を設定し(ステップS109)、ステップS103以降の処理を繰り返す。また、ステップS107で、すべての感情データについての処理を終了したと判別したときには、一時保存されていた前記画像データからなる、生成した感情ビジュアルデータを、属性データと共に保存する(ステップS108)。   Then, it is determined whether or not the processing for all the emotion data to be processed has been completed (step S107). When it is determined that all the emotion data has not yet been completed, the unit for the next averaging interval is determined. A time interval is set (step S109), and the processing after step S103 is repeated. If it is determined in step S107 that the processing for all emotion data has been completed, the generated emotion visual data including the image data temporarily stored is stored together with the attribute data (step S108).

また、ステップS105で時系列表示タイプではなく、分布表示タイプであると判別したときには、ステップS104で求められた色変換出力情報を、前記単位時間区間に対応して一時保存する(ステップS110)。   If it is determined in step S105 that the display type is not the time series display type but the distribution display type, the color conversion output information obtained in step S104 is temporarily stored in correspondence with the unit time interval (step S110).

そして、対象となるすべての感情データについての処理を終了したか否か判別し(ステップS111)、すべての感情データについては、未だ終了していないと判別したときには、次の平均化間隔分の単位時間区間を設定し(ステップS109)、ステップS103以降の処理を繰り返す。また、ステップS111で、すべての感情データについての処理を終了したと判別したときには、一時保存されていた感情データに対応する色変換出力情報のすべてを用いて、対象となる所定の期間における感情の状態分布を示す感情ビジュアルデータを生成し、表示する(ステップS112)。そして、生成した感情ビジュアルデータ(感情可視化画像データ)を属性データと共に保存する(ステップS108)。以上で、感情ビジュアルデータの生成処理を終了する。   Then, it is determined whether or not the processing for all the emotion data to be processed has been completed (step S111), and for all the emotion data, when it is determined that the processing has not yet been completed, a unit for the next averaging interval is determined. A time interval is set (step S109), and the processing after step S103 is repeated. If it is determined in step S111 that the processing for all emotion data has been completed, all of the color conversion output information corresponding to the temporarily stored emotion data is used, and the emotions in the target predetermined period are used. Emotional visual data indicating the state distribution is generated and displayed (step S112). Then, the generated emotion visual data (emotion visualized image data) is stored together with the attribute data (step S108). Thus, the emotion visual data generation process is completed.

<記録処理動作の説明>
次に、撮像情報記録再生装置100としての記録処理の流れを、図7のフローチャートを参照して説明する。以下に説明するフローチャートの各ステップは、ROM103に記憶されたプログラムにしたがってCPU101が、RAM104をワークエリアとして使用して実行する。
<Description of recording processing operation>
Next, the flow of recording processing as the imaging information recording / reproducing apparatus 100 will be described with reference to the flowchart of FIG. Each step of the flowchart described below is executed by the CPU 101 using the RAM 104 as a work area in accordance with a program stored in the ROM 103.

すなわち、撮像情報記録のスタート指示がなされると、計時部111の時間情報、生体情報入力部コントローラ107の生体信号処理部1072、感情解析処理部108、表示部127等の初期化処理が行なわれる(ステップS201)。次に、ユーザによる感情ビジュアルデータの表示タイプの指定などの設定を受け付けて、設定を実行する(ステップS202)。   That is, when an instruction to start imaging information recording is given, initialization processing of the time information of the time measuring unit 111, the biological signal processing unit 1072, the emotion analysis processing unit 108, the display unit 127, and the like of the biological information input unit controller 107 is performed. (Step S201). Next, the setting such as designation of the display type of emotion visual data by the user is received and the setting is executed (step S202).

そして、撮像部121からの撮像画像データおよび音声データを、計時部111からの時間情報(年月日、時分秒)を付加した形式で、データ格納部コントローラ109によりデータ格納部123に順次に格納する(ステップS203)。   The captured image data and audio data from the imaging unit 121 are sequentially added to the data storage unit 123 by the data storage unit controller 109 in a format to which time information (year / month / day, hour / minute / second) from the time measuring unit 111 is added. Store (step S203).

これと並行して、生体情報入力部コントローラ107で、生体情報入力部124で取得され、A/D変換部125でデジタル信号に変換された生体情報を、解析処理させる(ステップS204)。そして、生体情報入力部コントローラ107からの生体情報を、感情解析処理部108に転送し、感情解析させ、その解析結果の感情データ(感情パラメータ値)を、時間情報と共に、データ格納部コントローラ109により、データ格納部123に格納させる(ステップS205)。   In parallel with this, the biological information input unit controller 107 analyzes the biological information acquired by the biological information input unit 124 and converted into a digital signal by the A / D conversion unit 125 (step S204). Then, the biometric information from the biometric information input unit controller 107 is transferred to the emotion analysis processing unit 108 for emotion analysis, and the emotion data (emotion parameter value) as a result of the analysis is sent together with the time information by the data storage unit controller 109. The data is stored in the data storage unit 123 (step S205).

このステップS205においては、生体情報入力部コントローラ107からの生体情報のそれぞれに対して感情データ(感情パラメータ値)を算出するようにしてもよいが、この実施形態では、前述の図6で説明したのと同様に、予め定められた一定時間(単位時間)毎に、感情データを平均化して当該一定時間毎の感情データ(感情パラメータ値)を算出するようにする。この場合の一定時間(単位時間)は、前述の図6において設定される平均化間隔の時間よりも短い一定時間とされる。そして、この一定時間単位の時間情報と関連して、データ格納部123に感情データが格納される。この実施形態においては、時間情報により、感情データと、撮像画像データとは対応を付けることができる。   In this step S205, emotion data (emotion parameter value) may be calculated for each piece of biological information from the biological information input unit controller 107. In this embodiment, the description has been given with reference to FIG. Similarly to the above, the emotion data is averaged at predetermined time intervals (unit time) to calculate emotion data (emotional parameter values) at the predetermined time intervals. The fixed time (unit time) in this case is a fixed time shorter than the time of the averaging interval set in FIG. Then, emotion data is stored in the data storage unit 123 in association with the time information in a certain time unit. In this embodiment, the emotion data and the captured image data can be associated with each other based on the time information.

また、感情解析処理部108での解析結果の感情データをビジュアルデータ処理部112に送り、色変換テーブル情報記憶部126の色変換テーブル情報を用いて、当該感情データを色情報に変換し、それを表示部コントローラ113により表示部127の画面に表示させる(ステップS206)。この表示は、撮像しながら情報記録を行なっているときの、その時々のユーザの感情状態を、表示部127にリアルタイムで表示するものである。   In addition, the emotion data of the analysis result in the emotion analysis processing unit 108 is sent to the visual data processing unit 112, and the emotion data is converted into color information using the color conversion table information in the color conversion table information storage unit 126. Is displayed on the screen of the display unit 127 by the display unit controller 113 (step S206). In this display, the emotional state of the user at the time of recording information while imaging is displayed on the display unit 127 in real time.

そして、記録終了の操作入力がユーザによりなされたか否か判別し(ステップS207)、記録終了の操作入力がなされていないと判別したときには、ステップS203に戻って、ステップS203以降の処理を繰り返す。   Then, it is determined whether or not a recording end operation input has been made by the user (step S207). When it is determined that a recording end operation input has not been made, the process returns to step S203, and the processing from step S203 onward is repeated.

また、ステップS207で、記録終了の操作入力がユーザによりなされたと判別したときには、記録した時間区間すべてにおける記録した感情データを、データ格納部123からデータ格納部コントローラ109を通じて読み出し、図6に示したようにして、ステップS202で設定された表示タイプの感情ビジュアルデータを作成し、データ格納部123に撮像記録した情報に関連させて格納する(ステップS208)。   If it is determined in step S207 that the user has input the recording end operation, the recorded emotion data in all the recorded time intervals are read from the data storage unit 123 through the data storage unit controller 109 and shown in FIG. In this manner, the emotional visual data of the display type set in step S202 is created and stored in association with the information captured and recorded in the data storage unit 123 (step S208).

このとき、ステップS208では、記録した時間区間のすべての区間における感情を、指定された表示タイプで、前述したように時系列表示タイプや分布表示タイプで表示したものからなる小さいアイコンの表示用画像情報も生成し、データ格納部123に撮像記録した情報に関連させて格納する。   At this time, in step S208, the small icon display image is formed by displaying the emotions in all the recorded time intervals in the designated display type, as described above, in the time series display type or the distribution display type. Information is also generated and stored in the data storage unit 123 in association with information captured and recorded.

このアイコン表示用画像情報により表示されるアイコン(以下、感情表示アイコンという)は、後の時点において、記録された撮像記録情報の一覧画面などにおいて、それぞれの撮像記録情報用のインデックスとして表示することができる。ユーザは、そのインデックスの感情表示アイコンから、対応する撮像記録情報が記録されたときのユーザの感情を推量することができ、便利である。   An icon displayed by the icon display image information (hereinafter referred to as an emotion display icon) is displayed as an index for each imaging record information on a list screen of recorded imaging record information at a later time. Can do. The user can infer the emotion of the user when the corresponding imaging record information is recorded from the emotion display icon of the index, which is convenient.

また、データ格納部123が、例えばDVDなどのリムーバルな記録媒体を用いる場合には、この感情表示アイコンの情報をプリンタコントローラ116を通じてカラープリンタ129に出力して、シールや記録紙などに、カラー印刷する。したがって、このカラー印刷したシールや記録紙をDVDに貼り付けたり、ジャケット内に同封したりしておくことができる。これにより、後の時点において、その印刷された感情表示アイコンを見ることにより、当該DVDに記録された撮像情報が記録されたときのユーザの感情状態で推量することでき、便利である。   When the data storage unit 123 uses a removable recording medium such as a DVD, for example, the emotion display icon information is output to the color printer 129 through the printer controller 116 and printed on a sticker or recording paper. To do. Therefore, this color-printed sticker or recording paper can be attached to a DVD or enclosed in a jacket. Thus, by looking at the printed emotion display icon at a later point in time, it is possible to infer from the emotional state of the user when the imaging information recorded on the DVD is recorded, which is convenient.

そして、撮像画像データおよび音声データと、感情データと、感情ビジュアルデータと、前記アイコン表示用画像情報とを、関連するものとする管理情報をデータ格納部123に格納する(ステップS209)。   Then, management information that associates the captured image data and audio data, emotion data, emotion visual data, and the icon display image information is stored in the data storage unit 123 (step S209).

この管理情報と、各データとの関係を図8に示す。すなわち、管理情報には、撮像記録された情報全体に対しては、タイトルと、所有者と、開示属性と、記録開始日時と、記録時間とが記録され、感情ビジュアルデータについては、そのアドレス(所在情報)と、データ属性および表示タイプとが記録され、撮像画像データおよび音声データについては、そのアドレス(所在情報)およびデータ属性が記録され、さらに、感情データについては、そのアドレス(所在情報)と、情報属性と、感情モデル、感情パラメータおよびサンプリング間隔とが記録される。   The relationship between this management information and each data is shown in FIG. That is, in the management information, the title, the owner, the disclosure attribute, the recording start date and time, and the recording time are recorded for the entire captured and recorded information. For emotional visual data, the address ( (Location information), data attributes, and display type are recorded. For captured image data and audio data, their addresses (location information) and data attributes are recorded, and for emotion data, their addresses (location information). Information attributes, emotion models, emotion parameters, and sampling intervals are recorded.

タイトルや所有者等は、撮像記録情報の全体についての識別情報となるものであるが、このタイトルや所有者等の他に識別番号等の識別情報を管理情報に加えるようにしてもよい。この例の場合には、図8のような管理情報により、図8の各種の情報を関連付けて保存するようにしているが、撮像情報や感情データなどの格納データの管理方法としては、このような管理方法にのみ限られるものではない。例えば、それぞれのデータを別々に格納すると共に、前述した撮像記録情報についての識別情報を、それぞれの格納データに付加するようにして、互いに関連させるようにしても良い。   The title, the owner, and the like serve as identification information about the entire imaging record information. However, in addition to the title, the owner, and the like, identification information such as an identification number may be added to the management information. In this example, the management information as shown in FIG. 8 is used to store the various types of information shown in FIG. 8 in association with each other. It is not limited to a simple management method. For example, each piece of data may be stored separately, and identification information regarding the above-described imaging record information may be added to each piece of stored data so as to be associated with each other.

また、前記の感情ビジュアルデータのアドレス、撮像画像データおよび音声データのアドレス、および感情データのアドレスは、上述の例の場合には、データ格納部123におけるアドレスであって、ハードディスク上のアドレスや、DVD上のアドレスなどとされるが、ネットワークを通じてサーバ装置に前記データが格納される場合には、サーバ装置のURL(Uniform Resource Locator)とメモリアドレスなどとされる。   In addition, in the case of the above-described example, the emotion visual data address, the captured image data and audio data addresses, and the emotion data address are addresses in the data storage unit 123. An address on the DVD is used, but when the data is stored in the server device via the network, the URL (Uniform Resource Locator) and the memory address of the server device are used.

なお、上述の説明では、感情ビジュアルデータは、記録終了後、必ず生成するようにしたが、撮像情報の記録が終了した後、ユーザが指示したときにのみ、データ格納部123に格納されている感情データを読み出して生成するようにしてもよい。   In the above description, the emotional visual data is always generated after the recording is completed, but is stored in the data storage unit 123 only when the user gives an instruction after the recording of the imaging information is completed. The emotion data may be read and generated.

<撮像情報および感情ビジュアルデータの再生>
この実施形態においては、記録された撮像情報を順次に再生してゆく一般再生と、検索処理部117により、感情可視化画像を通じて指定された感情に対応して検索された結果に応じて再生を行なう検索再生とがある。
<Reproduction of imaging information and emotional visual data>
In this embodiment, general reproduction in which the recorded imaging information is sequentially reproduced, and reproduction is performed according to the search result corresponding to the emotion designated through the emotion visualization image by the search processing unit 117. There is search and playback.

図9は一般再生を説明するためのフローチャートである。この図9を参照して、一般再生時の撮像情報および感情ビジュアルデータについての再生処理について説明する。この図9のフローチャートの各ステップの処理も、ROM103に記憶されたプログラムにしたがってCPU101が、RAM104をワークエリアとして使用して実行するものである。   FIG. 9 is a flowchart for explaining general reproduction. With reference to FIG. 9, the reproduction process for the imaging information and emotion visual data during general reproduction will be described. 9 is also executed by the CPU 101 using the RAM 104 as a work area in accordance with a program stored in the ROM 103.

先ず、データ格納部123に格納されている管理情報を読み出す(ステップS301)。次に、データ格納部123から撮像画像データを読み出し、再生処理部110および表示部コントローラ113を通じて表示部127に供給して、その表示画面おいて表示して、再生する。また、図示は省略したが、データ格納部123からは、関連する音声データが読み出され、再生処理部およびアンプを通じてスピーカに供給されて、音響再生される。このとき、現在再生中である撮像画像データおよび音声データについての時間情報を管理するようにする(ステップS302)。   First, the management information stored in the data storage unit 123 is read (step S301). Next, the captured image data is read from the data storage unit 123, supplied to the display unit 127 through the reproduction processing unit 110 and the display unit controller 113, displayed on the display screen, and reproduced. Although not shown, related audio data is read from the data storage unit 123, supplied to a speaker through a reproduction processing unit and an amplifier, and is reproduced acoustically. At this time, the time information about the captured image data and audio data currently being reproduced is managed (step S302).

次に、感情ビジュアルデータをデータ格納部123から読み出し、表示部127の画面に撮像画像データによる画像の一部に表示する。あるいは、表示部127の画面を分割して、撮像画像データによる画像と、感情ビジュアルデータデータによる感情可視化表示画像とが別々の領域に表示されるようにしても良い(ステップS303)。   Next, emotion visual data is read from the data storage unit 123 and displayed on a part of the image of the captured image data on the screen of the display unit 127. Alternatively, the screen of the display unit 127 may be divided so that the image based on the captured image data and the emotion visualization display image based on the emotion visual data data are displayed in different areas (step S303).

このとき、表示された感情可視化表示画像中には、現在再生中である撮像画像データおよび音声データについての時間位置が、当該感情可視化表示画像中のどの位置に対応しているかが輝点などにより表示されて、参照可能なようにされている。   At this time, in the displayed emotion visualized display image, the time position of the captured image data and audio data currently being reproduced corresponds to which position in the emotion visualized display image corresponds to the bright spot or the like. It is displayed and can be referenced.

図10(A)〜(E)は、このときの各表示タイプの感情可視化表示画像を示しており、CSで示す輝点の位置の色により、それぞれ現在表示されている撮像画像データに対応する感情の状態を示している。すなわち、輝点CSは、撮像画像データに対応する感情の状態の指標を示すものである。図10(A)〜(C)の時系列表示タイプの場合には、輝点CSの位置は、合わせて時間位置を示すものとなる。そして、この輝点CSの位置は、再生が、時間の経過に伴って進んでゆくと、対応する時点の感情データ位置に移るように変化するものとなる。   FIGS. 10A to 10E show emotion display images of each display type at this time, and correspond to the currently displayed captured image data by the color of the bright spot position indicated by CS, respectively. Shows emotional state. That is, the bright spot CS indicates an index of the emotional state corresponding to the captured image data. In the case of the time series display type shown in FIGS. 10A to 10C, the position of the bright spot CS indicates the time position together. Then, the position of the bright spot CS changes so as to move to the emotion data position at the corresponding time as the playback proceeds with time.

再生中、視聴ユーザが何らの操作もしないときには、再生データの最後まで、上述のステップS302およびステップS303の動作が継続され、連続して再生処理がなされる。しかし、ユーザが、早送りや巻戻し、ジャンプなどの再生位置変更のイベント操作を、キー入力操作部128を通じて行なうと、CPU101は、それに応じた処理を実行する。   During playback, when the viewing user does not perform any operation, the operations in steps S302 and S303 described above are continued until the end of the playback data, and playback processing is continuously performed. However, when the user performs an event operation for changing the playback position such as fast forward, rewind, and jump through the key input operation unit 128, the CPU 101 executes a process corresponding thereto.

また、この実施形態では、感情可視化画像上での輝点CSをカーソルマークと考えて、当該輝点CSの位置をカーソルキーにより変更することができ、そのときには、輝点CSで示される感情の時間軸位置の、撮像画像データおよび音声データが再生されるように制御される。   In this embodiment, the bright spot CS on the emotion visualized image is regarded as a cursor mark, and the position of the bright spot CS can be changed with the cursor key. Control is performed so that captured image data and audio data at the time axis position are reproduced.

すなわち、CPU101は、キー入力インターフェース114を通じて何等かのイベントが発生したか否か判別し(ステップS304)、発生しないと判別したときには、ステップS302に戻って、上述の動作を繰り返す。   That is, the CPU 101 determines whether any event has occurred through the key input interface 114 (step S304). If it is determined that no event has occurred, the CPU 101 returns to step S302 and repeats the above operation.

また、ステップS304で、何等かのイベントが発生したと判別したときには、早送りや巻戻し、ジャンプなどの再生位置変更のイベント操作であるか否か判別し(ステップS305)、当該イベント操作であると判別したときには、撮像画像データおよび音声データの再生位置を変更すると共に、感情可視化画像における輝点CSの位置を、当該変更された再生位置に対応する位置に変更する(ステップS306)。その後、ステップS302に戻り、上述の動作を繰り返す。   If it is determined in step S304 that some event has occurred, it is determined whether or not the operation is a playback position change event operation such as fast forward, rewind, or jump (step S305). When it is determined, the reproduction position of the captured image data and the audio data is changed, and the position of the bright spot CS in the emotion visualized image is changed to a position corresponding to the changed reproduction position (step S306). Then, it returns to step S302 and repeats the above-mentioned operation.

また、ステップS305で、再生位置変更のイベント操作ではないと判別したときには、カーソルキーによる感情可視化画像上における輝点CSの位置変更指定であるか否か判別し(ステップS307)、輝点CSの位置変更指定であると判別したときには、感情可視化画像上の輝点CSの位置から時間情報を検索し、対応する時間位置の撮像画像データおよび音声データをデータ格納部123から読み出して、再生する(ステップS308)。   If it is determined in step S305 that the operation is not an operation for changing the reproduction position, it is determined whether or not the position change of the bright spot CS on the emotion visualized image is specified by the cursor key (step S307). When it is determined that the position change is specified, the time information is searched from the position of the bright spot CS on the emotion visualized image, and the captured image data and audio data at the corresponding time position are read from the data storage unit 123 and reproduced ( Step S308).

ステップS307で、輝点CSの位置変更指定ではないと判別したときには、停止キーが操作されたのか否か判別し(ステップS309)、停止キー以外のキーが操作されたと判別したときには、当該操作されたキーに応じたイベント処理を行ない(ステップS310)、ステップS302に戻る。また、ステップS309で、停止キーが操作されたと判別したときには、この再生処理ルーチンを終了する。   If it is determined in step S307 that the position change of the bright spot CS is not specified, it is determined whether or not the stop key has been operated (step S309). If it is determined that a key other than the stop key has been operated, the operation is performed. The event process corresponding to the key is performed (step S310), and the process returns to step S302. If it is determined in step S309 that the stop key has been operated, this reproduction processing routine is terminated.

<検索処理動作の説明>
次に、検索再生時の処理について説明する。図11および図12は、この検索再生時の処理動作を説明するためのフローチャートである。この検索処理は、CPU101による制御の下、検索処理部117およびビジュアルデータ処理部112が用いられてなされる。なお、この検索処理は、検索処理部117を設けることなく、CPU101により実行されるプログラムによるソフトウエアによって構成することもできる。
<Description of search processing operation>
Next, processing during search reproduction will be described. FIG. 11 and FIG. 12 are flowcharts for explaining the processing operation during the search reproduction. This search process is performed using the search processing unit 117 and the visual data processing unit 112 under the control of the CPU 101. This search process can also be configured by software based on a program executed by the CPU 101 without providing the search processing unit 117.

この検索再生は、表示部227の画面に表示されている、図10に示した感情可視化画像において、輝点CSの位置が、ユーザによりキー入力操作部228あるいは図示を省略したリモコン送信機のカーソルキーを用いられて設定指示されることによりなされる。前述した一般再生をしている状態からも、この検索再生に移行することも可能とされている。   In this search reproduction, the position of the bright spot CS in the emotion visualized image shown in FIG. 10 displayed on the screen of the display unit 227 is the key input operation unit 228 by the user or the cursor of the remote control transmitter not shown. This is done by instructing the setting using the key. It is also possible to shift to the search reproduction from the above-described general reproduction state.

検索再生における輝点CSの位置の設定指示の方法としては、スポット的に一点を指示する場合(スポット検索)と、図10(A)〜図10(C)の時系列表示タイプの場合において、時間に沿った2点を指示することにより時間範囲を指示設定する場合とがある。なお、図10(D)の分布表示タイプの場合には、検索再生の近似検索においては、スポット検索のみが可能とされている。   As a method of instructing the setting of the position of the bright spot CS in the search reproduction, in the case of instructing one spot as a spot (spot search) and in the case of the time series display type of FIGS. 10 (A) to 10 (C), There are cases where the time range is designated and set by designating two points along the time. In the case of the distribution display type shown in FIG. 10D, only spot search is possible in the approximate search for search reproduction.

すなわち、この分布表示タイプの感情可視化画像上の任意の点を、ユーザが指し示すと、検索処理部117により、指示設定された位置に対応する色情報から感情データが求められ、その感情データに近似する近似感情値を有する時間範囲が検索される。そして、CPU101は、検索された時間範囲に対応する画像が再生するようにする。   That is, when the user points to an arbitrary point on the emotion display image of the distribution display type, the search processing unit 117 obtains emotion data from the color information corresponding to the designated position, and approximates the emotion data. A time range having an approximate emotion value is searched. Then, the CPU 101 reproduces an image corresponding to the searched time range.

さらに、この変形例として図10(E)のような表示形式および検索方法を行なうことができる。図10(E)に示される分布表示タイプの感情可視化画像は、図10(D)の感情可視化画像と同様であるが、図10(E)の場合には、当該感情可視化画像の下方にスライドバー30が併せて表示されている。このスライドバー30は、図10(E)の感情可視化画像により、感情が可視化される所定の期間の画像データの始点から終点までの時間区間TGに対応して表示され、例えばスライドバー30の左端が時間区間TGの始点時刻に、右端が終点時刻にそれぞれ対応付けられている。   Furthermore, as a modification, a display format and a search method as shown in FIG. 10E can be performed. The distribution display type emotion visualized image shown in FIG. 10 (E) is the same as the emotion visualized image in FIG. 10 (D), but in the case of FIG. 10 (E), it slides below the emotion visualized image. A bar 30 is also displayed. This slide bar 30 is displayed corresponding to the time interval TG from the start point to the end point of the image data in a predetermined period in which the emotion is visualized by the emotion visualized image of FIG. Is associated with the start point time of the time interval TG, and the right end is associated with the end point time.

このスライドバー30には、このスライドバー30上を移動する操作つまみ31が表示されている。操作つまみ31は、ユーザのキー入力操作部128の所定のキー操作により、スライドバー30上を移動するように構成されている。   On the slide bar 30, an operation knob 31 that moves on the slide bar 30 is displayed. The operation knob 31 is configured to move on the slide bar 30 by a predetermined key operation of the user's key input operation unit 128.

そして、感情可視化画像上には、図10(E)に示すように、スライドバー30上における操作つまみ31の位置に対応する感情データ部分が輝点CSにより表示される。また、時間区間TGの始点時刻から終点時刻までの感情データの推移を時系列に表わした軌跡32が描かれている。そして、スライドバー30上に表示される操作つまみ31を移動させることにより、その軌跡32上を輝点CSが移動するようになされている。   Then, on the emotion visualized image, as shown in FIG. 10E, the emotion data portion corresponding to the position of the operation knob 31 on the slide bar 30 is displayed by the bright spot CS. In addition, a trajectory 32 representing the transition of emotion data from the start point time to the end point time of the time section TG in time series is drawn. Then, by moving the operation knob 31 displayed on the slide bar 30, the bright spot CS is moved on the locus 32.

つまり、操作つまみ31がスライドバー30の左端にあるときは、輝点CSは、軌跡32の始点STの位置にあり、操作つまみ31を徐々に右側に移動させるにつれて、輝点CSが軌跡32上を移動し、操作つまみ31がスライドバー30の右端にまで移動すると、輝点CSは、軌跡32の終点EDの位置に移動する。   That is, when the operation knob 31 is at the left end of the slide bar 30, the bright spot CS is at the position of the start point ST of the locus 32. As the operation knob 31 is gradually moved to the right side, the bright spot CS is on the locus 32. When the operation knob 31 moves to the right end of the slide bar 30, the bright spot CS moves to the position of the end point ED of the locus 32.

この図10(E)の表示形式を採用した場合には、単純検索および近似検索のいずれも行なうことができる。すなわち、単純検索の場合は、スライドバー30の操作つまみ31を、所定の区間、移動させることで、この区間に対応する時間区間情報あるいは色情報群を求め、それらを検索キーとして、対応する画像データの検索を行なう。また、近似検索の場合は、軌跡32上あるいは感情可視化画像上の一点を指し示して指示設定することにより、図10(D)と同様に検索が行なえる。   When the display format shown in FIG. 10E is employed, both simple search and approximate search can be performed. That is, in the case of simple search, the operation knob 31 of the slide bar 30 is moved by a predetermined interval to obtain time interval information or color information group corresponding to this interval, and the corresponding image is used as a search key. Search for data. Further, in the case of an approximate search, a search can be performed in the same manner as in FIG. 10D by pointing and setting one point on the trajectory 32 or emotion visualization image.

なお、分布表示タイプの感情可視化画像が対応する時間区間の始点から終点までの間の時間位置を操作する手段としては、図10(E)のようなスライドバーに限らず、回転式に操作するようなものであってもよい。また、輝点CSを直接的に軌跡32上を移動させるようにしても良い。   The means for operating the time position from the start point to the end point of the time interval corresponding to the distribution display type emotion visualization image is not limited to the slide bar as shown in FIG. It may be something like this. Further, the bright spot CS may be moved directly on the locus 32.

前述したように、検索再生には、単純検索と近似検索とがあるので、いずれの検索であるかの選択指示もユーザによりなされる。また、近似検索の場合には、近似検索を行なう時間範囲や、近似するものとして検索出力する件数の最大値などの検索設定入力もなされる。   As described above, since search reproduction includes simple search and approximate search, the user also gives an instruction to select which search. In the case of an approximate search, search setting inputs such as a time range for performing an approximate search and a maximum value of the number of items to be searched for output are also made.

上述のいずれかの指示設定の方法により感情可視化画像上において輝点CSの位置が指示設定され、また、単純検索と近似検索とのいずれかの選択指示および検索設定入力がなされて、検索指示がなされると、図11および図12のフローチャートが開始となる。この検索処理は、CPU101による制御の下、検索処理部117によりなされる。なお、検索処理部117は、CPU101により実行されるプログラムによるソフトウエアによって構成することもできる。   The position of the bright spot CS is designated and set on the emotion visualized image by any one of the above instruction setting methods, and either a simple search or approximate search is selected and a search setting is input, and the search instruction is issued. When done, the flowcharts of FIGS. 11 and 12 start. This search process is performed by the search processing unit 117 under the control of the CPU 101. Note that the search processing unit 117 can also be configured by software based on a program executed by the CPU 101.

図11に示すように、先ず、検索処理部117は、感情可視化画像上で指示設定された位置あるいは範囲、また、単純検索か近似検索かの選択指示、さらに検索設定入力を受け付ける(ステップS311)。   As shown in FIG. 11, first, the search processing unit 117 accepts a position or range designated on the emotion visualization image, a selection instruction for simple search or approximate search, and a search setting input (step S311). .

次に、単純検索であるか否か判別する(ステップS312)。単純検索であると判別したときには、検索処理部117は、感情可視化画像上で指定された画像位置あるいは範囲にある色情報を検出し、その色情報を、ビジュアルデータ処理部112に転送する。ビジュアルデータ処理部112は、この色情報を、色変換テーブル情報記憶部126に記憶されている色変換テーブル情報を用いて感情データに変換し、当該色情報に対応する感情データを検索処理部117に送る。検索処理部117は、当該色情報に対応する感情データを受け取る(ステップS313)。   Next, it is determined whether or not the search is a simple search (step S312). When it is determined that the search is simple, the search processing unit 117 detects color information in the image position or range designated on the emotion visualized image, and transfers the color information to the visual data processing unit 112. The visual data processing unit 112 converts this color information into emotion data using the color conversion table information stored in the color conversion table information storage unit 126, and searches the emotion data corresponding to the color information with the search processing unit 117. Send to. The search processing unit 117 receives emotion data corresponding to the color information (step S313).

次に、検索処理部117は、データ格納部コントローラ109を通じてデータ格納部123に格納されている感情データを検索して、受け取った感情データが記録された時間情報を検出する。そして、当該検出した時間情報で関連付けられる撮像画像データおよび音声データを、データ格納部123から読み出して、再生処理部110に転送し、前述したようにして撮像画像および音声の再生を行なう(ステップS314)。   Next, the search processing unit 117 searches the emotion data stored in the data storage unit 123 through the data storage unit controller 109, and detects time information in which the received emotion data is recorded. Then, the captured image data and audio data associated with the detected time information are read from the data storage unit 123 and transferred to the reproduction processing unit 110, and the captured image and audio are reproduced as described above (step S314). ).

このとき、感情可視化画像上で指示設定されたのが画像位置であるときには、前記撮像画像データおよび音声データの再生は、当該指示設定された画像位置に対応する感情位置を先頭として、それ以降が順次再生される。また、感情可視化画像が時系列表示タイプであって、感情可視化画像上で指示設定されたのが画像範囲であるときには、前記撮像画像データおよび音声データの再生は、当該指示設定された画像範囲に対応する時間範囲においてなされる。   At this time, if the image position is designated on the emotion visualized image, the captured image data and the audio data are reproduced starting from the emotion position corresponding to the image position designated. Played sequentially. Further, when the emotion visualized image is a time-series display type and the instruction set on the emotion visualized image is an image range, the reproduction of the captured image data and the sound data is performed in the image range set by the instruction. In the corresponding time range.

なお、感情可視化画像が分布表示タイプである場合には、この単純検索においては、感情可視化画像上では、画像位置の指示設定のみが可能とされる。分布表示タイプの感情可視化画像においては、矩形領域で指示設定された画像範囲は、時間的には不連続なデータであるからである。   When the emotion visualized image is a distribution display type, only the instruction setting of the image position can be performed on the emotion visualized image in this simple search. This is because in the distribution display type emotion visualization image, the image range designated and set in the rectangular area is discontinuous data in terms of time.

ステップS312で、単純検索ではないと判別したときには、検索処理部117は、近似検索であると判別して、感情可視化画像上で指定された画像位置あるいは画像範囲を検出すると共に、検索範囲(この例では時間範囲)と検索出力する件数の最大値の設定入力を検知する(ステップS315)。   If it is determined in step S312 that the search is not a simple search, the search processing unit 117 determines that the search is an approximate search, detects the image position or image range designated on the emotion visualized image, and also searches the search range (this In the example, the setting input of the maximum value of the number of cases to be searched and output is detected (step S315).

そして、検索処理部117は、指示指定されたのは、スポット的な画像位置であるか否か判別し(ステップS316)、スポット的な画像位置であると判別したときには、指示指定された画像位置にある色情報を検出して、その色情報を、ビジュアルデータ処理部112に転送する。そして、ビジュアルデータ処理部112から、この色情報に対応する感情データを受け取って、指示指定された感情データを検出する(ステップS317)。   Then, the search processing unit 117 determines whether or not the designated image position is a spot-like image position (step S316). And the color information is transferred to the visual data processing unit 112. Then, emotion data corresponding to the color information is received from the visual data processing unit 112, and the emotion data designated by the instruction is detected (step S317).

次に、検索処理部117は、設定入力された検索範囲内において、データ格納部コントローラ109を通じてデータ格納部123に格納されている感情データについて、ステップS317で検出した感情データと近似する感情データを検索する。そして、その検索の結果として近似するものとして検出された感情データを、設定された検索結果の件数の最大値分リストアップする。ここで、近似するものとして検出された感情データ数が前記最大値よりも多い時には、より近時する感情データから順にリストアップする(ステップS318)。   Next, the search processing unit 117 searches the emotion data stored in the data storage unit 123 through the data storage unit controller 109 within the set search range for emotion data that approximates the emotion data detected in step S317. Search for. Then, the emotion data detected as an approximation as a result of the search is listed for the maximum number of set search results. Here, when the number of emotion data detected as approximate is larger than the maximum value, the emotion data is listed in order from the latest (step S318).

ここで、指示された感情データと近似する感情データの検索は、次のような感情ベクトル距離を計算することにより行なうことができる。すなわち、感情データは、前述したように複数のパラメータで表わすことができるので、感情データを、n次の項で扱うことができる。   Here, retrieval of emotion data that approximates the instructed emotion data can be performed by calculating the following emotion vector distance. That is, since emotion data can be expressed by a plurality of parameters as described above, emotion data can be handled by an n-th order term.

そこで、検索元の指示された感情データを、
E=E,E,E,…,En−1
とし、比較する近似する感情データを
e=e,e,e,…,en−1
としたとき、両感情データ間の感情ベクトル距離Dは、
D={k(E−e+k(E−e+…
+kn−1(En−1−en−11/2
で求めることができる。
Therefore, the emotion data instructed by the search source
E = E 0 , E 1 , E 2 ,..., E n−1
E = e 0 , e 1 , e 2 ,..., E n−1.
The emotion vector distance D between the two emotion data is
D = {k 0 (E 0 −e 0 ) 2 + k 1 (E 1 −e 1 ) 2 +...
+ Kn -1 (En -1 -en -1 ) 2 } 1/2
Can be obtained.

この感情ベクトル距離Dが小さい感情データeほど、検索元の指示された感情データEに近似するものとして、検出することができる。したがって、ステップS318では、この感情ベクトル距離Dの小さいものから順に、近似する感情データとしてリストアップすることができる。   The emotion data e having a smaller emotion vector distance D can be detected as being closer to the emotion data E instructed by the search source. Therefore, in step S318, the emotion data can be listed as approximate emotion data in order from the smallest emotion vector distance D.

検索処理部117では、以上のようにして検索した感情データを、ユーザに報知するため、表示部127に表示するようにする(ステップS319)。この検索結果の表示方法の一つとしては、例えば表示部127の表示画面に表示されている感情可視化画像上において、検索結果の感情データ部分を例えば矢印などの指標により指示表示するようにする方法がある。他の方法としては、検索された感情データに対応する時間を順次に表示画面にリストアップする方法がある。検索結果の表示方法としては、これに限られるものではないことは言うまでもない。   The search processing unit 117 displays the emotion data searched as described above on the display unit 127 in order to notify the user (step S319). As one method of displaying the search result, for example, a method of displaying the emotion data portion of the search result with an indicator such as an arrow on the emotion visualization image displayed on the display screen of the display unit 127, for example. There is. As another method, there is a method of sequentially listing times corresponding to searched emotion data on a display screen. Needless to say, the display method of the search result is not limited to this.

ユーザは、ステップS319で表示された検索結果の中から、自分が再生したいと思うものを選択指示するようにする。そこで、検索処理部117は、そのリストからの検索結果についての選択入力を待ち(ステップS320)、その選択入力を受け付けたと判別したときには、選択された感情データに対応する時間情報を検知して、その時間情報に対応する撮像画像データおよび音声データをデータ格納部123から読み出して、前述と同様にして再生を実行する(ステップS321)。そして、この検索処理ルーチンを終了する。   The user selects and designates what he / she wants to reproduce from the search results displayed in step S319. Therefore, the search processing unit 117 waits for a selection input for the search result from the list (step S320), and when it is determined that the selection input has been received, detects the time information corresponding to the selected emotion data, The captured image data and audio data corresponding to the time information are read from the data storage unit 123, and reproduction is executed in the same manner as described above (step S321). Then, this search processing routine ends.

また、ステップS316で、指定されたのが、所定の画像範囲であると判別したときには、検索処理部117は、指示指定された画像範囲(時系列表示タイプであるので、時間範囲になる)の色情報のそれぞれに対応する感情データを、前述したステップS313やステップS317の場合と同様にして、ビジュアルデータ処理部112および色変換テーブル情報記憶部126を用いて検出する(ステップS331)。 Further, in step S316, the specified is when it is determined that the predetermined image range, the search processing unit 117, instructions specified image range (because it is time-series display type, the time range) The emotion data corresponding to each of the color information is detected using the visual data processing unit 112 and the color conversion table information storage unit 126 in the same manner as in step S313 and step S317 described above (step S331).

次に、検索処理部117は、検索設定入力により設定された時間範囲において、検出された指示指定された範囲の感情データ変化に近似する変化をする感情データ範囲を、データ格納部123に格納されている感情データから検索する。この検索も、前述した感情ベクトル距離Dを用いることによりなされる。例えば、検索元の感情データ範囲と同じ時間幅の感情データ範囲の単位で、データ格納部123の感情データを取り出し、それを検索元の範囲の感情データと比較する。そして、前記時間範囲内において同じ時間位置の感情データ同士の感情ベクトル距離Dを求める。そして、その検索の結果として感情ベクトル距離Dが小さいものから、順に、より近似するものとして、設定された検索結果の件数の最大値分リストアップする(ステップS332)。   Next, the search processing unit 117 stores, in the data storage unit 123, an emotion data range that changes in the time range set by the search setting input and approximates the detected emotion data change in the designated range. Search from emotion data. This search is also performed by using the emotion vector distance D described above. For example, the emotion data in the data storage unit 123 is extracted in the unit of the emotion data range having the same time width as the search source emotion data range, and is compared with the emotion data in the search source range. Then, an emotion vector distance D between emotion data at the same time position within the time range is obtained. Then, as a result of the search, a list corresponding to the maximum value of the number of set search results is listed as a closer approximation in order from the smallest emotion vector distance D (step S332).

なお、上述の説明では、指示指定された範囲の感情データ変化に近似する変化をする感情データ範囲を検索するようにしたが、感情データの変化の仕方は異なっても、指示指定された範囲にある感情データと、同様の感情データを含む対応する時間範囲を、データ格納部123に格納されている感情データから検索するようにしてもよい。   In the above description, the emotion data range that changes to approximate the emotion data change in the designated range is searched. However, even if the emotion data changes in different ways, the designated range is included. A certain time range including emotion data and similar emotion data may be searched from the emotion data stored in the data storage unit 123.

次に、検索処理部117では、以上のようにして検索した感情データ範囲を、ユーザに報知するため、表示部127に表示するようにする(ステップS333)。このステップS333における検索結果の表示方法の一つとしては、例えば表示部127の表示画面に表示されている感情可視化画像上において、検索結果の感情データ範囲を例えば他とは明度を異ならせて表示するようにする方法がある。他の方法としては、検索された感情データ範囲に対応する時間範囲を順次に表示画面にリストアップする方法がある。検索結果の表示方法としては、これに限られるものではないことは言うまでもない。   Next, the search processing unit 117 displays the emotion data range searched as described above on the display unit 127 in order to notify the user (step S333). As one of the search result display methods in step S333, for example, on the emotion visualization image displayed on the display screen of the display unit 127, the emotion data range of the search result is displayed, for example, with different brightness. There is a way to do that. As another method, there is a method of sequentially listing the time range corresponding to the searched emotion data range on the display screen. Needless to say, the display method of the search result is not limited to this.

ユーザは、ステップS333で表示された検索結果の中から、自分が再生したいと思うものを選択指示するようにする。そこで、検索処理部117は、そのリストからの検索結果についての選択入力を待ち(ステップS334)、その選択入力を受け付けたと判別したときには、選択された感情データ範囲に対応する時間範囲を検知して、その時間範囲に対応する撮像画像データおよび音声データをデータ格納部123から読み出して、前述と同様にして再生を実行する(ステップS335)。そして、この検索処理ルーチンを終了する。   The user selects and designates what he / she wants to reproduce from the search results displayed in step S333. Therefore, the search processing unit 117 waits for a selection input for the search result from the list (step S334), and when determining that the selection input has been accepted, the search processing unit 117 detects a time range corresponding to the selected emotion data range. Then, the captured image data and audio data corresponding to the time range are read from the data storage unit 123, and reproduction is executed in the same manner as described above (step S335). Then, this search processing routine ends.

なお、上述の例におけるステップS313、S317およびS331においては、感情可視化画像が時系列表示タイプである場合に、その画像上の輝点CSの位置に対応する色情報を取得し、それを感情データに変換して検索キーとして使用したが、これに限らない。   In steps S313, S317, and S331 in the above-described example, when the emotion visualized image is a time-series display type, color information corresponding to the position of the bright spot CS on the image is acquired, and the emotion information is used as emotion data. However, this is not a limitation.

例えば、感情可視化画像上のある位置を輝点CSで指示設定したときに、その位置に対応する時間情報を検出し、この時間情報を用いて対応する感情データをデータ格納部123から読み取り検索キーとして使用してもよい。特に単純検索の場合には、さらに単純化して、指示設定された輝点CSの位置に対応する時間情報を検出して、その時間情報を検索キーとして使用してもよい。   For example, when a certain position on the emotion visualized image is designated and set by the bright spot CS, time information corresponding to the position is detected, and the corresponding emotion data is read from the data storage unit 123 using this time information. May be used as In particular, in the case of a simple search, it may be further simplified to detect time information corresponding to the position of the designated bright spot CS and use the time information as a search key.

上述の例のように色情報から変換された感情データを検索キーとして検索する場合、同一の感情データを有する画像が複数あるときには、さらに、その中からどの画像を再生するか選択する必要もでてくるが、輝点CSの位置に対応する時間情報から対応する感情データを特定した場合には、このような手間は要らずに直接的に画像再生が可能となる。   When searching using emotion data converted from color information as a search key as in the above example, if there are multiple images having the same emotion data, it is also necessary to select which image to reproduce from among them. However, when the corresponding emotion data is specified from the time information corresponding to the position of the bright spot CS, it is possible to directly reproduce the image without such trouble.

また、近似検索の場合において、指示設定された輝点CSの位置から時間情報を検出するようにした場合には、当該指示設定された輝点CSの位置は特定できるので、検索された近似感情データあるいは近似感情データ変化のリストの中から、当該輝点CSの位置の感情データを除外することができる。   Further, in the case of the approximate search, when the time information is detected from the position of the designated bright spot CS, the position of the designated bright spot CS can be specified. The emotion data at the position of the bright spot CS can be excluded from the data or the list of approximate emotion data changes.

また、図11および図12のフローチャートで示される検索処理では、ステップS311において検索モードの設定を行なうようにしたが、次のような変形例も考えられる。   In the search processing shown in the flowcharts of FIGS. 11 and 12, the search mode is set in step S311, but the following modifications may be considered.

すなわち、時系列表示タイプの感情可視化画像が表示されているときに、ユーザが輝点CSを任意の位置に設定する。この時点で単純検索モードが開始されるものとする。このモードにおける画像データ/音声データの再生は上記の実施例と同様になされる。この再生中には、再生データの時間情報に応じて感情可視化画像上の輝点CSも、その位置を変えて表示される。   That is, when a time-series display type emotion visualization image is displayed, the user sets the bright spot CS at an arbitrary position. It is assumed that the simple search mode is started at this point. The reproduction of the image data / audio data in this mode is performed in the same manner as in the above embodiment. During this reproduction, the bright spot CS on the emotion visualized image is also displayed with its position changed according to the time information of the reproduction data.

この再生中に、近似検索を指示する操作キーをユーザが押す。すると、装置は、近時検索モードに移行し、操作キーを押したときの輝点CSの位置から対応する時間情報あるいは感情データを検出して、その検出した時間情報あるいは感情データを検索キーとして近似感情データの検索を行なう。   During this reproduction, the user presses an operation key for instructing approximate search. Then, the device shifts to the recent search mode, detects the corresponding time information or emotion data from the position of the bright spot CS when the operation key is pressed, and uses the detected time information or emotion data as the search key. Search for approximate emotion data.

<感情データあるいは感情ビジュアルデータの蓄積によるアプリケーション>
以上のようにして、データ格納部123に格納されたデータが、1年、2年、3年などの長期間にわたって蓄積できれば、過去のある日、ある月、ある年には、自分がどのような感情の状態で過ごしていたかを可視化表示することができる。そのためには、データ格納部123の容量が、そのような大容量のものである必要がある。しかし、以下に説明する例では、データ格納部123の容量が小さくても上述の要求を満足することができるデータ蓄積システムを提案する。
<Application by storing emotion data or emotion visual data>
As described above, if the data stored in the data storage unit 123 can be accumulated over a long period of time such as one year, two years, three years, etc., what will happen to the past day, month, year? It is possible to visualize and display what was spent in a state of emotion. For this purpose, the capacity of the data storage unit 123 needs to have such a large capacity. However, the example described below proposes a data storage system that can satisfy the above-described requirements even when the capacity of the data storage unit 123 is small.

図13は、データ蓄積システムの例を示すブロック図である。この例のデータ蓄積システムは、ネットワーク10を通じて複数個の撮像情報記録再生装置100が、例えばパーソナルコンピュータからなるサーバ装置20に接続されることにより構成される。   FIG. 13 is a block diagram illustrating an example of a data storage system. The data storage system of this example is configured by connecting a plurality of imaging information recording / reproducing apparatuses 100 to a server apparatus 20 composed of, for example, a personal computer through a network 10.

サーバ装置20は、前述した撮像情報記録再生装置100のビジュアルデータ処理部112および色変換テーブル情報記憶部126と同様の構成のビジュアルデータ処理部21および色変換テーブル情報記憶部22を備えると共に、大容量のデータ格納部23を備える。そして、CPU24による制御により、ビジュアルデータ処理部21での色変換テーブル情報記憶部22の色変換テーブル情報を用いた感情ビジュアルデータ生成処理がなされると共に、大容量のデータ格納部23に対するデータの格納および読み出し処理が制御される。なお、図13のサーバ装置20では、ここで説明のために必要となる主要部のみを示したものであり、プログラムROM、RAM、ネットワークインターフェースやその他の処理部は省略されている。   The server device 20 includes a visual data processing unit 21 and a color conversion table information storage unit 22 having the same configuration as the visual data processing unit 112 and the color conversion table information storage unit 126 of the imaging information recording / reproducing apparatus 100 described above. A capacity data storage unit 23 is provided. Under the control of the CPU 24, emotion visual data generation processing using the color conversion table information in the color conversion table information storage unit 22 in the visual data processing unit 21 is performed, and data is stored in the large-capacity data storage unit 23. And the reading process is controlled. Note that the server device 20 of FIG. 13 shows only main parts necessary for the description here, and the program ROM, RAM, network interface, and other processing units are omitted.

そして、このシステムにおいては、各撮像情報記録再生装置100は、自己の装置ID(Identification;識別情報)を伴ってサーバ装置20にアクセスするように構成されている。そして、各撮像情報記録再生装置100は、自己のデータ格納部123に格納している撮像画像データ、音声データ、感情データ、感情ビジュアルデータを、それらを関連付ける時間情報と共にサーバ装置20に送って、蓄積してもらうことができるように構成されている。   In this system, each imaging information recording / reproducing device 100 is configured to access the server device 20 with its own device ID (Identification). Then, each imaging information recording / reproducing apparatus 100 sends the captured image data, audio data, emotion data, and emotion visual data stored in its own data storage unit 123 to the server device 20 together with time information for associating them, It is configured so that it can be accumulated.

また、各撮像情報記録再生装置100は、サーバ装置20に対して、過去の蓄積データから、この例では、年単位、月単位、日単位の感情可視化画像情報の生成を依頼することができ、サーバ装置20は、その依頼に対応する感情可視化画像情報を生成して、依頼してきた撮像情報記録再生装置100に、生成した感情可視化画像情報を送ることができるように構成されている。   In addition, each imaging information recording / reproducing device 100 can request the server device 20 to generate emotion visualized image information on a yearly, monthly, and daily basis from past accumulated data. The server device 20 is configured to generate emotion visualized image information corresponding to the request and send the generated emotion visualized image information to the requested imaging information recording / reproducing device 100.

そして、撮像情報記録再生装置100は、サーバ装置20から受信した感情可視化画像情報による感情可視化画像を表示部127の画面に表示し、その画面において、感情可視化画像上における前述した輝点CSと同様の再生位置指示手段により、画像および音声の再生位置を指定することができるように構成されている。そして、その再生位置が指定されたとき、撮像情報記録再生装置100は、その再生位置指定情報をサーバ装置20に送るように構成されている。   Then, the imaging information recording / reproducing device 100 displays the emotion visualized image based on the emotion visualized image information received from the server device 20 on the screen of the display unit 127, and on the screen, the same as the bright spot CS described above on the emotion visualized image. The reproduction position instruction means can specify the reproduction position of the image and sound. When the reproduction position is designated, the imaging information recording / reproduction device 100 is configured to send the reproduction position designation information to the server device 20.

サーバ装置20は、その再生位置指定情報を受け取ると、その再生位置指定情報により示される再生時間位置の撮像画像データおよび音声データをデータ格納部23から読み出して、要求してきた撮像情報記録再生装置100に送るようにする機能を備える。   When the server apparatus 20 receives the reproduction position designation information, the server apparatus 20 reads out the captured image data and audio data at the reproduction time position indicated by the reproduction position designation information from the data storage unit 23, and requests the imaging information recording / reproduction apparatus 100 that has requested. The function to send to.

図14および図15は、このシステムにおけるサーバ装置20での処理動作を示すフローチャートである。このフローチャートにおける各ステップの処理は、CPU24がプログラムROMおよびワークエリアRAMと共に実行するものである。   14 and 15 are flowcharts showing processing operations in the server device 20 in this system. The processing of each step in this flowchart is executed by the CPU 24 together with the program ROM and work area RAM.

すなわち、先ず、いずれかの撮像情報記録再生装置100からのアクセスを受信したか否か判別し(ステップS401)、受信しなかったと判別したときには、その他の処理を行ない(ステップS402)、ステップS401に戻る。   That is, first, it is determined whether or not an access from any of the imaging information recording / reproducing devices 100 has been received (step S401). When it is determined that no access has been received, other processing is performed (step S402), and the process proceeds to step S401. Return.

ステップS401で、いずれかの撮像情報記録再生装置100からのアクセスを受信したと判別したときには、当該アクセスしてきた撮像情報記録再生装置100の装置IDを認識し、認証する(ステップS403)。   If it is determined in step S401 that an access from any one of the imaging information recording / reproducing devices 100 has been received, the device ID of the accessed imaging information recording / reproducing device 100 is recognized and authenticated (step S403).

そして、撮像情報記録再生装置100からデータ蓄積依頼を受信したか否か判別し(ステップS404)、データ蓄積依頼であると判別したときには、その後、撮像情報記録再生装置100から送られてくる、撮像画像データ、音声データ、感情データおよび感情ビジュアルデータを、それらを互いに関連付けるための時間情報と共に受信し、装置IDおよび前記時間情報により関連させてデータ格納部23に格納する(ステップS405)。そして、ステップS401に戻る。   Then, it is determined whether or not a data storage request has been received from the imaging information recording / reproducing apparatus 100 (step S404). If it is determined that the request is a data storage request, then the imaging information sent from the imaging information recording / reproducing apparatus 100 is received. Image data, audio data, emotion data, and emotion visual data are received together with time information for associating them with each other, and stored in the data storage unit 23 in association with the device ID and the time information (step S405). Then, the process returns to step S401.

ステップS404で、データ蓄積依頼ではないと判別したときには、過去の感情ビジュアルデータの作成依頼か否か判別し(ステップS406)、そうでないと判別したときには、再生位置指定情報を受信したか否か判別する(ステップS407)。再生位置指定情報を受信しなかったと判別したときには、その他の処理を行ない(ステップS408)、ステップS401に戻る。   If it is determined in step S404 that it is not a data accumulation request, it is determined whether or not it is a past emotion visual data creation request (step S406). If not, it is determined whether or not reproduction position designation information has been received. (Step S407). If it is determined that the reproduction position designation information has not been received, other processing is performed (step S408), and the process returns to step S401.

また、ステップS407で、再生位置指定情報を受信したと判別したときには、データ格納部23から、要求してきた撮像情報記録再生装置の装置IDに対応して記憶されている撮像画像データおよび音声データの中から、指定された再生位置に対応する再生時間位置の撮像画像データおよび音声データを読み出して、前記要求してきた撮像情報記録再生装置100に送る(ステップS409)。そして、ステップS401に戻る。   If it is determined in step S407 that the reproduction position designation information has been received, the captured image data and audio data stored in correspondence with the apparatus ID of the requested imaging information recording / reproducing apparatus from the data storage unit 23 are stored. The captured image data and audio data at the reproduction time position corresponding to the designated reproduction position are read from the inside, and sent to the requested imaging information recording / reproducing apparatus 100 (step S409). Then, the process returns to step S401.

また、ステップS406で、過去の感情ビジュアルデータの作成依頼を受信したと判別したときには、依頼の単位は、年、月、日のいずれであるか判別する(ステップS411)。   If it is determined in step S406 that a past emotion visual data creation request has been received, it is determined whether the request unit is year, month, or day (step S411).

ステップS411で依頼が年単位であると判別したときには、データ格納部23から、要求してきた撮像情報記録再生装置の装置IDに対応して記憶されている感情データの中から、指定された年度の感情データについて、この例では、月単位で平均化し、各月の感情データ(感情パラメータ)を算出する(ステップS412)。   If it is determined in step S411 that the request is in units of years, the emotion data stored in correspondence with the device ID of the requested imaging information recording / reproducing device from the data storage unit 23 is stored for the designated year. In this example, the emotion data is averaged on a monthly basis, and emotion data (emotional parameters) for each month is calculated (step S412).

次に、算出された各月の感情データを、色変換テーブル情報を用いて色情報に変換する(ステップS413)。次に、指定された各年度毎に、月毎の感情の変化を表現可能な感情可視化画像データを作成する(ステップS414)。そして、作成した感情可視化画像データを、要求してきた撮像情報記録再生装置100に転送する(ステップS415)。そして、ステップS401に戻る。   Next, the calculated emotion data for each month is converted into color information using the color conversion table information (step S413). Next, emotion visualized image data capable of expressing monthly emotional changes is created for each designated year (step S414). Then, the created emotion visualization image data is transferred to the requested imaging information recording / reproducing apparatus 100 (step S415). Then, the process returns to step S401.

図16に、年単位の感情可視化画像データによる画像の例を示す。この例は、時系列表示タイプのスライドバータイプの画像であり、2000年〜2002年が年度として指定された場合である。各年度の月毎の感情の状態が、色出力により可視化されていることがわかる。これにより、各年度で、月ごとにどのような感情状態で過ごしたのかが一目でわかる。   FIG. 16 shows an example of an image based on yearly emotion visualized image data. This example is a slide bar type image of a time series display type, and is a case where 2000 to 2002 is designated as a year. It can be seen that the monthly emotional state of each year is visualized by color output. This allows you to see at a glance what emotional state you spent every month in each year.

ステップS411で依頼が月単位であると判別したときには、表示する年度、月の指定を受け付ける(ステップS416)。そして、データ格納部23から、要求してきた撮像情報記録再生装置の装置IDに対応して記憶されている感情データの中から、指定された年度の、指定された月の感情データについて、この例では、1日単位で平均化し、各1日の感情データ(感情パラメータ)を算出する(ステップS417)。   If it is determined in step S411 that the request is in units of months, designation of the year and month to be displayed is accepted (step S416). Then, the emotion data of the designated month in the designated year is selected from the emotion data stored in correspondence with the requested device ID of the imaging information recording / reproducing device from the data storage unit 23. Then, averaging is performed on a daily basis, and emotion data (emotional parameters) for each day is calculated (step S417).

次に、算出された各1日の感情データを、色変換テーブル情報を用いて色情報に変換する(ステップS418)。次に、指定された年度の、指定された月毎の、1日単位の感情の変化を表現可能な感情可視化画像データを作成する(ステップS419)。そして、作成した感情可視化画像データを、要求してきた撮像情報記録再生装置100に転送する(ステップS415)。そして、ステップS401に戻る。   Next, the calculated emotion data for each day is converted into color information using the color conversion table information (step S418). Next, emotion visualized image data that can express a change in emotion in units of one day for a designated month in a designated year is created (step S419). Then, the created emotion visualization image data is transferred to the requested imaging information recording / reproducing apparatus 100 (step S415). Then, the process returns to step S401.

図17に、月単位の感情可視化画像データによる画像の例を示す。この例は、時系列表示タイプのブロックタイプの画像であり、2003年が年度として指定され、かつ、その1月から3月が指定された場合である。各月の1日毎の感情の状態が、色出力により可視化されていることがわかる。これにより、指定された年度および月において、1日ごとにどのような感情状態で過ごしたのかが一目でわかる。   FIG. 17 shows an example of an image based on monthly emotion visualized image data. This example is a time-series display type block type image in which 2003 is designated as the year and January to March is designated. It can be seen that the emotional state of each day of each month is visualized by color output. Thus, it is possible to understand at a glance what emotional state each day has spent in the designated fiscal year and month.

次に、ステップS411において、依頼が日単位であると判別したときには、表示する年度、月、日の指定を受け付ける(ステップS420)。そして、データ格納部23から、要求してきた撮像情報記録再生装置の装置IDに対応して記憶されている感情データの中から、指定された年度の、指定された月、かつ、指定された日の感情データについて、この例では、1時間単位で平均化し、各1時間毎の感情データ(感情パラメータ)を算出する(ステップS421)。   Next, when it is determined in step S411 that the request is in units of days, designation of the year, month, and day to be displayed is accepted (step S420). Then, from the emotion data stored in correspondence with the requested device ID of the imaging information recording / reproducing device from the data storage unit 23, the specified month and the specified day of the specified year In this example, the emotion data is averaged for each hour, and emotion data (emotion parameter) for each hour is calculated (step S421).

次に、算出された各1時間毎の感情データを、色変換テーブル情報を用いて色情報に変換する(ステップS422)。次に、指定された年度の、指定された月の指定された日毎の、1時間単位の感情の変化を表現可能な感情可視化画像データを作成する(ステップS423)。そして、作成した感情可視化画像データを、要求してきた撮像情報記録再生装置100に転送する(ステップS415)。そして、ステップS401に戻る。   Next, the calculated emotion data for each hour is converted into color information using the color conversion table information (step S422). Next, emotion visualized image data capable of expressing an hourly emotion change for each designated day of a designated month in a designated year is created (step S423). Then, the created emotion visualization image data is transferred to the requested imaging information recording / reproducing apparatus 100 (step S415). Then, the process returns to step S401.

図18に、日単位の感情可視化画像データによる画像の例を示す。この例は、時系列表示タイプのサークルタイプの画像であり、2003年が年度として指定され、かつ、その4月のすべての日が指定された場合である。指定された月の1日毎の1時間単位の感情の状態が、色出力により可視化されていることがわかる。これにより、指定された年度および月の、指定された日において、1時間ごとにどのような感情状態で過ごしたのかが一目でわかる。また、図18の例の場合には、指定された月において、1日単位でどのような感情の変化があったかも知ることができる。   FIG. 18 shows an example of an image based on daily emotion visualized image data. This example is a time-series display type circle type image in which 2003 is designated as the year and all days in April are designated. It can be seen that the state of emotion in hour units for each day of the specified month is visualized by color output. As a result, it is possible to see at a glance what emotional state each hour has spent on the specified day of the specified year and month. In the case of the example in FIG. 18, it is possible to know what kind of emotion has changed on a daily basis in the designated month.

そして、例えば図18の例のような感情可視化画像表示においては、ユーザが、特定の日の特定の時間帯を、撮像情報記録再生装置100における表示画面上において、例えばカーソルキーなどの指示手段を通じて、前述した輝点からなるカーソルマークの位置を指定すると、前述した当該指示位置を示す再生位置指定情報が発生し、それがサーバ装置20に送られる。   For example, in the emotion visualized image display as in the example of FIG. 18, the user performs a specific time zone on a specific day on the display screen of the imaging information recording / reproducing apparatus 100 through an instruction unit such as a cursor key. When the position of the cursor mark composed of the above-mentioned bright spot is designated, the reproduction position designation information indicating the designated position is generated and sent to the server device 20.

サーバ装置20は、前述したように、ステップS407で、この再生位置指定情報の受信を確認し、ステップS409で、当該再生位置指定情報により指定された時間位置の撮像画像データおよび音声データを、要求してきた撮像情報記録再生装置100に送る。   As described above, the server device 20 confirms reception of the reproduction position designation information in step S407, and requests the captured image data and audio data at the time position designated by the reproduction position designation information in step S409. To the imaging information recording / reproducing apparatus 100.

なお、上述の例では、感情データについて、年単位の指定では、1月毎の平均を取り、また、月単位の指定では、1日毎の平均を取り、さらに、日単位の指定では1時間毎の平均を取るようにしてが、平均を取る期間または時間の長さは、これに限られるものではなく、また、ユーザが指定できるようにしても良い。   In the above-described example, the emotion data is averaged every month for yearly designation, averaged for every day for monthly designation, and further every hour for daily designation. However, the average period or time length is not limited to this, and may be specified by the user.

なお、このシステムが、例えば、家庭用ホームLANシステムの構成とするときには、サーバ装置は、パーソナルコンピュータの構成とすることができ、その場合には、過去の感情ビジュアルデータの生成指示は、撮像情報記録再生装置からのみではなく、パーソナルコンピュータのキーボードやマウスの入力に基づいて行なえるようにすることもできる。   For example, when this system is configured as a home LAN system for home use, the server device can be configured as a personal computer. In this case, an instruction to generate past emotional visual data is used as imaging information. It can be performed not only from the recording / reproducing apparatus but also based on input of a keyboard or mouse of a personal computer.

また、図13のシステムにおいては、サーバ装置20には複数個の撮像情報記録再生装置100の複数人の感情データを格納するので、それらの複数人のそれぞれの感情、また、それらの複数人の平均の感情についての可視化するようにすることもできる。   In the system of FIG. 13, since the server device 20 stores emotion data of a plurality of persons of the plurality of imaging information recording / reproducing apparatuses 100, the emotions of each of the plurality of persons and the plurality of persons You can also visualize the average emotion.

例えば、家族や友人など団体で旅行に行ったときに、各人が撮像情報記録再生装置100で撮像記録を行ないながら、生体情報に基づいて、感情データ、感情ビジュアルデータを記録する。帰宅後、ネットワーク10を通じてサーバ装置20に、その撮像記録データと共に、感情データおよび感情ビジュアルデータを蓄積する。サーバ装置20は、この蓄積データを用いて、当該旅行についての複数人の平均の感情を、例えば分布表示タイプにより表示するようにする感情可視化画像データを生成することができる。   For example, when traveling in a group such as a family or a friend, each person records emotion data and emotion visual data based on biological information while performing image recording with the imaging information recording / reproducing apparatus 100. After returning home, emotion data and emotion visual data are stored in the server device 20 through the network 10 together with the image recording data. The server device 20 can generate emotion visualized image data that displays an average emotion of a plurality of people about the trip by, for example, a distribution display type using the accumulated data.

この感情可視化画像によれば、旅行した人々の、当該旅行についての平均の感情がどのようなものであったかを可視化表示して知ることができる。また、旅行中の各訪問地やイベントにおける当該旅行参加者の平均の感情を、当該訪問地やイベントに対応する時間帯における旅行参加者の感情データの平均値を求めて色表示することにより可視化することができ、旅行の良し悪しの評価をするための参考資料とすることができる。   According to this emotion visualized image, it is possible to visualize and know what the average emotions of the traveled people about the travel were. In addition, the average emotion of the travel participant at each visited place or event during the trip is visualized by color-displaying the average value of the emotion data of the travel participant in the time zone corresponding to the visited place or event. It can be used as reference material for evaluating the quality of travel.

また、複数人のそれぞれの感情の状態も可視化できるので、他の人の感情と自分の感情とを比較するなど、種々の利用形態が考えられる。   In addition, since the emotional state of each of a plurality of people can be visualized, various usage forms such as comparing the emotions of other people with their own emotions can be considered.

なお、図13のシステムにおいても、サーバ装置20のデータ格納部23には、撮像画像データおよび音声データと感情データや感情可視化画像データとが、時間情報によって関連されて格納されているので、図16〜図18の場合における感情可視化画像において、ユーザが、輝点CSなどのカーソル指標として指示指定することにより、上述した単純検索および近似検索を行なうことができる。   In the system of FIG. 13 as well, captured image data, audio data, emotion data, and emotion visualized image data are stored in the data storage unit 23 of the server device 20 in association with time information. In the emotion visualized images in the cases of FIGS. 16 to 18, the user can perform the above-described simple search and approximate search by specifying and instructing as a cursor index such as the bright spot CS.

[第2の実施形態]
第2の実施形態は、この発明を、放送受信機部および例えばインターネットなどのネットワークのサーバ装置からの配信データの受信機能を備える録画再生装置に適用した場合である。この録画再生装置においては、録画した放送番組コンテンツあるいはサーバ装置からダウンロードしたコンテンツの再生時に、当該コンテンツの鑑賞者の生体情報を取り込んで、感情解析し、その感情解析結果を色変換して感情可視化画像とした情報を、撮像情報と共に、時間情報に関連させて記録するようにする機能を備える。
[Second Embodiment]
The second embodiment is a case where the present invention is applied to a recording / reproducing apparatus having a function of receiving distribution data from a broadcast receiver unit and a server apparatus of a network such as the Internet. In this recording / playback apparatus, at the time of playback of recorded broadcast program content or content downloaded from a server device, it captures the biological information of the viewer of the content, performs emotion analysis, and color-converts the emotion analysis result to visualize the emotion A function of recording information as an image in association with time information together with imaging information is provided.

この実施形態においても、可視化方法は、感情解析結果の感情情報を、色情報に変換して可視化する方法を用いる。なお、この明細書において、コンテンツとは、視覚的または聴覚的に鑑賞可能なものを意味している。   Also in this embodiment, the visualization method uses a method of visualizing emotion information as a result of emotion analysis by converting it into color information. In this specification, the content means what can be viewed visually or audibly.

<録画再生装置のハードウエア構成例>
図19は、この実施形態の録画再生装置200のブロック図である。この録画再生装置200は、CPU201に対して、システムバス202を介して、ROM203と、RAM204とが接続されたコンピュータを備える構成となっている。
<Hardware configuration example of recording / playback device>
FIG. 19 is a block diagram of the recording / playback apparatus 200 of this embodiment. The recording / reproducing apparatus 200 includes a computer in which a ROM 203 and a RAM 204 are connected to a CPU 201 via a system bus 202.

そして、システムバス202に対して、放送受信機部205と、記録エンコード・デコード部206と、生体情報入力部コントローラ207と、感情解析処理部208と、データ格納部コントローラ209と、計時部211と、ビジュアルデータ処理部212と、表示部コントローラ213と、キー入力インターフェース214と、ネットワークインターフェース215と、プリンタコントローラ216と、AV(Audio Visual)インターフェース217と、検索処理部218とが接続されている。   Then, with respect to the system bus 202, a broadcast receiver unit 205, a recording encoding / decoding unit 206, a biological information input unit controller 207, an emotion analysis processing unit 208, a data storage unit controller 209, a time measuring unit 211, A visual data processing unit 212, a display unit controller 213, a key input interface 214, a network interface 215, a printer controller 216, an AV (Audio Visual) interface 217, and a search processing unit 218 are connected.

生体情報入力部コントローラ207には、生体情報入力部224がA/D変換部225を介して接続されている。この生体情報入力部224、A/D変換部225および生体情報入力部コントローラ207の構成は、前述の第1の実施形態における生体情報入力部124、A/D変換部125および生体情報入力部コントローラ107の構成と全く同一とされている。   A biological information input unit 224 is connected to the biological information input unit controller 207 via an A / D conversion unit 225. The configurations of the biometric information input unit 224, A / D conversion unit 225, and biometric information input unit controller 207 are the same as those of the biometric information input unit 124, A / D conversion unit 125, and biometric information input unit controller in the first embodiment described above. The configuration is exactly the same as 107.

また、感情解析処理部208も、前述の第1の実施形態の感情解析処理部108と同一の構成とされている。   Also, the emotion analysis processing unit 208 has the same configuration as the emotion analysis processing unit 108 of the first embodiment described above.

また、データ格納部コントローラ209には、例えばハードディスクドライブやDVDレコーダなどの大容量光ディスク装置などからなるデータ格納部223が接続される。この構成も、前述の第1の実施形態のデータ格納部コントローラ109およびデータ格納部123と同様の構成とされている。   The data storage unit 209 is connected to the data storage unit controller 209, for example, a large-capacity optical disk device such as a hard disk drive or a DVD recorder. This configuration is also the same as that of the data storage controller 109 and the data storage unit 123 of the first embodiment described above.

データ格納部223には、この例では、後述するように放送番組のコンテンツデータの場合には、当該コンテンツデータは、その放送時間の時間情報と対応されて、当該コンテンツの先頭からの時間位置がわかるように格納されている。この場合には、コンテンツデータが、記録エンコード・デコード部206によりMPEG方式により圧縮されて格納される場合に、その圧縮データには、前述と同様にして、時間位置情報が順次に挿入されている。ダウンロードコンテンツの場合にも、同様にして、この例では、MPEG方式により圧縮されて格納される。したがって、圧縮コンテンツデータには、時間位置情報が挿入されている。   In this example, in the case of content data of a broadcast program, the data storage unit 223 corresponds to time information of the broadcast time, and the time position from the top of the content is stored in this example. Stored as you can see. In this case, when the content data is compressed and stored by the recording encoding / decoding unit 206 by the MPEG method, the time position information is sequentially inserted into the compressed data in the same manner as described above. . Similarly, in the case of download content, in this example, the content is compressed and stored by the MPEG method. Therefore, time position information is inserted into the compressed content data.

計時部211は、第1の実施形態の計時部111と同様の構成のもので、カレンダー機能つきの時計回路であって、年月日および時刻情報をシステムバス202に送出する。また、この第2の実施形態においては、後述する放送番組のタイマー録画をする際の監視タイマーの役割も果たす。   The timekeeping unit 211 has a configuration similar to that of the timekeeping unit 111 of the first embodiment, and is a clock circuit with a calendar function, and sends date and time information to the system bus 202. In the second embodiment, it also serves as a monitoring timer for timer recording of a broadcast program described later.

ビジュアルデータ処理部212は、第1の実施形態のビジュアルデータ処理部112と同様の構成を備えるもので、感情解析処理部208からの感情データあるいはデータ格納部223に格納されている感情データから、前述の第1の実施形態と同様に、色変換テーブル情報記憶部226に格納されている色変換テーブル情報を用いて感情の可視化データとしての色情報を得、この可視化データとしての色情報に基づいて感情可視化画像情報を生成し、生成した感情可視化画像情報を、データ格納部コントローラ209を通じてデータ格納部223に格納する機能を備える。第1の実施形態と同様に、ビジュアルデータ処理部212は、感情変化可視化手段および感情分布可視化手段の役割機能も備える。   The visual data processing unit 212 has the same configuration as the visual data processing unit 112 of the first embodiment. From the emotion data from the emotion analysis processing unit 208 or the emotion data stored in the data storage unit 223, Similar to the first embodiment, color information as emotion visualization data is obtained using the color conversion table information stored in the color conversion table information storage unit 226, and based on the color information as the visualization data. The emotion visualization image information is generated, and the generated emotion visualization image information is stored in the data storage unit 223 through the data storage controller 209. Similar to the first embodiment, the visual data processing unit 212 also includes role functions of emotion change visualization means and emotion distribution visualization means.

また、ビジュアルデータ処理部212は、データ格納部223から読み出されたコンテンツデータおよび感情可視化画像情報とを、時間軸に同期させて再生し、表示部コントローラ213を通じて表示部227の画面に表示させるようにする機能を備える。なお、この再生時、データ格納部223から読み出されたコンテンツデータは、記録エンコード・デコード部206のデコード部でデコード処理された後、ビジュアルデータ処理部212に供給されるものである。   Further, the visual data processing unit 212 reproduces the content data and emotion visualized image information read from the data storage unit 223 in synchronization with the time axis, and displays them on the screen of the display unit 227 through the display unit controller 213. It has a function to do so. During the reproduction, the content data read from the data storage unit 223 is decoded by the decoding unit of the recording encoding / decoding unit 206 and then supplied to the visual data processing unit 212.

表示部コントローラ213は、表示部227に供給する表示用画像信号を形成し、これを表示部227に供給する。表示部227は、LCD(Liquid Crystal Display)などのディスプレイであり、表示部コントローラ213からの画像信号に応じた画像をその表示画面に表示する。   The display unit controller 213 forms a display image signal to be supplied to the display unit 227 and supplies it to the display unit 227. The display unit 227 is a display such as an LCD (Liquid Crystal Display), and displays an image corresponding to an image signal from the display unit controller 213 on the display screen.

キー入力インターフェース214には、キー入力操作部228が接続される。キー入力操作部228は、録画キー、録画予約キー、再生キー、早送りキー、巻戻しキー、ジャンプキー、停止キーなどに加え、放送番組選択キーなどを備える。キー入力操作部228のいずれかのキーが操作されると、キー入力インターフェース214を通じてその操作入力情報がシステムバス202に供給される。CPU201は、この操作入力情報を判別して、どのキーが操作されたかを判別し、その操作されたキーに対応する処理を実行する。   A key input operation unit 228 is connected to the key input interface 214. The key input operation unit 228 includes a broadcast program selection key in addition to a recording key, a recording reservation key, a reproduction key, a fast forward key, a rewind key, a jump key, a stop key, and the like. When any key of the key input operation unit 228 is operated, the operation input information is supplied to the system bus 202 through the key input interface 214. The CPU 201 determines this operation input information, determines which key has been operated, and executes processing corresponding to the operated key.

なお、リモコン受信機をシステムバス202に接続しておき、リモコン送信機を通じて、上述の操作キーによる入力操作ができるようにすることも、もちろんできる。   Of course, it is possible to connect a remote control receiver to the system bus 202 so that an input operation using the above-described operation keys can be performed through the remote control transmitter.

プリンタコントローラ216には、この例ではカラープリンタ229が接続され、後述するように、ビジュアルデータ処理部212から得られる感情可視化画像情報による出力画像が、このカラープリンタ229によりカラー印刷出力されるように構成されている。   In this example, a color printer 229 is connected to the printer controller 216. As will be described later, an output image based on emotion visualized image information obtained from the visual data processing unit 212 is printed out in color by the color printer 229. It is configured.

AV出力インターフェース217は、再生時に、記録エンコード・デコード部206でデコードされて得られた音声データおよび/または画像データをアナログ信号にしてモニター装置230に供給する機能を備える。また、再生すべき音声データおよび/または画像データに、後述するように感情ビジュアルデータが関連してデータ格納部223に格納されている場合には、当該感情ビジュアルデータによる感情可視化画像も、再生画像に重畳して、あるいは再生画像とは画面分割の状態で、モニター装置230の画面に表示させるようにする機能も備える。   The AV output interface 217 has a function of supplying audio data and / or image data obtained by being decoded by the recording encoding / decoding unit 206 to the monitor device 230 as an analog signal during reproduction. Further, when emotion visual data is stored in the data storage unit 223 in association with audio data and / or image data to be reproduced as described later, an emotion visualized image based on the emotion visual data is also reproduced. In addition, a function is also provided in which the image is displayed on the screen of the monitor device 230 while being superimposed on the screen or in a state where the reproduced image is divided into screens.

検索処理部218は、前述した第1の実施形態と同様に、感情可視化画像情報による出力画像(感情可視化画像)を通じて指定された感情あるいは感情範囲に応じて検索処理を実行する機能を備える。この第2の実施形態では、検索範囲としては、「一つのコンテンツ内のみ」、「特定のジャンルのコンテンツの範囲」、「全コンテンツの範囲」などのように指示設定可能とされる。そして、検索モードとしては、前述の第1の実施形態と同様に単純検索モードと近似検索モードとを備える。   Similar to the first embodiment described above, the search processing unit 218 has a function of executing search processing according to an emotion or emotion range specified through an output image (emotional visualization image) based on emotion visualizing image information. In the second embodiment, the search range can be specified as “only within one content”, “a range of content of a specific genre”, “a range of all content”, and the like. The search mode includes a simple search mode and an approximate search mode, as in the first embodiment described above.

この単純検索モードや近似検索モードは、感情データに対応するデータが、第1の実施形態の場合には撮像画像データや音声データであったものが、第2の実施形態では、コンテンツデータに変わるのみであって、その他は同様であるので、ここではその詳細な説明は省略する。   In this simple search mode and approximate search mode, the data corresponding to emotion data is captured image data or audio data in the case of the first embodiment, but is changed to content data in the second embodiment. Since the rest is the same, detailed description thereof is omitted here.

この第2の実施形態の検索処理部218は、さらに、全体として鑑賞した後の感情が近似するコンテンツを検索することができるコンテンツ検索再生モードを備える。すなわち、第2の実施形態では、感情可視化画像をアイコン化した感情表示アイコンを各コンテンツに対応してデータ格納部223に格納し、コンテンツ再生の際のコンテンツ一覧に表示するようにする。ユーザが、いずれかの感情表示アイコンを指示指定すると、検索処理部218は、その指示指定された感情表示アイコンと、感情状態が近似する感情表示アイコンが得られるコンテンツの検索をする。   The search processing unit 218 of the second embodiment further includes a content search / playback mode capable of searching for content that approximates the emotion after being viewed as a whole. That is, in the second embodiment, an emotion display icon obtained by converting an emotion visualized image into an icon is stored in the data storage unit 223 corresponding to each content, and is displayed in a content list at the time of content playback. When the user designates and designates any emotion display icon, the search processing unit 218 searches for content that can obtain an emotion display icon whose emotion state is similar to the designated emotion display icon.

このコンテンツ検索再生モードにおいては、例えば過去に視聴したときの感情を記憶しているコンテンツと同じような感情を得たい他のコンテンツを、ユーザは、容易に見つけ出すことができるようになる。   In this content search / playback mode, for example, the user can easily find other content for which he / she wants to obtain the same emotion as the content storing emotions when viewed in the past.

例えば、ユーザは、非常に興奮したコンテンツAと同様の興奮を味わいたい他のコンテンツBを見つけたいときには、前記コンテンツAに対応する感情表示アイコンを指示指定する。すると、検索処理部218により、コンテンツBの候補が検索され、一覧表示されるので、ユーザは、その一覧表示から好みのコンテンツを選択することができる。このコンテンツ検索再生の詳細については、後述する。   For example, when the user wants to find another content B that wants to experience the same excitement as the very excited content A, the user designates an emotion display icon corresponding to the content A. Then, the search processing unit 218 searches for a candidate for the content B and displays it as a list, so that the user can select a favorite content from the list display. Details of the content search reproduction will be described later.

放送受信機部205は、この例では、デジタルテレビ放送を受信する機能を備えるものであり、キー入力インターフェース214に接続されるキー入力操作部228やリモコン送信部での放送番組選局キーによる選局操作に従った選局信号が供給されて、ユーザの希望する放送番組を受信する。   In this example, the broadcast receiver unit 205 has a function of receiving digital television broadcasts. The broadcast receiver unit 205 is selected by a broadcast program selection key in the key input operation unit 228 connected to the key input interface 214 or the remote control transmission unit. A channel selection signal according to the station operation is supplied, and a broadcast program desired by the user is received.

そして、この例の録画再生装置200は、放送受信機部205で受信した放送番組コンテンツを、コンテンツ格納部223に格納して録画することができるように構成されている。また、録画再生装置200は、前述したように、計時部211によるタイマー機能を備え、放送番組コンテンツを、予約録画することができる機能を備えている。   The recording / playback apparatus 200 of this example is configured so that the broadcast program content received by the broadcast receiver unit 205 can be stored in the content storage unit 223 and recorded. Further, as described above, the recording / reproducing apparatus 200 has a timer function by the time measuring unit 211 and a function capable of performing scheduled recording of broadcast program content.

また、この例の録画再生装置200は、ネットワークインターフェース215を通じて、音楽コンテンツや画像コンテンツ、さらには電子小説などのテキストデータ(一部、画像情報を含む場合もある)からなるコンテンツをダウンロードして、データ格納部223に記録する機能も備える。なお、記録エンコード・デコード部206の記録エンコード部は、データ格納部223に、データ格納部コントローラ209を通じて放送番組コンテンツ、ダウンロードコンテンツを格納する際に、必要な記録エンコード処理を行なう。   In addition, the recording / playback apparatus 200 of this example downloads content including music content, image content, and text data such as an electronic novel (some of which may include image information) via the network interface 215, A function of recording in the data storage unit 223 is also provided. The recording encoding unit of the recording encoding / decoding unit 206 performs necessary recording encoding processing when the broadcast program content and the download content are stored in the data storage unit 223 through the data storage unit controller 209.

そして、記録エンコード・デコード部206のデコード部は、データ格納部223からデータ格納部コントローラ209を通じて、格納されているデータが読み出されたとき、その読み出されたデータについてのデコード処理を行ない、前述したように、そのデコード処理結果のデータをAV出力インターフェース217に転送する。   Then, when the stored data is read from the data storage unit 223 through the data storage unit controller 209, the decoding unit of the recording encoding / decoding unit 206 performs a decoding process on the read data, As described above, the decoding result data is transferred to the AV output interface 217.

コンテンツ格納部223には、放送受信機部202で受信した放送番組コンテンツの実体データ(以下、単に放送番組コンテンツデータという)、ダウンロードしたコンテンツのデータ、およびそれらのコンテンツに関する情報とが、合わせて格納されている。このコンテンツに関する情報としては、コンテンツ識別情報(コンテンツID(Identification))に関連して、放送番組コンテンツの場合には、放送番組名(タイトル)放送年月日、放送時間などの情報などが記憶され、ダウンロードコンテンツの場合には、コンテンツのタイトル名、ダウンロード日、データ容量などが記憶される。   In the content storage unit 223, actual data of broadcast program content (hereinafter simply referred to as broadcast program content data) received by the broadcast receiver unit 202, downloaded content data, and information related to these contents are stored together. Has been. As information related to this content, in relation to content identification information (content ID (Identification)), in the case of broadcast program content, information such as broadcast program name (title) broadcast date and time is stored. In the case of download content, the title name, download date, data capacity, etc. of the content are stored.

また、コンテンツデータは、放送時刻および/または受信時刻の時間情報に基づく時間情報(時間位置情報)が付加されてデータ格納部223に格納される。この時間情報(時間位置情報)により、感情データと、コンテンツデータとは対応を付けることができる。したがって、この時間情報は、この実施形態では、少なくとも感情データを取得する時間単位で記録する必要がある。   Further, the content data is stored in the data storage unit 223 with time information (time position information) based on the time information of the broadcast time and / or the reception time added. With this time information (time position information), it is possible to associate emotion data with content data. Therefore, in this embodiment, this time information needs to be recorded at least in units of time for obtaining emotion data.

コンテンツの記録時、つまり、データ格納部223へのコンテンツデータの格納時に、当該コンテンツをユーザ(コンテンツの鑑賞者)が視聴している場合には、その際に、視聴しているユーザの生体情報を収集し、その生体情報に基づいて、鑑賞者の感情データを取得して、その感情データを、例えばコンテンツIDおよび記録時の前記時間情報に対応させてデータ格納部223に格納することができる。   When a user (a viewer of content) views the content at the time of recording the content, that is, when the content data is stored in the data storage unit 223, the biological information of the user who is viewing at that time Can be acquired based on the biometric information, and the emotion data of the viewer can be acquired, and the emotion data can be stored in the data storage unit 223 in correspondence with, for example, the content ID and the time information at the time of recording. .

このコンテンツデータの記録時における感情データの記録動作は、上述した第1の実施形態における撮像情報の記録時における感情データの記録動作と同様であり、コンテンツを視聴しているときの感情を表わす感情データをデータ格納部223に、前記コンテンツの時間情報に関連させて格納すると共に、視聴しているコンテンツの画像と共にリアルタイム表示することができる。そして、コンテンツの記録終了時(視聴終了時)に、当該コンテンツの視聴期間における感情ビジュアルデータを生成してデータ格納部223に格納し、また、その感情ビジュアルデータからなる感情表示アイコンの画像データの生成も行ない、生成した感情表示アイコンの画像データもデータ格納部223に格納する。   The recording operation of the emotion data at the time of recording the content data is the same as the recording operation of the emotion data at the time of recording the imaging information in the first embodiment described above, and the emotion representing the emotion when viewing the content Data can be stored in the data storage unit 223 in association with the time information of the content, and can be displayed in real time together with an image of the content being viewed. Then, at the end of recording the content (at the end of viewing), emotion visual data during the viewing period of the content is generated and stored in the data storage unit 223, and the image data of the emotion display icon made up of the emotion visual data is stored. The image data of the generated emotion display icon is also stored in the data storage unit 223.

しかし、予約録画時や、コンテンツのダウンロード時には、一般的には、ユーザは、当該放送番組コンテンツやダウンロードコンテンツを鑑賞することはない。そこで、この実施形態では、再生時に、コンテンツを鑑賞しているユーザの生体情報を収集し、その生体情報に基づいて、鑑賞者の感情データを取得して、その感情データを、例えばコンテンツIDおよび記録時の前記時間情報に対応させてデータ格納部223に格納するようにする。   However, at the time of scheduled recording or content download, the user generally does not appreciate the broadcast program content or download content. Therefore, in this embodiment, at the time of reproduction, the biological information of the user who is viewing the content is collected, the emotion data of the viewer is acquired based on the biological information, and the emotion data is, for example, the content ID and The data is stored in the data storage unit 223 in correspondence with the time information at the time of recording.

データ格納部223に格納した感情表示アイコンの画像情報は、前述した第1の実施形態の場合と同様にして、再生に先立ち、データ格納部223に格納されている再生可能なコンテンツの一覧を表示する際に、それぞれのコンテンツに対応させて、画面に表示させるようにする。これにより、各コンテンツを以前に鑑賞したときの感情状態が判り、鑑賞したいコンテンツの選択の参考資料とすることができる。   The image information of the emotion display icon stored in the data storage unit 223 displays a list of reproducible contents stored in the data storage unit 223 prior to playback, as in the case of the first embodiment described above. When doing so, it is displayed on the screen corresponding to each content. As a result, the emotional state when each content has been viewed before can be understood and used as reference data for selecting the content to be viewed.

<通常の再生および検索再生の説明>
図20および図21は、この録画再生装置200におけるデータ格納部223に格納されているコンテンツを再生する際の処理動作を説明するためのフローチャートである。この図20および図21の処理は、CPU201により、ROM203に格納されているプログラムにしたがって、RAM204がワークエリアとして用いられて実行されると共に、検索処理部218により実行されるもので、通常のようにコンテンツを再生する場合と、感情表示アイコンを通じた指示指定に応じたコンテンツ検索再生モードによる再生を含む。なお、前述したように、感情可視化画像を通じて行なう単純検索および近似検索については、説明が複雑になるので、この図20および図21においては、説明を省略する。
<Description of normal playback and search playback>
FIG. 20 and FIG. 21 are flowcharts for explaining the processing operation when the content stored in the data storage unit 223 in the recording / playback apparatus 200 is played back. 20 and 21 are executed by the CPU 201 using the RAM 204 as a work area according to a program stored in the ROM 203 and executed by the search processing unit 218. Content playback and content search playback mode in accordance with instruction designation through emotion display icons. As described above, the simple search and approximate search performed through the emotion visualization image are complicated in description, and thus the description thereof is omitted in FIGS. 20 and 21.

なお、検索処理部218は、前述の第1の実施形態の検索処理部117と同様に、ソフトウエアにより構成しても、もちろんよい。   Of course, the search processing unit 218 may be configured by software, similar to the search processing unit 117 of the first embodiment described above.

図20および図21の処理の開始に先立ち、通常再生するか、コンテンツ検索再生をするかの指定入力を受け付ける。そして、そのような指定入力があると図20のスタートから処理が開始する。   Prior to the start of the processing of FIG. 20 and FIG. 21, a designation input for normal reproduction or content search reproduction is accepted. Then, when there is such a designation input, the processing starts from the start of FIG.

まず、検索処理部218は、指示入力されたのが、コンテンツ検索再生であるか否か判別し(ステップS501)、コンテンツ検索再生ではないと判別したときには、通常の再生が指示指定されたと判別し、検索処理部218は、データ格納部223に格納されている再生可能なコンテンツについての一覧を表示する(図21のステップS511)。   First, the search processing unit 218 determines whether or not the instruction input is content search reproduction (step S501). If it is determined that the instruction search is not content search reproduction, the search processing unit 218 determines that normal reproduction is instructed. The search processing unit 218 displays a list of reproducible contents stored in the data storage unit 223 (step S511 in FIG. 21).

この一覧表示においては、既にユーザが一度鑑賞して、感情データ、感情ビジュアルデータおよび感情表示アイコンのデータがデータ格納部223に格納されているコンテンツに関しては、前記感情表示アイコンの画像が、対応するコンテンツ名の表示の横などに表示される。   In this list display, the image of the emotion display icon corresponds to the content that the user has already viewed once and the emotion data, emotion visual data, and emotion display icon data are stored in the data storage unit 223. It is displayed next to the display of the content name.

次に、CPU201は、表示されたコンテンツ一覧の中から、再生するコンテンツが選択されるのを待ち(ステップS512)、コンテンツが選択されたと判別したときには、選択されたコンテンツが感情表示アイコン付きのコンテンツであるか否か判別する(ステップS513)。選択されたコンテンツが感情表示アイコン付きのコンテンツであると判別したときには、既に鑑賞者の感情データが蓄積されているので、この例では、感情データの再蓄積は行なわず、データ格納部223から選択されたコンテンツのデータを読み出して、再生を実行する(ステップS514)。もっとも、前に記録した感情データを破棄して、再度、新たに鑑賞(ここでは視聴)したときの感情データや感情ビジュアルデータを記録するようにすることももちろんできる。さらに、別々に記録してそれらの変化を見る、平均化処理を行なう等の利用もできる。   Next, the CPU 201 waits for the content to be reproduced to be selected from the displayed content list (step S512), and when determining that the content has been selected, the selected content is the content with the emotion display icon. It is discriminate | determined whether it is (step S513). When it is determined that the selected content is content with an emotion display icon, since the viewer's emotion data has already been accumulated, in this example, the emotion data is not re-accumulated and is selected from the data storage unit 223. The content data read out is read and played back (step S514). However, it is of course possible to discard the previously recorded emotion data and record emotion data and emotion visual data when a new viewing (viewing here) is performed again. Furthermore, it is also possible to record them separately and view their changes, or perform an averaging process.

ステップS514におけるコンテンツの再生時においては、感情ビジュアルデータによる感情可視化画像も、例えばモニター装置230の画面や、表示部227の画面に表示される。そして、前述の第1の実施形態と同様に、再生中のコンテンツにおいて現在視聴しているパートに対応する感情データは、当該感情可視化画像において、どの位置であるかが、図10における輝点CSなどの指標により表示されて、対応関係がわかるように表示される。感情可視化画像が時系列タイプのものであれば、コンテンツにおいて、どの再生時間位置の感情であるかも知ることができる。   At the time of reproducing the content in step S514, an emotion visualized image based on emotion visual data is also displayed on the screen of the monitor device 230 or the screen of the display unit 227, for example. Then, as in the first embodiment described above, the position of the emotion data corresponding to the part currently being viewed in the content being played back in the emotion visualized image is the bright spot CS in FIG. Are displayed so that the correspondence can be understood. If the emotion visualized image is of the time series type, it is possible to know which playback time position the emotion is in the content.

次に、CPU201は、停止キーが操作されて、再生停止指示がなされるまで、再生処理を継続し、再生停止指示がなされたと判別したときには(ステップS515)、データ格納部223からのコンテンツデータの読み出しを停止する(ステップS516)。そして、再生モードの終了操作がなされたか否か判別し(ステップS517)、再生モードの終了操作がなされてはいないと判別したときには、ステップS511に戻り、また、再生モードの終了操作がなされたと判別したときには、この再生処理ルーチンを終了する。   Next, the CPU 201 continues the playback process until the stop key is operated and a playback stop instruction is issued. When the CPU 201 determines that the playback stop instruction is issued (step S515), the CPU 201 stores the content data from the data storage unit 223. Reading is stopped (step S516). Then, it is determined whether or not the playback mode end operation has been performed (step S517). When it is determined that the playback mode end operation has not been performed, the process returns to step S511, and it is determined that the playback mode end operation has been performed. If so, the reproduction processing routine is terminated.

また、この再生時、あるいは再生停止時において、感情可視化画像が画面に表示されているときには、当該感情可視化画像を通じて単純検索または近似検索の指示指定をすることができる。検索処理部218は、単純検索または近似検索の指示指定がなされたと判別したときには、前述の第1の実施形態の場合と同様にして、データ格納部223に格納されているコンテンツに関して、単純検索または近似検索を実行する。そして、その単純検索または近似検索の結果の一覧リストからユーザにより指定されたコンテンツのパートが再生される。   Further, when the emotion visualized image is displayed on the screen at the time of reproduction or at the time of reproduction stop, the simple search or approximate search can be designated through the emotion visualized image. When the search processing unit 218 determines that a simple search or approximate search instruction is specified, the search processing unit 218 performs a simple search or a search on the content stored in the data storage unit 223 in the same manner as in the first embodiment described above. Perform an approximate search. Then, the part of the content designated by the user is reproduced from the list of results of the simple search or approximate search.

なお、単純検索または近似検索は、このように再生の途中で行なうのではなく、あるコンテンツについての感情可視化画像を画面に表示して、その感情可視化画像を通じて行うようにするようにすることもできる。   The simple search or approximate search may not be performed in the middle of playback as described above, but may be performed through the emotion visualized image by displaying an emotion visualized image of a certain content on the screen. .

次に、ステップS513で、感情表示アイコン付きではないと判別したときには、CPU201は、ユーザの感情解析をするか否かの指示入力を待って、感情解析をするかどうか判別する(ステップS518)。感情解析をしないと判別したときには、ステップS514に進み、前述したステップS514以降の処理を実行する。   Next, when it is determined in step S513 that the emotion display icon is not included, the CPU 201 waits for an instruction input as to whether or not to analyze the emotion of the user, and determines whether or not to perform emotion analysis (step S518). When it is determined that emotion analysis is not performed, the process proceeds to step S514, and the processes after step S514 described above are executed.

また、ステップS518で感情解析をすると判別したときには、CPU201は、生体情報の取得をしながらコンテンツの再生を実行するようにする(ステップS519)。このとき、ユーザが生体情報入力部224を構成する、例えば電極を取り付けていないことを、その出力データを監視するなどにより検知したときには、生体情報の取得ができる状態になっていないことをユーザに報知して、電極などの装着を促し、当該電極などの装着を確認した後、コンテンツの再生を実行するようにする。そして、この再生においては、CPU201は、データ格納部223にコンテンツデータと共に記録されている時間情報を監視して、再生時間位置の管理も行なう。   If it is determined in step S518 that emotion analysis is to be performed, the CPU 201 reproduces content while acquiring biometric information (step S519). At this time, when the user configures the biological information input unit 224, for example, by detecting that the output data is not attached to an electrode, the user is informed that the biological information cannot be acquired. Notification is made to prompt the user to install the electrode, and after confirming the installation of the electrode, the content is played back. In this reproduction, the CPU 201 monitors the time information recorded together with the content data in the data storage unit 223 and also manages the reproduction time position.

次に、CPU201は、生体情報入力部コントローラ207で、生体情報入力部224で取得され、A/D変換部225でデジタル信号に変換された、コンテンツ鑑賞者の生体情報を、解析処理させる(ステップS520)。そして、生体情報入力部コントローラ207からの生体情報を、感情解析処理部208に転送し、感情解析させ、その解析結果の感情データ(感情パラメータ値)を、管理されている再生時間位置に対応する時間情報と共に、データ格納部コントローラ209により、データ格納部223に格納させる(ステップS521)。   Next, the CPU 201 causes the biometric information input unit controller 207 to analyze the biometric information of the content viewer acquired by the biometric information input unit 224 and converted into a digital signal by the A / D conversion unit 225 (Step S201). S520). Then, the biological information from the biological information input unit controller 207 is transferred to the emotion analysis processing unit 208 for emotion analysis, and the emotion data (emotion parameter value) of the analysis result corresponds to the managed playback time position. Along with the time information, the data storage unit controller 209 stores the data in the data storage unit 223 (step S521).

このステップS521においては、生体情報入力部コントローラ207からの生体情報のそれぞれに対して感情データ(感情パラメータ値)を算出するようにしてもよいが、この実施形態では、前述の図6で説明したのと同様に、予め定められた一定時間(単位時間)毎に、感情データを平均化して当該一定時間毎の感情データ(感情パラメータ値)を算出するようにする。この場合の一定時間(単位時間)は、前述の図6において設定される平均化間隔の時間よりも短い一定時間とされる。そして、この一定時間単位の時間情報と関連して、データ格納部223に感情データが格納される。この実施形態においては、時間情報により、感情データと、コンテンツデータとは対応を付けることができる。   In step S521, emotion data (emotion parameter value) may be calculated for each piece of biometric information from the biometric information input unit controller 207. In this embodiment, the description has been given with reference to FIG. Similarly to the above, the emotion data is averaged at predetermined time intervals (unit time) to calculate emotion data (emotional parameter values) at the predetermined time intervals. The fixed time (unit time) in this case is a fixed time shorter than the time of the averaging interval set in FIG. Then, emotion data is stored in the data storage unit 223 in association with the time information in a fixed time unit. In this embodiment, emotion data and content data can be associated with each other based on time information.

また、感情解析処理部208での解析結果の感情データをビジュアルデータ処理部212に送り、色変換テーブル情報記憶部226の色変換テーブル情報を用いて、当該感情データを色情報に変換し、それを、AV出力インターフェース217を通じてモニター装置230に送って、その表示画面に表示させる。あるいは、表示部コントローラ213により表示部227の画面に表示させる(ステップS522)。この表示は、コンテンツ再生を行なっているときの、その時々のユーザの感情状態を、モニター装置230のコンテンツ再生画面において、あるいは、表示部227において、リアルタイムで表示するものである。   In addition, the emotion data of the analysis result in the emotion analysis processing unit 208 is sent to the visual data processing unit 212, and the emotion data is converted into color information using the color conversion table information in the color conversion table information storage unit 226. Is sent to the monitor device 230 through the AV output interface 217 and displayed on the display screen. Or it is made to display on the screen of the display part 227 by the display part controller 213 (step S522). In this display, the user's emotional state at the time of content playback is displayed in real time on the content playback screen of the monitor device 230 or on the display unit 227.

そして、再生停止の操作入力がユーザによりなされて再生終了となったか否か、あるいは、対象となるコンテンツデータのすべてが読み出されて再生終了となったか否か判別し(ステップS523)、再生終了でないと判別したときには、CPU201は、ステップS519に戻って、このステップS519以降の処理を繰り返す。   Then, it is determined whether or not the reproduction stop operation input is made by the user and the reproduction is completed, or whether or not all the target content data is read and the reproduction is completed (step S523), and the reproduction is terminated. If not, the CPU 201 returns to step S519 and repeats the processing after step S519.

また、ステップS523で、再生終了と判別したときには、CPU201は、記録した時間区間のすべてにおける感情データを、データ格納部223からデータ格納部コントローラ209を通じて読み出し、図6に示したようにして、予め設定された表示タイプの感情ビジュアルデータを作成し、データ格納部223に格納されているコンテンツデータに関連させて格納する(ステップS524)。   When it is determined in step S523 that the reproduction has ended, the CPU 201 reads emotion data in all the recorded time intervals from the data storage unit 223 through the data storage unit controller 209, and as shown in FIG. The emotional visual data of the set display type is created and stored in association with the content data stored in the data storage unit 223 (step S524).

このとき、ステップS524では、再生コンテンツについて、鑑賞した時間区間のすべての区間における感情を、指定された表示タイプで、前述したように時系列表示タイプや分布表示タイプで表示したものからなる小さい感情表示アイコンも生成し、データ格納部223に、再生したコンテンツに関連させて格納する。   At this time, in step S524, for the playback content, the emotions in all the sections of the watched time period are displayed with the designated display type, as described above, with the time series display type and the distribution display type, and the small emotions. A display icon is also generated and stored in the data storage unit 223 in association with the reproduced content.

そして、データ格納部223に格納されている、コンテンツデータと、感情データと、感情ビジュアルデータと、前記感情表示アイコンの表示用画像情報とを関連するものとする管理情報(図8参照)の更新を行なう(ステップS525)。そして、ステップS517に進み、再生モードの終了操作がなされたか否か判別し、再生モードの終了操作がなされてはいないと判別したときには、ステップS511に戻り、また、再生モードの終了操作がなされたと判別したときには、この再生処理ルーチンを終了する。   Then, the management information (see FIG. 8) associated with the content data, emotion data, emotion visual data, and image information for display of the emotion display icon stored in the data storage unit 223 is updated. Is performed (step S525). Then, the process proceeds to step S517, where it is determined whether or not a playback mode end operation has been performed. If it is determined that the playback mode end operation has not been performed, the process returns to step S511, and the playback mode end operation has been performed. When it is determined, the reproduction processing routine is terminated.

次に、ステップS501において、コンテンツ検索再生モードがユーザにより指定されたと判別したときには、検索処理部218は、データ格納部223に格納されている再生可能なコンテンツであって、感情表示アイコンのデータが併せて格納されているコンテンツの一覧を表示する(ステップS502)。このコンテンツ一覧表示には、各コンテンツ名の表示の横などに、対応する感情表示アイコンの画像が表示される。   Next, when it is determined in step S501 that the content search / playback mode has been designated by the user, the search processing unit 218 is a reproducible content stored in the data storage unit 223 and the emotion display icon data is stored. A list of contents stored together is displayed (step S502). In this content list display, an image of a corresponding emotion display icon is displayed beside the display of each content name.

次に、検索処理部218は、表示されたコンテンツ一覧の中から、検索したい感情表示アイコンが選択されるのを待ち(ステップS503)、感情表示アイコンが選択されたと判別したときには、選択された感情表示アイコンに対応する感情ビジュアルデータを、データ格納部223から検出する(ステップS504)。   Next, the search processing unit 218 waits for the emotion display icon to be searched from the displayed content list to be selected (step S503), and when it is determined that the emotion display icon has been selected, the selected emotion is displayed. Emotional visual data corresponding to the display icon is detected from the data storage unit 223 (step S504).

次に、検索処理部218は、検出した感情ビジュアルデータと、近似する感情ビジュアルデータを、データ格納部223から検索する(ステップS505)。この検索は、前述した感情ベクトル距離Dを用いて行なうことができる。すなわち、例えば感情表示アイコンの画像上において、互いに対応する位置となる感情データ間の感情ベクトル距離をすべて求め、そのすべての感情ベクトル距離の一定距離よりも短いときに近似していると判別する。そして、距離の差の合計が小さい方が、より近似していると判別するようにする。   Next, the search processing unit 218 searches the data storage unit 223 for the detected emotion visual data and the approximate emotion visual data (step S505). This search can be performed using the emotion vector distance D described above. That is, for example, on the image of the emotion display icon, all the emotion vector distances between the emotion data at the positions corresponding to each other are obtained, and it is determined that the approximation is made when all the emotion vector distances are shorter than a certain distance. Then, it is determined that the smaller the total distance difference is, the closer the approximation is.

なお、感情ビジュアルデータの感情データを用いなくても、感情表示アイコンあるいは感情ビジュアルデータの色情報を用いて、それらの画像上において、近似しているか否かを、判別するようにすることもできる。   In addition, even if it does not use the emotion data of emotion visual data, it can also be discriminate | determined whether it is approximate on those images using the color information of an emotion display icon or emotion visual data. .

以上のようにして、近似する感情ビジュアルデータを検出したら、当該感情ビジュアルデータに対応するコンテンツをすべてリストアップして、その感情表示アイコンと共に、表示部227の画面に表示する(ステップS506)。   When the approximate emotional visual data is detected as described above, all the contents corresponding to the emotional visual data are listed and displayed together with the emotion display icon on the screen of the display unit 227 (step S506).

そして、検索処理部228は、そのリストからの検索結果についての選択入力を待ち(ステップS507)、その選択入力を受け付けたと判別したときには、選択されたコンテンツを検知して、そのコンテンツのデータをデータ格納部223から読み出して、前述と同様にして再生を実行する(図21のステップS514)。   Then, the search processing unit 228 waits for a selection input regarding the search result from the list (step S507), and when determining that the selection input has been accepted, the search processing unit 228 detects the selected content and stores the data of the content as data. The data is read from the storage unit 223, and reproduction is executed in the same manner as described above (step S514 in FIG. 21).

以上のようにして、ユーザは、自分が視聴したい感情雰囲気の感情表示アイコンを指示指定することにより、似た感情雰囲気が得られるコンテンツを検索することができる。そして、その検索したコンテンツの中から、ユーザは、希望するものを選択することにより、再生することができ、非常に便利である。   As described above, the user can search for content that provides a similar emotional atmosphere by specifying and designating the emotion display icon of the emotional atmosphere that the user wants to view. Then, the user can reproduce the content by selecting the desired content from the searched contents, which is very convenient.

なお、前述の感情表示アイコンの画像、また、感情ビジュアルデータによる感情可視化画像を、プリンタコントローラ216を通じてカラープリンタ229に出力して、シールや記録紙などに、カラー印刷することができる。そのカラー印刷出力物に、コンテンツIDやコンテンツタイトルなどを合わせて印刷出力することもできる。   Note that the image of the emotion display icon described above or the emotion visualized image based on emotion visual data can be output to the color printer 229 through the printer controller 216 and printed in color on a sticker or recording paper. It is also possible to print out the color print output together with the content ID, content title, and the like.

したがって、データ格納部223が、例えばDVDなどのリムーバルな記録媒体を用いる装置からなる場合には、このカラー印刷したシールや記録紙をDVDに貼り付けたり、ジャケット内に同封したりしておくことができる。これにより、後の時点において、それらのシールや記録紙に印刷された感情表示アイコンを見ることにより、当該DVDに格納されているコンテンツ視聴時にどのような感情を持ったかが、一目でわかり、便利である。   Therefore, when the data storage unit 223 is composed of a device that uses a removable recording medium such as a DVD, for example, this color-printed sticker or recording paper is attached to the DVD or enclosed in a jacket. Can do. This allows you to see at a glance what emotions you have when viewing the content stored on the DVD by looking at the emotion display icons printed on the stickers and recording paper at a later time. is there.

なお、図17の例では、放送番組コンテンツやインターネットなどのネットワークからダウンロードしたコンテンツをデータ格納部に格納するようにしたが、AV入力端子を設け、例えばDVDプレーヤなどからの音声データおよび画像データを受けて、データ格納部223に格納するようにしてもよい。   In the example of FIG. 17, broadcast program content and content downloaded from a network such as the Internet are stored in the data storage unit, but an AV input terminal is provided, for example, audio data and image data from a DVD player or the like. In response, the data may be stored in the data storage unit 223.

また、録画再生装置200のユーザは、例えば家族ユーザである場合には、コンテンツ毎の感情データは、家族構成員のそれぞれについて、記録するようにしてもよい。その場合には、家族構成員のそれぞれにユーザIDを付与し、当該ユーザIDに対応して感情データをデータ格納部223に格納するようにする。   When the user of the recording / playback apparatus 200 is a family user, for example, emotion data for each content may be recorded for each family member. In that case, a user ID is assigned to each family member, and emotion data is stored in the data storage unit 223 corresponding to the user ID.

ただし、コンテンツ一覧表示においては、家族構成員のそれぞれの感情表示アイコンを、すべて表示するようにしてもよいし、再生要求をしようとしているユーザの感情表示アイコンのみを表示するようにしてもよい。さらに、家族の平均の感情データを生成して、当該平均の感情データによる可視化画像を感情表示アイコンとして表示するようにしても良い。   However, in the content list display, all the emotion display icons of the family members may be displayed, or only the emotion display icon of the user who is requesting the reproduction may be displayed. Furthermore, average emotion data of the family may be generated, and a visualized image based on the average emotion data may be displayed as an emotion display icon.

また、録画再生装置200は、図19の例に限らず、データ格納部223を例えばハードディスクドライブで構成し、これに加えて、DVDドライブが設けられて、DVDの記録再生が可能とされる構成とすることもできる。その場合に、感情ビジュアルデータや感情表示アイコンは、各DVDに記録するようにするとよい。また、各DVDに記録するのではなく、データ格納部223に、各DVDの識別子と対応させると共に、当該DVDに記録されているコンテンツの再生時間位置の情報と対応させて、そのDVDのコンテンツについての感情データや感情ビジュアルデータ、また、感情表示アイコンを記録するようにすることもできる。   In addition, the recording / reproducing apparatus 200 is not limited to the example of FIG. 19, and the data storage unit 223 is configured by, for example, a hard disk drive, and in addition to this, a DVD drive is provided to enable recording / reproduction of a DVD. It can also be. In that case, emotion visual data and emotion display icons may be recorded on each DVD. In addition, instead of recording on each DVD, the data storage unit 223 is associated with the identifier of each DVD, and is associated with the reproduction time position information of the content recorded on the DVD, so that the content of the DVD Emotion data, emotion visual data, and emotion display icons can be recorded.

なお、この第2の実施形態を、再生部についてのみについて注目すれば、録画再生装置ではなく、DVDプレーヤなどのコンテンツの再生装置にもこの発明が適用できることは言うまでもない。   If the second embodiment is focused only on the playback unit, it goes without saying that the present invention can be applied not only to a recording / playback apparatus but also to a content playback apparatus such as a DVD player.

<他の実施形態>
この発明は、上述のような画像および音声の視聴を伴う感情の可視化の場合に限らず、音楽のみを聴取した時の感情の可視化の場合、本(電子文書)を読んだときの感情の可視化の場合、美術作品の画像を鑑賞したときの感情を可視化する場合などにも適用可能である。それらの場合、音楽コンテンツ(音声情報)、電子文書コンテンツ(画像情報)、美術作品のコンテンツ(画像情報)が、感情データと対応してデータ格納部に記録されるのは、上述の例と同様である。
<Other embodiments>
The present invention is not limited to the visualization of emotions accompanied by viewing images and sounds as described above. In the case of visualization of emotions when listening only to music, the visualization of emotions when a book (electronic document) is read. In this case, the present invention can also be applied to the case of visualizing feelings when viewing an image of a work of art. In these cases, music content (audio information), electronic document content (image information), and artwork content (image information) are recorded in the data storage unit in correspondence with emotion data, as in the above example. It is.

また、この発明は、複数人の平均の感情の可視化を適用する場合も、上述した場合に限らず、例えば、コンサート、テーマパーク、イベントに参集した人々の平均の感情を可視化表示するようにする場合にも適用可能である。その場合には、当該コンサートの画像や音声情報、テーマパークでの画像と音声情報、イベントにおける画像および音声情報と、それら複数人の平均の感情データとを対応させて記録するものである。   In addition, the present invention is not limited to the above-described case where the visualization of the average emotions of a plurality of people is applied, and for example, the average emotions of people gathered in a concert, a theme park, or an event are visualized and displayed. It is also applicable to cases. In that case, the image and sound information of the concert, the image and sound information at the theme park, the image and sound information at the event, and the average emotion data of the plurality of persons are recorded in association with each other.

また、上述の実施形態では、感情の可視化情報としては、色情報を用いるようにしたが、例えば顔(実画像、簡単な漫画など)の表情で表わしたものや、記号などで表わしたものであっても良い。その場合には、感情データと、顔の表情や記号との変換テーブルを用意して、上述の色変換処理と同様にすることができる。また、感情の変化を光の明暗で表わすようにすることもできる。   In the above-described embodiment, color information is used as emotion visualization information. However, for example, it is expressed by a facial expression (real image, simple cartoon, etc.) or by a symbol. There may be. In that case, it is possible to prepare a conversion table of emotion data and facial expressions and symbols, and perform the same process as the color conversion process described above. It is also possible to express emotional changes in light and dark.

この発明による撮像情報の検索再生方法の実施形態が適用された撮像情報記録再生装置の一例のブロック図である。1 is a block diagram of an example of an imaging information recording / reproducing apparatus to which an embodiment of a method for searching and reproducing imaging information according to the present invention is applied. FIG. 図1の一部の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a part of FIG. 1. この発明による撮像情報の検索再生方法の実施形態の説明に用いる感情モデルの例を示す図である。It is a figure which shows the example of the emotion model used for description of embodiment of the search reproduction | regeneration method of the imaging information by this invention. この発明による撮像情報の検索再生方法の実施形態に用いられる色変換テーブル情報の一例を示す図である。It is a figure which shows an example of the color conversion table information used for embodiment of the search reproduction | regeneration method of the imaging information by this invention. この発明による撮像情報の検索再生方法の実施形態による可視化出力画像のいくつからの表示タイプを説明するための図である。It is a figure for demonstrating from several display types of the visualization output image by embodiment of the search reproduction | regeneration method of the imaging information by this invention. この発明による撮像情報の検索再生方法の実施形態を説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for describing embodiment of the search reproduction | regeneration method of the imaging information by this invention. 図1の撮像情報記録再生装置における記録処理時の処理動作を説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the processing operation at the time of the recording process in the imaging information recording / reproducing apparatus of FIG. 図1の撮像情報記録再生装置において、格納されるデータの管理構造を説明するための図である。FIG. 2 is a diagram for explaining a management structure of stored data in the imaging information recording / reproducing apparatus of FIG. 1. 図1の撮像情報記録再生装置における再生処理時の処理動作を説明するためのフローチャートを示す図である。It is a figure which shows the flowchart for demonstrating the processing operation at the time of the reproduction | regeneration processing in the imaging information recording / reproducing apparatus of FIG. 図1の撮像情報記録再生装置における再生処理時の、感情可視化画像表示例を示す図である。It is a figure which shows the example of an emotion visualized image display at the time of the reproduction | regeneration processing in the imaging information recording / reproducing apparatus of FIG. この発明による撮像情報の検索再生方法の第1の実施形態における検索処理動作を説明するためのフローチャートの一部である。5 is a part of a flowchart for explaining a search processing operation in the first embodiment of the method for searching and reproducing imaging information according to the present invention. この発明による撮像情報の検索再生方法の第1の実施形態における検索処理動作を説明するためのフローチャートの一部である。5 is a part of a flowchart for explaining a search processing operation in the first embodiment of the method for searching and reproducing imaging information according to the present invention. この発明による撮像情報の検索再生方法の実施形態が適用されるネットワークシステムの一例を示す図である。It is a figure which shows an example of the network system with which embodiment of the search reproduction | regeneration method of the imaging information by this invention is applied. この発明による撮像情報の検索再生方法の実施形態を用いた可視化表現のアプリケーションを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the application of the visualization expression using embodiment of the search reproduction | regeneration method of the imaging information by this invention. この発明による撮像情報の検索再生方法の実施形態を用いた可視化表現のアプリケーションを説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the application of the visualization expression using embodiment of the search reproduction | regeneration method of the imaging information by this invention. 感情の可視化表示の例を示す図である。It is a figure which shows the example of the visualization display of an emotion. 感情の可視化表示の例を示す図である。It is a figure which shows the example of the visualization display of an emotion. 感情の可視化表示の例を示す図である。It is a figure which shows the example of the visualization display of an emotion. この発明によるコンテンツの検索再生方法の実施形態が適用された録画再生装置の一例のブロック図である。1 is a block diagram of an example of a recording / playback apparatus to which an embodiment of a content search / playback method according to the present invention is applied. FIG. 図19の例の録画再生装置における再生処理を説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the reproduction | regeneration processing in the video recording / reproducing apparatus of the example of FIG. 図19の例の録画再生装置における再生処理を説明するためのフローチャートの一部を示す図である。It is a figure which shows a part of flowchart for demonstrating the reproduction | regeneration processing in the video recording / reproducing apparatus of the example of FIG.

Claims (37)

撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出手段と、
前記感情情報検出手段で得られた感情情報を、前記感情情報格納部から検索する検索手段と、
前記検索手段で検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置。
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information by the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the emotion information corresponding to the detected visualization information is detected. Emotion information detection means obtained using the conversion table information;
Search means for searching emotion information obtained by the emotion information detection means from the emotion information storage unit;
Means for reading out and reproducing the imaging information corresponding to the time position of the emotion information searched by the search means from the imaging information storage unit;
An apparatus for retrieving and reproducing imaging information comprising:
撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索手段と、
前記検索手段で検索された前記時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置。
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the time position in time series of the detected visualization information is determined. A search means for searching;
The imaging information corresponding to the retrieved the time position in the searching means, and means for reading out and reproducing from the imaging information storage unit,
An apparatus for retrieving and reproducing imaging information comprising:
請求項1または請求項2に記載の撮像情報の検索再生装置において、
記可視化情報は、色情報であって、
前記変換テーブル情報保持手段は、前記変換テーブル情報として、前記感情情報と、当該感情情報により表わされる感情に対応する色との間の対応関係を示す色変換テーブル情報を備え、
前記変換処理手段は、前記色変換テーブル情報を用いて、入力される前記感情情報を、当該感情情報により表わされる感情に対応する色情報に変換して、前記色情報からなる前記可視化情報を得る
像情報の検索再生装置。
The apparatus for searching and reproducing imaging information according to claim 1 or 2,
Before asked visualization information, a color information,
The conversion table information holding means stage as the conversion table information comprises said emotion information, the color conversion table information indicating a correspondence relationship between the color corresponding to the emotion represented by the emotion information,
The conversion processing means converts the input emotion information into color information corresponding to the emotion represented by the emotion information using the color conversion table information, and obtains the visualization information including the color information.
Search and reproducing apparatus of an imaging information.
請求項3に記載の撮像情報の検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力を、時間の経過に対応させて可視化することにより、前記撮像情報が記録された期間内における感情の変化を色により可視化するものである
像情報の検索再生装置。
The apparatus for searching and reproducing imaging information according to claim 3,
The emotion visualized image visualizes the color output based on the color information constituting the visualization information from the conversion processing means in correspondence with the passage of time, so that the emotion in the period in which the imaging information is recorded is displayed. Change is visualized by color
Search and reproducing apparatus of an imaging information.
請求項3に記載の撮像情報の検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力の、前記撮像情報が記録された期間分についての割合を可視化することにより、前記撮像情報が記録された期間内における前記感情の状態分布を可視化するものである
像情報の検索再生装置。
The apparatus for searching and reproducing imaging information according to claim 3,
In the emotion visualized image, the imaging information is recorded by visualizing the ratio of the color output based on the color information constituting the visualization information from the conversion processing unit for the period in which the imaging information is recorded. Visualize the state distribution of the emotion within a certain period
Search and reproducing apparatus of an imaging information.
撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出手段と、
前記感情情報検出手段で得られた感情情報で表わされる感情に近似する感情を表わす感情情報を前記感情情報格納部に格納された感情情報から検索する検索手段と、
前記検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置。
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information by the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the emotion information corresponding to the detected visualization information is detected. Emotion information detection means obtained using the conversion table information;
Search means for searching emotion information representing an emotion similar to the emotion represented by the emotion information obtained by the emotion information detection means from the emotion information stored in the emotion information storage unit;
Means for reading out and reproducing the imaging information corresponding to the time position of the searched emotion information from the imaging information storage unit;
Find reproducing apparatus that an imaging information comprising a.
撮像された撮像情報が、撮像時刻の時間情報と対応して格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報が、当該感情情報を取得した前記撮像時刻の時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を得る時間位置検出手段と、
前記時間位置情報検出手段で得られた時間位置に対応する感情情報で表わされる感情に近似する感情を表わす感情情報を前記感情情報格納部に格納された感情情報から検索する検索手段と、
前記検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する手段と、
を備える撮像情報の検索再生装置。
An imaging information storage unit in which the captured imaging information is stored corresponding to the time information of the imaging time;
Emotion information representing emotions of the photographer obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
A designation means for the user to designate any image position or any image range on the emotion visualization image displayed on the display screen;
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the time position in time series of the detected visualization information is determined. Obtaining time position detecting means;
Retrieval means for retrieving emotion information representing emotions similar to emotions represented by emotion information corresponding to the time position obtained by the time position information detection means from emotion information stored in the emotion information storage unit;
Means for reading out and reproducing the imaging information corresponding to the time position of the searched emotion information from the imaging information storage unit;
Find reproducing apparatus that an imaging information comprising a.
請求項6または請求項7に記載の撮像情報の検索再生装置において、
前記検索手段で複数の感情情報が検索されたとき、そのうちの一の感情情報を選択する選択手段をさらに備える撮像情報の検索再生装置。
The apparatus for searching and reproducing imaging information according to claim 6 or 7,
More when the emotion information is retrieved, the search reproduction apparatus further comprising Ru IMAGING information selection means for selecting one of the emotion information of which at the searching means.
請求項6または請求項7に記載の撮像情報の検索再生装置において、
記可視化情報は、色情報であって、
前記変換テーブル情報保持手段は、前記変換テーブル情報として、前記感情情報と、当該感情情報により表わされる感情に対応する色との間の対応関係を示す色変換テーブル情報を備え、
前記変換処理手段は、前記色変換テーブル情報を用いて、入力される前記感情情報を、当該感情情報により表わされる感情に対応する色情報に変換して、前記色情報からなる前記可視化情報を得る
像情報の検索再生装置。
The apparatus for searching and reproducing imaging information according to claim 6 or 7,
Before asked visualization information, a color information,
The conversion table information holding means stage as the conversion table information comprises said emotion information, the color conversion table information indicating a correspondence relationship between the color corresponding to the emotion represented by the emotion information,
The conversion processing means converts the input emotion information into color information corresponding to the emotion represented by the emotion information using the color conversion table information, and obtains the visualization information including the color information.
Search and reproducing apparatus of an imaging information.
請求項9に記載の撮像情報の検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力を、時間の経過に対応させて可視化することにより、前記撮像情報が記録された期間内における感情の変化を色により可視化するものである
像情報の検索再生装置。
The imaging information retrieval / playback apparatus according to claim 9,
The emotion visualized image visualizes the color output based on the color information constituting the visualization information from the conversion processing means in correspondence with the passage of time, so that the emotion in the period in which the imaging information is recorded is displayed. Change is visualized by color
Search and reproducing apparatus of an imaging information.
請求項9に記載の撮像情報の検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力の、前記撮像情報が記録された期間分についての割合を可視化することにより、前記撮像情報が記録された期間内における前記感情の状態分布を可視化するものである
像情報の検索再生装置。
The imaging information retrieval / playback apparatus according to claim 9,
In the emotion visualized image, the imaging information is recorded by visualizing the ratio of the color output based on the color information constituting the visualization information from the conversion processing unit for the period in which the imaging information is recorded. Visualize the state distribution of the emotion within a certain period
Search and reproducing apparatus of an imaging information.
撮像された撮像情報が、撮像時刻の時間情報と対応されて格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報を、当該感情情報を取得した前記撮像時刻の時間情報に対応されて格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
を備える装置において、前記感情可視化画像を通じて指定された感情に対応する前記撮像情報を検索する方法であって、
前記表示画面に表示された前記感情可視化画像上において、ユーザにより指定された任意の画像位置あるいは任意の画像範囲を検出する指定受付工程と、
前記指定受付工程により検出された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出工程と、
前記感情情報検出工程で得られた感情情報を、前記感情情報格納部から検索する検索工程と、
前記検索工程で検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する工程と、
を備える撮像情報の検索再生方法。
An imaging information storage unit in which captured imaging information is stored in association with time information of an imaging time;
Emotion information representing the photographer's emotion obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with the time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information by the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
The apparatus having a, a method of searching for the imaging information corresponding to the emotion that is specified through the emotion visualization,
In the display the on emotion visible image displayed on the screen, a designation accepting step of detecting any image position or any image range specified by the user,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image detected by the designation reception step is detected, and the emotion information corresponding to the detected visualization information is converted to the conversion information. An emotion information detection process obtained using table information;
A search step for searching the emotion information obtained in the emotion information detection step from the emotion information storage unit;
Reading and reproducing the imaging information corresponding to the time position of the emotion information searched in the search step from the imaging information storage unit;
A method for retrieving and reproducing imaging information comprising:
撮像された撮像情報が、撮像時刻の時間情報と対応されて格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報を、当該感情情報を取得した前記撮像時刻の時間情報に対応されて格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備える装置において、前記感情可視化画像を通じて指定された感情に対応する前記撮像情報を検索する方法であって、
前記表示画面に表示された前記感情可視化画像上において、ユーザにより指定された任意の画像位置あるいは任意の画像範囲を検出する指定受付工程と、
前記指定受付工程により検出された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索工程と、
前記検索工程で検索された前記時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する工程と、
を備える撮像情報の検索再生方法。
An imaging information storage unit in which the captured imaging information is stored in correspondence with the time information of the imaging time;
Emotion information representing the photographer's emotion obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with the time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period when the imaging was performed into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
The apparatus having a, a method of searching for the imaging information corresponding to the emotion that is specified through the emotion visualization,
In the display the on emotion visible image displayed on the screen, a designation accepting step of detecting any image position or any image range specified by the user,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image detected by the designation receiving step is detected, and a time position in the time series of the detected visualization information is searched. Search process;
The imaging information corresponding to the said time position search in the search step, a step of reading out and reproducing from the imaging information storage unit,
A method for retrieving and reproducing imaging information comprising:
撮像された撮像情報が、撮像時刻の時間情報と対応されて格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報を、当該感情情報を取得した前記撮像時刻の時間情報に対応されて格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備える装置において、前記感情可視化画像を通じて指定された感情情報に対応する前記撮像情報を検索する方法であって、
前記表示画面に表示された前記感情可視化画像上において、ユーザにより指定された任意の画像位置あるいは任意の画像範囲を検出する指定受付工程と、
前記指定受付工程により検出された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を、前記変換テーブル情報を用いて得る感情情報検出工程と、
前記感情情報検出工程で検出された感情情報に近似する感情情報を前記感情情報格納部に格納された感情情報から検索する工程と、
前記検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する工程と、
を備える撮像情報の検索再生方法。
An imaging information storage unit in which captured imaging information is stored in association with time information of an imaging time;
Emotion information representing the photographer's emotion obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with the time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
A method for searching for the imaging information corresponding to emotion information designated through the emotion visualization image, comprising:
In the display the on emotion visible image displayed on the screen, a designation accepting step of detecting any image position or any image range specified by the user,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image detected by the designation receiving step is detected, and the emotion information corresponding to the detected visualization information is An emotion information detection step obtained using the conversion table information;
Searching the emotion information stored in the emotion information storage unit for emotion information that approximates the emotion information detected in the emotion information detection step;
Reading and reproducing the imaging information corresponding to the time position of the searched emotion information from the imaging information storage unit;
A method for retrieving and reproducing imaging information comprising:
撮像された撮像情報が、撮像時刻の時間情報と対応されて格納されている撮像情報格納部と、
前記撮像を行なう撮影者から取得した生体情報が解析されて得られた前記撮影者の感情を表わす感情情報を、当該感情情報を取得した前記撮像時刻の時間情報に対応されて格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記撮像がなされた全期間あるいは一部の期間における前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備える装置において、前記感情可視化画像を通じて指定された感情情報に対応する前記撮像情報を検索する方法であって、
前記表示画面に表示された前記感情可視化画像上において、ユーザにより指定された任意の画像位置あるいは任意の画像範囲を検出する指定受付工程と、
前記指定受付工程により検出された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を得る時間位置を得る時間位置検出工程と、
前記時間位置検出工程で検出された時間位置に対応する感情情報に近似する感情情報を前記感情情報格納部に格納された感情情報から検索する工程と、
前記検索された感情情報の時間位置に対応する前記撮像情報を、前記撮像情報格納部から読み出して再生する工程と、
を備える撮像情報の検索再生方法。
An imaging information storage unit in which captured imaging information is stored in association with time information of an imaging time;
Emotion information representing the photographer's emotion obtained by analyzing biological information acquired from the photographer who performs the imaging is stored in correspondence with the time information of the imaging time at which the emotion information was acquired. An information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information in the whole period or a part of the period during which the imaging was performed into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
A method for searching for the imaging information corresponding to emotion information designated through the emotion visualization image, comprising:
In the display the on emotion visible image displayed on the screen, a designation accepting step of detecting any image position or any image range specified by the user,
Time for detecting the visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image detected by the designation receiving step, and obtaining a time position in the time series of the detected visualization information A time position detecting step for obtaining a position ;
Searching emotion information stored in the emotion information storage unit for emotion information similar to emotion information corresponding to the time position detected in the time position detection step;
Reading and reproducing the imaging information corresponding to the time position of the searched emotion information from the imaging information storage unit;
A method for retrieving and reproducing imaging information comprising:
コンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じてユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて得る感情情報検出手段と、
前記感情情報検出手段で得られた感情情報を、前記感情情報格納部から検索する検索手段と、
前記検索手段で検索された感情情報の時間位置に対応する前記コンテンツデータを、前記コンテンツ格納部から読み出して再生する手段と、
を備えるコンテンツの検索再生装置。
A content storage unit in which content data is stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information when the viewer appreciates the content into the visualization information using the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the emotion information corresponding to the detected visualization information is Emotion information detection means obtained using the conversion table information;
Search means for searching emotion information obtained by the emotion information detection means from the emotion information storage unit;
The content data corresponding to the time position of the emotion information searched by the searching means, and means for reading out and reproducing from the content storage unit,
A content search / playback apparatus comprising:
コンテンツのデータが、当該コンテンツの先頭からの時間位置と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記コンテンツの先頭からの時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて前記ユーザにより指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索手段と、
前記検索手段で検索された前記時間位置に対応する前記コンテンツデータを、前記コンテンツ格納部から読み出して再生する手段と、
を備えるコンテンツの検索再生装置。
A content storage unit in which content data is stored corresponding to the time position from the beginning of the content;
Emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time information from the beginning of the content from which the emotion information was acquired. An emotion information storage unit;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting emotion expressed by the emotion information when the viewer appreciates the content into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated by the user through the designation means is detected, and the time position in time series of the detected visualization information is determined. A search means for searching;
The content data corresponding to the retrieved the time position in the searching means, and means for reading out and reproducing from the content storage unit,
A content search / playback apparatus comprising:
請求項16または請求項17に記載のコンテンツの検索再生装置において、
記可視化情報は、色情報であって、
前記変換テーブル情報保持手段は、前記変換テーブル情報として、前記感情情報と、当該感情情報により表わされる感情に対応する色との間の対応関係を示す色変換テーブル情報を備え、
前記変換処理手段は、前記色変換テーブル情報を用いて、入力される前記感情情報を、当該感情情報により表わされる感情に対応する色情報に変換して、前記色情報からなる前記可視化情報を得る
ンテンツの検索再生装置。
The content search / playback apparatus according to claim 16 or 17,
Before asked visualization information, a color information,
The conversion table information holding means stage as the conversion table information comprises said emotion information, the color conversion table information indicating a correspondence relationship between the color corresponding to the emotion represented by the emotion information,
The conversion processing means converts the input emotion information into color information corresponding to the emotion represented by the emotion information using the color conversion table information, and obtains the visualization information including the color information.
Search and reproducing apparatus of the content.
請求項18に記載のコンテンツの検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力を、時間の経過に対応させて可視化することにより、前記コンテンツの鑑賞期間内における感情の変化を色により可視化するものである
ンテンツの検索再生装置。
The content search / playback apparatus according to claim 18,
The emotion visualized image is a color output based on the color information that constitutes the visualization information from the conversion processing means, and is visualized in correspondence with the passage of time, whereby the change in emotion during the viewing period of the content is color-coded. Is visualized by
Search and reproducing apparatus of the content.
請求項18に記載のコンテンツの検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力の、前記撮像情報が記録された期間分についての割合を可視化することにより、前記コンテンツの鑑賞期間内における前記感情の状態分布を可視化するものである
ンテンツの検索再生装置。
The content search / playback apparatus according to claim 18,
The emotion visualized image is visualized within a viewing period of the content by visualizing a ratio of a color output based on color information constituting the visualization information from the conversion processing unit for a period in which the imaging information is recorded. Visualizing the state distribution of emotions
Search and reproducing apparatus of the content.
複数個のコンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像の情報を格納する感情可視化画像情報格納部と、
前記感情可視化画像情報格納部に格納される感情可視化画像情報を表示画面に表示する表示手段と、
前記表示画面に表示された複数の感情可視化画像の中から任意の感情可視化画像をユーザが指定するための指定手段と、
前記指定手段を通じて指定された前記感情可視化画像と近似する感情可視化画像となる感情可視化画像情報を前記感情可視化画像情報格納部に格納された感情可視化画像情報から検索し、検索結果の感情可視化画像情報に対応するコンテンツを提示する検索提示手段と、
前記提示されたコンテンツのデータを、前記コンテンツ格納部から読み出して再生する手段と、
を備えるコンテンツの検索再生装置。
A content storage unit in which data of a plurality of contents are stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information when the viewer appreciates the content into the visualization information using the conversion table information ;
And emotion visible image information storage unit for storing information of visualized Ru emotion visualization by the visualization information generated by the conversion processing means,
Display means for displaying emotion visualized image information stored in the emotion visualized image information storage unit on a display screen;
A designation means for the user to designate an arbitrary emotion visualization image from among the plurality of emotion visualization images displayed on the display screen;
Emotion visualization image information stored in the emotion visualization image information storage unit is searched for emotion visualization image information that becomes an emotion visualization image that approximates the emotion visualization image specified through the specifying means, and the emotion visualization image information of the search result Search and presentation means for presenting content corresponding to
Means for reading out and reproducing the data of the presented content from the content storage unit;
Search and reproducing apparatus of Turkey content with a.
請求項21に記載のコンテンツの検索再生装置において、
前記検索提示手段で複数のコンテンツが提示されたとき、そのうちの一のコンテンツを選択する選択手段をさらに備えるコンテンツの検索再生装置。
The content search / playback apparatus according to claim 21,
When said plurality of contents in a search presenting means presented, the search reproduction apparatus further comprising Turkey content selection means for selecting one content of them.
請求項21に記載のコンテンツの検索再生装置において、
記可視化情報は、色情報であって、
前記変換テーブル情報保持手段は、前記変換テーブル情報として、前記感情情報と、当該感情情報により表わされる感情に対応する色との間の対応関係を示す色変換テーブル情報を備え、
前記変換処理手段は、前記色変換テーブル情報を用いて、入力される前記感情情報を、当該感情情報により表わされる感情に対応する色情報に変換して、前記色情報からなる前記可視化情報を得る
ンテンツの検索再生装置。
The content search / playback apparatus according to claim 21,
Before asked visualization information, a color information,
The conversion table information holding means stage as the conversion table information comprises said emotion information, the color conversion table information indicating a correspondence relationship between the color corresponding to the emotion represented by the emotion information,
The conversion processing means converts the input emotion information into color information corresponding to the emotion represented by the emotion information using the color conversion table information, and obtains the visualization information including the color information.
Search and reproducing apparatus of the content.
請求項23に記載のコンテンツの検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力を、時間の経過に対応させて可視化することにより、前記コンテンツの鑑賞期間内における感情の変化を色により可視化するものである
ンテンツの検索再生装置。
The content search / playback apparatus according to claim 23,
The emotion visualized image is a color output based on the color information that constitutes the visualization information from the conversion processing means, and is visualized in correspondence with the passage of time, whereby the change in emotion during the viewing period of the content is color-coded. Is visualized by
Search and reproducing apparatus of the content.
請求項23に記載のコンテンツの検索再生装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力の、前記撮像情報が記録された期間分についての割合を可視化することにより、前記コンテンツの鑑賞期間内における前記感情の状態分布を可視化するものである
ンテンツの検索再生装置。
The content search / playback apparatus according to claim 23,
The emotion visualized image is visualized within a viewing period of the content by visualizing a ratio of a color output based on color information constituting the visualization information from the conversion processing unit for a period in which the imaging information is recorded. Visualizing the state distribution of emotions
Search and reproducing apparatus of the content.
コンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報により前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
を備えるコンテンツ再生装置において、前記感情可視化画像を通じて指定された感情に対応する前記コンテンツの一部分あるいは前記コンテンツを検索する方法であって、
前記表示画面に表示された前記感情可視化画像上において、ユーザにより指定された任意の画像位置あるいは任意の画像範囲を検出する指定受付工程と、
前記指定受付工程により検出された前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報前記変換テーブル情報を用いて得る検出工程と、
前記検出工程で検出された感情情報を、前記感情情報格納部から検索する検索工程と、
前記検索工程で検索された感情情報の時間位置に対応する前記コンテンツデータを、前記コンテンツ格納部から読み出して再生する工程と、
を備えるコンテンツの検索再生方法。
A content storage unit in which content data is stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information when the viewer appreciates the content into the visualization information using the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
The content playback device comprising a, a method of searching a portion or the contents of the content corresponding to the emotion that is specified through the emotion visualization,
In the display the on emotion visible image displayed on the screen, a designation accepting step of detecting any image position or any image range specified by the user,
Detection obtained by detecting the visualization information corresponding to the arbitrary image position or the arbitrary image range detected by the designation receiving step, and using the emotion information corresponding to the detected visualization information and the conversion table information Process,
A search step for searching the emotion information detected in the detection step from the emotion information storage unit;
Reading the content data corresponding to the time position of the emotion information searched in the search step from the content storage unit and playing it back;
A method for retrieving and reproducing content comprising:
コンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備えるコンテンツ再生装置において、前記感情可視化画像を通じて指定された感情情報に対応する前記コンテンツの一部分あるいは前記コンテンツを検索する方法であって、
前記表示画面に表示された前記感情可視化画像上において、ユーザにより指定された任意の画像位置あるいは任意の画像範囲を検出する指定受付工程と、
前記指定受付工程により検出された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索工程と、
前記検索工程で検索された前記時間位置に対応する前記コンテンツデータを、前記コンテンツ格納部から読み出して再生する工程と、
を備えるコンテンツの検索再生方法。
A content storage unit in which content data is stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting emotion expressed by the emotion information when the viewer appreciates the content into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
In the content reproduction apparatus comprising: a method for searching a part of the content or the content corresponding to emotion information designated through the emotion visualization image,
In the display the on emotion visible image displayed on the screen, a designation accepting step of detecting any image position or any image range specified by the user,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image detected by the designation receiving step is detected, and a time position in the time series of the detected visualization information is searched. Search process;
The content data corresponding to the said time position search in the search step, a step of reading out and reproducing from the content storage unit,
A method for retrieving and reproducing content comprising:
コンテンツのデータが、時間位置情報と対応して格納されているコンテンツ格納部と、
前記コンテンツを鑑賞した鑑賞者の生体情報が解析されて得られた前記鑑賞者の感情を表わす感情情報が、当該感情情報を取得した前記時間位置情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記鑑賞者の前記コンテンツを鑑賞したときの前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備えるコンテンツ再生装置において、前記感情可視化画像を通じて指定された感情情報に対応する前記コンテンツの一部分あるいは前記コンテンツを検索する方法であって、
前記表示画面に表示された複数の感情可視化画像の中から選択された任意の感情可視化画像の指定を受け付ける指定受付工程と、
前記指定受付工程により指定された前記感情可視化画像と近似する感情可視化画像となる感情可視化画像情報を前記感情可視化画像情報格納部に格納された感情可視化画像情報から検索し、検索結果の感情可視化画像情報に対応するコンテンツを提示する検索提示工程と、
前記提示されたコンテンツのデータを、前記コンテンツ格納部から読み出して再生する工程と、
を備えるコンテンツの検索再生方法。
A content storage unit in which content data is stored corresponding to the time position information;
Emotion information storage unit in which emotion information representing the viewer's emotion obtained by analyzing the biological information of the viewer who has viewed the content is stored corresponding to the time position information from which the emotion information was acquired When,
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting emotion expressed by the emotion information when the viewer appreciates the content into the visualization information in time series using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
In the content reproduction apparatus comprising: a method for searching a part of the content or the content corresponding to emotion information designated through the emotion visualization image,
A designation receiving step for accepting designation of an arbitrary emotion visualization image selected from the plurality of emotion visualization images displayed on the display screen;
The emotion visualized image information stored in the emotion visualized image information storage unit is searched for emotion visualized image information that becomes an emotion visualized image that approximates the emotion visualized image designated by the designation receiving step, and the emotion visualized image as a search result A search and presentation process for presenting content corresponding to information;
Reading and presenting the data of the presented content from the content storage unit;
Search reproduction method of Turkey content with a.
人から取得した生体情報が解析されて得られた前記人の感情を表わす感情情報が、当該感情情報を取得した時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記感情情報格納部に格納されている前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報の時系列における時間位置を検索する検索手段と、
検索結果の時間位置を前記ユーザに報知するようにする手段と、
を備える感情検索装置。
Emotion information storing the emotion information representing the emotion of the person obtained by analyzing the biological information acquired from a person, corresponding to the time information acquired the emotion information;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information stored in the emotion information storage unit into the time-series visualization information using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
Search for detecting the visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image specified through the specifying means, and searching for a time position in the time series of the detected visualization information Means,
Means for informing the user of the time position of the search result;
Feeling Ru with the information retrieval apparatus.
人から取得した生体情報が解析されて得られた前記人の感情を表わす感情情報が、当該感情情報を取得した時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記感情情報格納部に格納されている前記感情情報により表わされる感情を、前記変換テーブル情報を用いて前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記可視化情報により可視化され感情可視化画像を表示画面に表示する表示手段と、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲をユーザが指定するための指定手段と、
前記指定手段を通じて指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて検出する手段と、
前記検出した感情情報に近似する感情情報を前記感情情報格納部に格納された感情情報から検索する検索手段と、
検索結果の感情情報あるいは感情情報範囲に対応する時間が判るように前記ユーザに報知するようにする手段と、
を備える感情検索装置。
Emotion information storing the emotion information representing the emotion of the person obtained by analyzing the biological information acquired from a person, corresponding to the time information acquired the emotion information;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information stored in the emotion information storage unit into the visualization information using the conversion table information ;
Display means for displaying the emotion visible image that will be visualized on the display screen by the visualization information generated by the conversion processing means,
Designating means for allowing a user to specify an arbitrary image positions or any image area on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated through the designation means is detected, and the emotion information corresponding to the detected visualization information is converted to the conversion table. Means for detecting using information;
Search means for searching emotion information stored in the emotion information storage unit for emotion information similar to the detected emotion information;
Means for informing the user so that the time corresponding to the emotion information or emotion information range of the search result is known;
Feeling Ru with the information retrieval apparatus.
請求項29または請求項30に記載の感情検索装置において、
記可視化情報は、色情報であって、
前記変換テーブル情報保持手段は、前記変換テーブル情報として、前記感情情報と、当該感情情報により表わされる感情に対応する色との間の対応関係を示す色変換テーブル情報を備え、
前記変換処理手段は、前記色変換テーブル情報を用いて、入力される前記感情情報を、当該感情情報により表わされる感情に対応する色情報に変換して、前記色情報からなる前記可視化情報を得る
情検索装置。
The emotion retrieval apparatus according to claim 29 or claim 30 , wherein
Before asked visualization information, a color information,
The conversion table information holding means stage as the conversion table information comprises said emotion information, the color conversion table information indicating a correspondence relationship between the color corresponding to the emotion represented by the emotion information,
The conversion processing means converts the input emotion information into color information corresponding to the emotion represented by the emotion information using the color conversion table information, and obtains the visualization information including the color information.
Sensitive information retrieval apparatus.
請求項31に記載の感情検索装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力を、時間の経過に対応させて可視化することにより、感情の変化を色により可視化するものである
情検索装置。
The emotion retrieval apparatus according to claim 31, wherein
The emotion visualization image visualizes a change in emotion by color by visualizing a color output based on color information constituting the visualization information from the conversion processing unit in correspondence with the passage of time.
Sensitive information retrieval apparatus.
請求項31に記載の感情検索装置において、
前記感情可視化画像は、前記変換処理手段からの前記可視化情報を構成する色情報に基づく色出力の、所定の期間分についての割合を可視化することにより、前記所定の期間内における前記感情の状態分布を可視化するものである
情検索装置。
The emotion retrieval apparatus according to claim 31, wherein
The emotion visualized image is a state distribution of the emotion within the predetermined period by visualizing a ratio of a color output based on color information constituting the visualization information from the conversion processing unit for a predetermined period. Is to visualize
Sensitive information retrieval apparatus.
請求項29または請求項30に記載の感情検索装置において、
前記感情情報は、任意の長さの期間毎に、当該期間内において単位時間毎に順次に取得されて、前記感情情報格納部に格納されているものであり、
前記感情可視化画像は、前記感情情報が含まれる前記期間毎に、当該期間内における前記感情情報に対応する色情報を時間の経過に対応させて表示することにより、前記期間内における感情の変化を可視化するものであり、
前記検索手段は、前記指定手段で前記表示画面に表示されている任意の前記感情可視化画像が指定されたときに、前記指定された前記感情可視化画像における前記感情の変化に近似する状態分布をしている感情可視化画像を検索する
情検索装置。
The emotion retrieval apparatus according to claim 29 or claim 30 , wherein
The emotion information is acquired every unit time within the period for each period of arbitrary length, and is stored in the emotion information storage unit.
The emotion visualized image displays, for each period including the emotion information, color information corresponding to the emotion information in the period corresponding to the passage of time, thereby changing the emotion in the period. To visualize,
The search means has a state distribution that approximates the change of the emotion in the designated emotion visualized image when any of the emotion visualized images displayed on the display screen is designated by the designation means. Search for emotion visualization images
Sensitive information retrieval apparatus.
請求項29または請求項30に記載の感情検索装置において、
前記感情情報は、任意の長さの期間毎に、当該期間内において単位時間毎に順次に取得されて、前記感情情報格納部に格納されているものであり、
前記感情可視化画像は、前記感情情報が含まれる前記期間毎に、当該期間内における前記感情の状態分布を可視化するものであり、
前記検索手段は、前記指定手段で前記表示画面に表示されている任意の前記感情可視化画像が指定されたときに、前記指定された前記感情可視化画像における前記感情の状態分布に近似する状態分布をしている感情可視化画像を検索する
情検索装置。
The emotion retrieval apparatus according to claim 29 or claim 30 , wherein
The emotion information is acquired every unit time within the period for each period of arbitrary length, and is stored in the emotion information storage unit.
The emotion visualization image visualizes the state distribution of the emotion within the period for each period including the emotion information,
The search means, when any of the emotion visualized images displayed on the display screen is designated by the designation means, a state distribution that approximates the state distribution of the emotion in the designated emotion visualized image. To search for emotion visualization images
Sensitive information retrieval apparatus.
人から取得した生体情報が解析されて得られた前記人の感情を表わす感情情報が、当該感情情報を取得した時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記感情情報格納部に格納されている前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備える装置における感情検索方法であって、
前記表示画面に表示された感情可視化画像上の任意の画像位置あるいは任意の画像範囲のユーザによる指定を受け付ける指定受付工程と、
前記指定受付工程において指定された前記任意の画像位置あるいは前記任意の画像範囲の前記可視化情報に対応する時間位置を検索する検索工程と、
前記検索工程での検索結果の時間位置を前記ユーザに報知するようにする工程と、
を備えることを特徴とする感情検索方法。
Emotion information storing the emotion information representing the emotion of the person obtained by analyzing the biological information acquired from a person, corresponding to the time information acquired the emotion information;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information stored in the emotion information storage unit into the time-series visualization information using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
An emotion search method in an apparatus comprising:
A designation receiving step for accepting designation by a user of an arbitrary image position or an arbitrary image range on the emotion visualization image displayed on the display screen;
A search step of searching for a time position corresponding to the visualization information of the arbitrary image position or the arbitrary image range specified in the specification reception step;
Informing the user of the time position of the search result in the search step;
An emotion retrieval method characterized by comprising:
人から取得した生体情報が解析されて得られた前記人の感情を表わす感情情報が、当該感情情報を取得した時間情報に対応して格納されている感情情報格納部と、
前記感情情報と、当該感情情報により表わされる感情を可視化するための情報である可視化情報との間の対応関係を示す変換テーブル情報を保持する変換テーブル情報保持手段と、
前記感情情報格納部に格納されている前記感情情報により表わされる感情を、前記変換テーブル情報を用いて時系列の前記可視化情報に変換する変換処理手段と、
前記変換処理手段により生成された前記時系列の前記可視化情報により時系列に可視化され感情可視化画像を表示画面に表示する表示手段と、
を備える装置における感情検索方法であって、
前記表示画面に表示された前記感情可視化画像上の任意の画像位置あるいは任意の画像範囲のユーザによる指定を受け付ける指定受付工程と、
前記指定受付工程において指定された前記感情可視化画像上の前記任意の画像位置あるいは前記任意の画像範囲に対応する前記可視化情報を検出し、当該検出した前記可視化情報に対応する前記感情情報を前記変換テーブル情報を用いて検出する検出工程と、
前記検出工程で検出した感情情報に近似する感情情報を前記感情情報格納部に格納されている感情情報から検索する検索工程と、
前記検索工程での検索結果の感情情報あるいは感情情報範囲に対応する時間を前記ユーザに報知するようにする工程と、
を備えることを特徴とする感情検索方法。
Emotion information storing the emotion information representing the emotion of the person obtained by analyzing the biological information acquired from a person, corresponding to the time information acquired the emotion information;
Conversion table information holding means for holding conversion table information indicating a correspondence relationship between the emotion information and visualization information that is information for visualizing the emotion represented by the emotion information;
Conversion processing means for converting the emotion represented by the emotion information stored in the emotion information storage unit into the time-series visualization information using the conversion table information ;
Display means for displaying said conversion processing means display screen emotions visible image that will be visualized in time series by the Visualization of the generated the time series manner,
An emotion search method in an apparatus comprising:
A designation accepting step for accepting a designation by the user of any image position or any image range on the display screen displayed the emotion visualization,
The visualization information corresponding to the arbitrary image position or the arbitrary image range on the emotion visualization image designated in the designation receiving step is detected, and the emotion information corresponding to the detected visualization information is converted to the conversion information. A detection step of detecting using table information;
A search step for searching emotion information stored in the emotion information storage unit for emotion information approximate to the emotion information detected in the detection step;
A step of notifying the user of the time corresponding to the emotion information or emotion information range of the search result in the search step;
An emotion retrieval method characterized by comprising:
JP2003292857A 2003-08-13 2003-08-13 Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method Expired - Fee Related JP4264717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003292857A JP4264717B2 (en) 2003-08-13 2003-08-13 Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003292857A JP4264717B2 (en) 2003-08-13 2003-08-13 Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method

Publications (2)

Publication Number Publication Date
JP2005063163A JP2005063163A (en) 2005-03-10
JP4264717B2 true JP4264717B2 (en) 2009-05-20

Family

ID=34370040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003292857A Expired - Fee Related JP4264717B2 (en) 2003-08-13 2003-08-13 Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method

Country Status (1)

Country Link
JP (1) JP4264717B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4641389B2 (en) * 2004-06-03 2011-03-02 キヤノン株式会社 Information processing method and information processing apparatus
KR20100000336A (en) 2008-06-24 2010-01-06 삼성전자주식회사 Apparatus and method for processing multimedia contents
JP2014228923A (en) * 2013-05-20 2014-12-08 ヤマハ株式会社 Display device
KR101609939B1 (en) * 2014-07-25 2016-04-07 주식회사 제론헬스케어 Image system for newborn baby
JP6521778B2 (en) * 2015-07-15 2019-05-29 Kddi株式会社 Program, terminal and system for giving emotional identifier to application using myoelectric signal
CN107924545B (en) 2015-08-18 2021-10-08 索尼公司 Information processing system and information processing method
JP7152908B2 (en) * 2018-09-05 2022-10-13 日本放送協会 Gesture control device and gesture control program
JP7354813B2 (en) * 2019-12-05 2023-10-03 富士通株式会社 Detection method, notification method, detection program and notification program

Also Published As

Publication number Publication date
JP2005063163A (en) 2005-03-10

Similar Documents

Publication Publication Date Title
JP4608858B2 (en) Emotion visualization device, emotion visualization method, and emotion visualization output
JP3968522B2 (en) Recording apparatus and recording method
Lee et al. Lifelogging memory appliance for people with episodic memory impairment
CN109074117B (en) Providing emotion-based cognitive assistant systems, methods, and computer-readable media
US20120191542A1 (en) Method, Apparatuses and Service for Searching
JP2005128884A (en) Device and method for editing information content
JP2005032167A (en) Apparatus, method, and system for information retrieval, client device, and server device
JP4200370B2 (en) Recording apparatus, recording / reproducing apparatus, reproducing apparatus, recording method, recording / reproducing method, and reproducing method
US20200275875A1 (en) Method for deriving and storing emotional conditions of humans
JP4407198B2 (en) Recording / reproducing apparatus, reproducing apparatus, recording / reproducing method, and reproducing method
JP4264717B2 (en) Imaging information search and playback apparatus and method, content search and playback apparatus and method, and emotion search apparatus and method
Morgan et al. Using affective and behavioural sensors to explore aspects of collaborative music making
JP2005124909A (en) Method for presenting emotional information, emotional information display device, and method for retrieving information content
CN110222026A (en) A kind of constructive memory network and the method for being used for prediction mood
CN116807476B (en) Multi-mode psychological health assessment system and method based on interface type emotion interaction
WO2019210232A1 (en) Processing of audio information for recording, playback, visual presentation and analysis
CN113079411A (en) Multi-modal data synchronous visualization system
US20200402641A1 (en) Systems and methods for capturing and presenting life moment information for subjects with cognitive impairment
JP3822796B2 (en) Information processing apparatus, information processing program, and recording medium
JP2005117541A (en) Editing device and editing method
JP2005044120A (en) Information storage apparatus, information retrieval apparatus, information storage method, information retrieval method, information storage system, information retrieval system, client apparatus and server apparatus
US20030097268A1 (en) System and method for analyzing and evaluation of human behavior stigmata
Sharmin et al. Opportunities and challenges in designing participant-centric smoking cessation system
US11756442B1 (en) System and method for individualized data education system
JP7408103B2 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081022

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090121

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090203

R151 Written notification of patent or utility model registration

Ref document number: 4264717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees