JP6363561B2 - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP6363561B2
JP6363561B2 JP2015122615A JP2015122615A JP6363561B2 JP 6363561 B2 JP6363561 B2 JP 6363561B2 JP 2015122615 A JP2015122615 A JP 2015122615A JP 2015122615 A JP2015122615 A JP 2015122615A JP 6363561 B2 JP6363561 B2 JP 6363561B2
Authority
JP
Japan
Prior art keywords
event
information
user
weight
peripheral information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015122615A
Other languages
Japanese (ja)
Other versions
JP2017011386A (en
Inventor
和彦 高河原
和彦 高河原
雄一 樋口
雄一 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015122615A priority Critical patent/JP6363561B2/en
Publication of JP2017011386A publication Critical patent/JP2017011386A/en
Application granted granted Critical
Publication of JP6363561B2 publication Critical patent/JP6363561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、例えば結婚式などのライフイベントにおいて収録された画像や音声等の情報を、情報の主対象者であるユーザや周辺の人の精神状態を反映するように加工する情報加工システムに関するものである。   The present invention relates to an information processing system that processes information such as images and sounds recorded at a life event such as a wedding so as to reflect the mental state of a user who is the main subject of information and the surrounding people. It is.

従来、結婚式などのライフイベントにおいて、対象とするユーザの画像や動画を記録し、適宜編集してプレゼンテーションとしてイベント中に情報を提示したり、ライフイベントの終了後にアルバムやDVDにまとめて情報を提示したりするサービスがある(特許文献1参照)。   Conventionally, in life events such as weddings, the images and videos of the target users are recorded and edited as appropriate to present information during the event as a presentation, or information can be collected on an album or DVD after the end of the life event. There is a service to present (see Patent Document 1).

特開2001−150834号公報JP 2001-150834 A

しかしながら、特許文献1に開示された技術は、ライフイベント当日に撮影された写真や動画といった情報をそのまま提供するに留まるものであり、ライフイベントの主役やイベント参加者の精神状態を反映した情報提供を行うものではなく、ライフイベント当日の感動や思いを想起させるのに充分な情報提供ができているとは言えないという問題点があった。   However, the technology disclosed in Patent Document 1 merely provides information such as photos and videos taken on the day of a life event, and provides information reflecting the main role of the life event and the mental state of the event participants. There was a problem that it was not possible to provide sufficient information to recall the impressions and thoughts on the day of the life event.

本発明は上記課題に鑑みてなされたものであって、その目的は、例えばライフイベントにおける主役であるユーザとイベント参加者の精神状態を反映するように情報を加工することができる情報加工システムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing system capable of processing information so as to reflect the mental states of users and event participants who are main players in life events, for example. It is to provide.

本発明の情報加工システムは、主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備え、前記イベント判定手段は、前記ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに前記周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、前記情報加工手段は、前記ユーザの生体情報に基づいて抽出されたイベントと前記周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントの中の同一と見なせるイベントを統合する処理を行い、同一と見なせるイベントが存在しないイベントと統合したイベントのそれぞれについて、イベントの重みに応じて、イベントに対応する前記周辺情報を加工することを特徴とするものである。 An information processing system according to the present invention includes a biometric information of a user who is a main subject and peripheral information representing the situation of the user and its surroundings as input, and recording means for storing the information, and the biometric information of the user And event determination means for determining whether an event has occurred based on at least one of the peripheral information, and information processing means for processing the peripheral information based on the event information extracted by the event determination means The event determination means extracts an event based on the biological information of the user and determines an event weight, and further extracts an event based on the peripheral information or an operation related to acquisition of the peripheral information and determines an event weight. And the information processing means includes the event extracted based on the biological information of the user and the peripheral information or the peripheral information. Process that integrates the events that can be regarded as the same among the events extracted based on the operation related to acquisition, and respond to the event according to the event weight for each event that is integrated with the event that does not have the event that can be regarded as the same The peripheral information is processed .

また、本発明の情報加工システムは、主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備え、前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像を少なくとも含み、前記イベント判定手段は、単位時間あたりの前記静止画像の撮影枚数が所定の閾値を超えた時刻をイベントの発生時刻と判定すると共に、単位時間あたりの前記静止画像の撮影枚数が多いほど、当該イベントの重みが大きくなるように重み付けを行い、前記情報加工手段は、前記イベントの重みに応じて、このイベントに対応する前記周辺情報を加工することを特徴とするものである。 Further, the information processing system of the present invention includes a biometric information of a user who is a main subject and peripheral information representing the user and the surrounding situation, and a recording unit for storing these information, and the user's Event determining means for determining whether or not an event has occurred based on at least one of biological information and peripheral information; and information processing means for processing the peripheral information based on event information extracted by the event determining means; It comprises a peripheral information of the user includes at least the still image taken the user or around, the event determination means, the time at which the number of shots of the still picture per unit time exceeds a predetermined threshold event thereby determining the time of occurrence, as the number of shots of the still picture per unit time is large, heavy as the weight of the event is greater Give have rows, the information processing unit, in response to the weight of the event, and is characterized in that processing the peripheral information corresponding to the event.

また、本発明の情報加工システムは、主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備え、前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した動画像を少なくとも含み、前記イベント判定手段は、動画像撮影のズームイン操作が開始された時刻をイベントの発生時刻と判定すると共に、ズームイン操作開始からズームアウト操作開始までのズームイン継続時間が長いほど、当該イベントの重みが大きくなるように重み付けを行い、前記情報加工手段は、前記イベントの重みに応じて、このイベントに対応する前記周辺情報を加工することを特徴とするものである。 Further, the information processing system of the present invention includes a biometric information of a user who is a main subject and peripheral information representing the user and the surrounding situation, and a recording unit for storing these information, and the user's Event determining means for determining whether or not an event has occurred based on at least one of biological information and peripheral information; and information processing means for processing the peripheral information based on event information extracted by the event determining means; the provided peripheral information of the user includes at least a moving image that the user or around, the event determination unit is configured to determine when the zoom-in operation of the moving image photographing is started and the time the event occurred , the longer the zoom duration from the zoom-in operation start until the zoom-out operation start, the weight of the event increases There row weighting, the information processing unit, in response to the weight of the event, and is characterized in that processing the peripheral information corresponding to the event.

本発明によれば、主対象者となるユーザの生体情報と、ユーザとその周辺の状況を表す周辺情報とを保存し、ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定し、抽出したイベントの情報に基づいて周辺情報を加工することにより、ユーザとその周辺の人の精神状態を反映するように周辺情報を加工することができる。その結果、本発明では、従来技術と比較して、ライフイベント当日の感動や思いを想起させるのに充分な情報提供を実現することができる。   According to the present invention, the biometric information of the user who is the main target person and the peripheral information representing the user and the surrounding situation are stored, and an event has occurred based on at least one of the biometric information of the user and the peripheral information By determining whether or not and processing the peripheral information based on the extracted event information, the peripheral information can be processed to reflect the mental state of the user and the surrounding people. As a result, in the present invention, it is possible to realize provision of information sufficient to evoke the impressions and thoughts on the day of the life event as compared with the prior art.

また、本発明では、イベント判定手段が、ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、情報加工手段が、イベントの重みに応じて、このイベントに対応する周辺情報を加工することにより、例えば一連のライフイベントにおける複数の特徴的なイベントに対応する各周辺情報を、イベントの重要度に応じて加工することができる。本発明では、ユーザの生体情報に基づいて抽出したイベントの情報に基づいて周辺情報を加工すると共に、ユーザの周辺情報または周辺情報取得に関する操作に基づいて抽出したイベントの情報に基づいて周辺情報を加工することにより、ユーザの生体情報が特異的な変化を示したときと周辺情報または周辺情報取得に関する操作が特異的な変化を示したときで周辺情報を別々に加工することができ、ユーザの生体情報が特異的な変化を示したときと、周辺情報または周辺情報取得に関する操作が特異的な変化を示したときとが一致しているのか一致していないのか、という情報を提供することが可能になる。   In the present invention, the event determination means extracts an event based on the user's biological information and determines the event weight, and further extracts the event based on the peripheral information or an operation related to acquisition of the peripheral information, and the event weight. The information processing means processes the peripheral information corresponding to this event according to the weight of the event, for example, by converting each peripheral information corresponding to a plurality of characteristic events in a series of life events into the event Can be processed according to the degree of importance. In the present invention, the peripheral information is processed based on the event information extracted based on the user's biological information, and the peripheral information is determined based on the user's peripheral information or the event information extracted based on the operation related to the acquisition of the peripheral information. By processing the peripheral information can be processed separately when the user's biological information shows a specific change and when the peripheral information or the operation related to the acquisition of the peripheral information shows a specific change. Providing information on whether biometric information shows a specific change and whether peripheral information or an operation related to acquisition of peripheral information shows a specific change is the same or not It becomes possible.

また、本発明では、イベント判定手段が、ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、情報加工手段が、ユーザの生体情報に基づいて抽出されたイベントと周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントの中の同一と見なせるイベントを統合する処理を行い、同一と見なせるイベントが存在しないイベントと統合したイベントのそれぞれについて、イベントの重みに応じて、イベントに対応する周辺情報を加工することにより、ユーザの生体情報に基づいて抽出されたイベントと周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントとを関連付けることができ、ユーザ本人にとって特異的なイベントに関係する周辺情報とユーザ以外の周辺の人にとって特異的なイベントに関係する周辺情報とを相互に関連付けることができる。これにより、本発明では、ユーザとその周辺の人の精神状態を反映するように周辺情報を加工することができる。   In the present invention, the event determination means extracts an event based on the user's biological information and determines the event weight, and further extracts the event based on the peripheral information or an operation related to acquisition of the peripheral information, and the event weight. The information processing means integrates the event extracted based on the user's biological information and the event that can be regarded as the same among the events extracted based on the operation related to the peripheral information or the peripheral information acquisition, For each event integrated with an event for which there is no event that can be regarded as the same, by processing the peripheral information corresponding to the event according to the event weight, the event extracted from the user's biological information and the peripheral information or Correlate events extracted based on operations related to peripheral information acquisition Rukoto can, can be associated with each other and a peripheral information related to specific events for people in the vicinity of the other than the peripheral information and the user related to the specific events for the user himself. Thereby, in this invention, surrounding information can be processed so that the mental state of a user and its surrounding people may be reflected.

また、本発明では、イベントの重みが大きくなるほど、イベントに対応する周辺情報が強調されるように加工することにより、例えば一連のライフイベントにおける複数の特徴的なイベントに対応する各周辺情報を、イベントの重要度が明らかになるように加工することができる。   In the present invention, as the weight of the event increases, the peripheral information corresponding to the event is emphasized, for example, by processing each peripheral information corresponding to a plurality of characteristic events in a series of life events, It can be processed to reveal the importance of the event.

また、本発明では、ユーザの生体情報を、心拍数、体温、血圧、血糖値のうち少なくとも1つを含むものとし、イベント判定手段が、ユーザの生体情報の変化に基づいてイベントの発生時刻を決定することにより、例えば一連のライフイベントにおけるユーザの精神的な状態変化を推定することができる。また、本発明では、ユーザの生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザの生体情報の変化の大きいイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザの精神状態を反映するように加工することができる。   In the present invention, the user's biological information includes at least one of heart rate, body temperature, blood pressure, and blood glucose level, and the event determination unit determines the occurrence time of the event based on the change of the user's biological information. By doing so, for example, it is possible to estimate a user's mental state change in a series of life events. Further, in the present invention, by weighting so that the weight of the event increases as the change in the user's biometric information increases, for example, the event having a large change in the user's biometric information is weighted through a series of life event periods. The peripheral information corresponding to a characteristic event in a series of life events can be processed to reflect the mental state of the user.

また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した静止画像、ユーザまたはその周辺を撮影した動画像、ユーザまたはその周辺の音声のうち少なくとも1つを含むものとすることにより、例えば一連のライフイベントにおける周囲の評価の変化を推定することができる。   Further, in the present invention, the surrounding information of the user includes at least one of a still image obtained by photographing the user or the periphery thereof, a moving image obtained by photographing the user or the periphery thereof, and sound of the user or the surroundings thereof, for example, It is possible to estimate changes in the surrounding evaluation in a series of life events.

また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した静止画像を少なくとも含むものとし、イベント判定手段が、単位時間あたりの静止画像の撮影枚数が所定の閾値を超えた時刻をイベントの発生時刻と判定することにより、例えば一連のライフイベントにおける周囲の評価の変化を推定することができ、ユーザ以外の周辺の人が静止画像を残しておくに値すると感じた特徴的なイベントを抽出することができる。また、本発明では、単位時間あたりの静止画像の撮影枚数が多いほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザ以外の周辺の人が静止画像を残しておくに値すると感じたイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザ以外の周辺の人の精神状態を反映するように加工することができる。   Further, in the present invention, the surrounding information of the user includes at least a still image obtained by photographing the user or the periphery thereof, and the event determination unit performs an event when the number of still images taken per unit time exceeds a predetermined threshold. For example, it is possible to estimate a change in the evaluation of surroundings in a series of life events, and to determine a characteristic event that a person other than the user feels worth leaving a still image. Can be extracted. Further, in the present invention, by increasing the number of still images taken per unit time, the weight of the event is increased so that, for example, a person other than the user can view the still image throughout a series of life event periods. Events that you deserve to leave can be weighted, and peripheral information corresponding to characteristic events in a series of life events can be processed to reflect the mental state of people around you other than the user it can.

また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した動画像を少なくとも含むものとし、イベント判定手段が、動画像撮影のズームイン操作が開始された時刻をイベントの発生時刻と判定することにより、例えば一連のライフイベントにおける周囲の評価の変化を推定することができ、ユーザ以外の周辺の人が着目するに値すると感じた特徴的なイベントを抽出することができる。また、本発明では、ズームイン操作開始からズームアウト操作開始までのズームイン継続時間が長いほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザ以外の周辺の人が着目するに値すると感じた期間が長いイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザ以外の周辺の人の精神状態を反映するように加工することができる。   In the present invention, it is assumed that the peripheral information of the user includes at least a moving image obtained by shooting the user or the periphery thereof, and the event determination unit determines the time when the zoom-in operation of moving image shooting is started as the event occurrence time. Thus, for example, it is possible to estimate a change in the surrounding evaluation in a series of life events, and it is possible to extract a characteristic event that is felt worthy to be noticed by people other than the user. Also, in the present invention, the longer the zoom-in duration from the start of the zoom-in operation to the start of the zoom-out operation, the higher the weight of the event, so that the weight of the event is increased. It is possible to weight events that have long felt worthy of attention, and process peripheral information corresponding to characteristic events in a series of life events to reflect the mental state of people around the user can do.

また、本発明では、ユーザの周辺情報を、ユーザまたはその周辺を撮影した静止画像、ユーザまたはその周辺を撮影した動画像、ユーザまたはその周辺の音声のうち少なくとも1つと、さらにユーザ以外の人の生体情報を含むものとし、この生体情報を、心拍数、体温、血圧、血糖値のうち少なくとも1つを含むものとし、イベント判定手段が、ユーザ以外の人の生体情報の変化に基づいてイベントの発生時刻を決定することにより、例えば一連のライフイベントにおけるユーザ以外の周辺の人の精神的な状態変化を推定することができる。また、本発明では、この生体情報の変化が大きいほど、イベントの重みが大きくなるように重み付けを行うことにより、例えば一連のライフイベント期間を通してユーザ以外の周辺の人の生体情報の変化の大きいイベントを重み付けすることができ、一連のライフイベントにおける特徴的なイベントに対応する周辺情報を、ユーザ以外の周辺の人の精神状態を反映するように加工することができる。   In the present invention, the user's surrounding information includes at least one of a still image obtained by photographing the user or the periphery thereof, a moving image obtained by photographing the user or the periphery thereof, a sound of the user or the surroundings thereof, and a person other than the user. It is assumed that biometric information is included, and this biometric information includes at least one of heart rate, body temperature, blood pressure, and blood glucose level, and the event determination unit generates an event occurrence time based on a change in biometric information of a person other than the user For example, it is possible to estimate a mental state change of surrounding people other than the user in a series of life events. Further, in the present invention, an event having a large change in the biological information of a person other than the user, for example, through a series of life event periods is performed by weighting so that the weight of the event increases as the change in the biological information increases. The peripheral information corresponding to a characteristic event in a series of life events can be processed to reflect the mental state of people around the user other than the user.

本発明の実施の形態に係る生体情報の提示システムの一つの例を説明するためのシステム構成図である。It is a system configuration figure for explaining one example of a presentation system of living body information concerning an embodiment of the invention. 本発明の実施の形態に係る生体情報の提示システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the presentation system of the biometric information which concerns on embodiment of this invention. 本発明の実施の形態においてユーザの生体情報からイベントの発生時刻および重みを決定する方法を説明するフローチャートである。It is a flowchart explaining the method to determine the generation | occurrence | production time and weight of an event from a user's biometric information in embodiment of this invention. ライフイベントにおけるユーザの生体情報である心拍数の時系列変化の例を示す図である。It is a figure which shows the example of the time-sequential change of the heart rate which is a user's biometric information in a life event. 図4の心拍数の変動をプロットした図である。It is the figure which plotted the fluctuation | variation of the heart rate of FIG. 本発明の実施の形態においてユーザの周辺情報からイベントの発生時刻および重みを決定する方法を説明するフローチャートである。It is a flowchart explaining the method to determine the generation | occurrence | production time and weight of an event from a user's periphery information in embodiment of this invention. ライフイベント中に静止画像が撮影された枚数を1分間毎にヒストグラム化した例を示す図である。It is a figure which shows the example which made the histogram the number of images by which the still image was image | photographed during the life event for every minute. 本発明の実施の形態においてユーザの周辺情報からイベントの発生時刻および重みを決定する他の方法を説明するフローチャートである。It is a flowchart explaining the other method of determining the generation | occurrence | production time and weight of an event from a user's periphery information in embodiment of this invention. ライフイベント中の動画像の撮影中にズームイン操作が継続していた時間をヒストグラム化した例を示す図である。It is a figure which shows the example which made the histogram the time when zoom-in operation continued during imaging | photography of the moving image in a life event. 本発明の実施の形態におけるユーザの周辺情報の加工方法の1例を説明する図である。It is a figure explaining an example of the processing method of a user's periphery information in embodiment of this invention. 本発明の実施の形態における情報加工部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing part in embodiment of this invention. 本発明の実施の形態における情報加工部の処理の結果の1例を示す図である。It is a figure which shows an example of the result of the process of the information processing part in embodiment of this invention. 本発明の実施の形態における情報加工部の他の動作を説明するフローチャートである。It is a flowchart explaining other operation | movement of the information processing part in embodiment of this invention.

以下、好適な実施の形態について図を参照して本発明を説明するが、本発明はかかる実施形態に限定されない。   Hereinafter, the present invention will be described with reference to the drawings with regard to preferred embodiments, but the present invention is not limited to such embodiments.

図1は本発明の実施の形態に係る情報加工システム100の一つの例を説明するためのシステム構成図である。情報加工システム100の特徴は、ライフイベントにおける主対象者(以下、ユーザ)110の生体情報を取得する生体情報取得部120と、ユーザ110の周辺情報を取得する周辺情報取得部140と、生体情報取得部120および周辺情報取得部140で取得された情報を入力として、これらの情報を保存する記録部150と、ユーザ110の生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定部160と、イベント判定部160が抽出したイベントの情報に基づいて周辺情報を加工する情報加工部170と、情報加工部170が加工した周辺情報を出力する情報出力部180とを備えることである。   FIG. 1 is a system configuration diagram for explaining an example of an information processing system 100 according to an embodiment of the present invention. The information processing system 100 is characterized by a biological information acquisition unit 120 that acquires biological information of a main target person (hereinafter referred to as a user) 110 in a life event, a peripheral information acquisition unit 140 that acquires peripheral information of the user 110, and biological information. Whether or not an event has occurred based on at least one of the recording unit 150 that stores the information acquired by the acquisition unit 120 and the peripheral information acquisition unit 140 and storing the information and the biological information and peripheral information of the user 110 An event determination unit 160 that determines whether the information is processed, an information processing unit 170 that processes peripheral information based on the event information extracted by the event determination unit 160, and an information output unit 180 that outputs the peripheral information processed by the information processing unit 170 It is to provide.

図1の例のようにライフイベントが結婚式であるとすれば、主対象者であるユーザ110は例えば新郎または新婦であり、ユーザ110以外のイベント参加者130は結婚式の出席者である。   If the life event is a wedding as in the example of FIG. 1, the user 110 who is the main target is, for example, a groom or a bride, and the event participants 130 other than the user 110 are wedding attendees.

生体情報取得部120は、ユーザ110が身に付けてライフイベントに参加することが可能なセンサであれば良く、ウェアラブルな運動量計、GPS(Global Positioning System)発信機、高度計、心拍・心電計、体温計、血圧計、血糖値計等を好適に用いることができる。   The biometric information acquisition unit 120 may be any sensor that can be worn by the user 110 and participate in a life event, such as a wearable exercise meter, a GPS (Global Positioning System) transmitter, an altimeter, a heart rate / electrocardiograph. A thermometer, a sphygmomanometer, a blood glucose meter, etc. can be suitably used.

特に、心拍・心電計が取得するユーザ110の心拍数、体温計が取得するユーザ110の体温、血圧計が取得するユーザ110の血圧、血糖値計が取得するユーザ110の血糖値は、自律神経系や内分泌系の働きによって変動することが知られており、緊張/リラックスなどユーザ110の精神状態の推定に有効であり、本発明の目的に鑑みて好適に用いることができる。   In particular, the heart rate of the user 110 acquired by the heart rate / electrocardiograph, the body temperature of the user 110 acquired by the thermometer, the blood pressure of the user 110 acquired by the sphygmomanometer, and the blood glucose level of the user 110 acquired by the blood glucose meter are autonomic nerves. It is known that it fluctuates depending on the function of the system and endocrine system, is effective for estimating the mental state of the user 110 such as tension / relaxation, and can be suitably used in view of the object of the present invention.

周辺情報取得部140は、ユーザ110以外のイベント参加者130が身に付けるか、あるいはイベント参加者130が携行してライフイベントに参加することが可能な電子機器であればよい。この周辺情報取得部140としては、一般的なカメラ、ビデオカメラ、マイク、イベント参加者130が身に付けるウェアラブルセンサ等を用いることができる。   The peripheral information acquisition unit 140 may be an electronic device that can be worn by an event participant 130 other than the user 110 or can be carried by the event participant 130 and participate in a life event. As the peripheral information acquisition unit 140, a general camera, a video camera, a microphone, a wearable sensor worn by the event participant 130, or the like can be used.

ここで、ユーザ110の周辺情報とは、ユーザ110とその周辺の状況を表す情報であり、ユーザ110またはその周辺を撮影した静止画像、ユーザ110またはその周辺を撮影した動画像、ユーザ110またはその周辺の音声のうち少なくとも1つを含むものである。さらに、後述のように、これらの情報とは別にイベント参加者130が身に付けるウェアラブルセンサによって測定される、イベント参加者130の生体情報を含むものであってもよい。   Here, the surrounding information of the user 110 is information representing the situation of the user 110 and its surroundings, a still image obtained by photographing the user 110 or its surroundings, a moving image obtained by photographing the user 110 or its surroundings, the user 110 or its surroundings. It includes at least one of the surrounding sounds. Furthermore, as will be described later, it may include biological information of the event participant 130 that is measured by a wearable sensor worn by the event participant 130 separately from these pieces of information.

記録部150とイベント判定部160と情報加工部170と情報出力部180とは、CPU(Central Processing Unit)、記憶装置およびインタフェースを備えたコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。CPUは、記憶装置に格納されたプログラムに従って以下で説明する処理を実行し、記録部150、イベント判定部160、情報加工部170および情報出力部180として機能する。   The recording unit 150, the event determination unit 160, the information processing unit 170, and the information output unit 180 are realized by a computer having a CPU (Central Processing Unit), a storage device, and an interface, and a program that controls these hardware resources. be able to. The CPU executes processing described below according to a program stored in the storage device, and functions as a recording unit 150, an event determination unit 160, an information processing unit 170, and an information output unit 180.

図2は本実施の形態の情報加工システム100の動作を説明するフローチャートである。情報加工システム100は、ライフイベントにおいてユーザ110の生体情報を生体情報取得部120で取得し、かつユーザ110以外のイベント参加者130が周辺情報取得部140を用いてユーザ110の周辺情報を取得する情報取得ステップ(図2ステップS1)と、情報取得ステップで取得したユーザ110の生体情報と周辺情報とを記録部150に保存する情報記録ステップ(図2ステップS2)と、情報記録ステップで記録部150に記録された生体情報と周辺情報を基に特異なイベントの発生時刻およびイベントの重みをイベント判定部160で決定するイベント抽出ステップ(図2ステップS3)と、イベント抽出ステップで抽出したイベントの情報に基づいてユーザ110の周辺情報を加工する情報加工ステップ(図2ステップS4)と、情報加工ステップで加工した情報を出力する情報出力ステップ(図2ステップS5)とを実行する。以下、各ステップについて順次説明する。   FIG. 2 is a flowchart for explaining the operation of the information processing system 100 of the present embodiment. In the information processing system 100, the biological information of the user 110 is acquired by the biological information acquisition unit 120 in the life event, and the event participant 130 other than the user 110 acquires the peripheral information of the user 110 using the peripheral information acquisition unit 140. An information acquisition step (step S1 in FIG. 2), an information recording step (step S2 in FIG. 2) for storing the biometric information and peripheral information of the user 110 acquired in the information acquisition step in the recording unit 150, and a recording unit in the information recording step 150, an event extraction step (step S3 in FIG. 2) in which the event determination unit 160 determines the occurrence time and event weight of a specific event based on the biological information and peripheral information recorded in 150, and the event extracted in the event extraction step. An information processing step for processing the peripheral information of the user 110 based on the information (see FIG. And-up S4), the information output step (FIG. 2, step S5 for outputting processed information in the information processing step) and to run. Hereinafter, each step will be described sequentially.

情報取得ステップでは、ユーザ110が生体情報取得部120を身に付け、少なくとも1名以上のイベント参加者130が周辺情報取得部140を身に付けるか携行していればよく、特に生体情報や周辺情報を取得することを意識することなく、自然にライフイベントを経験すればよい。   In the information acquisition step, it is only necessary that the user 110 wears the biometric information acquisition unit 120 and at least one event participant 130 wears or carries the peripheral information acquisition unit 140. You can experience life events naturally without being conscious of acquiring information.

つまり、生体情報取得部120は、ライフイベント中のユーザ110の生体情報を自動的に常時取得し、周辺情報取得部140は、ライフイベント中のユーザ110の周辺情報を自動的に常時取得する(図2ステップS1)。なおこの際、生体情報取得部120の内部時計が計時する時刻と、周辺情報取得部140の内部時計が計時する時刻とを合わせておくことが望ましい。   That is, the biometric information acquisition unit 120 automatically always acquires the biometric information of the user 110 during the life event, and the peripheral information acquisition unit 140 always automatically acquires the peripheral information of the user 110 during the life event ( FIG. 2 step S1). At this time, it is desirable to match the time measured by the internal clock of the biological information acquisition unit 120 with the time measured by the internal clock of the peripheral information acquisition unit 140.

情報記録ステップでは、記録部150は、情報取得ステップで取得された情報を記録する(図2ステップS2)。生体情報取得部120は、取得した生体情報に測定時刻情報を付加して送信したり、測定時刻情報が付加された生体情報をメモリーカード等の記録メディアに記録したりする。周辺情報取得部140は、取得した周辺情報に測定時刻情報を付加して送信したり、測定時刻情報が付加された周辺情報を記録メディアに記録したりする。   In the information recording step, the recording unit 150 records the information acquired in the information acquisition step (step S2 in FIG. 2). The biometric information acquisition unit 120 transmits the acquired biometric information with measurement time information added thereto, or records the biometric information with the measurement time information added to a recording medium such as a memory card. The peripheral information acquisition unit 140 transmits the acquired peripheral information with measurement time information added thereto, or records the peripheral information with the measurement time information added to a recording medium.

ライフイベント中にユーザ110の周辺情報を加工して出力(例えばライフイベント中の映像再生など)する必要がある場合には、生体情報取得部120および周辺情報取得部140から生体情報や周辺情報を無線送信したり有線送信したりする必要がある。この場合、記録部150は、生体情報取得部120および周辺情報取得部140から無線送信された生体情報や周辺情報を受信する無線通信部(不図示)、あるいは生体情報取得部120および周辺情報取得部140から有線送信された情報を受信する有線通信部(不図示)を備えている。   When it is necessary to process and output the peripheral information of the user 110 during the life event (for example, video playback during the life event), the biological information and the peripheral information are obtained from the biological information acquisition unit 120 and the peripheral information acquisition unit 140. It is necessary to perform wireless transmission or wired transmission. In this case, the recording unit 150 may be a wireless communication unit (not shown) that receives biological information and peripheral information wirelessly transmitted from the biological information acquisition unit 120 and the peripheral information acquisition unit 140, or the biological information acquisition unit 120 and the peripheral information acquisition. A wired communication unit (not shown) that receives information wired from the unit 140 is provided.

また、ライフイベント終了後に周辺情報を加工して出力(例えばアルバムの印刷やDVDへの書き込み)する必要がある場合、記録部150は、生体情報取得部120の記録メディアに記録された情報と、周辺情報取得部140の記録メディアに記録された情報とを読み出して保存するものでもよい。この場合、記録部150は、生体情報取得部120および周辺情報取得部140の記録メディアから情報を読み出す情報読出部(不図示)を備えている。   Further, when it is necessary to process and output the peripheral information after the life event ends (for example, printing an album or writing to a DVD), the recording unit 150 includes information recorded on the recording medium of the biological information acquisition unit 120, Information recorded on the recording medium of the peripheral information acquisition unit 140 may be read and stored. In this case, the recording unit 150 includes an information reading unit (not shown) that reads information from the recording media of the biological information acquisition unit 120 and the peripheral information acquisition unit 140.

イベント抽出ステップでは、イベント判定部160は、記録部150に保存された生体情報と周辺情報から、特異なイベントの発生時刻およびイベントの重みを決定する(図2ステップS3)。ここで、特異なイベントの発生時刻および重みの決定方法について、ユーザ110の生体情報から決定する方法と、ユーザ110の周辺情報から決定する方法を順に説明する。   In the event extraction step, the event determination unit 160 determines a specific event occurrence time and an event weight from the biological information and peripheral information stored in the recording unit 150 (step S3 in FIG. 2). Here, a method for determining the occurrence time and weight of a specific event from the biometric information of the user 110 and a method of determining from the peripheral information of the user 110 will be described in order.

図3は、生体情報取得部120が取得し記録部150に記録された、ユーザ110の生体情報に基づいてイベントの発生時刻および重みを決定する方法を説明するフローチャートである。ここでは、ユーザ110の生体情報が心拍数である場合を例に挙げて説明する。   FIG. 3 is a flowchart for explaining a method of determining the event occurrence time and weight based on the biometric information of the user 110 acquired by the biometric information acquisition unit 120 and recorded in the recording unit 150. Here, a case where the biological information of the user 110 is a heart rate will be described as an example.

図4に、ライフイベント(ここでは結婚式)における新郎(ユーザ110)の心拍数を記録した時系列データの例を示す。ユーザ110の心拍数は、一連のライフイベントの中でユーザ110の精神状態を反映して増減する。特に、心拍数が増加し続けたり、減少し続けたりしている時点が、ユーザ110にとって特異なイベントが生じた時刻と考えられる。   FIG. 4 shows an example of time-series data in which the heart rate of the groom (user 110) in a life event (here, a wedding) is recorded. The heart rate of the user 110 increases or decreases in a series of life events to reflect the mental state of the user 110. In particular, the time when the heart rate continues to increase or decrease can be considered as the time when a unique event has occurred for the user 110.

そこで、イベント判定部160は、ユーザ110の心拍数の変動(微分)が極値(極大値または極小値)をとり(図3ステップS10)、かつ心拍数の変動の極値の絶対値が所定の閾値を超えたとき(図3ステップS11)、ユーザ110にとって特異なイベントが発生したと判定し、心拍数の変動の極値の絶対値が閾値を超えた時刻をイベントの発生時刻とする(図3ステップS12)。このイベントの発生時刻として採用すべき時刻は、生体情報取得部120がユーザ110の生体情報に付加した測定時刻情報から取得すればよい。   Therefore, the event determination unit 160 takes the extreme value (maximum value or minimum value) of the heart rate fluctuation (differentiation) of the user 110 (step S10 in FIG. 3), and the absolute value of the extreme value of the heart rate fluctuation is predetermined. Is exceeded (step S11 in FIG. 3), it is determined that an event peculiar to the user 110 has occurred, and the time when the absolute value of the extreme value of heart rate fluctuation exceeds the threshold is set as the event occurrence time ( FIG. 3 step S12). The time that should be adopted as the event occurrence time may be acquired from the measurement time information added to the biological information of the user 110 by the biological information acquisition unit 120.

図5に、図4に示した心拍数の一部分の変動(微分)をプロットしたものを示す。図5に示したグラフにおいて、心拍数の変動が極値をとり、かつ極値の絶対値が所定の閾値(本実施の形態では0.1)を超えた点を抽出すると、301〜305の5つの点が得られる。したがって、この5つの点301〜305の時刻をそれぞれイベントの発生時刻として決定することができる。図5の例では、点302の極大値が最も大きい。実際にこの点302の時刻に新郎が式場に入場するという、新郎にとって特異なイベントが発生していた。   FIG. 5 shows a plot of a variation (differentiation) of a part of the heart rate shown in FIG. In the graph shown in FIG. 5, if points where the fluctuation of the heart rate takes an extreme value and the absolute value of the extreme value exceeds a predetermined threshold (0.1 in the present embodiment) are extracted, 301 to 305 are obtained. Five points are obtained. Therefore, the times of these five points 301 to 305 can be determined as event occurrence times, respectively. In the example of FIG. 5, the maximum value of the point 302 is the largest. There was actually a unique event for the groom that the groom entered the ceremony at the time of this point 302.

イベント判定部160は、ステップS10〜S12の処理を所定の周期(例えばミリ秒単位)毎に繰り返し行い、外部から生体情報の測定終了の指示があったとき、あるいはユーザ110が生体情報の測定を止めて生体情報取得部120の電源を切ったときに(図3ステップS13においてYES)、ステップS10〜S12の処理でイベント発生と判定した極値の絶対値を、当該イベントの重みとして決定する(図3ステップS14)。イベント判定部160は、このような重みの決定をイベント毎に行う。   The event determination unit 160 repeats the processes of steps S10 to S12 every predetermined cycle (for example, in milliseconds), and when an instruction to end measurement of biometric information is given from the outside, or the user 110 measures biometric information. When the biometric information acquisition unit 120 is turned off and the power is turned off (YES in step S13 in FIG. 3), the absolute value of the extreme value determined as the event occurrence in the processing of steps S10 to S12 is determined as the weight of the event ( FIG. 3 step S14). The event determination unit 160 performs such weight determination for each event.

図5の例では、点301の極小値の絶対値A1、点302の極大値の絶対値A2、点303の極小値の絶対値A3、点304の極大値の絶対値A4、点305の極小値の絶対値A5が、それぞれ5つのイベントの重みとして決定される。つまり、イベント判定部160は、心拍数の変動の極値の絶対値が大きいほど、イベントの重みが大きくなるように決定する。   In the example of FIG. 5, the absolute value A1 of the local minimum value at point 301, the absolute value A2 of the local maximum value at point 302, the absolute value A3 of the local minimum value at point 303, the absolute value A4 of the local maximum value at point 304, and the local minimum value at point 305 The absolute value A5 is determined as the weight of each of the five events. That is, the event determination unit 160 determines that the event weight increases as the absolute value of the extreme value of the heart rate fluctuation increases.

なお、図3を用いた説明では、外部から生体情報の測定終了の指示があったり、ユーザ110が生体情報の測定を止めたりした後でイベントの重みを決定している。外部からの生体情報測定終了の指示の例としては、例えばライフイベントの終了に伴って情報加工システム100の操作者(例えばイベント運営会社の係員等)が入力する指示、あるいはライフイベント中の周辺情報加工・出力のために情報加工システム100の操作者が入力する指示などがある。   In the description with reference to FIG. 3, the weight of the event is determined after an instruction to end measurement of biometric information is given from the outside or after the user 110 stops measuring biometric information. As an example of an instruction to end biological information measurement from the outside, for example, an instruction input by an operator of the information processing system 100 (for example, a staff member of an event management company) at the end of a life event, or peripheral information in a life event There are instructions input by an operator of the information processing system 100 for processing / output.

ただし、イベントの重みの決定処理は、図3で説明した例に限るものではない。イベント判定部160は、心拍数の測定が継続している最中(ステップS10〜S12の処理が継続している最中)に心拍数の変動に極値が現れ、イベントが発生したと判定したときに、この心拍数の変動の極値の絶対値をイベントの重みとして即時決定することも可能である。   However, the event weight determination process is not limited to the example described in FIG. The event determination unit 160 determines that an event has occurred because an extreme value appears in the fluctuation of the heart rate while the measurement of the heart rate continues (while the processing of steps S10 to S12 is continued). Sometimes, it is possible to immediately determine the absolute value of the extreme value of the heart rate fluctuation as the event weight.

また、正規化の基準値(例えば極値の絶対値の予想し得る最大値)を予め設定しておけば、イベント判定部160は、心拍数の変動の極値の絶対値を正規化した値をイベントの重みとして決定することも可能である。   Further, if a normalization reference value (for example, the maximum value that can be expected of the absolute value of the extreme value) is set in advance, the event determination unit 160 normalizes the absolute value of the extreme value of the heart rate fluctuation. Can also be determined as the event weight.

以上のようにして、イベント判定部160は、ユーザ110の生体情報からイベントの発生時刻および重みを決定することができる。
なお、心拍数および心拍数の変動の測定に際しては、周波数の高いノイズや揺らぎの影響を除外するため、測定した心拍数および心拍数の変動に対してローパスフィルタ処理を適用してもよい。
As described above, the event determination unit 160 can determine the event occurrence time and weight from the biological information of the user 110.
In measuring the heart rate and heart rate fluctuation, low-pass filter processing may be applied to the measured heart rate and heart rate fluctuation in order to exclude the influence of high-frequency noise and fluctuation.

また、以上の説明では、ユーザ110の生体情報が心拍数の場合を例にして説明しているが、ユーザ110の生体情報が体温、血圧、血糖値等、心拍数以外の情報である場合も、心拍数の場合と同様の手法でイベントの発生時刻および重みを決定することが可能である。   In the above description, the case where the biological information of the user 110 is a heart rate is described as an example. However, the biological information of the user 110 may be information other than the heart rate, such as body temperature, blood pressure, and blood sugar level. It is possible to determine the event occurrence time and weight by the same method as in the case of the heart rate.

この場合、ユーザ110の生体情報として、心拍数、体温、血圧、血糖値のうち1つだけが含まれ、この1つについて上記の手法でイベントの発生時刻および重みを決定してもよいし、ユーザ110の生体情報として、心拍数、体温、血圧、血糖値のうち複数が含まれ、この複数の生体情報の各々について個別に上記の手法でイベントの発生時刻および重みを決定してもよい。   In this case, only one of the heart rate, body temperature, blood pressure, and blood glucose level is included as the biological information of the user 110, and the event occurrence time and weight may be determined by the above method for this one, The biometric information of the user 110 may include a plurality of heart rate, body temperature, blood pressure, and blood glucose level, and the event occurrence time and weight may be determined individually for each of the plurality of biometric information by the above-described method.

次に、図6は、周辺情報取得部140が取得し記録部150に記録された、ユーザ110の周辺情報からイベントの発生時刻および重みを決定する方法を説明するフローチャートである。ここでは、ユーザ110の周辺情報が静止画像である場合を例に挙げて説明する。   Next, FIG. 6 is a flowchart for explaining a method for determining the event occurrence time and weight from the peripheral information of the user 110 acquired by the peripheral information acquisition unit 140 and recorded in the recording unit 150. Here, a case where the peripheral information of the user 110 is a still image will be described as an example.

図7に、ライフイベント(ここでは結婚式)中に静止画像(写真)が撮影された枚数を1分間毎にヒストグラム化した時系列データの例を示す。周辺情報取得部140(カメラ)による単位時間あたりの撮影枚数が多い時刻は、撮影者(イベント参加者130)が多くの写真を残したほうが良いと判断したことを示しており、特異なイベントが発生した時刻と考えられる。   FIG. 7 shows an example of time-series data in which the number of still images (photographs) taken during a life event (here, a wedding) is histogrammed every minute. The time when the number of shots per unit time by the peripheral information acquisition unit 140 (camera) is large indicates that the photographer (event participant 130) has decided to leave many photographs, and there is a unique event. It is considered the time of occurrence.

そこで、イベント判定部160は、単位時間あたりの静止画像の撮影枚数が所定の閾値を超えたとき(図6ステップS20)、イベント参加者130にとって特異なイベントが発生したと判定し、単位時間あたりの静止画像の撮影枚数が閾値を超えた時刻をイベントの発生時刻とする(図6ステップS21)。このイベントの発生時刻として採用すべき時刻は、周辺情報取得部140がユーザ110の周辺情報に付加した測定時刻情報から取得すればよい。   Accordingly, when the number of still images taken per unit time exceeds a predetermined threshold (step S20 in FIG. 6), the event determination unit 160 determines that a unique event has occurred for the event participant 130, and per unit time. The time when the number of still images taken exceeds the threshold is set as the event occurrence time (step S21 in FIG. 6). The time that should be adopted as the event occurrence time may be acquired from the measurement time information added to the peripheral information of the user 110 by the peripheral information acquisition unit 140.

図7に示した例において、単位時間(ここでは1分間)あたりの静止画像の撮影枚数が所定の閾値(本実施の形態では4枚)を超えた点を抽出すると、401〜407の7つの点が得られる。したがって、この7つの点401〜407の時刻を7つのイベントの発生時刻として決定することができる。   In the example shown in FIG. 7, when points where the number of still images taken per unit time (here, one minute) exceeds a predetermined threshold (four in this embodiment) are extracted, seven points 401 to 407 are extracted. Points are earned. Therefore, the times of these seven points 401 to 407 can be determined as the occurrence times of the seven events.

図7の例では、点401の時刻に新婦入場というイベントが発生し、点402の時刻に新婦父から新郎への新婦の手渡しというイベントが発生し、点403,404の時刻に新郎と新婦の指輪交換というイベントが発生し、点405の時刻に新婦のベールオープンと、新郎と新婦のウェディングキスというイベントが発生し、点406の時刻に結婚証明書へのサインというイベントが発生し、点407の時刻に新郎新婦退場というイベントが発生していた。   In the example of FIG. 7, an event of bride entry occurs at the time of point 401, an event of handing over the bride from the bride to the groom occurs at time of point 402, and the bride and groom at the time of points 403 and 404. A ring exchange event occurs, the bride opens a veil at the time of point 405, a wedding kiss of the groom and the bride occurs, and an event of signing a marriage certificate occurs at the time of point 406. An event of leaving the bride and groom occurred at noon.

イベント判定部160は、ステップS20,S21の処理を単位時間毎に行い、例えば外部から静止画像の撮影終了の指示があったとき、あるいはイベント参加者130が撮影を止めて周辺情報取得部140(カメラ)の電源を切ったときに(図6ステップS22においてYES)、ステップS20,S21の処理でイベント発生と判定した静止画像の撮影枚数を、当該イベントの重みとして決定する(図6ステップS23)。イベント判定部160は、このような重みの決定をイベント毎に行う。   The event determination unit 160 performs the processing of steps S20 and S21 every unit time. For example, when there is an instruction to end the shooting of a still image from the outside, or the event participant 130 stops shooting and the surrounding information acquisition unit 140 ( When the power of the camera is turned off (YES in step S22 in FIG. 6), the number of still images to be photographed determined to have occurred in the processing in steps S20 and S21 is determined as the weight of the event (step S23 in FIG. 6). . The event determination unit 160 performs such weight determination for each event.

図7の例では、点401の撮影枚数6枚、点402の撮影枚数5枚、点403の撮影枚数7枚、点404の撮影枚数5枚、点405の撮影枚数9枚、点406の撮影枚数5枚、点407の撮影枚数6枚が、それぞれ7つのイベントの重みとして決定される。つまり、イベント判定部160は、単位時間あたりの静止画像の撮影枚数が多いほど、イベントの重みが大きくなるように決定する。   In the example of FIG. 7, the number of shots at point 401 is 6, the number of shots at point 402 is 5, the number of shots at point 403 is 7, the number of shots at point 404 is 5, the number of shots at point 405 is 9, and the point 406 is shot. Five shots and six shots of point 407 are determined as the weights of seven events, respectively. That is, the event determination unit 160 determines that the event weight increases as the number of still images taken per unit time increases.

なお、図6を用いた説明では、外部から静止画像の撮影終了の指示があったり、イベント参加者130が撮影を止めたりした後でイベントの重みを決定している。外部からの撮影終了の指示としては、例えばライフイベントの終了に伴って情報加工システム100の操作者(例えばイベント運営会社の係員等)が入力する指示、あるいはライフイベント中の周辺情報加工・出力のために情報加工システム100の操作者が入力する指示などがある。   In the description using FIG. 6, the weight of the event is determined after an instruction to end the shooting of the still image is given from the outside or the event participant 130 stops the shooting. As an instruction to end shooting from the outside, for example, an instruction input by an operator of the information processing system 100 (for example, a staff member of an event operating company) at the end of a life event, or processing / output of peripheral information during a life event Therefore, there are instructions input by the operator of the information processing system 100.

ただし、ユーザ110の生体情報の場合と同様に、イベントの重みの決定処理は図6の例に限るものではない。イベント判定部160は、静止画像の撮影が継続している最中(ステップS20,S21の処理が継続している最中)に単位時間あたりの静止画像の撮影枚数が閾値を超えて、イベントが発生したと判定したときに、この撮影枚数をイベントの重みとして即時決定することも可能である。   However, as in the case of the biometric information of the user 110, the event weight determination process is not limited to the example of FIG. The event determination unit 160 determines that an event is detected when the number of still images taken per unit time exceeds the threshold while still images are being taken (while the processing in steps S20 and S21 is continued). When it is determined that it has occurred, the number of shots can be immediately determined as the event weight.

また、正規化の基準値(例えば撮影枚数の予想し得る最大値)を予め設定しておけば、イベント判定部160は、単位時間あたりの静止画像の撮影枚数を正規化した値をイベントの重みとして決定することも可能である。   In addition, if a normalization reference value (for example, the maximum value that can be predicted for the number of shots) is set in advance, the event determination unit 160 uses a value obtained by normalizing the number of shots of still images per unit time as the event weight. It is also possible to determine as

図6を用いた説明では、ユーザ110の周辺情報が静止画像の場合を例にして説明しているが、ユーザ110の周辺情報が動画像の場合も、静止画像の場合と同様の手法でイベントの発生時刻および重みを決定することが可能である。ただし、動画像の場合には、画像そのものではなく、画像撮影に関する操作に基づいてイベントを抽出する。   In the description using FIG. 6, the case where the peripheral information of the user 110 is a still image is described as an example. However, even when the peripheral information of the user 110 is a moving image, an event is performed in the same manner as in the case of a still image. Occurrence time and weight can be determined. However, in the case of a moving image, an event is extracted based on an operation related to image shooting, not the image itself.

図8は、周辺情報取得部140が取得し記録部150に記録された動画像からイベントの発生時刻および重みを決定する方法を説明するフローチャート、図9は、ライフイベント(ここでは結婚式)中の動画像の撮影中に被写体を大きく写すズームイン操作が継続していた時間をヒストグラム化した例を示す図である。周辺情報取得部140(ビデオカメラ)のズームイン操作がされていた時刻は、撮影者(イベント参加者130)が着目した方が良いと判断したことを示しており、イベント参加者130にとって特異なイベントが発生した時刻と考えられる。   FIG. 8 is a flowchart for explaining a method of determining an event occurrence time and weight from a moving image acquired by the peripheral information acquisition unit 140 and recorded in the recording unit 150, and FIG. 9 is a life event (wedding here) It is a figure which shows the example which made the histogram the time when zoom-in operation which took a to-be-photographed object large during imaging | photography of this moving image was continued. The time when the zoom-in operation of the peripheral information acquisition unit 140 (video camera) is performed indicates that the photographer (event participant 130) has determined that it is better to pay attention, and an event unique to the event participant 130 It is considered the time when this occurred.

そこで、イベント判定部160は、周辺情報取得部140に対するズームイン操作が開始されたとき(図8ステップS30)、イベント参加者130にとって特異なイベントが発生したと判定し、このズームイン操作が開始された時刻をイベントの発生時刻とする(図8ステップS31)。上記と同様に、イベントの発生時刻として採用すべき時刻は、周辺情報取得部140がユーザ110の周辺情報に付加した測定時刻情報から取得すればよい。   Therefore, when the zoom-in operation for the peripheral information acquisition unit 140 is started (step S30 in FIG. 8), the event determination unit 160 determines that a unique event has occurred for the event participant 130, and the zoom-in operation is started. The time is set as the event occurrence time (step S31 in FIG. 8). Similarly to the above, the time to be adopted as the event occurrence time may be acquired from the measurement time information added to the peripheral information of the user 110 by the peripheral information acquisition unit 140.

ただし、動画像撮影のズーム操作に基づいてイベントの発生時刻および重みを決定する方法においては、周辺情報取得部140(ビデオカメラ)から、イベント判定部160を構成するコンピュータに対して周辺情報取得部140の操作情報を無線または有線で送信することが必要である。このような操作情報の送信により、イベント判定部160は、周辺情報取得部140に対するズームイン操作またはズームアウト操作を検出することができる。   However, in the method for determining the event occurrence time and weight based on the zoom operation for moving image shooting, the peripheral information acquisition unit 140 (video camera) transmits the peripheral information acquisition unit to the computer constituting the event determination unit 160. It is necessary to transmit 140 pieces of operation information wirelessly or by wire. By transmitting such operation information, the event determination unit 160 can detect a zoom-in operation or a zoom-out operation on the peripheral information acquisition unit 140.

図9において、周辺情報取得部140に対するズームイン操作が開始された点を抽出すると、501〜503の3つの点が得られる。したがって、この3つの点501〜503の時刻をそれぞれ3つのイベントの発生時刻として決定することができる。図9の例では、点501の時刻に新婦入場というイベントが発生し、点502の時刻に指輪交換というイベントが発生し、点503の時刻に結婚証明書へのサインというイベントが発生していた。   In FIG. 9, when the point where the zoom-in operation for the peripheral information acquisition unit 140 is started is extracted, three points 501 to 503 are obtained. Therefore, the times of these three points 501 to 503 can be determined as the occurrence times of three events, respectively. In the example of FIG. 9, an event of entering the bride occurred at the time of point 501, an event of ring exchange occurred at the time of point 502, and an event of signing the marriage certificate occurred at the time of point 503. .

イベント判定部160は、ステップS30,S31の処理を単位時間毎に行い、外部から動画像の撮影終了の指示があったとき、あるいはイベント参加者130が撮影を止めて周辺情報取得部140(ビデオカメラ)の電源を切ったときに(図8ステップS32においてYES)、ステップS30,S31の処理でイベント発生と判定したズームイン操作開始からズームアウト操作開始までのズームイン継続時間を、当該イベントの重みとして決定する(図8ステップS33)。イベント判定部160は、このような重みの決定をイベント毎に行う。   The event determination unit 160 performs the processing of steps S30 and S31 every unit time, and when an instruction to end the shooting of the moving image is given from the outside, or the event participant 130 stops shooting and the surrounding information acquisition unit 140 (video) When the camera is turned off (YES in step S32 in FIG. 8), the zoom-in duration from the zoom-in operation start to the zoom-out operation start determined as an event occurrence in steps S30 and S31 is used as the weight of the event. Determine (step S33 in FIG. 8). The event determination unit 160 performs such weight determination for each event.

図9の例では、点501のズームイン操作開始からズームアウト操作開始までのズームイン継続時間2分、点502のズームイン操作開始からズームアウト操作開始までのズームイン継続時間2分、点503のズームイン操作開始からズームアウト操作開始までのズームイン継続時間3分が、それぞれ3つのイベントの重みとして決定される。つまり、イベント判定部160は、ズームイン継続時間が長いほど、イベントの重みが大きくなるように決定する。   In the example of FIG. 9, the zoom-in duration from the start of the zoom-in operation at the point 501 to the start of the zoom-out operation is 2 minutes, the zoom-in duration from the start of the zoom-in operation at the point 502 to the start of the zoom-out operation is 2 minutes, and the zoom-in operation at the point 503 is started. The zoom-in duration of 3 minutes from the start of the zoom-out operation to 3 minutes is determined as the weight of each of the three events. That is, the event determination unit 160 determines that the weight of the event increases as the zoom-in duration continues.

なお、ユーザ110の生体情報や静止画像の場合と同様に、イベントの重みの決定処理は、図8の例に限るものではない。イベント判定部160は、動画像の撮影が継続している最中(ステップS30,S31の処理が継続している最中)にズームイン操作が開始されて、イベントが発生したと判定したときに、このズームイン操作開始からズームアウト操作開始までのズームイン継続時間をイベントの重みとして即時決定することも可能である。   Note that the event weight determination process is not limited to the example of FIG. 8, as in the case of the biometric information and still image of the user 110. When the event determination unit 160 determines that an event has occurred when a zoom-in operation is started while shooting of a moving image continues (while the processes of steps S30 and S31 are continued), It is also possible to immediately determine the zoom-in duration from the zoom-in operation start to the zoom-out operation start as an event weight.

また、正規化の基準値(例えばズームイン継続時間の予想し得る最大値)を予め設定しておけば、イベント判定部160は、ズームイン継続時間を正規化した値をイベントの重みとして決定することも可能である。   In addition, if a normalization reference value (for example, a maximum value that can be predicted for the zoom-in duration) is set in advance, the event determination unit 160 may determine a value obtained by normalizing the zoom-in duration as the event weight. Is possible.

以上の説明では、ユーザ110の周辺情報が静止画像または動画像の場合を例にして説明しているが、ユーザ110の周辺情報が音声の場合も、イベントの発生時刻および重みを決定することが可能である。   In the above description, the case where the peripheral information of the user 110 is a still image or a moving image is described as an example. However, even when the peripheral information of the user 110 is audio, the event occurrence time and weight can be determined. Is possible.

ユーザ110の周辺情報が音声の場合、イベント判定部160は、周辺情報取得部140(マイク)が収音した音声の強度が所定の閾値を超えたとき、イベント参加者130にとって特異なイベントが発生したと判定し、音声の強度が閾値を超えた時刻をイベントの発生時刻とすればよい。また、イベント判定部160は、イベント発生と判定した音声の強度を、当該イベントの重みとして決定すればよい。また、他の情報と同様に、正規化の基準値(例えば音声の強度の予想し得る最大値)を予め設定しておけば、イベント判定部160は、音声の強度を正規化した値をイベントの重みとして決定することも可能である。   When the surrounding information of the user 110 is voice, the event determination unit 160 generates a unique event for the event participant 130 when the intensity of the voice collected by the surrounding information acquisition unit 140 (microphone) exceeds a predetermined threshold. The time when the sound intensity exceeds the threshold may be set as the event occurrence time. Further, the event determination unit 160 may determine the intensity of the sound determined as the occurrence of the event as the weight of the event. In addition, as with other information, if a normalization reference value (for example, a maximum value that can be predicted for voice intensity) is set in advance, the event determination unit 160 uses the value obtained by normalizing the voice intensity as an event. It is also possible to determine it as the weight.

なお、ユーザ110の周辺情報として、静止画像、動画像、音声のうち1つだけが含まれ、この1つについて上記の手法でイベントの発生時刻および重みを決定してもよいし、ユーザ110の周辺情報として、静止画像、動画像、音声のうち複数が含まれ、この複数の周辺情報の各々について個別に上記の手法でイベントの発生時刻および重みを決定してもよい。   Note that the peripheral information of the user 110 includes only one of a still image, a moving image, and audio, and the event occurrence time and weight may be determined for the one by the above-described method. Peripheral information includes a plurality of still images, moving images, and audio, and the event occurrence time and weight may be determined individually for each of the plurality of peripheral information by the above-described method.

また、ユーザ110の周辺情報として、ユーザ110以外のイベント参加者130の生体情報(心拍数、体温、血圧、血糖値のうち少なくとも1つ)が含まれる場合は、図3〜図5で説明したのと同じ手法により、イベント参加者130にとって特異なイベントの発生時刻および重みを決定することができる。   Further, in the case where the peripheral information of the user 110 includes the biological information (at least one of heart rate, body temperature, blood pressure, blood glucose level) of the event participant 130 other than the user 110, it has been described with reference to FIGS. By using the same method, the event occurrence time and weight specific to the event participant 130 can be determined.

ただし、本実施の形態では、後述のようにイベント判定部160の処理結果を用いてユーザ110の周辺情報を加工するので、ユーザ110の周辺情報としてイベント参加者130の生体情報を取得する場合には、このイベント参加者130の生体情報とは別に加工対象の周辺情報として静止画像、動画像、音声のうち少なくとも1つを取得する必要がある。   However, in the present embodiment, the peripheral information of the user 110 is processed using the processing result of the event determination unit 160 as described later, and therefore, when the biological information of the event participant 130 is acquired as the peripheral information of the user 110. Needs to acquire at least one of a still image, a moving image, and sound as peripheral information to be processed separately from the biological information of the event participant 130.

この場合、ユーザ110の周辺情報に含まれる、イベント参加者130の生体情報についてのみ図3〜図5で説明したのと同じ手法によりイベントの発生時刻および重みを決定してもよいし、静止画像、動画像、音声のうち少なくとも1つとイベント参加者130の生体情報の各々について個別に上記の手法でイベントの発生時刻および重みを決定してもよい。   In this case, only the biometric information of the event participant 130 included in the peripheral information of the user 110 may be used to determine the event occurrence time and weight by the same method as described in FIGS. The event occurrence time and weight may be determined individually for each of at least one of the moving image and the sound and the biological information of the event participant 130 by the above-described method.

次に、情報加工ステップでは、情報加工部170は、イベント判定部160が抽出したイベントの情報に基づいてユーザ110の周辺情報を加工する(図2ステップS4)。より具体的には、情報加工部170は、イベントの重みが大きくなるほど、このイベントに対応する周辺情報が強調されるように加工する。   Next, in the information processing step, the information processing unit 170 processes the peripheral information of the user 110 based on the event information extracted by the event determination unit 160 (step S4 in FIG. 2). More specifically, the information processing unit 170 processes the peripheral information corresponding to the event to be emphasized as the event weight increases.

図10はユーザ110の周辺情報の加工方法の1例を説明する図である。この図10の例によると、結婚式における新郎の心拍数の変動の極値の絶対値が閾値0.15を超えたことにより抽出されたイベント601〜606と、結婚式中の1分間あたりの静止画像の撮影枚数が閾値4を超えたことにより抽出されたイベント607〜612とが発生していることが分かる。   FIG. 10 is a diagram for explaining an example of a processing method of peripheral information of the user 110. According to the example of FIG. 10, the events 601 to 606 extracted when the absolute value of the extreme value of the fluctuation of the groom's heart rate at the wedding exceeds the threshold value 0.15, It can be seen that the events 607 to 612 extracted when the number of still images taken exceeds the threshold value 4 have occurred.

本実施の形態では、ユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントの中の同一と見なせるイベントを統合して、各イベントの最終的な重みを算出する。図11は本実施の形態の情報加工部170の動作を説明するフローチャートである。   In the present embodiment, an event extracted based on the biological information of the user 110 and an event that can be regarded as the same among the events extracted based on the peripheral information of the user 110 are integrated, and a final weight of each event is calculated. To do. FIG. 11 is a flowchart for explaining the operation of the information processing unit 170 of the present embodiment.

最初に、情報加工部170は、イベント判定部160がユーザ110の生体情報に基づいて抽出した各イベントの重みを正規化すると共に、イベント判定部160がユーザ110の周辺情報に基づいて抽出した各イベントの重みを正規化する(図11ステップS40)。   First, the information processing unit 170 normalizes the weight of each event extracted by the event determination unit 160 based on the biometric information of the user 110, and each of the event determination unit 160 extracted based on the peripheral information of the user 110. The event weight is normalized (step S40 in FIG. 11).

ユーザ110の生体情報が心拍数である場合、この心拍数の変動に基づいて抽出されたイベントの重みの正規化は、心拍数の測定開始から測定終了までに得られた心拍数の変動の極値の絶対値のうちの最大値が1となるように行われる。ユーザ110の生体情報が体温、血圧、血糖値等、心拍数以外の情報である場合も、心拍数の場合と同様の手法でイベントの重みを正規化することができる。   When the biological information of the user 110 is a heart rate, the normalization of the event weights extracted based on the heart rate fluctuation is the extreme of the heart rate fluctuation obtained from the start of the heart rate measurement to the end of the measurement. It is performed so that the maximum value of the absolute values is 1. Even when the biological information of the user 110 is information other than the heart rate, such as body temperature, blood pressure, and blood glucose level, the event weights can be normalized by the same method as in the case of the heart rate.

同様に、ユーザ110の周辺情報としてイベント参加者130の生体情報(心拍数、体温、血圧、血糖値のうちの少なくとも1つ)が含まれ、この生体情報の変動に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、生体情報の測定開始から測定終了までに得られた生体情報の変動の極値の絶対値のうちの最大値が1となるように行われる。   Similarly, the surrounding information of the user 110 includes biological information (at least one of heart rate, body temperature, blood pressure, blood glucose level) of the event participant 130, and an event extracted based on the fluctuation of the biological information is included. In some cases, the normalization of the event weight is performed so that the maximum value of the absolute values of the extreme values of the fluctuation of the biological information obtained from the start to the end of the measurement of the biological information is 1.

また、ユーザ110の周辺情報として静止画像が含まれ、単位時間あたりの静止画像の撮影枚数に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、静止画像の撮影開始から撮影終了までにカウントされた単位時間あたりの静止画像の撮影枚数のうちの最大値が1となるように行われる。   In addition, when a still image is included as the peripheral information of the user 110 and there is an event extracted based on the number of still images taken per unit time, normalization of the weight of the event is performed from the start of still image shooting. The maximum value of the number of still images taken per unit time counted until the end is set to 1.

また、ユーザ110の周辺情報として動画像が含まれ、ズームイン操作の開始点に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、動画像の撮影開始から撮影終了までに計測されたズームイン継続時間のうちの最大値が1となるように行われる。   In addition, when a moving image is included as the peripheral information of the user 110 and an event is extracted based on the start point of the zoom-in operation, the normalization of the weight of the event is measured from the start of moving image shooting to the end of shooting. It is performed so that the maximum value of the zoomed-in durations thus obtained becomes 1.

ユーザ110の周辺情報として音声が含まれ、音声の強度に基づいて抽出されたイベントがある場合、このイベントの重みの正規化は、音声の収録開始から収録終了までに計測された音声の強度のうちの最大値が1となるように行われる。   When there is a sound included as the peripheral information of the user 110 and there is an event extracted based on the sound intensity, the normalization of the weight of the event is performed based on the sound intensity measured from the sound recording start to the recording end. The maximum value is set to 1.

なお、情報加工部170によるイベントの重みの正規化は本発明の必須の処理ではない。上記で説明したように、イベント判定部160でイベントの重みの正規化が行われている場合には、情報加工部170のステップS40の処理でイベントの重みを正規化しなくてもよい。   Note that normalization of event weights by the information processing unit 170 is not an essential process of the present invention. As described above, when the event determination unit 160 normalizes the event weight, the event weight may not be normalized in the process of step S40 of the information processing unit 170.

次に、情報加工部170は、イベント判定部160がユーザ110の生体情報に基づいて抽出した各イベントとイベント判定部160がユーザ110の周辺情報に基づいて抽出した各イベントの中に同一と見なせるイベントが存在するかどうかを判定する(図11ステップS41)。   Next, the information processing unit 170 can regard each event extracted by the event determination unit 160 based on the biometric information of the user 110 and each event extracted by the event determination unit 160 based on the peripheral information of the user 110 as the same. It is determined whether an event exists (step S41 in FIG. 11).

情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントの発生時刻とユーザ110の周辺情報に基づいて抽出されたイベントの発生時刻とが同じ場合、これら発生時刻が同じ2つのイベントを同一のイベントと見して統合の対象とする。また、情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントの発生時刻を中心とする所定の時間範囲内に、ユーザ110の周辺情報に基づいて抽出されたイベントの発生時刻が含まれる場合、これら発生時刻が近接した2つのイベントを同一のイベントと見なす。   When the occurrence time of the event extracted based on the biometric information of the user 110 is the same as the occurrence time of the event extracted based on the peripheral information of the user 110, the information processing unit 170 Are considered as the same event and are subject to integration. In addition, the information processing unit 170 determines that the event occurrence time extracted based on the peripheral information of the user 110 is within a predetermined time range centered on the event occurrence time extracted based on the biometric information of the user 110. If included, these two events whose occurrence times are close to each other are regarded as the same event.

情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントとユーザ110の周辺情報に基づいて抽出されたイベントの中に同一と見なせるイベントが存在する場合(ステップS41においてYES)、同一と見なせる複数のイベントを1つのイベントとして扱うように統合する(図11ステップS42)。   If there is an event that can be regarded as the same among the event extracted based on the biological information of the user 110 and the event extracted based on the peripheral information of the user 110 (YES in step S41), the information processing unit 170 is the same. A plurality of events that can be considered as a single event are integrated (step S42 in FIG. 11).

このとき、情報加工部170は、統合するイベントに含まれる、ユーザ110の生体情報に基づいて抽出されたイベントの発生時刻、統合するイベントに含まれる、ユーザ110の周辺情報に基づいて抽出されたイベントの発生時刻、これら複数のイベントの発生時刻の中間値などを、統合処理後のイベントの発生時刻とする(図11ステップS43)。統合処理後のイベントの発生時刻の決定方法については、予め選択して情報加工部170に設定しておくことができる。   At this time, the information processing unit 170 is extracted based on the occurrence time of the event extracted based on the biometric information of the user 110 included in the event to be integrated, and the peripheral information of the user 110 included in the event to be integrated. The event occurrence time, the intermediate value of these event occurrence times, and the like are set as the event occurrence time after the integration process (step S43 in FIG. 11). The method for determining the event occurrence time after the integration process can be selected in advance and set in the information processing unit 170.

また、情報加工部170は、統合するイベントに含まれる、ユーザ110の生体情報に基づいて抽出されたイベントの重みと、統合するイベントに含まれる、ユーザ110の周辺情報に基づいて抽出されたイベントの重みとを加算し、加算した結果を統合処理後のイベントの重みとする(図11ステップS44)。   The information processing unit 170 also includes an event weight extracted based on the biometric information of the user 110 included in the event to be integrated and an event extracted based on the peripheral information of the user 110 included in the event to be integrated. And the added result is used as the event weight after the integration process (step S44 in FIG. 11).

情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントとユーザ110の周辺情報に基づいて抽出されたイベントの全てについてステップS41〜S44の処理を行う(図11ステップS45)。   The information processing unit 170 performs the processing of steps S41 to S44 for all of the events extracted based on the biological information of the user 110 and the events extracted based on the peripheral information of the user 110 (step S45 in FIG. 11).

図12は以上のステップS40〜S45の処理の結果の1例を示す図である。ここでは、図10で説明したイベント601〜612について情報加工部170で処理した結果を示している。図10で説明したとおり、イベント601〜606はユーザ110の生体情報(結婚式における新郎の心拍数)に基づいて抽出されたイベントであり、イベント607〜612はユーザ110の周辺情報(静止画像)に基づいて抽出されたイベントである。   FIG. 12 is a diagram showing an example of the results of the processes in steps S40 to S45 described above. Here, the result processed by the information processing unit 170 for the events 601 to 612 described in FIG. 10 is shown. As described in FIG. 10, the events 601 to 606 are events extracted based on the biological information of the user 110 (groom's heart rate at the wedding), and the events 607 to 612 are the peripheral information (still images) of the user 110. It is an event extracted based on.

なお、図10の例では、601の時刻に新郎入場というイベントが発生し、602,607の時刻に新婦入場というイベントが発生し、603,608の時刻に新婦父から新郎への新婦の手渡しというイベントが発生し、609の時刻に指輪交換というイベントが発生し、604,610の時刻にウェディングキスというイベントが発生し、605,611の時刻に結婚証明書へのサインというイベントが発生し、606,612の時刻に新郎新婦退場というイベントが発生していた。   In the example of FIG. 10, an event of entering the groom occurs at the time 601, an event of entering the bride at the times 602 and 607, and handing the bride from the bride to the groom at the times 603 and 608. An event occurs, a ring exchange event occurs at a time 609, a wedding kiss event occurs at a time 604, 610, an event of signing a marriage certificate occurs at a time 605, 611, and 606 , An event of leaving the bride and groom occurred at the time of 612.

図12の701の欄の「602+607」は結婚式における新郎の心拍数の変動に基づいて抽出されたイベント602と結婚式中の1分間あたりの静止画像の撮影枚数に基づいて抽出されたイベント607とが1つに統合されたことを示している。「603+608」は新郎の心拍数の変動に基づいて抽出されたイベント603と静止画像の撮影枚数に基づいて抽出されたイベント608とが1つに統合されたことを示している。また、「604+610」は新郎の心拍数の変動に基づいて抽出されたイベント604と静止画像の撮影枚数に基づいて抽出されたイベント610とが1つに統合されたことを示している。他のイベントについても同様である。   “602 + 607” in the column 701 in FIG. 12 indicates an event 602 extracted based on the change in the heart rate of the groom at the wedding and an event 607 extracted based on the number of still images taken per minute during the wedding. Are integrated into one. “603 + 608” indicates that the event 603 extracted based on the groom's heart rate fluctuation and the event 608 extracted based on the number of still images taken are integrated into one. Also, “604 + 610” indicates that the event 604 extracted based on the groom's heart rate fluctuation and the event 610 extracted based on the number of still images taken are integrated into one. The same applies to other events.

図12の702の欄は結婚式における新郎の心拍数の変動の極値の絶対値、すなわちイベント判定部160が決定したイベント601〜606の重みを表している。イベント609は結婚式中の1分間あたりの静止画像の撮影枚数に基づいて抽出されたイベントであり、新郎の心拍数の変動に基づいて抽出されたイベントではないので、702の欄に記述される重みが0となっている。   A column 702 in FIG. 12 represents the absolute value of the extreme value of the change in the heart rate of the groom at the wedding, that is, the weight of the events 601 to 606 determined by the event determination unit 160. The event 609 is an event extracted based on the number of still images taken per minute during the wedding, and is not an event extracted based on the variation of the heart rate of the groom, so is described in the column 702. The weight is 0.

図12の703の欄は情報加工部170が正規化したイベント601〜606の重みを表している。702の欄に示したイベント601〜606の重みにおいて、重みの正規化の基準値となる最大値はイベント601の重み0.5である。したがって、情報加工部170は、イベント601の重みが1となるように、イベント601〜606の重みを正規化する。   A column 703 in FIG. 12 represents the weights of the events 601 to 606 normalized by the information processing unit 170. In the weights of the events 601 to 606 shown in the column 702, the maximum value serving as a reference value for weight normalization is the weight 0.5 of the event 601. Therefore, the information processing unit 170 normalizes the weights of the events 601 to 606 so that the weight of the event 601 is 1.

図12の704の欄は結婚式中の1分間あたりの静止画像の撮影枚数、すなわちイベント判定部160が決定したイベント607〜612の重みを表している。イベント601は結婚式中の新郎の心拍数の変動に基づいて抽出されたイベントであり、静止画像の撮影枚数に基づいて抽出されたイベントではないので、704の欄に記述される重みが0となっている。   A column 704 in FIG. 12 represents the number of still images taken per minute during the wedding, that is, the weights of the events 607 to 612 determined by the event determination unit 160. The event 601 is an event extracted based on the change in the heart rate of the groom during the wedding and is not an event extracted based on the number of still images taken. Therefore, the weight described in the column 704 is 0. It has become.

図12の705の欄は情報加工部170が正規化したイベント607〜612の重みを表している。704の欄に示したイベント607〜612の重みにおいて、重みの正規化の基準値となる最大値はイベント610の重み9である。したがって、情報加工部170は、イベント610の重みが1となるように、イベント607〜612の重みを正規化する。   A column 705 in FIG. 12 represents the weights of the events 607 to 612 normalized by the information processing unit 170. In the weights of the events 607 to 612 shown in the column 704, the maximum value serving as a reference value for weight normalization is the weight 9 of the event 610. Therefore, the information processing unit 170 normalizes the weights of the events 607 to 612 so that the weight of the event 610 is 1.

図12の706の欄はステップS44の処理後のイベントの重みを表している。つまり、情報加工部170は、イベント602と607を統合したので、イベント602の正規化した重み0.34とイベント607の正規化した重み0.67とを加算した値1.01が統合処理後のイベントの重みとなる。また、情報加工部170は、イベント603と608を統合したので、イベント603の正規化した重み0.34とイベント608の正規化した重み0.56とを加算した値0.9が統合処理後のイベントの重みとなる。また、情報加工部170は、イベント604と610を統合したので、イベント604の正規化した重み0.34とイベント610の正規化した重み1とを加算した値1.34が統合処理後のイベントの重みとなる。605と611の統合、606と612の統合についても同様である。   The column 706 in FIG. 12 represents the event weight after the processing in step S44. That is, since the information processing unit 170 integrates the events 602 and 607, a value 1.01 obtained by adding the normalized weight 0.34 of the event 602 and the normalized weight 0.67 of the event 607 is the integrated value. The weight of the event. Also, since the information processing unit 170 integrates the events 603 and 608, a value 0.9 obtained by adding the normalized weight 0.34 of the event 603 and the normalized weight 0.56 of the event 608 is the post-integration processing. The weight of the event. Since the information processing unit 170 integrates the events 604 and 610, a value 1.34 obtained by adding the normalized weight 0.34 of the event 604 and the normalized weight 1 of the event 610 is the event after the integration processing. It becomes the weight of. The same applies to the integration of 605 and 611 and the integration of 606 and 612.

結婚式中の新郎の心拍数の変動に基づいて抽出されたイベント601については、静止画像の撮影枚数に基づいて抽出されたイベントの中に同一と見なせるイベントが存在しないので、統合が行われず、正規化された重み1がそのままイベント601の最終的な重みとなる。   For the event 601 extracted based on the change in the heart rate of the groom during the wedding, there is no event that can be regarded as the same among the events extracted based on the number of still images taken, so the integration is not performed. The normalized weight 1 becomes the final weight of the event 601 as it is.

同様に、静止画像の撮影枚数に基づいて抽出されたイベント609についても、新郎の心拍数の変動に基づいて抽出されたイベント中に同一と見なせるイベントが存在しないので、統合が行われず、正規化された重み0.78がそのままイベント609の最終的な重みとなる。   Similarly, with respect to the event 609 extracted based on the number of still images to be photographed, there is no event that can be regarded as the same among the events extracted based on the variation of the groom's heart rate, and therefore, integration is not performed and normalization is performed. The weight 0.78 thus used becomes the final weight of the event 609 as it is.

なお、本実施の形態では、統合するイベントに含まれる、ユーザ110の生体情報に基づいて抽出されたイベントの重みAと、統合するイベントに含まれる、ユーザ110の周辺情報に基づいて抽出されたイベントの重みBとを等しい重みとして、AとBを加算した結果(A+B)を統合処理後のイベントの重みとしているが、これに限るものではなく、統合処理後のイベントの重みに占める、重みAとBの割合を変えてもよい。1例としては、例えば統合処理後のイベントの重みを(2A+B)としてもよい。これにより、ユーザ110の精神状態の特異的な変化(ユーザ110の生体情報の特異的な変化)を重視したイベントの統合を実現することができる。   In the present embodiment, the event weight A extracted based on the biometric information of the user 110 included in the event to be integrated and the peripheral information of the user 110 included in the event to be integrated are extracted. The event weight B is the same weight, and the result of adding A and B (A + B) is the event weight after integration processing. However, the present invention is not limited to this, and the weight occupies the event weight after integration processing. The ratio of A and B may be changed. As an example, for example, the weight of the event after the integration process may be (2A + B). As a result, it is possible to realize event integration focusing on specific changes in the mental state of the user 110 (specific changes in the biological information of the user 110).

次に、情報加工部170は、ユーザ110の生体情報に基づいて抽出されたイベントとユーザ110の周辺情報に基づいて抽出されたイベントの全てについてステップS41〜S44の処理を終えた後に(図11ステップS45においてYES)、各イベントに対応するユーザ110の周辺情報を、当該イベントの重みに基づいて加工する(図11ステップS46)。   Next, the information processing unit 170 completes the processes of steps S41 to S44 for all the events extracted based on the biological information of the user 110 and the events extracted based on the peripheral information of the user 110 (FIG. 11). In step S45, YES), peripheral information of the user 110 corresponding to each event is processed based on the weight of the event (step S46 in FIG. 11).

情報加工部170は、加工対象の周辺情報が静止画像である場合、各静止画像の面積の比が、イベントの重みの比と等しくなるように各静止画像のサイズを加工する。イベントに対応する静止画像とは、撮影時刻がイベントの発生時刻と等しい静止画像のことをいう。静止画像の撮影時刻は、周辺情報取得部140が静止画像に付加した測定時刻情報から取得すればよい。   When the peripheral information to be processed is a still image, the information processing unit 170 processes the size of each still image so that the ratio of the areas of the still images is equal to the ratio of the event weights. A still image corresponding to an event refers to a still image whose shooting time is equal to the event occurrence time. The photographing time of the still image may be acquired from the measurement time information added to the still image by the peripheral information acquisition unit 140.

情報加工部170は、対応するイベントが存在しない静止画像については、正規化された重みの最大値(本実施の形態では1)よりも小さい所定値の重みを有するものとしてサイズを加工すればよい。こうして、対応するイベントの重みが大きくなるほど、静止画像のサイズが大きくなる。   The information processing unit 170 may process the size of a still image having no corresponding event as having a predetermined weight smaller than the maximum normalized weight (1 in the present embodiment). . Thus, as the weight of the corresponding event increases, the size of the still image increases.

同様に、情報加工部170は、加工対象の周辺情報が動画像である場合、動画像の各フレームの面積の比が、イベントの重みの比と等しくなるように動画像の各フレームのサイズを加工する。イベントに対応する動画像のフレームとは、撮影時刻がイベントの発生時刻と等しいフレームのことをいう。静止画像の場合と同様に、撮影時刻は、周辺情報取得部140が動画像の各フレームに付加した測定時刻情報から取得すればよい。   Similarly, when the peripheral information to be processed is a moving image, the information processing unit 170 adjusts the size of each frame of the moving image so that the ratio of the area of each frame of the moving image is equal to the ratio of the weight of the event. Process. A moving image frame corresponding to an event refers to a frame whose shooting time is equal to the event occurrence time. As in the case of a still image, the shooting time may be acquired from the measurement time information added to each frame of the moving image by the peripheral information acquisition unit 140.

情報加工部170は、対応するイベントがない画像フレームについては、正規化された重みの最大値よりも小さい所定値の重みを有するものとしてサイズを加工すればよい。こうして、対応するイベントの重みが大きくなるほど、動画像のフレームのサイズが大きくなる。   The information processing unit 170 may process the size of an image frame having no corresponding event as having a predetermined weight smaller than the normalized maximum weight. Thus, as the weight of the corresponding event increases, the size of the moving image frame increases.

なお、加工対象の周辺情報が静止画像または動画像の場合、加工後の画像のサイズが予め規定された最大サイズで収まるように自動的に調整される。具体的には、1枚の画像が最大サイズで収まるように調整してもよいし、最大サイズで収まるように画像の周辺領域をカットしてもよい。   When the peripheral information to be processed is a still image or a moving image, the size of the processed image is automatically adjusted so as to be within a predetermined maximum size. Specifically, the adjustment may be performed so that one image fits in the maximum size, or the peripheral area of the image may be cut so as to fit in the maximum size.

また、情報加工部170は、加工対象の周辺情報が音声である場合、音声の強度の比が、イベントの重みの比と等しくなるように音声の各区間の音量を調整する。イベントに対応する音声の区間とは、収録時刻がイベントの発生時刻と等しい区間のことをいう。静止画像の場合と同様に、収録時刻は、周辺情報取得部140が音声データに付加した測定時刻情報から取得すればよい。   In addition, when the peripheral information to be processed is sound, the information processing unit 170 adjusts the volume of each section of the sound so that the sound intensity ratio becomes equal to the event weight ratio. An audio section corresponding to an event is a section whose recording time is equal to the event occurrence time. As in the case of a still image, the recording time may be acquired from the measurement time information added to the audio data by the peripheral information acquisition unit 140.

情報加工部170は、対応するイベントがない音声の区間については、正規化された重みの最大値よりも小さい所定値の重みを有するものとして音量を調整すればよい。こうして、対応するイベントの重みが大きくなるほど、音声が大きくなる。加工対象の周辺情報が音声の場合、加工後の音量が予め規定された最大音量で収まるように音量が自動的にリミット処理される。
以上で、情報加工部170の処理が終了する。
The information processing unit 170 may adjust the sound volume for a voice section having no corresponding event as having a predetermined weight smaller than the maximum normalized weight. Thus, the greater the weight of the corresponding event, the louder the sound. When the peripheral information to be processed is audio, the volume is automatically limited so that the processed volume falls within a predetermined maximum volume.
Above, the process of the information processing part 170 is complete | finished.

なお、ユーザ110の周辺情報については、イベント抽出の基となる周辺情報と加工対象の周辺情報が同一でもよいし異なっていてもよい。例えばユーザ110以外のイベント参加者130の生体情報に基づいてイベントを抽出し、静止画像、動画像、音声のうち少なくとも1つを加工する場合には、イベント抽出の基となる周辺情報と加工対象の周辺情報が異なることになる。また、静止画像の撮影枚数に基づいてイベントを抽出して、静止画像を加工する場合には、イベント抽出の基となる周辺情報と加工対象の周辺情報とが同じになる。   As for the peripheral information of the user 110, the peripheral information on which the event is extracted and the peripheral information to be processed may be the same or different. For example, when an event is extracted based on the biological information of the event participant 130 other than the user 110 and at least one of a still image, a moving image, and a sound is processed, peripheral information and a processing target as a basis for the event extraction The surrounding information will be different. Further, when an event is extracted based on the number of still images to be photographed and the still image is processed, the peripheral information on which the event is extracted and the peripheral information to be processed are the same.

次に、情報出力部180は、情報加工部170が加工した周辺情報を出力する(図2ステップS5)。
情報加工部170が加工した周辺情報が静止画像である場合、周辺情報出力の形態としては、ディスプレイ表示、アルバム等の印刷、DVD等の記録メディアへの記録などがある。
Next, the information output unit 180 outputs the peripheral information processed by the information processing unit 170 (step S5 in FIG. 2).
When the peripheral information processed by the information processing unit 170 is a still image, the peripheral information output includes display display, printing of an album, recording on a recording medium such as a DVD, and the like.

情報加工部170が加工した周辺情報が動画像である場合、周辺情報出力の形態としては、ディスプレイ表示、DVD等の記録メディアへの記録などがある。
情報加工部170が加工した周辺情報が音声である場合、周辺情報出力の形態としては、スピーカ出力、DVD等の記録メディアへの記録などがある。
When the peripheral information processed by the information processing unit 170 is a moving image, examples of the peripheral information output include display on a display and recording on a recording medium such as a DVD.
When the peripheral information processed by the information processing unit 170 is audio, the peripheral information output includes a speaker output and recording on a recording medium such as a DVD.

以上のようにして、本実施の形態では、ユーザ110の生体情報に基づいてユーザ110にとって特異なイベントを抽出する共に、ユーザ110の周辺情報に基づいてイベント参加者130にとって特異なイベントを抽出し、ユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントとを統合した上で、イベントの重みに基づいてユーザ110の周辺情報を加工することにより、ユーザ110の精神状態が特異的な変化を示したときの周辺情報をイベントの重みに応じて強調すると共に、イベント参加者130の精神状態が特異的な変化を示したときの周辺情報をイベントの重みに応じて強調することができ、ユーザ110とイベント参加者130の精神状態を反映するように周辺情報を加工して出力することができる。その結果、本実施の形態では、特許文献1に開示された従来技術と比較して、ライフイベント当日の感動や思いを想起させるのに充分な情報提供を実現することができる。   As described above, in the present embodiment, an event unique to the user 110 is extracted based on the biological information of the user 110, and an event unique to the event participant 130 is extracted based on the peripheral information of the user 110. By integrating the event extracted based on the biological information of the user 110 and the event extracted based on the peripheral information of the user 110, the peripheral information of the user 110 is processed based on the weight of the event. The surrounding information when the mental state of the event shows a specific change is emphasized according to the weight of the event, and the peripheral information when the mental state of the event participant 130 shows the specific change is set as the event weight. The surrounding information can be added to reflect the mental state of the user 110 and the event participant 130. It can be to output. As a result, in the present embodiment, as compared with the conventional technique disclosed in Patent Document 1, it is possible to realize information provision sufficient to evoke the impressions and thoughts on the day of the life event.

本実施の形態では、ユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントの中の同一と見なせるイベントを統合しているため、ユーザ110の精神状態が特異的な変化を示したとき(ユーザ110の生体情報が特異的な変化を示したとき)と、イベント参加者130の精神状態が特異的な変化を示したとき(周辺情報が特異的な変化を示したとき)とが一致していれば、統合するイベントの重みが加算されて大きくなるので、重要なイベントとして周辺情報を強調することができる。   In this embodiment, the event extracted based on the biological information of the user 110 and the event that can be regarded as the same among the events extracted based on the peripheral information of the user 110 are integrated. When the user's 110 biological information shows a specific change, and when the event participant's 130 mental state shows a specific change (the surrounding information shows a specific change). If they match, the weight of the event to be integrated is added and increased, so that the peripheral information can be emphasized as an important event.

なお、情報加工部170は、加工対象の周辺情報が静止画像または動画像の場合、周辺情報がユーザ110の精神状態(ユーザ110の生体情報に基づいて抽出したイベント)を反映して加工されたものなのか、周辺情報がイベント参加者130の精神状態(ユーザ110の周辺情報に基づいて抽出したイベント)を反映して加工されたものなのか、周辺情報がユーザ110とイベント参加者130の両者の精神状態を反映して加工されたものなのかが分かるように、加工する静止画像または動画像に、加工の理由を説明する文字情報を加えてもよい。   Note that when the peripheral information to be processed is a still image or a moving image, the information processing unit 170 is processed to reflect the mental information of the user 110 (an event extracted based on the biological information of the user 110). Whether the surrounding information is processed by reflecting the mental state of the event participant 130 (the event extracted based on the surrounding information of the user 110), or the surrounding information is both the user 110 and the event participant 130 The character information explaining the reason for the processing may be added to the still image or the moving image to be processed so that it can be understood that the image has been processed reflecting the mental state.

これにより、情報加工部170から出力された周辺情報を見た人は、ユーザ110の精神状態が特異的な変化を示したとき(ユーザ110の生体情報が特異的な変化を示したとき)と、イベント参加者130の精神状態が特異的な変化を示したとき(周辺情報が特異的な変化を示したとき)とが一致しているのか一致していないのかを認識することができる。   Thereby, the person who has seen the peripheral information output from the information processing unit 170 has a specific change in the mental state of the user 110 (when the biological information of the user 110 has a specific change). It is possible to recognize whether or not the event participant 130 matches or does not match when the mental state of the event participant 130 shows a specific change (when the peripheral information shows a specific change).

例えば図10、図12の例では、イベント602は新郎の心拍数の変動に基づいて抽出されたイベントであり、イベント607は静止画像の撮影枚数に基づいて抽出されたイベントであり、これらイベント602と607とが統合されたとき、統合されたイベントに対応する静止画像または動画像には、ユーザ110とイベント参加者130の精神状態を反映して加工されたことを説明する文字情報が加えられる。   For example, in the example of FIGS. 10 and 12, the event 602 is an event extracted based on the variation of the groom's heart rate, and the event 607 is an event extracted based on the number of still images taken. And 607 are merged, the still image or the moving image corresponding to the merged event is added with character information explaining that it has been processed to reflect the mental state of the user 110 and the event participant 130. .

したがって、情報加工部170から出力された周辺情報を見た人は、新婦の入場に際して、ユーザ110の精神状態とイベント参加者130の精神状態が特異的な変化を示しており、ユーザ110とイベント参加者130の感じ方が一致していることを認識できる。   Therefore, a person who has seen the peripheral information output from the information processing unit 170 shows a specific change in the mental state of the user 110 and the mental state of the event participant 130 when the bride enters, It can be recognized that the feelings of the participants 130 match.

また図10、図12の例では、イベント609は静止画像の撮影枚数に基づいて抽出されたイベントであり、新郎の心拍数の変動に基づいて抽出されたイベントではないので、イベント609に対応する静止画像または動画像には、イベント参加者130の精神状態を反映して加工されたことを説明する文字情報が加えられる。   In the example of FIGS. 10 and 12, the event 609 is an event extracted based on the number of still images taken, and is not an event extracted based on the change in the groom's heart rate, and therefore corresponds to the event 609. Character information explaining that the still image or the moving image is processed to reflect the mental state of the event participant 130 is added.

したがって、情報加工部170から出力された周辺情報を見た人は、指輪の交換が行われたときに、ユーザ110の精神状態については大きく変化しておらず、イベント参加者130の精神状態が特異的な変化を示しており、ユーザ110とイベント参加者130の感じ方が違うことを認識できる。   Therefore, the person who has seen the peripheral information output from the information processing unit 170 does not change greatly in the mental state of the user 110 when the ring is exchanged, and the mental state of the event participant 130 is not changed. A specific change is shown, and it can be recognized that the feeling of the user 110 and the event participant 130 is different.

なお、イベントの統合は本発明の必須の処理ではない。つまり、情報加工部170は、図11のステップS41〜S45の処理を実施しなくてもよい。この場合の情報加工部170の動作のフローチャートを図13に示す。情報加工部170は、ステップS40の処理を行った後に、イベント判定部160がユーザ110の生体情報に基づいて抽出したイベントとユーザ110の周辺情報に基づいて抽出したイベントについて別々にステップS46の処理を行えばよい。また、イベントを統合しない場合においても、上記と同様に、加工する静止画像または動画像に、加工の理由を説明する文字情報を加えることが可能である。   Note that event integration is not an essential process of the present invention. That is, the information processing unit 170 does not have to perform the processes of steps S41 to S45 in FIG. A flowchart of the operation of the information processing unit 170 in this case is shown in FIG. After performing the process of step S40, the information processing unit 170 performs the process of step S46 separately for the event extracted by the event determination unit 160 based on the biological information of the user 110 and the event extracted based on the peripheral information of the user 110. Can be done. Even when events are not integrated, character information explaining the reason for processing can be added to a still image or moving image to be processed, as described above.

また、本実施の形態では、ユーザ110の生体情報と周辺情報のそれぞれについてイベントを抽出しているが、どちらか一方の情報のみについてイベントを抽出するようにしてもよい。   Moreover, in this Embodiment, although the event is extracted about each of the biometric information and peripheral information of the user 110, you may make it extract an event only about either one information.

本発明は、画像や音声等の情報の主対象者であるユーザや周辺の人の精神状態を反映するように情報を加工する技術に適用することができる。   The present invention can be applied to a technique for processing information so as to reflect the mental state of a user who is a main target of information such as images and sounds, and the surrounding people.

100…情報加工システム、110…ユーザ、120…生体情報取得部、130…イベント参加者、140…周辺情報取得部、150…記録部、160…イベント判定部、170…情報加工部、180…情報出力部。   DESCRIPTION OF SYMBOLS 100 ... Information processing system, 110 ... User, 120 ... Biometric information acquisition part, 130 ... Event participant, 140 ... Peripheral information acquisition part, 150 ... Recording part, 160 ... Event determination part, 170 ... Information processing part, 180 ... Information Output part.

Claims (3)

主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、
前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、
このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備え
前記イベント判定手段は、前記ユーザの生体情報に基づいてイベントを抽出すると共にイベントの重みを決定し、さらに前記周辺情報または周辺情報取得に関する操作に基づいてイベントを抽出すると共にイベントの重みを決定し、
前記情報加工手段は、前記ユーザの生体情報に基づいて抽出されたイベントと前記周辺情報または周辺情報取得に関する操作に基づいて抽出されたイベントの中の同一と見なせるイベントを統合する処理を行い、同一と見なせるイベントが存在しないイベントと統合したイベントのそれぞれについて、イベントの重みに応じて、イベントに対応する前記周辺情報を加工することを特徴とする情報加工システム。
Recording means for storing biometric information of a user who is a main target person and peripheral information representing the situation of the user and its surroundings, and storing these information,
Event determining means for determining whether an event has occurred based on at least one of the user's biological information and peripheral information;
Information processing means for processing the peripheral information based on the event information extracted by the event determination means ,
The event determination means extracts an event based on the user's biological information and determines an event weight, and further extracts an event based on the peripheral information or an operation related to acquisition of the peripheral information and determines an event weight. ,
The information processing means performs a process of integrating an event extracted based on the user's biological information and an event that can be regarded as the same among the events extracted based on the peripheral information or an operation related to peripheral information acquisition, and the same An information processing system for processing the peripheral information corresponding to an event according to the weight of the event for each event integrated with an event for which no event can be considered .
主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、
前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、
このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備え、
前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した静止画像を少なくとも含み、
前記イベント判定手段は、単位時間あたりの前記静止画像の撮影枚数が所定の閾値を超えた時刻をイベントの発生時刻と判定すると共に、単位時間あたりの前記静止画像の撮影枚数が多いほど、当該イベントの重みが大きくなるように重み付けを行い、
前記情報加工手段は、前記イベントの重みに応じて、このイベントに対応する前記周辺情報を加工することを特徴とする情報加工システム。
Recording means for storing biometric information of a user who is a main target person and peripheral information representing the situation of the user and its surroundings, and storing these information,
Event determining means for determining whether an event has occurred based on at least one of the user's biological information and peripheral information;
Information processing means for processing the peripheral information based on the event information extracted by the event determination means,
The peripheral information of the user includes at least a still image obtained by photographing the user or the periphery thereof,
The event determination means determines the time when the number of still images taken per unit time exceeds a predetermined threshold as the occurrence time of the event, and as the number of still images taken per unit time increases, the event Weight so that the weight of
The information processing system, wherein the information processing means processes the peripheral information corresponding to the event according to the weight of the event .
主対象者となるユーザの生体情報と、前記ユーザとその周辺の状況を表す周辺情報とを入力として、これらの情報を保存する記録手段と、
前記ユーザの生体情報と周辺情報のうち少なくとも一方に基づいてイベントが発生したか否かを判定するイベント判定手段と、
このイベント判定手段が抽出したイベントの情報に基づいて前記周辺情報を加工する情報加工手段とを備え、
前記ユーザの周辺情報は、前記ユーザまたはその周辺を撮影した動画像を少なくとも含み、
前記イベント判定手段は、動画像撮影のズームイン操作が開始された時刻をイベントの発生時刻と判定すると共に、ズームイン操作開始からズームアウト操作開始までのズームイン継続時間が長いほど、当該イベントの重みが大きくなるように重み付けを行い、
前記情報加工手段は、前記イベントの重みに応じて、このイベントに対応する前記周辺情報を加工することを特徴とする情報加工システム。
Recording means for storing biometric information of a user who is a main target person and peripheral information representing the situation of the user and its surroundings, and storing these information,
Event determining means for determining whether an event has occurred based on at least one of the user's biological information and peripheral information;
Information processing means for processing the peripheral information based on the event information extracted by the event determination means,
The peripheral information of the user includes at least a moving image that captures the user or the periphery thereof,
The event determining means determines the time when the zoom-in operation for moving image shooting is started as the event occurrence time, and the longer the zoom-in duration from the start of the zoom-in operation to the start of the zoom-out operation, the greater the weight of the event Weight so that
The information processing system, wherein the information processing means processes the peripheral information corresponding to the event according to the weight of the event .
JP2015122615A 2015-06-18 2015-06-18 Information processing system Active JP6363561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015122615A JP6363561B2 (en) 2015-06-18 2015-06-18 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015122615A JP6363561B2 (en) 2015-06-18 2015-06-18 Information processing system

Publications (2)

Publication Number Publication Date
JP2017011386A JP2017011386A (en) 2017-01-12
JP6363561B2 true JP6363561B2 (en) 2018-07-25

Family

ID=57764306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015122615A Active JP6363561B2 (en) 2015-06-18 2015-06-18 Information processing system

Country Status (1)

Country Link
JP (1) JP6363561B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4391091B2 (en) * 2003-01-17 2009-12-24 ソニー株式会社 Information transmission method, information transmission device, information recording method, information recording device, information reproducing method, information reproducing device, and recording medium
JP4407198B2 (en) * 2003-08-11 2010-02-03 ソニー株式会社 Recording / reproducing apparatus, reproducing apparatus, recording / reproducing method, and reproducing method
JP2005332376A (en) * 2004-04-22 2005-12-02 Fuji Xerox Co Ltd Information processing device and system, and information processing method and program
JP2006080644A (en) * 2004-09-07 2006-03-23 Toshiba Tec Corp Camera
JP4379409B2 (en) * 2005-11-08 2009-12-09 ソニー株式会社 Imaging apparatus, information processing method, and computer program
JP4816140B2 (en) * 2006-02-28 2011-11-16 ソニー株式会社 Image processing system and method, image processing apparatus and method, imaging apparatus and method, program recording medium, and program
JP2009296299A (en) * 2008-06-05 2009-12-17 Panasonic Corp Image recorder, image recording program and recording medium with image recording program stored
JP2010021721A (en) * 2008-07-09 2010-01-28 Olympus Corp Camera
JP5289151B2 (en) * 2009-04-09 2013-09-11 キヤノン株式会社 Data management apparatus, control method thereof, and program

Also Published As

Publication number Publication date
JP2017011386A (en) 2017-01-12

Similar Documents

Publication Publication Date Title
US9712736B2 (en) Electroencephalography (EEG) camera control
CN101617339B (en) Image processing device and image processing method
TWI620547B (en) Information processing device, information processing method and information processing system
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
US20100086204A1 (en) System and method for capturing an emotional characteristic of a user
US8157729B2 (en) System, method and medium editing moving pictures using biometric signals
JP2014036801A (en) Biological state observation system, biological state observation method and program
JP2009533761A (en) Image value index based on user input to the camera
JP6614547B2 (en) Viewing state detection device, viewing state detection system, and viewing state detection method
JP2013074461A (en) Image processor, image processing method and program
JP2009210992A (en) Photographing device
JP2020091702A (en) Imaging apparatus and imaging method
EP2402839A2 (en) System and method for indexing content viewed on an electronic device
KR101946466B1 (en) Shooting method for diagnosis of hair loss and electronic device
JP2015092646A (en) Information processing device, control method, and program
US10481864B2 (en) Method and system for emotion-triggered capturing of audio and/or image data
JPWO2019193781A1 (en) Emotion estimation device, emotion estimation method and program
JP2013055455A (en) Electronic camera, image processing device, and image processing program
WO2017158999A1 (en) Degree-of-interest estimation device, degree-of-interest estimation method, program, and storage medium
US20170103178A1 (en) Device, system and method for detecting a health condition of a subject
JP2010178259A (en) Digital camera
JP6363561B2 (en) Information processing system
JP2015050614A (en) Image processing device
JP5941764B2 (en) Content evaluation data generation system, content evaluation data generation method, and program
US20160378836A1 (en) Method and apparatus for characterizing human relationships using sensor monitoring

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180628

R150 Certificate of patent or registration of utility model

Ref document number: 6363561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150