JP2018206085A - Event evaluation support system, event evaluation support device, and event evaluation support program - Google Patents

Event evaluation support system, event evaluation support device, and event evaluation support program Download PDF

Info

Publication number
JP2018206085A
JP2018206085A JP2017111112A JP2017111112A JP2018206085A JP 2018206085 A JP2018206085 A JP 2018206085A JP 2017111112 A JP2017111112 A JP 2017111112A JP 2017111112 A JP2017111112 A JP 2017111112A JP 2018206085 A JP2018206085 A JP 2018206085A
Authority
JP
Japan
Prior art keywords
evaluation
data
video data
past
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017111112A
Other languages
Japanese (ja)
Other versions
JP6260979B1 (en
Inventor
継 河合
Kei Kawai
継 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crystal Method Co Ltd
Original Assignee
Crystal Method Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crystal Method Co Ltd filed Critical Crystal Method Co Ltd
Priority to JP2017111112A priority Critical patent/JP6260979B1/en
Application granted granted Critical
Publication of JP6260979B1 publication Critical patent/JP6260979B1/en
Publication of JP2018206085A publication Critical patent/JP2018206085A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an event evaluation support system, an event evaluation support device and an event evaluation support program that allow improvement of accuracy in evaluating events that may occur in future on the basis of video data including images and sounds.SOLUTION: An event evaluation support system to support evaluation of events that may occur in future on the basis of video data including images and sounds comprises: acquisition means S110 to acquire the video data for the evaluation; a reference database that stores past video data acquired in advance, reference data used in evaluating the past video data, and 3 or more degrees of association between the past video data and the reference data; evaluation means S120 to refer to the reference database to acquire evaluation data including a first degree of association between the video data for the evaluation and the reference data; and output means S130 to generate an evaluation result on the basis of the evaluation data and to output the evaluation result.SELECTED DRAWING: Figure 1

Description

本発明は、画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援システム、事象評価支援装置、及び事象評価支援プログラムに関する。   The present invention relates to an event evaluation support system, an event evaluation support device, and an event evaluation support program that support evaluation of events that may occur in the future based on video data including images and sounds.

従来、人同士の会話を記録分析し、その利用者の会話相手の受容度および利用者の会話の巧みさを分析するためのシステムとして、例えば特許文献1の会話分析システム等が開示されている。また、学習者等の感情を高精度かつ高信頼に推定することが可能なシステムとして、例えば特許文献2の感情推定システム等が開示されている。   2. Description of the Related Art Conventionally, as a system for recording and analyzing conversations between people and analyzing the acceptability of the conversation partner of the user and the skill of the conversation of the user, for example, the conversation analysis system of Patent Document 1 is disclosed. . Further, as a system capable of estimating emotions of learners and the like with high accuracy and high reliability, for example, an emotion estimation system disclosed in Patent Document 2 is disclosed.

特許文献1に開示された会話分析システムは、ウェアラブル端末であって、会話中で発声する重要な言葉抽出のための重要語データベースと、会話中のある特定の話題に対するインフルエンサー抽出のための話題語データベースと、会話の音声情報を収集するマイクロフォンと、会話相手の顔表情と頭部の動きを映像として収集するカメラと、音声情報から話題語および重要語を認識する音声評価部と、映像から単位会話時間あたりの会話相手の笑顔時間および頷き回数を認識する映像評価部と、音声評価部及び映像評価部の認識結果から所定の重み付けをして会話に対する相手の受容度及び会話の巧みさを分析する会話分析部と、前記受容度及び会話の巧みさを利用者にフィードバックする表示部とを備える。   The conversation analysis system disclosed in Patent Document 1 is a wearable terminal, which is an important word database for extracting important words uttered during conversation, and a topic for extracting influencers for a specific topic in conversation. A word database, a microphone that collects voice information of conversation, a camera that collects facial expressions and head movements of the conversation partner as video, a voice evaluation unit that recognizes topic words and important words from voice information, and video A video evaluation unit that recognizes the smile time and number of whispers of the conversation partner per unit conversation time, and the weight of the other party for the conversation and the skill of the conversation by predetermined weighting from the recognition results of the voice evaluation unit and the video evaluation unit A conversation analysis unit for analyzing, and a display unit for feeding back the acceptance level and skill of the conversation to the user.

特許文献2に開示された感情推定システムは、顔画像データを取得可能なカメラと、カメラで撮影した被験者の顔画像データから平均変化率を算出する平均変化率算出手段と、複数の被験者の顔特徴点の平均変化率と感情との相関行列から感情推定に用いる複数の異なる感情対に対応する顔特徴点を抽出して絞り込みを行うと共に、他方、平均変化率の大小により2つに分けた各グループ内の平均値及び分散共分散行列を算出して構成した推定基準量データベースと、カメラによって得られた顔画像データに基づいて被感情推定者がいずれのグループに属するかを判定する判定手段と、判定手段の判定結果に基づいて推定基準量データベースのうち被感情推定者が属するグループのデータを用いて感情を推定する感情推定手段とを備えてなる。   The emotion estimation system disclosed in Patent Document 2 includes a camera capable of acquiring face image data, an average change rate calculating unit that calculates an average change rate from face image data of a subject photographed by the camera, and faces of a plurality of subjects. The facial feature points corresponding to a plurality of different emotion pairs used for emotion estimation are extracted from the correlation matrix between the average change rate of feature points and emotions, and the feature points are narrowed down. An estimation reference amount database configured by calculating an average value and a variance-covariance matrix in each group, and determination means for determining to which group the estimator belongs based on face image data obtained by the camera And an emotion estimation means for estimating an emotion using the data of the group to which the estimated person of emotion belongs belongs based on the determination result of the determination means.

特開2016−103081号公報JP, 2006-103081, A 特開2011−39934号公報JP 2011-39934 A

ここで、テレビやインターネット等で公開される画像及び音を含む映像データは、例えば音声を発した人の特徴や感情等を推定できるほか、映像データを視聴した他人の感情や動作に影響を与える可能性を備えている。このため、映像データに基づき、将来起こり得る事象の評価に繋げられる可能性がある。しかしながら、将来起こり得る事象の評価には、評価者等の主観が介入する恐れがある。このため、映像データに基づいた定量的な評価を実施できず、評価の精度が低いという課題が挙げられる。   Here, video data including images and sounds released on TV, the Internet, etc. can estimate, for example, the characteristics and emotions of the person who made the sound, and affect the emotions and actions of others who viewed the video data It has the potential. For this reason, there is a possibility that it may lead to evaluation of an event that may occur in the future based on the video data. However, there is a risk that evaluators and other subjects will intervene in the evaluation of events that may occur in the future. For this reason, the quantitative evaluation based on video data cannot be performed, but the subject that the precision of evaluation is low is mentioned.

この点、特許文献1に開示された技術では、ある話題について他人への影響が大きいユーザを抽出するのみに過ぎず、映像データが実際に他人等に対してどのような影響を与え、将来起こり得る事象の定量的な評価を行うことができない。   In this regard, the technique disclosed in Patent Document 1 merely extracts users who have a large influence on others on a certain topic, and what kind of influence the video data actually has on others and the like will occur in the future. It is not possible to make a quantitative assessment of the events obtained.

また、特許文献2に開示された技術では、e−ラーニングの学習者の顔画像のみをリアルタイム処理することを前提としており、音声を含む映像データを情報として用いることがない。また、特許文献2に開示された技術では、e−ラーニングを実施中の学習者の顔画像を取得するため、学習時の感情に限定されている。このため、他人の感情や動作に与える影響を十分に評価することが難しい。これにより、将来起こり得る事象の定量的な評価を行うことができない。   The technique disclosed in Patent Document 2 is premised on real-time processing of only the face image of an e-learning learner, and video data including sound is not used as information. Moreover, in the technique disclosed in Patent Document 2, in order to acquire a face image of a learner who is performing e-learning, the technique is limited to emotion during learning. For this reason, it is difficult to fully evaluate the influence on the emotions and actions of others. This makes it impossible to quantitatively evaluate events that may occur in the future.

上述した事情により、映像データに基づき、将来起こり得る事象の評価における精度の向上が望まれている。   Due to the above-described circumstances, it is desired to improve the accuracy in evaluating future events based on video data.

そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、画像及び音を含む映像データに基づき、将来起こり得る事象の評価における精度の向上が可能となる事象評価支援システム、事象評価支援装置、及び事象評価支援プログラムを提供することにある。   Therefore, the present invention has been devised in view of the above-described problems, and the object of the present invention is to improve accuracy in evaluating future events based on video data including images and sounds. An event evaluation support system, an event evaluation support device, and an event evaluation support program are provided.

第1発明に係る事象評価支援システムは、画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援システムであって、評価用映像データを取得する取得手段と、予め取得された過去の映像データ、前記過去の映像データの評価に用いられた参照データ、及び、前記過去の映像データと前記参照データとの間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記評価用映像データと、前記参照データとの間の3段階以上の第1連関度を含む評価データを取得する評価手段と、前記評価データに基づき評価結果を生成し、前記評価結果を出力する出力手段と、を備えることを特徴とする。   An event evaluation support system according to a first aspect of the present invention is an event evaluation support system that supports evaluation of an event that may occur in the future based on video data including images and sounds, an acquisition unit that acquires video data for evaluation, A reference database in which acquired past video data, reference data used for evaluation of the past video data, and three or more levels of association between the past video data and the reference data are stored; , Referring to the reference database, and evaluating means for acquiring evaluation data including first relations of three or more stages between the video data for evaluation and the reference data, and generating an evaluation result based on the evaluation data And an output means for outputting the evaluation result.

第2発明に係る事象評価支援システムは、第1発明において、 前記評価用映像データは、撮影された人、動物、背景、及び説明資料の少なくとも何れかを含む画像データと、撮影された人の声、動物の声、効果音、及び挿入曲の少なくとも何れかを含む音データと、を含み、前記評価手段は、前記参照データベースを参照し、前記画像データ及び前記音データの組み合わせと、前記参照データとの間の前記第1連関度を算出することを特徴とする。   The event evaluation support system according to a second aspect of the present invention is the event evaluation support system according to the first aspect, wherein the evaluation video data includes image data including at least one of a photographed person, an animal, a background, and explanatory material; Sound data including at least one of a voice, an animal voice, a sound effect, and an inserted music, and the evaluation means refers to the reference database, the combination of the image data and the sound data, and the reference The first association degree with data is calculated.

第3発明に係る事象評価支援システムは、第2発明において、前記評価手段は、前記参照データベースを参照し、一定期間に撮影された前記評価用映像データに対して時系列で算出された前記第1連関度を含む前記評価データを取得することを特徴とする。   The event evaluation support system according to a third invention is the event evaluation support system according to the second invention, wherein the evaluation means refers to the reference database, and the evaluation image data calculated in time series with respect to the evaluation video data photographed in a certain period of time. The evaluation data including one degree of association is acquired.

第4発明に係る事象評価支援システムは、第3発明において、前記取得手段は、前記評価用映像データの撮影された時間に対応し、株式、為替、及び先物取引の少なくとも何れかの値動きを示す評価用値動きを取得し、前記参照データは、過去の株式、為替、及び先物取引の少なくとも何れかの過去の値動きの経時推移を含み、前記出力手段は、前記第1連関度に基づく前記評価用値動きの経時推移の評価を含む前記評価結果を生成することを特徴とする。   The event evaluation support system according to a fourth aspect of the present invention is the event evaluation support system according to the third aspect, wherein the acquisition means corresponds to the time at which the video data for evaluation is filmed and shows at least one of stock, currency exchange, and futures price movements An evaluation price movement is obtained, and the reference data includes a time course of a past price movement of at least one of a past stock, an exchange rate, and a futures transaction, and the output means is for the evaluation based on the first association degree. The evaluation result including the evaluation of the time course of the price movement is generated.

第5発明に係る事象評価支援システムは、第4発明において、前記評価用映像データ及び前記過去の映像データは、経済情報に関する映像であることを特徴とする。   The event evaluation support system according to a fifth aspect of the present invention is characterized in that, in the fourth aspect, the evaluation video data and the past video data are images relating to economic information.

第6発明に係る事象評価支援システムは、第3発明において、前記出力手段は、予め設定された報知基準値と、前記第1連関度とを比較した結果に基づき、前記評価結果を出力することを特徴とする。   The event evaluation support system according to a sixth aspect of the present invention is the event evaluation support system according to the third aspect, wherein the output means outputs the evaluation result based on a result obtained by comparing a preset notification reference value with the first association degree. It is characterized by.

第7発明に係る事象評価支援システムは、第6発明において前記過去の映像データは、犯行現場における犯行前後の映像を含み、前記参照データは、犯罪の種類に関する情報であり、前記出力手段は、前記評価用映像データに撮影された人のうち、犯行に及ぶ可能性のある人を特定する情報を含む前記評価結果を生成することを特徴とする。   In the event evaluation support system according to a seventh aspect of the present invention, in the sixth aspect of the invention, the past video data includes images before and after the crime at the crime scene, the reference data is information relating to a crime type, and the output means includes: The evaluation result including information for identifying a person who is likely to commit a crime among persons photographed in the video data for evaluation is generated.

第8発明に係る事象評価支援システムは、第3発明において、前記過去の映像データは、複数の視聴者に公開された映像であり、前記参照データは、公開された前記過去の映像データに対応する視聴率であり、前記評価用映像データは、未公開の映像データであり、前記出力手段は、前記第1連関度に基づく視聴率の経時推移の評価を含む前記評価結果を生成することを特徴とする。   In an event evaluation support system according to an eighth aspect based on the third aspect, the past video data is a video released to a plurality of viewers, and the reference data corresponds to the released past video data. The evaluation video data is undisclosed video data, and the output means generates the evaluation result including an evaluation of a temporal transition of the audience rating based on the first association degree. Features.

第9発明に係る事象評価支援システムは、第3発明において、前記過去の映像データは、ゲームの進行に関する進行情報を含み、前記評価用映像データは、開発中のゲームの進行に関する開発進行情報を含み、前記参照データは、前記ゲームの進行情報に対する課金量、ログイン数、及びプレイ時間の少なくとも何れかを含み、前記出力手段は、前記第1連関度に基づいて、前記開発進行情報に対する課金量、ログイン数、プレイ時間の少なくとも何れかの経時推移の評価を含む前記評価結果を生成することを特徴とする。   In an event evaluation support system according to a ninth aspect based on the third aspect, the past video data includes progress information relating to the progress of the game, and the evaluation video data includes development progress information relating to the progress of the game under development. The reference data includes at least one of a charge amount for the game progress information, a number of logins, and a play time, and the output means charges the development progress information based on the first association degree. The evaluation result including the evaluation of the temporal transition of at least one of the number of logins and the play time is generated.

第10発明に係る事象評価支援システムは、第2発明において、前記評価手段は、前記参照データベースを参照し、一定期間に撮影された前記評価用映像データの全体に対して算出された前記第1連関度を含む前記評価データを取得することを特徴とする。   The event evaluation support system according to a tenth aspect of the present invention is the event evaluation support system according to the second aspect, wherein the evaluation unit refers to the reference database and calculates the first calculated video data for the whole evaluation for a predetermined period. The evaluation data including the degree of association is acquired.

第11発明に係る事象評価支援システムは、第10発明において、前記評価用映像データ及び前記過去の映像データは、防犯カメラの映像、取り調べ室における映像、会話中の映像、接客時の映像、カウンセリング時の映像、公演時の映像、診察時の映像、又は、手術時の映像を含むことを特徴とする。   An event evaluation support system according to an eleventh aspect of the present invention is the event evaluation support system according to the tenth aspect, wherein the evaluation video data and the past video data are a security camera video, a video in an examination room, a video during conversation, a video during customer service, a counseling It includes a video at the time, a video at the performance, a video at the examination, or a video at the time of surgery.

第12発明に係る事象評価支援システムは、第1発明〜第11発明の何れか1つにおいて、前記過去の映像データは、過去に撮影された人、動物、及び背景の少なくとも何れかを含む過去の画像データと、過去に撮影された人の声、動物の声、効果音、及び挿入曲の少なくとも何れかを含む過去の音データと、前記参照データとの間に前記連関度を有する合成データと、前記過去の画像データと前記合成データとの間、及び、前記過去の音データと前記合成データとの間における3段階以上の類似度と、を含み、前記参照データベースには、前記合成データと、前記参照データとの間における前記連関度が記憶されることを特徴とする。   The event evaluation support system according to a twelfth aspect of the present invention is the event evaluation support system according to any one of the first to eleventh aspects, wherein the past video data includes at least one of a person photographed in the past, an animal, and a background. Synthetic data having the association degree between the reference data and past sound data including at least one of human image data, animal voice, sound effects, and inserted music recorded in the past And three or more similarities between the past image data and the synthesized data and between the past sound data and the synthesized data, and the reference database includes the synthesized data And the association degree between the reference data and the reference data is stored.

第13発明に係る事象評価支援システムは、第1発明〜第12発明の何れか1つにおいて、前記過去の映像データと、前記参照データとの間の関係を新たに取得した場合には、前記関係を前記連関度に反映させる更新手段をさらに備えることを特徴とする。   In any one of the first to twelfth inventions, the event evaluation support system according to a thirteenth aspect of the present invention is configured such that, when a relationship between the past video data and the reference data is newly acquired, It further comprises update means for reflecting the relationship in the association degree.

第14発明に係る事象評価支援システムは、第2発明〜第13発明の何れか1つにおいて、前記評価用映像データは、前記音データの内容に対応するテキストデータを含み、
前記評価手段は、前記参照データベースを参照し、前記画像データ、前記音データ、及び前記テキストデータの組み合わせと、前記参照データとの間の前記第1連関度を算出することを特徴とする。
The event evaluation support system according to a fourteenth aspect of the present invention is the event evaluation support system according to any one of the second to thirteenth aspects, wherein the evaluation video data includes text data corresponding to the content of the sound data.
The evaluation unit refers to the reference database, and calculates the first association degree between the reference data and a combination of the image data, the sound data, and the text data.

第15発明に係る事象評価支援装置は、画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援装置であって、評価用映像データを取得する取得部と、予め取得された過去の映像データ、前記過去の映像データの評価に用いられた参照データ、及び、前記過去の映像データと前記参照データとの間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記評価用映像データと、前記参照データとの間の3段階以上の第1連関度を含む評価データを取得する評価部と、前記評価データに基づき評価結果を生成し、前記評価結果を出力する出力部と、を備えることを特徴とする。   An event evaluation support apparatus according to a fifteenth aspect of the present invention is an event evaluation support apparatus that supports evaluation of an event that may occur in the future based on video data including images and sound, and an acquisition unit that acquires evaluation video data; A reference database in which acquired past video data, reference data used for evaluation of the past video data, and three or more levels of association between the past video data and the reference data are stored; , Referring to the reference database, and generating an evaluation result based on the evaluation data, and an evaluation unit that acquires evaluation data including first relations of three or more stages between the video data for evaluation and the reference data And an output unit for outputting the evaluation result.

第16発明に係る事象評価支援装置は、画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援プログラムであって、評価用映像データを取得し、予め取得された過去の映像データ、前記過去の映像データの評価に用いられた参照データ、及び、前記過去の映像データと前記参照データとの間における3段階以上の連関度が記憶された参照データベースを参照し、前記評価用映像データと、前記参照データとの間の3段階以上の第1連関度を含む評価データを取得し、前記評価データに基づき評価結果を生成し、前記評価結果を出力することをコンピュータに実行させることを特徴とする。   An event evaluation support apparatus according to a sixteenth aspect of the present invention is an event evaluation support program for supporting evaluation of an event that may occur in the future based on video data including images and sound, and acquires video data for evaluation, which is acquired in advance. Referring to past video data, reference data used to evaluate the past video data, and a reference database in which three or more levels of association between the past video data and the reference data are stored; A computer that obtains evaluation data including three or more stages of first association between the evaluation video data and the reference data, generates an evaluation result based on the evaluation data, and outputs the evaluation result It is made to perform.

第1発明〜第14発明によれば、評価手段は、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得する。このため、評価用映像データに対して参照データを紐づけられ、評価用映像データに基づいて将来起こり得る事象の定量的な評価結果を取得することができる。これにより、将来起こり得る事象の評価における精度の向上が可能となる。   According to the first to fourteenth aspects, the evaluation means refers to the reference database and acquires evaluation data including the first association degree between the video data for evaluation and the reference data. For this reason, reference data is linked to the evaluation video data, and a quantitative evaluation result of an event that may occur in the future can be acquired based on the evaluation video data. As a result, it is possible to improve the accuracy in the evaluation of events that may occur in the future.

特に、第2発明〜第14発明によれば、評価手段は、画像データ及び音データの組み合わせと、参照データとの間の第1関連性を算出する。このため、画像データ又は音データの何れか1つを用いた場合に比べ、その映像の特徴若しくは撮影された人の感情の推定、又は、映像を視聴した他人の感情若しくは他人の動作に影響を与える可能性を評価する精度の向上を図ることができる。これにより、将来起こり得る事象の評価の精度をさらに向上させることが可能となる。   In particular, according to the second to fourteenth aspects, the evaluation means calculates a first relationship between the combination of the image data and the sound data and the reference data. For this reason, compared with the case where either one of image data and sound data is used, the feature of the video or the estimation of the emotion of the photographed person, or the affect of the other person who viewed the video or the behavior of the other person is affected. The accuracy of evaluating the possibility of giving can be improved. As a result, it is possible to further improve the accuracy of evaluation of events that may occur in the future.

特に、第3発明〜第9発明、第12発明〜第14発明によれば、評価手段は、一定期間に撮影された評価用映像データに対して、第1連関度を時系列で算出する。このため、評価用映像データに対する評価の経時変化を示すことができる。これにより、評価用映像データの経時変化に伴う評価をすることができ、将来起こり得る事象の詳細な評価を実施することが可能となる。   In particular, according to the third to ninth inventions and the twelfth to fourteenth inventions, the evaluation means calculates the first association degree in time series for the video data for evaluation photographed in a certain period. For this reason, the time-dependent change of evaluation with respect to video data for evaluation can be shown. As a result, it is possible to perform evaluation along with the temporal change of the video data for evaluation, and it is possible to perform detailed evaluation of events that may occur in the future.

特に、第4発明、第5発明、第12発明〜第14発明によれば、出力手段は、第1連関度に基づく評価用値動きの経時推移の評価を含む評価結果を生成する。このため、評価用映像データの影響を踏まえた値動きの経時推移の評価を容易に取得することができる。これにより、上記評価結果を一材料として企業等の事業計画等を検討することができ、事業戦略の選択肢を増加させることが可能となる。   In particular, according to the fourth invention, the fifth invention, and the twelfth to fourteenth inventions, the output means generates an evaluation result including an evaluation of the temporal transition of the evaluation value movement based on the first association degree. For this reason, it is possible to easily obtain the evaluation of the temporal transition of the price movement based on the influence of the evaluation video data. This makes it possible to examine a business plan of a company etc. using the evaluation result as a material, and to increase the options of business strategy.

特に、第6発明、第7発明、第12発明〜第14発明によれば、出力手段は、予め設定された報知基準値と、第1連関度とを比較した結果に基づき、評価結果を出力する。このため、報知基準値の設定条件に応じて、評価結果を出力するか否かを制御することができる。これにより、評価結果が必要な場合のみ出力させることができ、利用者等は、常に評価結果を確認する必要がない。従って、利用者等の作業負荷を低減させることが可能となる。   In particular, according to the sixth invention, the seventh invention, and the twelfth invention to the fourteenth invention, the output means outputs the evaluation result based on the result of comparing the preset notification reference value and the first association degree. To do. For this reason, it is possible to control whether or not to output the evaluation result according to the setting condition of the notification reference value. Thereby, it is possible to output only when the evaluation result is necessary, and the user or the like does not always need to confirm the evaluation result. Accordingly, it is possible to reduce the work load of the user or the like.

特に、第7発明、第12発明〜第14発明によれば、出力手段は、評価データに基づき、評価用映像データに撮影された人のうち、犯行に及ぶ可能性のある人を特定する情報を含む評価結果を生成する。このため、犯行を事前に抑制することが可能となる。また、大勢の人が行き交う場所においても、定量的に評価をすることができ、主観を含んだ誤認や見落としを抑制することが可能となる。   In particular, according to the seventh invention and the twelfth to fourteenth inventions, the output means specifies information for identifying a person who is likely to commit a crime among those photographed in the video data for evaluation based on the evaluation data. An evaluation result including is generated. For this reason, it becomes possible to suppress a crime in advance. In addition, it is possible to quantitatively evaluate a place where a large number of people come and go, and it is possible to suppress misperceptions and oversights including subjectives.

特に、第8発明、第12発明〜第14発明によれば、出力手段は、第1連関度に基づく視聴率の経時推移の評価を含む評価結果を生成する。このため、未公開の評価用映像データに対して、予め視聴率の経時推移を評価することができる。これにより、映像データを公開する前に改善点等を把握することができ、映像データの質の向上を図ることが可能となる。   Particularly, according to the eighth invention and the twelfth to fourteenth inventions, the output means generates an evaluation result including an evaluation of a temporal transition of the audience rating based on the first association degree. For this reason, the temporal transition of the audience rating can be evaluated in advance for unpublished evaluation video data. As a result, improvement points and the like can be grasped before the video data is released, and the quality of the video data can be improved.

特に、第9発明、第12発明〜第14発明によれば、出力手段は、第1連関度に基づいて、開発進行情報に対する課金量等の経時推移の評価を含む評価結果を生成する。このため、開発中のゲームにおいて課金されるタイミングや頻度等を評価することができる。これにより、ゲームを販売する前に改善点等を把握することができ、ゲームの質の向上を図ることが可能となる。   In particular, according to the ninth invention and the twelfth to fourteenth inventions, the output means generates an evaluation result including an evaluation of a change over time such as a charge amount for the development progress information based on the first association degree. For this reason, it is possible to evaluate the timing, frequency, etc. charged in a game under development. As a result, improvement points and the like can be grasped before the game is sold, and the quality of the game can be improved.

特に、第10発明〜第14発明によれば、評価手段は、一定期間に撮影された評価用画像データの全体に対して第1連関度を算出する。このため、一定期間に撮影された画像データ及び音データを含む評価用映像データを総合的に評価することができる。これにより、定量的な評価を行える事象の選択範囲を大幅に広げることが可能となる。   In particular, according to the tenth to fourteenth inventions, the evaluation means calculates the first association degree with respect to the entire evaluation image data photographed in a certain period. For this reason, it is possible to comprehensively evaluate the evaluation video data including the image data and the sound data captured during a certain period. This makes it possible to greatly expand the selection range of events that can be quantitatively evaluated.

特に、第12発明〜第14発明によれば、過去の映像データは、過去の画像データと合成データとの間、及び、過去の音データと合成データとの間における3段階以上の類似度を含む。このため、新たに過去の画像データ及び過去の音データを参照データベースに記憶(更新)させた場合、連関度をその都度更新する必要がない。これにより、参照データベースの更新に伴い、連関度を更新する負荷を抑制することが可能となる。   In particular, according to the twelfth to fourteenth inventions, past video data has three or more levels of similarity between past image data and synthesized data, and between past sound data and synthesized data. Including. For this reason, when past image data and past sound data are newly stored (updated) in the reference database, it is not necessary to update the association degree each time. Thereby, it is possible to suppress the load for updating the association degree with the update of the reference database.

特に、第13発明及び第14発明によれば、更新手段は、過去の映像データと、参照データとの間の関係を新たに取得した場合には、関係を連関度に反映させる。このため、連関度を容易に更新することができ、評価の精度を向上させることが可能となる。   In particular, according to the thirteenth and fourteenth inventions, when the updating means newly acquires the relationship between the past video data and the reference data, the updating means reflects the relationship in the association degree. For this reason, the relevance can be easily updated, and the accuracy of evaluation can be improved.

特に、第14発明によれば、画像データ、音データ、及びテキストデータの組み合わせと、参照データとの間の第1関連性を算出する。このため、テキストデータを組み合わせに加えることで、その人の特徴若しくは感情の推定、又は、他人の感情若しくは動作に影響を与える可能性を評価する精度のさらなる向上を図ることができる。これにより、将来起こり得る事象の評価の精度をさらに向上させることが可能となる。   In particular, according to the fourteenth aspect, the first relation between the combination of the image data, the sound data, and the text data and the reference data is calculated. For this reason, by adding text data to the combination, it is possible to further improve the accuracy of estimating the characteristics or emotions of the person or evaluating the possibility of affecting the emotions or actions of others. As a result, it is possible to further improve the accuracy of evaluation of events that may occur in the future.

第15発明によれば、評価部は、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得する。このため、評価用映像データに対して参照データを紐づけられ、評価用映像データに基づいて将来起こり得る事象の定量的な評価結果を取得することができる。これにより、将来起こり得る事象の評価における精度の向上が可能となる。   According to the fifteenth aspect, the evaluation unit refers to the reference database, and acquires evaluation data including the first association degree between the video data for evaluation and the reference data. For this reason, reference data is linked to the evaluation video data, and a quantitative evaluation result of an event that may occur in the future can be acquired based on the evaluation video data. As a result, it is possible to improve the accuracy in the evaluation of events that may occur in the future.

第16発明によれば、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得することをコンピュータに実行させる。このため、評価用映像データに対して参照データを紐づけられ、評価用映像データに基づいて将来起こり得る事象の定量的な評価結果を取得することができる。これにより、将来起こり得る事象の評価における精度の向上が可能となる。   According to the sixteenth aspect of the invention, the computer is caused to acquire the evaluation data including the first association degree between the evaluation video data and the reference data with reference to the reference database. For this reason, reference data is linked to the evaluation video data, and a quantitative evaluation result of an event that may occur in the future can be acquired based on the evaluation video data. As a result, it is possible to improve the accuracy in the evaluation of events that may occur in the future.

図1は、実施形態における事象評価支援システムの全体構成を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration of an event evaluation support system in the embodiment. 図2(a)及び図2(b)は、実施形態における評価結果の一例を示す模式図である。FIG. 2A and FIG. 2B are schematic diagrams illustrating an example of evaluation results in the embodiment. 図3は、実施形態における評価用映像データ、過去の映像データ、参照データ、及び評価結果の一例を示す図である。FIG. 3 is a diagram illustrating an example of evaluation video data, past video data, reference data, and evaluation results in the embodiment. 図4は、実施形態における評価用映像データ、過去の映像データ、参照データ、及び評価結果の一例を示す図である。FIG. 4 is a diagram illustrating an example of evaluation video data, past video data, reference data, and evaluation results in the embodiment. 図5(a)は、実施形態における事象評価支援装置の構成の一例を示す模式図であり、図5(b)は、実施形態における事象評価支援装置の機能の一例を示す模式図である。FIG. 5A is a schematic diagram illustrating an example of the configuration of the event evaluation support apparatus according to the embodiment, and FIG. 5B is a schematic diagram illustrating an example of the function of the event evaluation support apparatus according to the embodiment. 図6は、実施形態における参照データベースの一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of a reference database according to the embodiment. 図7は、実施形態における参照データベースの第1変形例を示す模式図である。FIG. 7 is a schematic diagram illustrating a first modification of the reference database according to the embodiment. 図8は、実施形態における参照データベースの第2変形例を示す模式図である。FIG. 8 is a schematic diagram illustrating a second modification of the reference database according to the embodiment. 図9は、実施形態における参照データベースの第3変形例を示す模式図である。FIG. 9 is a schematic diagram illustrating a third modification of the reference database according to the embodiment. 図10は、実施形態における参照データベースの第4変形例を示す模式図である。FIG. 10 is a schematic diagram illustrating a fourth modification of the reference database according to the embodiment. 図11は、実施形態における事象評価支援システムの動作の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the operation of the event evaluation support system in the embodiment. 図12(a)及び図12(b)は、実施形態における評価結果の一例を示す模式図である。FIG. 12A and FIG. 12B are schematic diagrams illustrating an example of evaluation results in the embodiment.

以下、本発明を適用した実施形態における事象評価支援システム100の一例について、図面を参照しながら説明する。   Hereinafter, an example of an event evaluation support system 100 according to an embodiment to which the present invention is applied will be described with reference to the drawings.

(実施形態:事象評価支援システム100の構成)
図1を参照して、本実施形態における事象評価支援システム100の構成の一例について説明する。図1は、本実施形態における事象評価支援システム100の全体構成を示すブロック図である。
(Embodiment: Configuration of Event Evaluation Support System 100)
With reference to FIG. 1, an example of a configuration of an event evaluation support system 100 in the present embodiment will be described. FIG. 1 is a block diagram showing the overall configuration of the event evaluation support system 100 in the present embodiment.

事象評価支援システム100は事象評価支援装置1を備える。事象評価支援装置1は、例えば公衆通信網4を介して、サーバ2及び撮影装置3の少なくとも何れかと接続されてもよい。   The event evaluation support system 100 includes an event evaluation support device 1. The event evaluation support device 1 may be connected to at least one of the server 2 and the imaging device 3 via, for example, the public communication network 4.

事象評価支援システム100は、画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援するために用いられる。事象評価支援装置1は、例えば図2(a)に示すように、撮影された人等を含む画像データD1と、撮影された人の声等に対応する音データD2とを含む評価用映像データを取得し、評価用映像データに基づく評価結果を出力する。評価結果は、例えば「日経平均株価が○○円上昇する可能性あり」等の将来起こり得る事象に関する情報を含む。評価結果に基づき、例えば利用者は将来の事象について判断することができる。   The event evaluation support system 100 is used to support evaluation of events that may occur in the future based on video data including images and sounds. For example, as shown in FIG. 2A, the event evaluation support apparatus 1 includes evaluation image data including image data D1 including a photographed person and sound data D2 corresponding to the voice of the photographed person. And outputs an evaluation result based on the video data for evaluation. The evaluation result includes information on an event that may occur in the future, such as “the Nikkei Stock Average may increase by XX yen”. Based on the evaluation result, for example, the user can determine a future event.

事象評価支援装置1は、例えば図2(b)に示すように、所定位置に固定された撮影装置3から定期的に評価用映像データを取得してもよい。この場合、例えば犯行に及ぶ可能性のある人等を特定し、「万引きをする可能性があります(破線部)」等の評価結果を出力することができる。評価情報には、人を特定するための情報として、例えば特定される人が破線で囲まれるほか、矢印等で人を特定するようにしてもよい。事象評価支援装置1は、上記のほかに、例えば公衆通信網4を介して取得したテレビ番組の映像、接客時の映像、会話中の映像等に基づき、経済情報や売上等に関する評価を行うことができる。   For example, as shown in FIG. 2B, the event evaluation support apparatus 1 may periodically acquire evaluation video data from the imaging apparatus 3 fixed at a predetermined position. In this case, for example, a person who has a possibility of committing a crime can be identified, and an evaluation result such as “There is a possibility of shoplifting (broken line part)” can be output. In the evaluation information, as information for specifying a person, for example, the specified person is surrounded by a broken line, and the person may be specified by an arrow or the like. In addition to the above, the event evaluation support apparatus 1 evaluates economic information, sales, and the like based on, for example, video of a TV program acquired via the public communication network 4, video during customer service, video during conversation, etc. Can do.

事象評価支援装置1は、評価結果を出力する際、参照データベースを参照する。参照データベースには、予め取得された過去の映像データ、過去の映像データの評価に用いられた参照データ、及び、過去の映像データと参照データとの間における連関度が記憶されている。事象評価支援装置1は、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関性を算出し、第1連関性を含む評価データに基づいて、評価結果を生成する。   The event evaluation support apparatus 1 refers to the reference database when outputting the evaluation result. The reference database stores past video data acquired in advance, reference data used for evaluation of past video data, and a degree of association between past video data and reference data. The event evaluation support apparatus 1 refers to the reference database, calculates a first association between the evaluation video data and the reference data, and generates an evaluation result based on the evaluation data including the first association. .

上述した評価用画像データ、過去の映像データ、参照データ、及び評価結果は、例えば図3及び図4に示したデータの一例を含む。評価用映像データは、画像データD1及び音データD2を含む。過去の映像データは、過去に撮影された人等を含む過去の画像データを含み、例えば過去に撮影された人の声等に対応する過去の音データを含んでもよい。   The above-described evaluation image data, past video data, reference data, and evaluation results include, for example, examples of data shown in FIGS. The evaluation video data includes image data D1 and sound data D2. The past video data includes past image data including a person photographed in the past, and may include past sound data corresponding to a voice of a person photographed in the past, for example.

画像データD1及び過去の画像データは、動画のほか静止画も含み、各映像データに撮影された人、動物、背景、及び説明資料(例えば説明用のグラフ、フリップボード、プレゼン用資料)の少なくとも何れかを含む。すなわち、画像データD1及び過去の画像データは、撮影された人等を含む画像全体のデータを示す。画像データD1及び過去の画像データは、例えば人又は動物の動作傾向を含み、例えば撮影された人の喜怒哀楽に対応する表情を対象にするほか、例えば口角の位置や眉間の状態等のように、表情に影響する顔の一部の状態をデータの対象としてもよい。画像データ及び過去の画像データは、上記のほか、例えば撮影された人の身振り、振る舞い、行い、手癖等のほか、歩行位置や停止時間等の行動をデータの対象としてもよい。   The image data D1 and the past image data include still images as well as moving images, and at least humans, animals, backgrounds, and explanatory materials (for example, explanatory graphs, flip boards, presentation materials) captured in each video data. Including either That is, the image data D1 and the past image data indicate data of the entire image including the photographed person. The image data D1 and the past image data include, for example, a movement tendency of a person or an animal, for example, a facial expression corresponding to the emotion of a photographed person, as well as a mouth corner position, a state between eyebrows, and the like. In addition, a part of the face that affects the facial expression may be the target of the data. In addition to the above, the image data and the past image data may be subject to data such as a gesture of a photographed person, a behavior, a behavior, a hand gesture, and a behavior such as a walking position and a stop time.

音データD2及び過去の音データは、撮影された人の声、動物の声、効果音、及び挿入曲の少なくとも何れかを含む。すなわち、音データD2及び過去の音データは、撮影された人の声等を含む全ての音のデータを示す。音データD2及び過去の音データは、声や音の大きさ、スピードのほか、例えば言葉使い、イントネーション等を含み、例えば予め設定された喜怒哀楽等のカテゴリ別に分類されるようにしてもよい。なお、音データD2及び過去の音データは、音源毎又は人毎の声に分類された状態でもよく、複数の音源又は複数人の声が混合された状態でもよい。   The sound data D2 and the past sound data include at least one of a photographed human voice, animal voice, sound effect, and inserted music. That is, the sound data D2 and the past sound data indicate all sound data including the voice of the photographed person. The sound data D2 and the past sound data include, for example, words and intonation in addition to voice and sound volume and speed, and may be classified into categories such as preset emotions. . Note that the sound data D2 and the past sound data may be classified into voices for each sound source or each person, or may be in a state where a plurality of sound sources or voices of a plurality of people are mixed.

上述した画像データD1と、音データD2とを組み合わせて評価することで、将来起こり得る事象の評価を精度良く行うことができる。例えば画像データD1における人の動作と、音データD2における人の口調とを組み合わせることにより、例えば喜怒哀楽等の画像データD1のみでは判断できない感情を評価対象として取り入れることができる。   By evaluating the image data D1 and the sound data D2 in combination, it is possible to accurately evaluate events that may occur in the future. For example, by combining a person's action in the image data D1 and a person's tone in the sound data D2, for example, emotions such as emotions that cannot be determined only by the image data D1 can be taken in as evaluation targets.

評価用映像データは、例えば上記音データの内容に対応するテキストデータを含む。過去の映像データは、例えば上記過去の音データの内容に対応する過去のテキストデータを含む。テキストデータ及び過去のテキストデータは、例えば音の全文を含むほか、例えば音の全文のうち、特徴とする形態素、単語、句、節等のみが抽出されたものでもよい。なお、テキストデータ及び過去のテキストデータは、例えば言語以外の効果音等を、擬音語に変換したものでもよい。   The evaluation video data includes text data corresponding to the content of the sound data, for example. The past video data includes, for example, past text data corresponding to the contents of the past sound data. The text data and the past text data include, for example, the whole sentence of the sound, for example, only the characteristic morpheme, word, phrase, clause, etc. may be extracted from the whole sentence of the sound. Note that the text data and past text data may be, for example, sound effects other than language converted into onomatopoeia.

画像データD1、過去の画像データ、音データD2、過去の音データ、テキストデータ、及び過去のテキストデータは、例えば数値化することもでき、それぞれ3〜10段階評価等に設定してもよい。各データの詳細は、後述する。   The image data D1, the past image data, the sound data D2, the past sound data, the text data, and the past text data may be digitized, for example, and may be set to 3 to 10-level evaluation, respectively. Details of each data will be described later.

<事象評価支援装置1の構成>
図5(a)は、事象評価支援装置1の構成の一例を示す模式図である。事象評価支援装置1として、パーソナルコンピュータ(PC)等の電子機器が用いられる。事象評価支援装置1は、例えば評価用映像データを取得できる任意の装置と一体に形成されてもよい。事象評価支援装置1は、筐体10と、CPU101と、ROM102と、RAM103と、記憶部104と、I/F105〜107とを備える。各構成101〜107は、内部バス110により接続される。
<Configuration of event evaluation support apparatus 1>
FIG. 5A is a schematic diagram illustrating an example of the configuration of the event evaluation support apparatus 1. An electronic device such as a personal computer (PC) is used as the event evaluation support apparatus 1. The event evaluation support apparatus 1 may be formed integrally with an arbitrary apparatus that can acquire video data for evaluation, for example. The event evaluation support apparatus 1 includes a housing 10, a CPU 101, a ROM 102, a RAM 103, a storage unit 104, and I / Fs 105 to 107. Each component 101 to 107 is connected by an internal bus 110.

CPU(Central Processing Unit)101は、事象評価支援装置1全体を制御する。ROM(Read Only Memory)102は、CPU101の動作コードを格納する。RAM(Random Access Memory)103は、CPU101の動作時に使用される作業領域である。記憶部104は、細胞画像等の各種情報が記憶される。記憶部104として、例えばHDD(Hard Disk Drive)の他、SSD(solid state drive)やフロッピーディスク等のデータ保存装置が用いられる。なお、例えば事象評価支援装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。GPUを有することで、通常よりも高速演算処理が可能となる。   A CPU (Central Processing Unit) 101 controls the event evaluation support apparatus 1 as a whole. A ROM (Read Only Memory) 102 stores an operation code of the CPU 101. A RAM (Random Access Memory) 103 is a work area used when the CPU 101 operates. The storage unit 104 stores various information such as cell images. As the storage unit 104, for example, an HDD (Hard Disk Drive), a data storage device such as an SSD (solid state drive) or a floppy disk is used. For example, the event evaluation support apparatus 1 may include a GPU (Graphics Processing Unit) (not shown). By having a GPU, it is possible to perform higher-speed arithmetic processing than usual.

I/F105は、公衆通信網4を介してサーバ2等との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部分108との情報の送受信を行うためのインターフェースである。入力部分108として、例えばキーボードが用いられ、事象評価支援システム100の利用者等は、入力部分108を介して、各種情報又は事象評価支援装置1の制御コマンド等を入力する。I/F107は、出力部分109との各種情報の送受信を行うためのインターフェースである。出力部分109は、記憶部104に保存された各種情報、又は事象評価支援装置1の処理状況等を出力する。出力部分109として、ディスプレイが用いられ、例えばタッチパネル式でもよい。   The I / F 105 is an interface for transmitting and receiving various types of information to and from the server 2 and the like via the public communication network 4. The I / F 106 is an interface for transmitting / receiving information to / from the input unit 108. For example, a keyboard is used as the input part 108, and a user of the event evaluation support system 100 inputs various information or a control command of the event evaluation support apparatus 1 through the input part 108. The I / F 107 is an interface for performing transmission / reception of various information with the output unit 109. The output part 109 outputs various information stored in the storage unit 104 or the processing status of the event evaluation support apparatus 1. A display is used as the output portion 109, and for example, a touch panel type may be used.

図5(b)は、事象評価支援装置1の機能の一例を示す模式図である。事象評価支援装置1は、情報DB11と、取得部12と、評価部13と、出力部14と、入力部15とを備える。事象評価支援装置1は、例えば更新部16を備えてもよい。なお、図5(b)に示した機能は、CPU101が、RAM103を作業領域として、記憶部104等に記憶されたプログラムを実行することにより実現される。また、各構成11〜16は、例えば人工知能により制御されてもよい。   FIG. 5B is a schematic diagram illustrating an example of functions of the event evaluation support apparatus 1. The event evaluation support apparatus 1 includes an information DB 11, an acquisition unit 12, an evaluation unit 13, an output unit 14, and an input unit 15. The event evaluation support apparatus 1 may include an update unit 16, for example. The function shown in FIG. 5B is realized by the CPU 101 executing a program stored in the storage unit 104 or the like using the RAM 103 as a work area. Moreover, each structure 11-16 may be controlled by artificial intelligence, for example.

<情報DB11>
情報DB11には、予め取得された過去の映像データ、及び過去の映像データに用いられた参照データが記憶された参照データベースが記憶される。情報DB11には、例えば評価用映像データ、評価用映像データと参照データとの間の第1連関度を含む評価データ、評価データに基づき生成された評価結果、及び評価結果を表示するフォーマット等の各種情報が記憶される。参照データベース及び各種情報は、HDDやSSD等で具現化された記憶部104に、各種情報のデータベースとして保存される。各構成12〜16は、必要に応じて情報DB11に各種情報を記憶させ、又は各種情報を取出す。
<Information DB11>
The information DB 11 stores a reference database in which past video data acquired in advance and reference data used for past video data are stored. The information DB 11 includes, for example, evaluation video data, evaluation data including a first association degree between the evaluation video data and reference data, an evaluation result generated based on the evaluation data, a format for displaying the evaluation result, and the like. Various information is stored. The reference database and various types of information are stored as a database of various types of information in the storage unit 104 embodied by an HDD, SSD, or the like. Each structure 12-16 memorize | stores various information in information DB11 as needed, or takes out various information.

参照データベースには、例えば図6に示すように、過去の映像データと参照データとの間における3段階以上の連関度が記憶される。参照データベースは、例えば連関度を算出できるアルゴリズムで形成される。過去の映像データ及び参照データは、複数のデータを有し、各過去のデータと各参照データとの関係は、それぞれ連関度で紐づいている。   For example, as shown in FIG. 6, the reference database stores three or more levels of association between past video data and reference data. The reference database is formed by an algorithm that can calculate the association degree, for example. The past video data and reference data have a plurality of data, and the relationship between each past data and each reference data is associated with each other by the degree of association.

例えば、過去の映像データに含まれる映像Aは、参照データに含まれる評価Aとの間の連関度「80%」を示し、参照データに含まれる評価Bとの間の連関度「15%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、連関度が高いほど、各データの繋がりが強いことを示す。   For example, the video A included in the past video data indicates the association degree “80%” with the evaluation A included in the reference data, and the association degree “15%” with the evaluation B included in the reference data. Indicates. That is, the “association degree” indicates the degree of connection between the data, and the higher the association degree, the stronger the connection between the data.

なお、過去の映像データ及び参照データは、映像の形式で参照データベースに記憶されるほか、例えば数値、行列(ベクトル)、又はヒストグラム等の形式で記憶されてもよい。   The past video data and reference data are stored in the reference database in the form of video, and may be stored in the form of numerical values, matrices (vectors), histograms, or the like.

連関度は、例えば機械学習を用いて算出される。機械学習には、例えば深層学習が用いられる。特に、本実施形態における事象評価支援システム100では、畳込みニューラルネットワークを用いることが好ましい。   The association degree is calculated using, for example, machine learning. For example, deep learning is used for machine learning. In particular, in the event evaluation support system 100 in this embodiment, it is preferable to use a convolutional neural network.

過去の映像データは、例えば図7に示すように、過去の画像データと過去の音データとを分割して参照データベースに記憶されてもよい。この場合、過去の画像データ及び過去の音データの組み合わせと、参照データとの間の関係に基づいて、連関度が算出される。例えば、過去の画像データに含まれる画像A及び過去の音データに含まれる音Aの組み合わせは、評価Aとの間の連関度「90%」を示し、評価Bとの間の連関度「20%」を示す。この場合、過去の画像データ及び過去の音データをそれぞれ独立してデータを記憶させることができる。このため、後述する評価用映像データに基づく評価結果を生成する場合、精度の向上及び選択肢の範囲を拡大させることが可能となる。   The past video data may be stored in the reference database by dividing past image data and past sound data, for example, as shown in FIG. In this case, the association degree is calculated based on the relationship between the combination of the past image data and the past sound data and the reference data. For example, the combination of the image A included in the past image data and the sound A included in the past sound data indicates the association degree “90%” with the evaluation A, and the association degree “20” with the evaluation B. % ". In this case, the past image data and past sound data can be stored independently of each other. For this reason, when generating an evaluation result based on video data for evaluation described later, it is possible to improve accuracy and expand the range of options.

過去の映像データは、例えば図8に示すように、合成データと、類似度とを含んでもよい。合成データは、過去の画像データ又は過去の音データとの間における3段階以上の類似度により示される。合成データは、映像の形式で参照データベースに記憶されるほか、例えば数値、行列(ベクトル)、又はヒストグラム等の形式で記憶されてもよい。   The past video data may include composite data and similarity as shown in FIG. 8, for example. The synthesized data is indicated by three or more levels of similarity with past image data or past sound data. In addition to being stored in the reference database in the form of video, the synthesized data may be stored in the form of numerical values, matrices (vectors), histograms, or the like.

過去の映像データは、例えば過去のテキストデータを含んでもよい。過去の映像データが過去のテキストデータを含む場合、例えば図9に示すように、過去の画像データ、過去の音データ、及び過去のテキストデータの組み合わせと、参照データとの間に基づいて、連関度が算出される。このほか、過去の映像データは、例えば図10に示すように、テキストデータと、合成データとの間の関係を示す類似度を含んでもよい。   The past video data may include past text data, for example. When the past video data includes past text data, for example, as shown in FIG. 9, based on the combination of the past image data, the past sound data, and the past text data and the reference data, The degree is calculated. In addition, the past video data may include a similarity indicating the relationship between the text data and the synthesized data, for example, as shown in FIG.

<取得部12>
取得部12は、評価の対象となる評価用映像データを取得する。取得部12は、撮影装置3により一定期間に撮影された評価用映像データを取得するほか、例えば公衆通信網4や可搬メモリ等の記憶媒体を介して、一定期間に撮影された評価用映像データを取得してもよい。なお、評価用映像データの形式は任意であり、例えば取得部12が任意のファイル形式に変換してもよい。
<Acquisition unit 12>
The acquisition unit 12 acquires evaluation video data to be evaluated. The acquisition unit 12 acquires evaluation video data captured by the imaging device 3 for a certain period, and also, for example, evaluation video captured for a certain period via a storage medium such as the public communication network 4 or a portable memory. Data may be acquired. The format of the evaluation video data is arbitrary, and for example, the acquisition unit 12 may convert it into an arbitrary file format.

取得部12は、評価用映像データに加え、例えば評価用映像データに撮影された人に関する人物情報を取得してもよい。これにより、人物情報に対応した評価結果を出力することが可能となる。   In addition to the evaluation video data, the acquisition unit 12 may acquire, for example, personal information about a person photographed in the evaluation video data. Thereby, it is possible to output an evaluation result corresponding to the person information.

<評価部13>
評価部13は、評価用映像データと、参照データとの間における3段階以上の第1連関度を含む評価データを取得する。評価部13は、例えば参照データベースを参照して、評価用映像データと一致又は類似する過去の映像データを選択し、選択された過去の映像データに紐づけられた連関度を第1連関度として算出する。このほか、評価部13は、例えば参照データベースを分類器のアルゴリズムとして用い、評価用映像データと参照データとの間における第1連関度を算出してもよい。
<Evaluation unit 13>
The evaluation unit 13 acquires evaluation data including the first association degree of three or more levels between the evaluation video data and the reference data. The evaluation unit 13 refers to, for example, a reference database, selects past video data that matches or is similar to the evaluation video data, and uses the degree of association associated with the selected past video data as the first degree of association. calculate. In addition, the evaluation unit 13 may calculate a first association degree between the evaluation video data and the reference data using, for example, a reference database as an algorithm of the classifier.

例えば、図6に示した参照データベースを用いる場合、評価用映像データが映像Aと一致又は類似するとき、評価Aに対して「80%」、評価Bに対して「15%」、評価Cに対して「1%」の第1連関度がそれぞれ算出される。また、評価用映像データが映像A及び映像Bと類似するときは、例えば映像A及び映像Bと参照データとの間の連関度に対して任意の係数を乗算した値が第1連関度として算出される。   For example, when the reference database shown in FIG. 6 is used, when the evaluation video data matches or is similar to video A, “80%” for evaluation A, “15%” for evaluation B, and evaluation C On the other hand, the first association degree of “1%” is calculated. Further, when the evaluation video data is similar to the video A and the video B, for example, a value obtained by multiplying the association degree between the video A and the video B and the reference data by an arbitrary coefficient is calculated as the first association degree. Is done.

評価部13は、第1連関度を算出したあと、評価用映像データ、参照データ、及び第1連関度を含む評価データを取得する。なお、評価部13は、例えば図7又は図8に示した参照データベースを参照して、第1連関度を算出してもよい。   After calculating the first association degree, the evaluation unit 13 acquires evaluation data including evaluation video data, reference data, and the first association degree. Note that the evaluation unit 13 may calculate the first association degree with reference to, for example, the reference database illustrated in FIG. 7 or FIG.

<出力部14>
出力部14は、評価データに基づき評価結果を生成し、評価結果を出力する。出力部14は、例えば評価データの第1連関度に基づいて、評価用映像データに対する評価結果を生成する。また、出力部14は、例えば評価データの加工処理等を行わずに評価結果として生成してもよい。
<Output unit 14>
The output unit 14 generates an evaluation result based on the evaluation data and outputs the evaluation result. The output unit 14 generates an evaluation result for the evaluation video data based on, for example, the first association degree of the evaluation data. Further, the output unit 14 may generate the evaluation result without performing the processing of the evaluation data, for example.

出力部14は、生成した評価結果を出力する。出力部14は、I/F107を介して出力部分109に評価結果を出力するほか、例えばI/F105を介して任意の装置に評価結果を出力してもよい。   The output unit 14 outputs the generated evaluation result. The output unit 14 may output the evaluation result to the output unit 109 via the I / F 107, or may output the evaluation result to an arbitrary device via the I / F 105, for example.

<入力部15>
入力部15は、I/F105を介して撮影装置3から送信された評価用映像データを受信するほか、例えばI/F106を介して入力部分108から入力された各種情報を受信する。そのほか、入力部15は、例えばサーバ2に記憶された評価用映像データを受信してもよい。入力部15は、例えば可搬メモリ等の記憶媒体を介して、評価用映像データ等を受信してもよい。入力部15は、例えば利用者が評価結果に基づいて作成した更新用データや、連関度を更新するために用いられる学習用データ等を受信する。
<Input unit 15>
The input unit 15 receives the evaluation video data transmitted from the imaging device 3 via the I / F 105 and receives various types of information input from the input part 108 via the I / F 106, for example. In addition, the input unit 15 may receive evaluation video data stored in the server 2, for example. The input unit 15 may receive evaluation video data or the like via a storage medium such as a portable memory. The input unit 15 receives, for example, update data created by the user based on the evaluation result, learning data used to update the association degree, and the like.

<更新部16>
更新部16は、例えば過去の映像データと、参照データとの間の関係を新たに取得した場合には、関係を連関度に反映させる。連関度に反映させるデータとして、例えば利用者が新たに作成した映像データと、映像データに対応する参照データとを含む更新データが用いられる。このほか、連関度に反映させるデータとして、例えば利用者が評価結果に基づいて作成した学習用データが用いられる。
<Update unit 16>
For example, when the relationship between the past video data and the reference data is newly acquired, the update unit 16 reflects the relationship in the association degree. As data to be reflected in the association degree, for example, update data including video data newly created by the user and reference data corresponding to the video data is used. In addition, as the data to be reflected in the association degree, for example, learning data created by the user based on the evaluation result is used.

<サーバ2>
サーバ2には、各種情報に関するデータ(データベース)が記憶されている。このデータベースには、例えば公衆通信網4を介して送られてきた情報が蓄積される。サーバ2には、例えば情報DB11と同様の情報が記憶され、公衆通信網4を介して事象評価支援装置1と各種情報の送受信が行われてもよい。サーバ2として、例えばネットワーク上のデータベースサーバが用いられてもよい。サーバ2は、上述した記憶部104や情報DB11の代わりに用いられてもよい。
<Server 2>
The server 2 stores data (database) related to various types of information. In this database, for example, information sent via the public communication network 4 is accumulated. The server 2 may store information similar to the information DB 11, for example, and may transmit / receive various information to / from the event evaluation support apparatus 1 via the public communication network 4. As the server 2, for example, a database server on a network may be used. The server 2 may be used instead of the storage unit 104 and the information DB 11 described above.

<撮影装置3>
撮影装置3は、評価用映像データを撮影し、事象評価支援装置1に送信する。撮影装置3として、例えば防犯カメラやピンホールカメラ等の画像及び音を含んだ映像を取得できる装置が用いられる。撮影装置3として、例えばカメラを備えたドローンや、カメラ付きの携帯端末等が用いられてもよい。なお、撮影装置3は、例えば事象評価支援装置1の構成を含んでもよい。
<Photographing device 3>
The imaging device 3 captures the evaluation video data and transmits it to the event evaluation support device 1. As the image capturing device 3, for example, a device such as a security camera or a pinhole camera that can acquire images including images and sounds is used. As the imaging device 3, for example, a drone equipped with a camera, a mobile terminal with a camera, or the like may be used. Note that the imaging device 3 may include, for example, the configuration of the event evaluation support device 1.

<公衆通信網4>
公衆通信網4(ネットワーク)は、事象評価支援装置1及び撮影装置3等が通信回路を介して接続されるインターネット網等である。公衆通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、公衆通信網4は、有線通信網には限定されず、無線通信網で実現してもよい。
<Public communication network 4>
The public communication network 4 (network) is an Internet network or the like to which the event evaluation support device 1 and the imaging device 3 are connected via a communication circuit. The public communication network 4 may be a so-called optical fiber communication network. The public communication network 4 is not limited to a wired communication network, and may be realized by a wireless communication network.

(実施形態:事象評価支援システム100の動作)
次に、本実施形態における事象評価支援システム100の動作の一例について説明する。図11は、本実施形態における事象評価支援システム100の動作の一例を示すフローチャートである。
(Embodiment: Operation of Event Evaluation Support System 100)
Next, an example of operation | movement of the event evaluation assistance system 100 in this embodiment is demonstrated. FIG. 11 is a flowchart showing an example of the operation of the event evaluation support system 100 in the present embodiment.

<取得手段:S110>
先ず、評価の対象となる評価用映像データを取得する(取得手段S110)。取得部12は、入力部15を介して、撮影装置3により生成された評価用映像データを取得するほか、例えば公衆通信網4や可搬メモリ等の記憶媒体を介して、評価用映像データを取得してもよい。取得部12は、評価用映像データに加え、例えば人物情報を取得してもよい。なお、取得部12は、取得した評価用映像データ等を情報DB11に記憶させてもよい。
<Acquisition means: S110>
First, evaluation video data to be evaluated is acquired (acquisition means S110). The acquisition unit 12 acquires the evaluation video data generated by the imaging device 3 via the input unit 15, and also receives the evaluation video data via a storage medium such as the public communication network 4 or a portable memory. You may get it. The acquisition unit 12 may acquire, for example, person information in addition to the evaluation video data. The acquisition unit 12 may store the acquired evaluation video data and the like in the information DB 11.

例えば取得部12は、一定期間に撮影された評価用映像データを取得する。撮影装置3から取得する場合、取得部12は、連続的に撮影された評価用映像データを取得するほか、断続的に撮影された評価用映像データを取得してもよい。取得部12が撮影装置3から評価用映像データを取得するタイミングは、任意である。なお、取得部12が取得する評価用映像データの撮影条件等は任意である。   For example, the acquisition unit 12 acquires video data for evaluation captured during a certain period. When acquiring from the imaging device 3, the acquisition unit 12 may acquire evaluation video data taken intermittently as well as evaluation video data taken continuously. The timing at which the acquisition unit 12 acquires the evaluation video data from the imaging device 3 is arbitrary. Note that the shooting conditions and the like of the evaluation video data acquired by the acquisition unit 12 are arbitrary.

<評価手段:S120>
次に、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得する(評価手段S120)。評価部13は、取得部12又は情報DB11から評価用映像データを取得し、情報DB11から参照データベースを取得する。
<Evaluation means: S120>
Next, with reference to the reference database, evaluation data including the first degree of association between the evaluation video data and the reference data is acquired (evaluation means S120). The evaluation unit 13 acquires evaluation video data from the acquisition unit 12 or the information DB 11 and acquires a reference database from the information DB 11.

評価部13は、参照データベースを参照することで、評価用映像データと、参照データとの間の第1連関度を算出することができる。評価部13は、例えば評価用画像データと一致、一部一致、又は類似する過去の映像データを選択し、対応する連関度に基づいて第1連関度を算出するほか、例えば参照データベースを分類器のアルゴリズムとして用い、第1連関度を算出してもよい。なお、評価部13は、算出した第1連関度及び取得した評価データを情報DB11に記憶させてもよい。   The evaluation unit 13 can calculate the first association degree between the video data for evaluation and the reference data by referring to the reference database. The evaluation unit 13 selects, for example, past video data that matches, partially matches, or is similar to the evaluation image data, calculates the first association degree based on the corresponding association degree, and, for example, classifies the reference database as a classifier The first association degree may be calculated using the above algorithm. The evaluation unit 13 may store the calculated first association degree and the acquired evaluation data in the information DB 11.

評価部13は、例えば参照データベースを参照し、一定期間に撮影された評価用映像データに対して時系列で第1連関度を算出し、第1連関度を含む評価データを取得する。なお、算出における時系列の単位は、任意である。   The evaluation unit 13 refers to, for example, a reference database, calculates a first association degree in time series with respect to evaluation video data shot in a certain period, and obtains evaluation data including the first association degree. Note that the unit of time series in the calculation is arbitrary.

評価部13は、例えば参照データベースを参照し、一定期間に撮影された評価用映像データの全体に対して第1連関度を算出し、第1連関度を含む評価データを取得する。なお、評価用映像データを撮影する一定期間は、任意である。   The evaluation unit 13 refers to, for example, a reference database, calculates a first association degree with respect to the entire evaluation video data photographed in a certain period, and acquires evaluation data including the first association degree. Note that the fixed period during which the video data for evaluation is photographed is arbitrary.

評価部13は、例えば図7に示した参照データベースを参照し、画像データ及び音データの組み合わせと、参照データとの間の第1連関度を算出してもよい。   For example, the evaluation unit 13 may calculate a first association between the combination of the image data and the sound data and the reference data with reference to the reference database shown in FIG.

評価部13は、例えば図8に示した参照データベースを参照し、画像データと合成データとの間の第1類似度、及び音データと合成データとの間の第2類似度を算出したあと、合成データと参照データとの間の第1連関度を算出してもよい。なお、第1類似度及び第2類似度の算出方法は、第1連関度と同様である。   For example, the evaluation unit 13 refers to the reference database illustrated in FIG. 8 and calculates the first similarity between the image data and the synthesized data and the second similarity between the sound data and the synthesized data. A first degree of association between the combined data and the reference data may be calculated. Note that the calculation method of the first similarity and the second similarity is the same as the first relevance.

評価部13は、例えば図9に示した参照データベースを参照し、画像データ、音データ、及びテキストデータの組み合わせと、参照データとの間の第1連関度を算出してもよい。   For example, the evaluation unit 13 may refer to the reference database illustrated in FIG. 9 to calculate the first association degree between the combination of the image data, the sound data, and the text data and the reference data.

評価部13は、例えば図10に示した参照データベースを参照し、画像データと合成データとの間の第1類似度、音データと合成データとの間の第2類似度、及びテキストデータと合成データとの間の第3類似度を算出したあと、合成データと参照データとの間の第1連関度を算出してもよい。   The evaluation unit 13 refers to, for example, the reference database illustrated in FIG. 10, and combines the first similarity between the image data and the synthesized data, the second similarity between the sound data and the synthesized data, and the text data. After calculating the third similarity with the data, the first association between the combined data and the reference data may be calculated.

<出力手段:S130>
次に、評価データに基づき評価結果を生成し、評価結果を出力する(出力手段S130)。出力部14は、評価部13又は情報DB11から評価データを取得し、例えば情報DB11から評価結果を表示するフォーマットを取得してもよい。
<Output means: S130>
Next, an evaluation result is generated based on the evaluation data, and the evaluation result is output (output unit S130). The output unit 14 may acquire evaluation data from the evaluation unit 13 or the information DB 11, and may acquire a format for displaying the evaluation result from the information DB 11, for example.

出力部14は、評価データに基づいて、例えばフォーマットを参照して評価結果を生成する。出力部14は、例えば図2(a)に示すように、テキスト形式で評価結果を生成するほか、例えば図2(b)に示すように、評価用映像データの一部を用いた形式で評価結果を生成してもよい。   The output unit 14 generates an evaluation result based on the evaluation data with reference to, for example, a format. The output unit 14 generates an evaluation result in a text format as shown in FIG. 2A, for example, and also evaluates in a format using a part of video data for evaluation as shown in FIG. 2B, for example. Results may be generated.

その後、出力部14は、評価結果を出力する。出力部14は、出力部分109に評価結果を出力する。出力部14は、例えば予め設定された報知基準値と、第1連関度とを比較した結果に基づき、評価結果を出力してもよい。この場合、例えば報知基準値を「90%以上」と設定したとき、第1連関度が90%以上の場合のみ評価結果を出力する。すなわち、報知基準値は任意の閾値であり、報知基準値以上又は以下等の条件は任意に設定することができる。   Thereafter, the output unit 14 outputs the evaluation result. The output unit 14 outputs the evaluation result to the output part 109. The output unit 14 may output an evaluation result based on, for example, a result obtained by comparing a preset notification reference value with the first association degree. In this case, for example, when the notification reference value is set to “90% or more”, the evaluation result is output only when the first association degree is 90% or more. That is, the notification reference value is an arbitrary threshold value, and conditions such as the notification reference value greater than or less than the notification reference value can be arbitrarily set.

<更新手段:S140>
その後、例えば過去の映像データと、参照データとの間の関係を新たに取得した場合には、関係を連関度に反映させてもよい(更新手段:S140)。更新部16は、例えば利用者が新たに作成した更新データを取得し、類似度に反映させる。このほか、更新部16は、例えば利用者が評価結果に基づいて作成した学習用データを取得し、類似度に反映させる。更新部16は、例えば機械学習を用いて類似度の算出及び更新を行い、機械学習には、例えば畳込みニューラルネットワークが用いられる。なお、更新部16は、例えば画像データと合成データとの間の関係、音データと合成データとの間の関係、及びテキストデータと合成データとの間の関係の少なくとも何れかを新たに取得した場合には、関係を類似度に更新させてもよい。類似度を更新させる場合、連関度を更新させる必要が無い。このため、参照データベースの更新に伴う負荷を最小限に抑えることが可能となる。
<Update means: S140>
Thereafter, for example, when a new relationship between past video data and reference data is acquired, the relationship may be reflected in the association degree (update means: S140). For example, the update unit 16 acquires update data newly created by the user and reflects the update data in the similarity. In addition, for example, the update unit 16 acquires learning data created by the user based on the evaluation result, and reflects it in the similarity. The update unit 16 calculates and updates the similarity using, for example, machine learning. For example, a convolutional neural network is used for the machine learning. Note that the update unit 16 newly acquires, for example, at least one of a relationship between image data and synthesized data, a relationship between sound data and synthesized data, and a relationship between text data and synthesized data. In some cases, the relationship may be updated to the similarity. When updating the similarity, it is not necessary to update the association degree. For this reason, it is possible to minimize the load accompanying the update of the reference database.

これにより、本実施形態における事象評価支援システム100の動作が終了する。なお、上述した更新手段S140を実施するか否かは任意である。また、本実施形態における事象評価支援プログラムとして、上記動作をコンピュータに実行させてもよい。   Thereby, the operation of the event evaluation support system 100 in the present embodiment is completed. Note that whether or not the above-described updating unit S140 is performed is arbitrary. Moreover, you may make a computer perform the said operation | movement as an event evaluation assistance program in this embodiment.

(実施形態:評価用映像データ、過去の映像データ、及び参照データ)
次に、評価用映像データ、過去の映像データ、及び参照データについて説明する。評価用映像データ、過去の映像データ、及び参照データは、図3及び図4に示すように、事象評価支援システム100の利用環境(カテゴリ)毎に異なるデータを含む。参照データベースには、各カテゴリに対応するデータが状況に応じて記憶される。以下、カテゴリ別の特徴を説明する。なお、図3及び図4には、各カテゴリに対応するデータの一例が記載されている。
(Embodiment: Evaluation video data, past video data, and reference data)
Next, evaluation video data, past video data, and reference data will be described. The evaluation video data, the past video data, and the reference data include different data for each use environment (category) of the event evaluation support system 100 as shown in FIGS. In the reference database, data corresponding to each category is stored according to the situation. Hereinafter, characteristics by category will be described. 3 and 4 show examples of data corresponding to each category.

<テレビ番組制作>
事象評価支援システム100は、カテゴリ「テレビ番組制作」において、制作中のテレビ番組に基づいて視聴率の予測等を出力する(例えば図12(a))。ここで「テレビ番組」とは、地上デジタルテレビ放送で放送される番組のほか、例えばインターネットを介して配信されるインターネットテレビ等の番組を示す。
<TV program production>
In the category “television program production”, the event evaluation support system 100 outputs an audience rating prediction based on the television program being produced (for example, FIG. 12A). Here, the “TV program” indicates a program such as an Internet TV distributed via the Internet, in addition to a program broadcast by terrestrial digital TV broadcasting.

この場合、評価用映像データとして、制作中のテレビ番組に関する映像が用いられる。すなわち、評価用映像データは、未公開の映像データである。このとき、画像データは、制作中のテレビ番組の画像、撮影された動物や出演者の動作を含むほか、例えば背景、フリップボード、説明資料、テロップ、ワイプ等を含む。音データは、制作中のテレビ番組に流れる音、出演者の声や口調、動物の鳴き声等を含む。評価用映像データは、例えば制作中のテレビ番組に流れる音、出演者が言った内容、動物の鳴き声等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, a video related to the television program being produced is used. That is, the evaluation video data is unpublished video data. At this time, the image data includes, for example, the image of the television program being produced, the action of the photographed animal and the performer, and also includes, for example, the background, flip board, explanatory material, telop, wipe, and the like. The sound data includes the sound that flows in the television program being produced, the voice and tone of the performers, the cry of animals, and the like. The video data for evaluation may include, for example, text data corresponding to sounds flowing in a television program being produced, contents said by a performer, animal calls, and the like.

また、過去の映像データとして、放送されたテレビ番組に関する映像が用いられる。すなわち、過去の映像データは、複数の視聴者に公開された映像である。このとき、過去の画像データは、既に放送されたテレビ番組の画像、撮影された動物や出演者の動作等を含むほか、例えば背景、フリップボード、説明資料、テロップ、ワイプ等を含む。過去の音データは、既に放送されたテレビ番組に流れる音、出演者の声や口調、動物の鳴き声等を含む。過去の評価用映像データは、例えば既に放送されたテレビ番組に流れる音、出演者が言った内容、動物の鳴き声等に対応する過去のテキストデータを含んでもよい。   In addition, as past video data, a video related to a broadcast television program is used. That is, the past video data is a video released to a plurality of viewers. At this time, the past image data includes, for example, an image of a television program that has already been broadcast, the action of a photographed animal or performer, and the like, for example, a background, a flip board, explanatory material, a telop, a wipe, and the like. Past sound data includes sounds that flow in already broadcast television programs, performers' voices and tone, animal calls, and the like. The past evaluation video data may include past text data corresponding to, for example, sound flowing in a television program that has already been broadcast, contents said by a performer, and animal calls.

また、参照データとして、既に公開された過去の映像データに対応する視聴率(例えば0%〜100%)が用いられる。このとき、評価結果として、評価用映像データに対する視聴率の予測が含まれるほか、例えば予測される視聴率の推移、視聴率が取れる番組の傾向や特徴等が含まれる。   As reference data, an audience rating (for example, 0% to 100%) corresponding to past video data that has already been released is used. At this time, the evaluation result includes prediction of the audience rating for the video data for evaluation, and includes, for example, the transition of the predicted audience rating, the tendency and characteristics of the program that can obtain the audience rating, and the like.

上記の場合、例えば評価手段S120において、評価部13は、例えば評価用映像データを任意の2以上の期間に分割し、分割された評価用映像データと、参照データ(視聴率)との間の第1連関度を算出し、評価データを取得する。その後、出力手段S130において、出力部14は、第1連関度に基づき視聴率の経時推移の評価を含む評価結果を生成する。このため、評価用映像データに対する視聴率の経時推移の予測を確認することができる。これにより、テレビ番組を公開する前に改善点等を把握することができ、テレビ番組の質の向上を図ることが可能となる。   In the above case, for example, in the evaluation unit S120, the evaluation unit 13 divides the evaluation video data into two or more arbitrary periods, for example, and between the divided evaluation video data and the reference data (viewing rate) The first association degree is calculated, and evaluation data is acquired. Thereafter, in the output unit S130, the output unit 14 generates an evaluation result including an evaluation of the temporal transition of the audience rating based on the first association degree. For this reason, it is possible to confirm the prediction of the temporal transition of the audience rating for the evaluation video data. As a result, improvement points and the like can be grasped before the television program is released, and the quality of the television program can be improved.

また、例えば出力手段S130において、出力部14は、例えば高い視聴率に対して第1連関度の高い画像データ、音データ、及びテキストデータの少なくとも何れかを評価結果に含めてもよい。このため、評価結果を参照して視聴率が取れる番組の傾向や特徴を容易に把握することができる。これにより、テレビ番組を公開する前に改善点等を容易に把握することができ、テレビ番組の質の向上をさらに図ることが可能となる。   For example, in the output unit S130, the output unit 14 may include, for example, at least one of image data, sound data, and text data having a high first association degree with respect to a high audience rating in the evaluation result. For this reason, it is possible to easily grasp the tendency and characteristics of the program that can obtain the audience rating with reference to the evaluation result. As a result, it is possible to easily grasp improvement points and the like before releasing the television program, and it is possible to further improve the quality of the television program.

<経済情報>
事象評価支援システム100は、カテゴリ「経済情報」において、公開映像に基づいて経済情報の予測等を出力する(例えば図12(b))。ここで「経済情報」とは、株式、為替、又は商品取引等における経時推移を示す。また、「公開映像」とは、経済ニュース番組、IPO(Initial Public Offering)時における企業の会見、FOMC(Federal Open Market Committee)における会見等の経済情報に関する映像を示す。
<Economic information>
In the category “economic information”, the event evaluation support system 100 outputs economic information prediction or the like based on the public video (for example, FIG. 12B). Here, the “economic information” indicates a change over time in stocks, exchange rates, commodity transactions, or the like. “Public video” refers to a video related to economic information such as economic news programs, company meetings during IPO (Initial Public Offering), meetings at FOMC (Federal Open Market Committee), and the like.

この場合、評価用映像データとして、放送中(発信中)又は放送直後(発信直後)の経済情報に関する映像が用いられる。すなわち、評価用映像データは、生放送中の公開映像であり、視聴者が視聴した結果に基づいて株取引等を実施し得る映像である。このとき、画像データは、公開映像の画像、撮影された出演者の動作を含むほか、例えば背景、フリップボード、説明資料、テロップ、ワイプ等を含んでもよい。音データは、公開映像に流れる音、出演者の声や口調等を含む。評価用映像データは、例えば公開映像に流れる音や出演者が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, an image related to economic information during broadcasting (during transmission) or immediately after broadcasting (immediately after transmission) is used. That is, the evaluation video data is a public video that is being broadcast live, and is a video that can be used for stock trading or the like based on the result of viewing by the viewer. At this time, the image data may include a background video, a flip board, explanatory material, a telop, a wipe, etc., in addition to the image of the public video and the action of the photographed performer. The sound data includes the sound that flows in the public video, the voice and tone of the performers, and the like. The evaluation video data may include text data corresponding to, for example, sound flowing in the public video, contents said by the performer, or the like.

また、過去の映像データとして、過去に公開された経済情報に関する映像が用いられる。すなわち、過去の映像データは、視聴者が視聴した結果に基づいて株取引等を実施したと想定されるような、経済情勢に影響を及ぼす可能性のある公開映像である。このとき、過去の画像データは、過去に公開された映像の画像、撮影された出演者の動作等を含むほか、例えば背景、フリップボード、説明資料、テロップ、ワイプ等を含んでもよい。過去の音データは、過去に公開された映像に流れる音、出演者の声や口調等を含む。過去の映像データは、例えば過去に公開された映像に流れる音や出演者が言った内容等に対応する過去のテキストデータを含んでもよい。   Also, as past video data, a video related to economic information released in the past is used. In other words, the past video data is a public video that may affect the economic situation, as it is assumed that stock trading or the like has been performed based on the result viewed by the viewer. At this time, the past image data may include, for example, a background, a flip board, explanatory material, a telop, a wipe, and the like, in addition to the image of the video released in the past and the action of the photographed performer. The past sound data includes sounds flowing in videos released in the past, voices and tone of performers, and the like. The past video data may include past text data corresponding to, for example, sound flowing in a video released in the past, contents said by a performer, or the like.

また、参照データとして、公開された過去の映像データに対する過去の経済情報の傾向(例えば任意の数値程度上昇、若しくは下降、又は変化なし等)が用いられ、例えば過去の株式、為替、及び先物取引の少なくとも何れかの過去の値動きの経時推移を含む。参照データは、例えば企業業績(連結決算、中間決算等)を含んでもよい。このとき、評価結果として、評価用映像データに対する経済情報の予測が含まれるほか、例えば予測される株価等の値動き、株価等が上がる場合の特徴、予測される企業業績の推移、企業業績が良くなる場合の特徴等が含まれる。なお、株価等の値動きが予測できる時期及び期間は、任意に設定することができ、例えば公開映像の放送直後〜30分のほか、例えば次の日に設定してもよい。   Also, as the reference data, past economic information trends with respect to published past video data (for example, up, down, or no change of any numerical value) are used. For example, past stocks, exchange rates, and futures transactions Of at least one of the past price movements. The reference data may include, for example, company performance (consolidated settlement, interim settlement, etc.). At this time, the evaluation result includes prediction of economic information for the video data for evaluation, for example, price fluctuation of the predicted stock price, characteristics when the stock price rises, predicted corporate performance transition, corporate performance is good And the like. Note that the time and period during which price movements such as stock prices can be predicted can be arbitrarily set, and may be set, for example, on the next day in addition to immediately after 30 minutes of broadcasting a public video.

上記の場合、例えば取得手段S110において、取得部12は、評価用映像データの撮影された時間に対応し、株式、為替、及び先物取引の少なくとも何れかの値動きを示す評価用値動きを取得してもよい。評価用値動きは、例えば評価用映像データが公開される直前の株式、為替、及び先物取引の少なくとも何れかの相場の経時推移を示す。このとき、出力手段S130において、出力部14は、第1連関度に基づく評価用値動きの経時推移の評価を含む評価結果を生成する。このため、評価用映像データの影響を踏まえた値動きの経時推移の評価を容易に取得することができる。これにより、上記評価結果を一材料として企業等の事業計画等を検討することができ、事業戦略の選択肢を増加させることが可能となる。   In the above case, for example, in the acquisition unit S110, the acquisition unit 12 acquires the price movement for evaluation indicating the price movement of at least one of stocks, exchange rates, and futures transactions corresponding to the time when the video data for evaluation is taken. Also good. The evaluation price movement indicates, for example, a time course of the market price of at least one of stocks, exchange rates, and futures transactions immediately before the evaluation video data is released. At this time, in the output unit S130, the output unit 14 generates an evaluation result including the evaluation of the temporal transition of the evaluation value movement based on the first association degree. For this reason, it is possible to easily obtain the evaluation of the temporal transition of the price movement based on the influence of the evaluation video data. This makes it possible to examine a business plan of a company etc. using the evaluation result as a material, and to increase the options of business strategy.

また、例えば出力手段S130において、出力部14は、過去の値動きに対して第1連関度の高い画像データ、音データ、及びテキストデータの少なくとも何れかを評価結果に含めてもよい。このため、評価結果を参照して株価が上がる場合における公開映像の特徴を容易に把握することができる。これにより、公開映像の特徴を一材料として事業戦略の選択肢をさらに増加させることが可能となる。   Further, for example, in the output unit S130, the output unit 14 may include at least one of image data, sound data, and text data having a high first association with the past price movement in the evaluation result. For this reason, it is possible to easily grasp the characteristics of the public video when the stock price increases with reference to the evaluation result. This makes it possible to further increase business strategy options using the characteristics of the public video as one material.

なお、例えば上述した予測される株価等の値動き、及び株価等が上がる場合の特徴に代えて、予測される企業業績の推移、企業業績が良くなる場合の特徴が評価結果に含まれてもよい。この場合も、上述した内容と同様に、公開映像の特徴を一材料として事業戦略の選択肢をさらに増加させることが可能となる。   In addition, for example, instead of the above-described price fluctuation of the predicted stock price and the feature when the stock price rises, the evaluation result may include the transition of the predicted corporate performance and the feature when the corporate performance improves. . In this case as well, as described above, it is possible to further increase business strategy options using the characteristics of the public video as one material.

<犯行現場>
事象評価支援システム100は、カテゴリ「犯行現場」において、例えば防犯カメラ等の撮影装置3に撮影された映像に基づいて、犯行に及ぶ可能性のある人を特定する情報等を出力する(例えば図2(b))。ここで、「犯行現場」とは、例えばコンビニエンスストア内の万引き等が挙げられ、防犯カメラ等を設置できる場所で発生し得る犯罪を示す。
<Crime scene>
In the category “crime scene”, the event evaluation support system 100 outputs, for example, information for identifying a person who is likely to commit a crime based on a video imaged by the imaging device 3 such as a security camera (for example, FIG. 2 (b)). Here, “crime scene” refers to, for example, shoplifting in a convenience store, and indicates a crime that can occur in a place where a security camera or the like can be installed.

この場合、評価用映像データとして、例えば撮影装置3に撮影された映像が用いられる。評価用映像データは、リアルタイム又はリアルタイムに近い映像である。このとき、画像データは、撮影装置3に撮影された画像や人の動作を含むほか、例えば撮影された環境、明るさ、陳列された商品等を含む。音データは、撮影装置3に撮影された音、人の声や口調等を含む。評価用映像データは、例えば撮影装置3に撮影された音や人が言った内容等に対応するテキストデータを含んでもよい。   In this case, for example, a video photographed by the photographing device 3 is used as the evaluation video data. The evaluation video data is a video in real time or near real time. At this time, the image data includes an image captured by the image capturing device 3 and a human action, and also includes, for example, a captured environment, brightness, displayed merchandise, and the like. The sound data includes a sound photographed by the photographing device 3, a human voice, a tone, and the like. The evaluation video data may include, for example, text data corresponding to sound captured by the image capturing device 3, contents spoken by a person, and the like.

また、過去の映像データとして、過去に犯罪が発生した前後における犯行現場で撮影装置3に撮影された映像が用いられる。このとき、過去の画像データは、犯行現場で犯行前後に撮影された画像や犯罪者の動作を含むほか、例えば撮影された環境、明るさ、陳列された商品等を含む。過去の音データは、犯行現場で犯行前後に撮影された音、犯罪者の声や口調、被害者の声や口調等を含む。過去の映像データは、例えば犯行現場で犯行前後に撮影された音、犯罪者が言った内容、被害者が言った内容等に対応する過去のテキストデータを含んでもよい。   Further, as the past video data, a video photographed by the photographing device 3 at the crime scene before and after a crime occurred in the past is used. At this time, the past image data includes images taken before and after the crime at the crime scene and actions of the criminal, as well as, for example, the photographed environment, brightness, displayed products, and the like. The past sound data includes sounds taken before and after the crime at the crime scene, the voice and tone of the offender, the voice and tone of the victim, and the like. The past video data may include past text data corresponding to, for example, sounds taken before and after the crime at the crime scene, content said by the criminal, content said by the victim, and the like.

また、参照データとして、犯罪の種類(例えば万引き、強盗等)に関する情報が用いられる。このとき、評価結果として、犯行に及ぶ可能性のある人を特定する情報が含まれる。   In addition, information regarding the type of crime (for example, shoplifting, robbery, etc.) is used as reference data. At this time, the evaluation result includes information for identifying a person who may possibly commit the crime.

上記の場合、出力手段S130において、出力部14は、例えば予め設定された報知基準値と、第1連関度とを比較した結果に基づき、評価結果を出力してもよい。これにより、出力部14は、評価用映像データに撮影された人のうち、犯行に及ぶ可能性のある人を特定した場合のみ出力することができる。これにより、犯罪の発生を予防することができる。   In the above case, in the output unit S130, the output unit 14 may output the evaluation result based on, for example, a result obtained by comparing a preset notification reference value with the first association degree. Thereby, the output part 14 can output only when the person who may reach a crime is specified among the persons image | photographed by the video data for evaluation. Thereby, generation | occurrence | production of a crime can be prevented.

また、例えば出力手段S130において、出力部14は、例えば犯罪の種類に対して第1連関度の高い画像データ、音データ、及びテキストデータの少なくとも何れかを評価結果に含めてもよい。このため、評価結果を参照して犯罪が起こり得る場合における映像の特徴を容易に把握することができる。これにより、犯罪が起こり得る環境や場所に対し、改善案を容易に検討することが可能となる。   For example, in the output unit S130, the output unit 14 may include, for example, at least one of image data, sound data, and text data having a high first association degree with respect to the crime type in the evaluation result. For this reason, it is possible to easily grasp the characteristics of the video when a crime can occur with reference to the evaluation result. This makes it possible to easily consider improvement plans for environments and places where crimes can occur.

<ゲーム制作>
事象評価支援システム100は、カテゴリ「ゲーム制作」において、ユーザが開発中のゲームを実施しているときに撮影された映像に基づいて、ゲームへの課金量の予測等を評価結果として出力する。
<Game production>
The event evaluation support system 100 outputs, as an evaluation result, a prediction of a charge amount for a game based on a video shot when a user is playing a game under development in the category “game production”.

この場合、評価用映像データとして、例えばユーザの携帯端末等の撮影装置3に撮影された映像が用いられる。このとき、画像データは、開発中のゲームを実施している時に撮影された画像やユーザの動作等を含む。音データは、開発中のゲームを実施している時に撮影された音、ユーザの声や口調等を含む。評価用映像データは、例えば開発中のゲームを実施している時に撮影された音やユーザが言った内容等に対応するテキストデータを含んでもよい。   In this case, for example, a video photographed by the photographing device 3 such as a user portable terminal is used as the evaluation video data. At this time, the image data includes images taken when a game under development is being performed, user actions, and the like. The sound data includes sounds taken when a game under development, a user's voice, tone, and the like are taken. The evaluation video data may include, for example, text data corresponding to a sound taken when a game under development is being performed, a content said by the user, or the like.

また、過去の映像データとして、公開又は販売済みのゲームをユーザが実施している時において撮影装置3に撮影された映像が用いられ、例えばユーザの課金量、ログイン数、プレイ時間等と紐づけられた映像が用いられる。このとき、過去の画像データは、公開又は販売済みのゲームを実施している時に撮影された画像やユーザの動作等を含む。過去の音データは、公開又は販売済みのゲームを実施している時に撮影された音、ユーザの声や口調等を含む。過去の映像データは、例えば公開又は販売済みのゲームを実施している時に撮影された音やユーザが言った内容等に対応する過去のテキストデータを含んでもよい。   Further, as the past video data, a video shot by the shooting device 3 when the user is playing a game that has been released or sold is used, and is associated with, for example, the user's charge amount, the number of logins, the play time, and the like. Recorded images are used. At this time, the past image data includes an image taken when a game that has been released or sold is being executed, an action of the user, and the like. The past sound data includes a sound taken when a game that has been released or sold is being implemented, a user's voice or tone, and the like. The past video data may include past text data corresponding to, for example, a sound captured when a game that has been released or sold is being executed, a content that the user has said, and the like.

また、参照データとして、過去の映像データに紐づけられた課金量(例えば合計○○円、□□名が課金実施等)、ログイン数、プレイ時間等が用いられる。すなわち、参照データは、ゲームの進行情報に対する課金量、ログイン数、及びプレイ時間の少なくとも何れかを含む。このとき、評価結果として、課金量の予測が含まれるほか、例えばログイン数の予測、プレイ時間の予測、課金量が上がる場合の特徴、ログイン数が上がる場合の特徴、プレイ時間が長くなる場合の特徴等が含まれる。なお、参考データとして、例えば映像データに紐づけられたユーザのコメント数が用いられてもよい。   In addition, as reference data, a charge amount (for example, a total of XX yen, □□ name is charged) associated with past video data, the number of logins, play time, and the like are used. That is, the reference data includes at least one of a charge amount for game progress information, the number of logins, and a play time. At this time, in addition to the estimation of the charge amount as an evaluation result, for example, the prediction of the number of logins, the prediction of the play time, the feature when the charge amount increases, the feature when the login number increases, the case where the play time becomes long Features etc. are included. As reference data, for example, the number of user comments associated with video data may be used.

上記の場合、過去の映像データは、ゲームの進行に関する進行情報を含み、評価用映像データは、開発中のゲームの進行に関する開発進行情報を含む。出力手段S130において、出力部14は、例えば第1連関度に基づいて、開発進行情報に対する課金量、ログイン数、及びプレイ時間の少なくとも何れかの経時推移の評価を含む評価結果を生成する。このため、評価用映像データに対する課金量等の予測を確認することができる。これにより、開発中のゲームの改善点を把握することができ、開発中のゲームの質の向上を図ることが可能となる。   In the above case, the past video data includes progress information regarding the progress of the game, and the evaluation video data includes development progress information regarding the progress of the game under development. In the output unit S130, the output unit 14 generates an evaluation result including an evaluation of a temporal transition of at least one of the charge amount for the development progress information, the number of logins, and the play time based on, for example, the first association degree. For this reason, it is possible to confirm the prediction of the charge amount for the evaluation video data. As a result, the improvement points of the game under development can be grasped, and the quality of the game under development can be improved.

また、例えば出力手段S130において、出力部14は、例えば高い課金量等に対して第1連関度の高い画像データ、音データ、及びテキストデータの少なくとも何れかを評価結果に含めてもよい。このため、評価結果を参照して課金量等が得られる傾向や特徴を容易に把握することができる。ここれにより、開発中のゲームの改善点を容易に把握することができ、開発中のゲームの質の向上を容易に図ることが可能となる。   For example, in the output unit S130, the output unit 14 may include, for example, at least one of image data, sound data, and text data having a high first relation with respect to a high charge amount or the like in the evaluation result. For this reason, it is possible to easily grasp the tendency and characteristics of obtaining the charge amount by referring to the evaluation result. As a result, the improvement points of the game under development can be easily grasped, and the quality of the game under development can be easily improved.

<取り調べ>
事象評価支援システム100は、カテゴリ「取り調べ」において、取り調べ室で撮影された映像に基づいて、容疑者が有罪か無罪かの推定結果等を出力する。
<Interrogation>
The event evaluation support system 100 outputs an estimation result of whether the suspect is guilty or not guilty based on the video photographed in the investigation room in the category “interrogation”.

この場合、評価用映像データとして、例えば防犯カメラやピンホールカメラ眼鏡等の撮影装置3に撮影された映像が用いられる。このとき、画像データは、取り調べ時に撮影された画像、容疑者の動作、取調官の動作等を含む。音データは、取り調べ時に撮影された音、容疑者の声や口調、取調官の声や口調等を含む。評価用映像データは、例えば取り調べ時に撮影された音、容疑者が言った内容、取調官が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, for example, a video shot by the shooting device 3 such as a security camera or pinhole camera glasses is used. At this time, the image data includes an image taken at the time of the examination, the action of the suspect, the action of the interrogator, and the like. The sound data includes sounds taken at the time of investigation, suspect's voice and tone, interviewer's voice and tone, and the like. The video data for evaluation may include, for example, text data corresponding to the sound photographed at the time of investigation, the contents said by the suspect, the contents said by the interrogator, and the like.

また、過去の映像データとして、判決が確定した事案において取り調べ(過去の取り調べ)が行われた時に撮影された映像等が用いられる。このとき、過去の画像データは、過去の取り調べ時に撮影された画像、容疑者の動作、取調官の動作等を含む。過去の音データは、過去の取り調べ時に撮影された音、容疑者の声や口調、取調官の声や口調等を含む。過去の映像データは、例えば過去の取り調べ時に撮影された音、容疑者が言った内容、取調官が言った内容等に対応する過去のテキストデータを含んでもよい。   In addition, as the past video data, a video or the like taken when a survey (past survey) is performed in a case where a judgment is finalized is used. At this time, the past image data includes an image taken at the time of past examination, a suspect's action, an interrogator's action, and the like. The past sound data includes sounds taken during past investigations, suspect's voice and tone, interviewer's voice and tone, and the like. The past video data may include past text data corresponding to, for example, sounds taken during past investigations, contents said by the suspect, contents said by the interrogator, and the like.

また、参照データとして、過去の映像データに対応する判例が用いられるほか、例えば過去の取り調べ情報の真偽等が用いられる。このとき、評価結果として、容疑者が有罪か無罪かの推定するための情報が含まれるほか、例えば容疑者の証言の真偽を推定するための情報が含まれる。これにより、容疑者の動作、音等、言った内容等に基づいた定量的な評価結果を得ることができ、取り調べの効率化を図ることが可能となる。   Further, as reference data, a case corresponding to past video data is used, and for example, authenticity of past survey information is used. At this time, the evaluation result includes information for estimating whether the suspect is guilty or not guilty, and for example, includes information for estimating the authenticity of the suspect's testimony. This makes it possible to obtain a quantitative evaluation result based on the suspect's motion, sound, and the like, and to improve the efficiency of the investigation.

<人間関係>
事象評価支援システム100は、カテゴリ「人間関係」において、評価対象者と評価者との会話中に撮影された映像に基づいて、評価者が受ける印象の予測等を評価結果として出力する。
<Relationship>
The event evaluation support system 100 outputs, as an evaluation result, a prediction of an impression received by the evaluator based on a video taken during the conversation between the evaluation target person and the evaluator in the category “human relation”.

この場合、評価用映像データとして、例えば防犯カメラやピンホールカメラ眼鏡等の撮影装置3に撮影された映像が用いられる。評価用映像データとして、例えばコミュニケーション能力の上達を図るための会話のシミュレーション等に撮影された映像が用いられる。このとき、画像データは、会話のシミュレーション時に撮影された画像、評価対象者の動作、評価者の動作等を含む。音データは、会話のシミュレーション時に撮影された音、評価対象者の声や口調、評価者の声や口調等を含む。評価用映像データは、例えば会話のシミュレーション時に撮影された音、評価対象者が言った内容、評価者が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, for example, a video shot by the shooting device 3 such as a security camera or pinhole camera glasses is used. As the evaluation video data, for example, a video shot for conversation simulation or the like for improving communication ability is used. At this time, the image data includes an image taken at the time of the conversation simulation, the operation of the evaluation subject, the operation of the evaluator, and the like. The sound data includes a sound photographed during the simulation of the conversation, the voice and tone of the evaluation subject, the voice and tone of the evaluator, and the like. The evaluation video data may include text data corresponding to, for example, a sound photographed during a conversation simulation, a content said by the evaluation subject, a content said by the evaluator, and the like.

また、過去の映像データとして、過去の会話時に撮影された映像が用いられ、評価対象者の会話に対して評価者が受けた印象等と紐づけられた映像が用いられる。このとき、過去の画像データは、会話時に撮影された画像、評価対象者の動作、評価者の動作等を含む。過去の音データは、会話時に撮影された音、評価対象者の声や口調、評価者の声や口調等を含む。過去の映像データは、例えば会話時に撮影された音、評価対象者が言った内容、評価者が言った内容等に対応する過去のテキストデータを含んでもよい。   In addition, as the past video data, a video photographed during a past conversation is used, and a video associated with an impression received by the evaluator with respect to the conversation of the evaluation subject is used. At this time, the past image data includes an image taken at the time of conversation, an action of the evaluation subject, an action of the evaluator, and the like. The past sound data includes sounds taken during conversation, the voice and tone of the evaluation subject, the voice and tone of the evaluator, and the like. The past video data may include past text data corresponding to, for example, a sound captured during conversation, a content said by the evaluation subject, a content said by the evaluator, and the like.

また、参照データとして、過去の映像データに紐づけられた評価者が受けた印象に関する情報が用いられるほか、例えば良い人間関係を形成するための方法等が用いられる。このとき、評価結果として、評価者が受ける印象の予測が含まれるほか、例えば印象が良くなる特徴分析結果等が含まれる。これにより、会話時において相手に与える印象を定量的に評価することができるほか、評価対象者のコミュニケーション方法の改善案を容易に提案することができ、評価対象者のコミュニケーション能力を効率良く向上させることが可能となる。なお、例えば町中で評価対象者が知らない人(評価者)に食事等の誘いをした場合に、評価者が同意するか否かの予測を評価結果として出力することもできる。   Further, as reference data, information related to an impression received by an evaluator associated with past video data is used, and for example, a method for forming a good human relationship is used. At this time, the evaluation result includes a prediction of an impression received by the evaluator, and a feature analysis result that improves the impression, for example. This makes it possible to quantitatively evaluate the impression given to the other party during conversation, and to easily propose an improvement plan for the communication method of the evaluation target person, thereby efficiently improving the communication ability of the evaluation target person It becomes possible. In addition, for example, when the person to be evaluated in the town invites a person who does not know (evaluator) such as a meal, a prediction as to whether or not the evaluator agrees can be output as an evaluation result.

<販売、接客>
事象評価支援システム100は、カテゴリ「販売、接客」において、販売員が顧客に接客を行っているときに撮影された映像に基づいて、売上予測等を評価結果として出力する。
<Sales, customer service>
The event evaluation support system 100 outputs a sales forecast or the like as an evaluation result based on a video taken when a salesperson is serving a customer in the category “sales, customer service”.

この場合、評価用映像データとして、例えば防犯カメラやピンホールカメラ眼鏡等の撮影装置3に撮影された映像が用いられる。評価用映像データとして、例えば接客のシミュレーション等に撮影された映像が用いられる。このとき、画像データは、接客のシミュレーション時に撮影された画像、販売員の動作、顧客の動作等を含む。音データは、接客のシミュレーション時に撮影された音、販売員の声や口調、顧客の声や口調等を含む。評価用映像データは、例えば接客のシミュレーション時に撮影された音、販売員が言った内容、顧客が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, for example, a video shot by the shooting device 3 such as a security camera or pinhole camera glasses is used. As the evaluation video data, for example, a video taken for a customer service simulation or the like is used. At this time, the image data includes an image taken at the time of customer service simulation, salesperson's operation, customer's operation, and the like. The sound data includes sounds taken during a customer service simulation, salesperson's voice and tone, customer's voice and tone, and the like. The video data for evaluation may include, for example, text data corresponding to sounds taken during a customer service simulation, contents said by a salesperson, contents said by a customer, and the like.

また、過去の映像データとして、過去の接客時に撮影された映像が用いられ、販売員の売上結果等に紐づけられた映像が用いられる。このとき、過去の画像データは、接客時に撮影された画像、販売員の動作、顧客の動作等を含む。過去の音データは、接客時に撮影された音、販売員の声や口調、顧客の声や口調等を含む。過去の映像データは、例えば接客時に撮影された音、販売員が言った内容、顧客が言った内容等に対応する過去のテキストデータを含んでもよい。   Further, as past video data, a video taken at the time of customer service in the past is used, and a video linked to a sales result of a salesperson is used. At this time, the past image data includes images taken at the time of customer service, salesperson's actions, customer's actions, and the like. The past sound data includes sounds taken at the time of customer service, salesperson's voice and tone, customer's voice and tone, and the like. The past video data may include, for example, past text data corresponding to sounds taken at the time of customer service, contents said by salespersons, contents said by customers, and the like.

また、参照データとして、過去の映像データに紐づけられた販売員の売上が用いられるほか、例えば販売員の模範的な振る舞い(例えば売上向上に繋がる接客のマニュアル等)等が用いられる。このとき、評価結果として、接客のシミュレーションに対する売上予測が含まれるほか、例えば売上を上げるための特徴分析結果等が含まれる。これにより、販売員の接客の影響を定量的に評価することができるほか、販売員の接客方法の改善案を容易に提案することができ、業務改善や売上の向上につなげることが可能となる。   Further, as reference data, sales of salespersons associated with past video data are used, for example, typical behavior of salespersons (for example, a customer service manual that leads to sales improvement), and the like. At this time, the evaluation result includes a sales prediction for the customer service simulation, and also includes, for example, a characteristic analysis result for increasing sales. As a result, it is possible to quantitatively evaluate the impact of customer service, and it is also possible to easily propose proposals for improving the customer service method, leading to operational improvements and sales increases. .

<カウンセリング>
事象評価支援システム100は、カテゴリ「カウンセリング」において、相談員と相談者とのカウンセリング時に撮影された映像に基づいて、相談者の容体の予測等を評価結果として出力する。
<Counseling>
In the category “counseling”, the event evaluation support system 100 outputs, as an evaluation result, a prediction of the counselor's condition based on the video taken during counseling between the counselor and the counselor.

この場合、評価用映像データとして、例えば防犯カメラやピンホールカメラ眼鏡等の撮影装置3に撮影された映像が用いられる。このとき、画像データは、カウンセリング時に撮影された画像、相談者の動作、相談員の動作等を含む。音データは、カウンセリング時に撮影された音、相談者の声や口調、相談員の声や口調等を含む。評価用映像データは、例えばカウンセリング時に撮影された音、相談者が言った内容、相談員が言った内容等に対応するテキストデータを含んでもよい。なお、「カウンセリング」として、例えば相談者と相談員との対話時のほか、例えばリハビリ用の映像等を相談者が視聴している時等が含まれる。   In this case, as the evaluation video data, for example, a video shot by the shooting device 3 such as a security camera or pinhole camera glasses is used. At this time, the image data includes an image taken at the time of counseling, an operation of a counselor, an operation of a counselor, and the like. The sound data includes sounds taken at the time of counseling, voice and tone of a consultant, voice and tone of a counselor, and the like. The video data for evaluation may include text data corresponding to, for example, sound taken at the time of counseling, content said by a consultant, content said by a counselor, and the like. Note that “counseling” includes, for example, when the counselor and the counselor have a dialogue, for example, when the counselor is watching a rehabilitation video or the like.

また、過去の映像データとして、過去のカウンセリングにおいて撮影された映像が用いられ、相談者のカルテの内容等と紐づけられた映像が用いられる。このとき、過去の画像データは、過去のカウンセリング時に撮影された画像、相談者の動作、相談員の動作等を含む。過去の音データは、過去のカウンセリング時に撮影された音、相談者の声や口調、相談員の声や口調等を含む。過去の映像データは、例えば過去のカウンセリング時に撮影された音、相談者が言った内容、相談員が言った内容等に対応する過去のテキストデータを含んでもよい。   In addition, as the past video data, a video taken in the past counseling is used, and a video linked to the contents of the consultant's medical record or the like is used. At this time, the past image data includes an image taken at the time of past counseling, an action of a counselor, an action of a counselor, and the like. The past sound data includes sounds taken during past counseling, voices and tone of the consultant, voices and tone of the counselor, and the like. The past video data may include past text data corresponding to, for example, sounds taken during past counseling, content said by a consultant, content said by a counselor, and the like.

また、参照データとして、過去の映像データに紐づけられた相談者のカルテの内容(例えば相談者の症状の改善具合等)が用いられる。このとき、評価結果として、相談者の容体の予測が含まれるほか、例えば症状が悪化せずに改善するカウンセリング方法の予測、症状が改善するカウンセリング方法の特徴分析等が含まれる。これにより、相談者の容体等を定量的に予測することができるほか、相談員に対してカウンセリング方法の改善案を容易に提案することができ、相談者の早期回復につなげることが可能となる。   Further, as the reference data, the content of the consultant's medical chart associated with the past video data (for example, the degree of improvement of the consultant's symptoms) is used. At this time, the evaluation result includes prediction of the consultant's condition, and includes, for example, prediction of a counseling method that improves without worsening symptoms, and characteristic analysis of the counseling method that improves symptoms. As a result, the condition of the consultant can be predicted quantitatively, and an improvement plan for the counseling method can be easily proposed to the consultant, which can lead to an early recovery of the consultant. .

<公演>
事象評価支援システム100は、カテゴリ「公演」において、公演時に撮影された映像に基づいて、観客の満足度の予測を評価結果として出力する。ここで、「公演」とは、複数の観客を動員する芝居の公演、音楽コンサート、講演、セミナー等を示す。
<Performance>
The event evaluation support system 100 outputs a prediction of audience satisfaction as an evaluation result based on the video shot at the performance in the category “performance”. Here, “performance” refers to a performance, music concert, lecture, seminar, etc. that mobilizes multiple audiences.

この場合、評価用映像データとして、例えば防犯カメラ等の撮影装置3に撮影された公演の映像が用いられる。このとき、画像データは、公演時に撮影された画像、観客の動作、出演者(例えば役者、講演者等)の動作等を含む。音データは、公演時に撮影された音、観客の声や口調、出演者の声や口調等を含む。評価用映像データは、例えば公演時に撮影された音、観客が言った内容、出演者が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, for example, a performance video shot by the shooting device 3 such as a security camera is used. At this time, the image data includes an image taken at the time of the performance, an action of the audience, an action of a performer (for example, an actor, a speaker, etc.) and the like. The sound data includes sounds taken at the performance, audience voice and tone, performer voice and tone, and the like. The video data for evaluation may include, for example, text data corresponding to sounds taken at the performance, contents said by the audience, contents said by the performers, and the like.

また、過去の映像データとして、過去の公演時において撮影された映像が用いられ、観客が記載したアンケートの内容等と紐づけられた映像が用いられる。このとき、過去の画像データは、過去の公演時に撮影された画像、観客の動作、出演者の動作等を含む。過去の音データは、過去の公演時に撮影された音、観客の声や口調、出演者の声や口調等を含む。過去の映像データは、例えば過去の公演時に撮影された音、観客が言った内容、出演者が言った内容等に対応する過去のテキストデータを含んでもよい。   In addition, as the past video data, a video taken at the past performance is used, and a video linked to the contents of the questionnaire described by the audience is used. At this time, the past image data includes an image taken at the past performance, an action of the audience, an action of the performer, and the like. Past sound data includes sounds taken during past performances, audience voice and tone, performer voice and tone, and the like. The past video data may include past text data corresponding to, for example, sounds taken at past performances, contents said by the audience, contents said by the performers, and the like.

また、参照データとして、観客のアンケートの内容が用いられるほか、例えば興味を引く公演の指標、興行収入が上がる公演の指標、盛り上がった公演の指標、感情に関する情報(うれしい、楽しい、気持ちいい、すがすがしい、誇らしい、恐怖心等)等が用いられる。このとき、評価結果として、観客の満足度の予測が含まれるほか、例えば収入が上がる公演の特徴分析、盛り上がる公演の特徴分析、興味を引く公演の特徴分析等が含まれる。これにより、公演の内容に対する観客の満足度を定量的に評価することができるほか、公演の質を向上させる改善案を容易に提案することができ、公演の質の向上を図ることが可能となる。   In addition to the contents of the audience questionnaire as reference data, for example, performance indicators that attract interest, performance indicators that increase box office performance, performance performance indicators, emotional information (joyful, fun, pleasant, refreshing, Proud, fear, etc.) are used. At this time, the evaluation results include prediction of audience satisfaction, and include, for example, feature analysis of performances that increase revenue, feature analysis of performances that excite, feature analysis of performances that attract interest, and the like. As a result, the satisfaction level of the audience with the content of the performance can be quantitatively evaluated, and an improvement plan for improving the quality of the performance can be easily proposed, and the quality of the performance can be improved. Become.

<診察>
事象評価支援システム100は、カテゴリ「診察」において、患者の診察時に撮影された映像に基づいて、患者の容体の予測等を評価結果として出力する。
<Diagnosis>
The event evaluation support system 100 outputs, as an evaluation result, a prediction of the patient's condition and the like based on the video taken at the time of the patient's examination in the category “diagnosis”.

この場合、評価用映像データとして、例えば防犯カメラやピンホールカメラ眼鏡等の撮影装置3に撮影された診察時の映像が用いられる。このとき、画像データは、診察時に撮影された画像、患者の動作、診察者の動作等を含む。音データは、診察時に撮影された音、患者の声や口調、診察者の声や口調等を含む。評価用映像データは、例えば診察時に撮影された音、患者が言った内容、診察者が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the video data for evaluation, for example, a video at the time of examination photographed by the photographing device 3 such as a security camera or pinhole camera glasses is used. At this time, the image data includes an image taken at the time of the examination, the action of the patient, the action of the examiner, and the like. The sound data includes sounds taken at the time of examination, patient voice and tone, examiner voice and tone, and the like. The evaluation video data may include, for example, text data corresponding to sounds taken at the time of examination, contents said by the patient, contents said by the examiner, and the like.

また、過去の映像データとして、過去の診察時において撮影された映像が用いられ、患者のカルテの内容等と紐づけられた映像が用いられる。このとき、過去の画像データは、過去の診察時に撮影された画像、患者の動作、診察者の動作を含む。過去の音データは、過去の診察時に撮影された音、患者の声や口調、診察者の声や口調等を含む。過去の映像データは、例えば過去の診察時に撮影された音、患者が言った内容、診察者が言った内容等に対応する過去のテキストデータを含んでもよい。   In addition, as the past video data, a video taken at the past examination is used, and a video linked to the contents of the patient's medical record and the like is used. At this time, the past image data includes an image taken at the past examination, a patient's action, and an examiner's action. The past sound data includes sounds taken at the past examination, voice and tone of the patient, voice and tone of the examiner, and the like. The past video data may include past text data corresponding to, for example, sounds taken at the past examination, contents said by the patient, contents said by the examiner, and the like.

また、参照データとして、患者のカルテの内容(症状の改善具合等)が用いられるほか、投薬方法、治療方法等が用いられる。このとき、評価結果として、患者の容体の予測が含まれるほか、例えば症状が悪化せずに改善する投薬方法の予測、症状が悪化せずに改善する治療方法の予測、症状が改善する治療方法の特徴分析等が含まれる。これにより、患者の容体を定量的に予測することができるほか、診察者に対して診察方法の改善案を容易に提案することができ、患者の早期回復につなげることが可能となる。   Further, as reference data, the contents of the patient's medical record (symptom improvement, etc.) are used, and a medication method, a treatment method and the like are used. At this time, the evaluation result includes prediction of the patient's condition, for example, prediction of a medication method that improves without worsening symptoms, prediction of a treatment method that improves without worsening symptoms, and treatment method that improves symptoms Feature analysis and the like. As a result, the patient's condition can be predicted quantitatively, and an improvement plan for the examination method can be easily proposed to the examiner, which can lead to an early recovery of the patient.

<手術後の容体>
事象評価支援システム100は、カテゴリ「手術後の容体」において、患者の手術時に撮影された映像に基づいて、患者の容体の予測等を評価結果として出力する。
<Containment after surgery>
The event evaluation support system 100 outputs, as an evaluation result, a prediction of a patient's condition based on an image taken at the time of a patient's operation in the category “condition after operation”.

この場合、評価用映像データとして、例えば防犯カメラやピンホールカメラ眼鏡等の撮影装置3に撮影された手術時の映像が用いられる。このとき、画像データは、手術時に撮影された画像、患者の動作、手術者の動作等を含む。音データは、手術時に撮影された音、患者の声や口調、手術者の声や口調等を含む。評価用映像データは、例えば手術時に撮影された音、患者が言った内容、手術者が言った内容等に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, for example, a video at the time of surgery photographed by the photographing device 3 such as a security camera or pinhole camera glasses is used. At this time, the image data includes an image taken at the time of surgery, patient motion, surgeon motion, and the like. The sound data includes sounds taken at the time of surgery, patient voice and tone, surgeon voice and tone, and the like. The video data for evaluation may include text data corresponding to, for example, sounds taken at the time of surgery, contents said by a patient, contents said by an operator, and the like.

また、過去の映像データとして、過去の手術時において撮影された映像が用いられ、患者のカルテの内容等と紐づけられた映像が用いられる。このとき、過去の画像データは、過去の手術時に撮影された画像、患者の動作、手術者の動作等を含む。過去の音データは、過去の手術時に撮影された音、患者の声や口調、手術者の声や口調等を含む。過去の映像データは、例えば過去の手術時に撮影された音、患者が言った内容、手術者が言った内容等に対応する過去のテキストデータを含んでもよい。   In addition, as the past video data, a video taken at the time of past surgery is used, and a video linked to the contents of the patient's medical record or the like is used. At this time, the past image data includes images taken at the time of past surgery, patient motion, surgeon motion, and the like. The past sound data includes sounds taken at the time of past surgery, patient voice and tone, operator voice and tone, and the like. The past video data may include past text data corresponding to, for example, sounds taken at the time of past surgery, contents said by the patient, contents said by the surgeon, and the like.

また、参照データとして、患者のカルテの内容(症状の改善具合等)が用いられるほか、例えば手術方法、投薬方法、治療方法等が用いられる。このとき、評価結果として、患者の容体の予測が含まれるほか、例えば症状が悪化せずに改善する投薬方法の予測、症状が悪化せずに改善する治療方法の予測、症状が改善する手術方法の特徴分析、症状が改善する治療方法の特徴分析等が含まれる。これにより、患者の容体を定量的に予測することができるほか、手術者に対して手術方法の改善案を容易に提案することができ、患者の早期回復につなげることが可能となる。   Further, as the reference data, the contents of the patient's medical chart (symptom improvement, etc.) are used, and for example, an operation method, a medication method, a treatment method, and the like are used. At this time, the evaluation result includes prediction of the patient's condition, for example, prediction of a medication method that improves without worsening symptoms, prediction of a treatment method that improves without worsening symptoms, and surgical method that improves symptoms Analysis of characteristics, analysis of characteristics of treatment methods for improving symptoms, and the like. As a result, the patient's condition can be predicted quantitatively, and an improvement plan of the surgical method can be easily proposed to the surgeon, leading to early recovery of the patient.

<映像コンテンツ>
事象評価支援システム100は、カテゴリ「映像コンテンツ」において、制作中の映像コンテンツに基づいて興味を引くコンテンツの予測等を出力する。ここで「映像コンテンツ」とは、DVD等の記録媒体に収録されて販売される映画、ドキュメント映像、プロモーション用映像、企業紹介用映像等を示す。
<Video content>
In the category “video content”, the event evaluation support system 100 outputs a prediction or the like of content that is interesting based on the video content being produced. Here, “video content” refers to movies, document videos, promotional videos, company introduction videos, and the like recorded and sold on a recording medium such as a DVD.

この場合、評価用映像データとして、制作中の映像コンテンツに関する映像が用いられる。すなわち、評価用映像データは、未公開の映像データである。このとき、画像データは、制作中の映像コンテンツの画像、撮影された動物や出演者の動作を含むほか、例えば背景、フリップボード、説明資料、テロップ、ワイプ等を含む。音データは、制作中の映像コンテンツに流れる音、出演者の声や口調、動物の鳴き声等を含む。評価用映像データは、例えば制作中の映像コンテンツに流れる音、出演者が言った内容、動物の鳴き声等に対応するテキストデータを含んでもよい。   In this case, a video relating to the video content being produced is used as the video data for evaluation. That is, the evaluation video data is unpublished video data. At this time, the image data includes the image of the video content being produced, the action of the photographed animal and the performer, and also includes, for example, the background, flip board, explanatory material, telop, wipe, and the like. The sound data includes the sound that flows in the video content being produced, the voice and tone of the performers, the cry of animals, and the like. The video data for evaluation may include, for example, text data corresponding to the sound flowing in the video content being produced, the content said by the performer, the cry of animals, and the like.

また、過去の映像データとして、公開された映像コンテンツに関する映像が用いられる。すなわち、過去の映像データは、複数の視聴者に公開された映像である。このとき、過去の画像データは、既に公開された映像コンテンツの画像、撮影された動物や出演者の動作等を含むほか、例えば背景、フリップボード、説明資料、テロップ、ワイプ等を含む。過去の音データは、既に公開された映像コンテンツに流れる音、出演者の声や口調、動物の鳴き声等を含む。過去の評価用映像データは、例えば既に公開されたコンテンツ映像に流れる音、出演者が言った内容、動物の鳴き声等に対応する過去のテキストデータを含んでもよい。   Also, as the past video data, a video related to the published video content is used. That is, the past video data is a video released to a plurality of viewers. At this time, the past image data includes, for example, the image of the video content that has already been released, the action of the photographed animal or performer, and the like, for example, the background, flip board, explanatory material, telop, wipe, and the like. The past sound data includes the sound that flows in the video content that has already been released, the voice and tone of the performers, the cry of animals, and the like. The past evaluation video data may include past text data corresponding to, for example, sound flowing in a content video that has already been made public, the content said by a performer, the cry of an animal, and the like.

また、参照データとして、視聴者の興味を引く度合いが用いられるほか、例えば感情に関する情報(うれしい、楽しい、気持ちいい、すがすがしい、誇らしい、恐怖心等)等が用いられる。このとき、評価結果として、興味を引くコンテンツの予測が含まれるほか、例えば感情を呼び起こす方法の特徴分析等が含まれる。これにより、制作中の映像コンテンツの評価を定量的に評価することができるほか、制作中の映像コンテンツに対する改善案を容易に提案することができ、映像コンテンツの質の向上を図ることが可能となる。   Further, as the reference data, the degree of interest of the viewer is used, and for example, information related to emotions (joyful, fun, pleasant, refreshing, proud, fearful, etc.) is used. At this time, the evaluation result includes prediction of content that is of interest, and includes, for example, feature analysis of a method that evokes emotions. As a result, the evaluation of the video content being produced can be quantitatively evaluated, and an improvement plan for the video content being produced can be easily proposed, and the quality of the video content can be improved. Become.

<交通渋滞>
事象評価支援システム100は、カテゴリ「交通渋滞」において、撮影された道路の映像に基づいて、交通渋滞の予測等を評価結果として出力する。
<Traffic jam>
In the category “traffic jam”, the event evaluation support system 100 outputs a traffic jam prediction or the like as an evaluation result based on a photographed road image.

この場合、評価用映像データとして、例えば防犯カメラ等の撮影装置3に撮影された道路の映像が用いられる。このとき、画像データは、撮影された道路の画像、道路を走行する車等を含む。音データは、撮影された道路を走行する車の排気音等を含む。評価用映像データは、例えば撮影された道路を走行する車の出す音の擬音語に対応するテキストデータを含んでもよい。   In this case, as the evaluation video data, for example, a road image shot by the shooting device 3 such as a security camera is used. At this time, the image data includes a photographed road image, a car traveling on the road, and the like. The sound data includes exhaust sound of a vehicle traveling on the photographed road. The evaluation video data may include, for example, text data corresponding to the onomatopoeia of a sound produced by a car traveling on a photographed road.

また、過去の映像データとして、過去に撮影された道路の映像が用いられ、交通渋滞情報等と紐づけられた映像が用いられる。このとき、過去の画像データは、過去に撮影された道路の画像、道路を走行する車等を含む。過去の音データは、撮影された道路を走行する車の排気音等を含む。過去の映像データは、例えば撮影された道路を走行する車の出す音の擬音語に対応する過去のテキストデータを含んでもよい。   Further, as past video data, a video of a road photographed in the past is used, and a video associated with traffic congestion information or the like is used. At this time, the past image data includes an image of a road photographed in the past, a car traveling on the road, and the like. The past sound data includes the exhaust sound of a vehicle traveling on a photographed road. The past video data may include, for example, past text data corresponding to the onomatopoeia of sound produced by a car traveling on a photographed road.

また、参照データとして、交通状態情報が用いられる。このとき、評価結果として、交通渋滞の予測が含まれる。これにより、交通渋滞を定量的に予測することができ、渋滞を回避する経路や、渋滞緩和案等を容易に提案することが可能となる。   Moreover, traffic state information is used as reference data. At this time, prediction of traffic congestion is included as an evaluation result. As a result, traffic congestion can be predicted quantitatively, and a route for avoiding congestion, a congestion mitigation plan, and the like can be easily proposed.

<空撮>
事象評価支援システム100は、カテゴリ「空撮」において、撮影された空撮の映像に基づいて、穀物、野菜、果実等の収穫率の予測等を評価結果として出力する。
<Aerial photography>
The event evaluation support system 100 outputs, as an evaluation result, a prediction of a harvest rate of cereals, vegetables, fruits, and the like based on an aerial image captured in the category “aerial imaging”.

この場合、評価用映像データとして、例えばドローン等の撮影装置3に空撮された穀物等に関する映像が用いられる。このとき、画像データは、空撮された画像、穀物等の成長の程度等を含む。   In this case, as the evaluation image data, for example, an image relating to a grain or the like taken aerial by the imaging device 3 such as a drone is used. At this time, the image data includes an aerial image, the degree of growth of grains, and the like.

また、過去の映像データとして、過去に空撮された収穫率と紐づいた穀物等の映像が用いられる。このとき、過去の画像データは、過去に空撮された画像、穀物等の成長の程度等を含む。   In addition, as past video data, a video of a grain or the like associated with a harvest rate taken in the past is used. At this time, the past image data includes images taken aerial in the past, the degree of growth of grains, and the like.

また、参照データとして、穀物等の収穫率が用いられる。このとき、評価結果として、穀物等の収穫率の予測が含まれる。これにより、穀物等の収穫率を定量的に予測することができ、穀物等の収穫率を向上させる案等を容易に提案することが可能となる。   As the reference data, a crop harvest rate is used. At this time, the evaluation result includes a prediction of the harvest rate of grains and the like. Thereby, it is possible to quantitatively predict the harvest rate of cereals and the like, and it is possible to easily propose a plan for improving the harvest rate of cereals and the like.

なお、上述した各カテゴリの中で、出力部14が評価用映像データに対して経時推移の評価を含む評価結果を生成する場合について説明したものは、出力部14が評価用映像データ全体に対して予測される評価(例えば視聴率の場合、平均視聴率、最高視聴率、最低視聴率)を含む評価結果を生成してもよい。   Of the categories described above, the case where the output unit 14 generates the evaluation result including the evaluation of the temporal transition with respect to the evaluation video data is described in the case where the output unit 14 applies to the entire evaluation video data. An evaluation result including an evaluation predicted (for example, in the case of audience rating, average audience rating, highest audience rating, lowest audience rating) may be generated.

本実施形態によれば、評価手段S120は、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得する。このため、評価用映像データに対して参照データを紐づけられ、評価用映像データに基づいて将来起こり得る事象の定量的な評価結果を取得することができる。これにより、将来起こり得る事象の評価における精度の向上が可能となる。   According to the present embodiment, the evaluation unit S120 refers to the reference database, and acquires evaluation data including the first degree of association between the evaluation video data and the reference data. For this reason, reference data is linked to the evaluation video data, and a quantitative evaluation result of an event that may occur in the future can be acquired based on the evaluation video data. As a result, it is possible to improve the accuracy in the evaluation of events that may occur in the future.

また、本実施形態によれば、評価手段S120は、画像データ及び音データの組み合わせと、参照データとの間の第1関連性を算出する。このため、画像データ又は音データの何れか1つを用いた場合に比べ、その映像の特徴若しくは撮影された人の感情の推定、又は、映像を視聴した他人の感情若しくは他人の動作に影響を与える可能性を評価する精度の向上を図ることができる。これにより、将来起こり得る事象の評価の精度をさらに向上させることが可能となる。   Further, according to the present embodiment, the evaluation unit S120 calculates the first relationship between the combination of the image data and the sound data and the reference data. For this reason, compared with the case where either one of image data and sound data is used, the feature of the video or the estimation of the emotion of the photographed person, or the affect of the other person who viewed the video or the behavior of the other person is affected. The accuracy of evaluating the possibility of giving can be improved. As a result, it is possible to further improve the accuracy of evaluation of events that may occur in the future.

また、本実施形態によれば、評価手段S120は、一定期間に撮影された評価用映像データに対して、第1連関度を時系列で算出する。このため、評価用映像データに対する評価の経時変化を示すことができる。これにより、評価用映像データの経時変化に伴う評価をすることができ、将来起こり得る事象の詳細な評価を実施することが可能となる。   Further, according to the present embodiment, the evaluation unit S120 calculates the first association degree in time series for the evaluation video data photographed in a certain period. For this reason, the time-dependent change of evaluation with respect to video data for evaluation can be shown. As a result, it is possible to perform evaluation along with the temporal change of the video data for evaluation, and it is possible to perform detailed evaluation of events that may occur in the future.

また、本実施形態によれば、出力手段S130は、第1連関度に基づく評価用値動きの経時推移の評価を含む評価結果を生成する。このため、評価用映像データの影響を踏まえた値動きの経時推移の評価を容易に取得することができる。これにより、上記評価結果を一材料として企業等の事業計画等を検討することができ、事業戦略の選択肢を増加させることが可能となる。   Further, according to the present embodiment, the output unit S130 generates an evaluation result including an evaluation of the temporal transition of the evaluation value movement based on the first association degree. For this reason, it is possible to easily obtain the evaluation of the temporal transition of the price movement based on the influence of the evaluation video data. This makes it possible to examine a business plan of a company etc. using the evaluation result as a material, and to increase the options of business strategy.

また、本実施形態によれば、出力手段S130は、予め設定された報知基準値と、第1連関度とを比較した結果に基づき、評価結果を出力する。このため、報知基準値の設定条件に応じて、評価結果を出力するか否かを制御することができる。これにより、評価結果が必要な場合のみ出力させることができ、利用者等は、常に評価結果を確認する必要がない。従って、利用者等の作業負荷を低減させることが可能となる。   Further, according to the present embodiment, the output unit S130 outputs an evaluation result based on a result obtained by comparing a preset notification reference value with the first association degree. For this reason, it is possible to control whether or not to output the evaluation result according to the setting condition of the notification reference value. Thereby, it is possible to output only when the evaluation result is necessary, and the user or the like does not always need to confirm the evaluation result. Accordingly, it is possible to reduce the work load of the user or the like.

また、本実施形態によれば、出力手段S130は、評価データに基づき、評価用映像データに撮影された人のうち、犯行に及ぶ可能性のある人を特定する情報を含む評価結果を生成する。このため、犯行を事前に抑制することが可能となる。また、大勢の人が行き交う場所においても、定量的に評価をすることができ、主観を含んだ誤認や見落としを抑制することが可能となる。   Further, according to the present embodiment, the output unit S130 generates an evaluation result including information for identifying a person who is likely to commit a crime among persons photographed in the evaluation video data based on the evaluation data. . For this reason, it becomes possible to suppress a crime in advance. In addition, it is possible to quantitatively evaluate a place where a large number of people come and go, and it is possible to suppress misperceptions and oversights including subjectives.

また、本実施形態によれば、出力手段S130は、第1連関度に基づく視聴率の経時推移の評価を含む評価結果を生成する。このため、未公開の評価用映像データに対して、予め視聴率の経時推移を評価することができる。これにより、映像データを公開する前に改善点等を把握することができ、映像データの質の向上を図ることが可能となる。   Further, according to the present embodiment, the output unit S130 generates an evaluation result including an evaluation of the temporal transition of the audience rating based on the first association degree. For this reason, the temporal transition of the audience rating can be evaluated in advance for unpublished evaluation video data. As a result, improvement points and the like can be grasped before the video data is released, and the quality of the video data can be improved.

また、本実施形態によれば、出力手段S130は、第1連関度に基づいて、開発進行情報に対する課金量等の経時推移の評価を含む評価結果を生成する。このため、開発中のゲームにおいて課金されるタイミングや頻度等を評価することができる。これにより、ゲームを販売する前に改善点等を把握することができ、ゲームの質の向上を図ることが可能となる。   Further, according to the present embodiment, the output unit S130 generates an evaluation result including an evaluation of a temporal transition such as a charge amount for the development progress information based on the first association degree. For this reason, it is possible to evaluate the timing, frequency, etc. charged in a game under development. As a result, improvement points and the like can be grasped before the game is sold, and the quality of the game can be improved.

また、本実施形態によれば、評価手段S120は、一定期間に撮影された評価用画像データの全体に対して第1連関度を算出する。このため、一定期間に撮影された画像データ及び音データを含む評価用映像データを総合的に評価することができる。これにより、定量的な評価を行える事象の選択範囲を大幅に広げることが可能となる。   Further, according to the present embodiment, the evaluation unit S120 calculates the first association degree with respect to the entire evaluation image data photographed in a certain period. For this reason, it is possible to comprehensively evaluate the evaluation video data including the image data and the sound data captured during a certain period. This makes it possible to greatly expand the selection range of events that can be quantitatively evaluated.

また、本実施形態によれば、過去の映像データは、過去の画像データと合成データとの間、及び、過去の音データと合成データとの間における3段階以上の類似度を含む。このため、新たに過去の画像データ及び過去の音データを参照データベースに記憶(更新)させた場合、連関度をその都度更新する必要がない。これにより、参照データベースの更新に伴い、連関度を更新する負荷を抑制することが可能となる。   According to the present embodiment, the past video data includes three or more levels of similarity between the past image data and the synthesized data and between the past sound data and the synthesized data. For this reason, when past image data and past sound data are newly stored (updated) in the reference database, it is not necessary to update the association degree each time. Thereby, it is possible to suppress the load for updating the association degree with the update of the reference database.

また、本実施形態によれば、更新手段S140は、過去の映像データと、参照データとの間の関係を新たに取得した場合には、関係を連関度に反映させる。このため、連関度を容易に更新することができ、評価の精度を向上させることが可能となる。   In addition, according to the present embodiment, when the relationship between the past video data and the reference data is newly acquired, the update unit S140 reflects the relationship in the association degree. For this reason, the relevance can be easily updated, and the accuracy of evaluation can be improved.

また、本実施形態によれば、画像データ、音データ、及びテキストデータの組み合わせと、参照データとの間の第1関連性を算出する。このため、テキストデータを組み合わせに加えることで、その人の特徴若しくは感情の推定、又は、他人の感情若しくは動作に影響を与える可能性を評価する精度のさらなる向上を図ることができる。これにより、将来起こり得る事象の評価の精度をさらに向上させることが可能となる。   Further, according to the present embodiment, the first relationship between the combination of image data, sound data, and text data and the reference data is calculated. For this reason, by adding text data to the combination, it is possible to further improve the accuracy of estimating the characteristics or emotions of the person or evaluating the possibility of affecting the emotions or actions of others. As a result, it is possible to further improve the accuracy of evaluation of events that may occur in the future.

また、本実施形態によれば、評価部13は、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得する。このため、評価用映像データに対して参照データを紐づけられ、評価用映像データに基づいて将来起こり得る事象の定量的な評価結果を取得することができる。これにより、将来起こり得る事象の評価における精度の向上が可能となる。   Further, according to the present embodiment, the evaluation unit 13 refers to the reference database, and acquires evaluation data including the first association degree between the video data for evaluation and the reference data. For this reason, reference data is linked to the evaluation video data, and a quantitative evaluation result of an event that may occur in the future can be acquired based on the evaluation video data. As a result, it is possible to improve the accuracy in the evaluation of events that may occur in the future.

また、本実施形態によれば、参照データベースを参照し、評価用映像データと、参照データとの間の第1連関度を含む評価データを取得することをコンピュータに実行させる。このため、評価用映像データに対して参照データを紐づけられ、評価用映像データに基づいて将来起こり得る事象の定量的な評価結果を取得することができる。これにより、将来起こり得る事象の評価における精度の向上が可能となる。   According to the present embodiment, the computer is caused to acquire evaluation data including the first association degree between the evaluation video data and the reference data by referring to the reference database. For this reason, reference data is linked to the evaluation video data, and a quantitative evaluation result of an event that may occur in the future can be acquired based on the evaluation video data. As a result, it is possible to improve the accuracy in the evaluation of events that may occur in the future.

また、本実施形態によれば、3段階以上に設定されている連関度(第1連関度)に基づいて、評価用映像データを評価する点に特徴がある。連関度は、例えば0〜100%までの数値で記述することができるが、これに限定されるものではなく3段階以上の数値で記述できればいかなる段階で構成されていてもよい。   In addition, the present embodiment is characterized in that the evaluation video data is evaluated based on the degree of association (first degree of association) set in three or more stages. The association degree can be described by a numerical value of 0 to 100%, for example, but is not limited thereto, and may be configured at any stage as long as it can be described by a numerical value of three or more levels.

このような連関度に基づいて、評価用映像データに対する評価結果の候補として選ばれる参照データにおいて、連関度の高い又は低い順に参照データを表示することが可能となる。このように連関度の順に表示することで、利用者等は将来起こり得る可能性の高い事象を優先的に評価することができる。他方、将来起こり得る可能性の低い事象も除外せずに表示できるため、利用者等は見逃すことなく評価することが可能となる。   Based on such association, reference data can be displayed in descending order of association in reference data selected as evaluation result candidates for evaluation video data. By displaying in the order of association in this way, the user or the like can preferentially evaluate an event that is likely to occur in the future. On the other hand, since events that are unlikely to occur in the future can be displayed without being excluded, the user or the like can evaluate without overlooking.

上記に加え、本実施形態によれば、例えば連関度が1%のような極めて低い場合も見逃すことなく評価することができる。連関度が極めて低い参照データであっても、僅かな兆候として繋がっていることを示しており、見逃しや誤認を抑制することが可能となる。   In addition to the above, according to the present embodiment, evaluation can be performed without overlooking even when the relevance is as extremely low as 1%. Even reference data with a very low degree of association indicates that it is connected as a slight sign, and it is possible to suppress oversight and misidentification.

本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although an embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 :事象評価支援装置
2 :サーバ
3 :撮影装置
4 :公衆通信網
10 :筐体
12 :取得部
13 :評価部
14 :出力部
15 :入力部
16 :更新部
100 :事象評価支援システム
101 :CPU
102 :ROM
103 :RAM
104 :記憶部
105 :I/F
106 :I/F
107 :I/F
108 :入力部分
109 :出力部分
110 :内部バス
DB11 :情報
S110 :取得手段
S120 :評価手段
S130 :出力手段
S140 :更新手段
1: Event evaluation support device 2: Server 3: Imaging device 4: Public communication network 10: Housing 12: Acquisition unit 13: Evaluation unit 14: Output unit 15: Input unit 16: Update unit 100: Event evaluation support system 101: CPU
102: ROM
103: RAM
104: Storage unit 105: I / F
106: I / F
107: I / F
108: Input part 109: Output part 110: Internal bus DB11: Information S110: Acquisition means S120: Evaluation means S130: Output means S140: Update means

第14発明に係る事象評価支援システムは、第2発明において、前記評価用映像データは、前記音データの内容に対応するテキストデータを含み、
前記評価手段は、前記参照データベースを参照し、前記画像データ、前記音データ、及び前記テキストデータの組み合わせと、前記参照データとの間の前記第1連関度を算出することを特徴とする。
Event evaluation support system according to the fourteenth invention, Oite the second shot bright, the evaluation image data includes the text data corresponding to the contents of the sound data,
The evaluation unit refers to the reference database, and calculates the first association degree between the reference data and a combination of the image data, the sound data, and the text data.

Claims (16)

画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援システムであって、
評価用映像データを取得する取得手段と、
予め取得された過去の映像データ、前記過去の映像データの評価に用いられた参照データ、及び、前記過去の映像データと前記参照データとの間における3段階以上の連関度が記憶された参照データベースと、
前記参照データベースを参照し、前記評価用映像データと、前記参照データとの間の3段階以上の第1連関度を含む評価データを取得する評価手段と、
前記評価データに基づき評価結果を生成し、前記評価結果を出力する出力手段と、
を備えることを特徴とする事象評価支援システム。
An event evaluation support system that supports evaluation of future events based on video data including images and sounds,
Acquisition means for acquiring video data for evaluation;
Reference database in which past video data acquired in advance, reference data used for evaluation of the past video data, and three or more levels of association between the past video data and the reference data are stored When,
An evaluation unit that refers to the reference database and obtains evaluation data including first relations of three or more stages between the evaluation video data and the reference data;
Output means for generating an evaluation result based on the evaluation data and outputting the evaluation result;
An event evaluation support system comprising:
前記評価用映像データは、
撮影された人、動物、背景、及び説明資料の少なくとも何れかを含む画像データと、
撮影された人の声、動物の声、効果音、及び挿入曲の少なくとも何れかを含む音データと、
を含み、
前記評価手段は、前記参照データベースを参照し、前記画像データ及び前記音データの組み合わせと、前記参照データとの間の前記第1連関度を算出すること
を特徴とする請求項1記載の事象評価支援システム。
The video data for evaluation is
Image data including at least one of photographed person, animal, background, and explanatory material;
Sound data including at least one of a photographed human voice, animal voice, sound effect, and inserted music;
Including
The event evaluation according to claim 1, wherein the evaluation unit calculates the first association degree between the reference data and a combination of the image data and the sound data with reference to the reference database. Support system.
前記評価手段は、前記参照データベースを参照し、一定期間に撮影された前記評価用映像データに対して時系列で算出された前記第1連関度を含む前記評価データを取得すること
を特徴とする請求項2記載の事象評価支援システム。
The evaluation means refers to the reference database, and acquires the evaluation data including the first relevance calculated in time series with respect to the video data for evaluation taken in a certain period. The event evaluation support system according to claim 2.
前記取得手段は、前記評価用映像データの撮影された時間に対応し、株式、為替、及び先物取引の少なくとも何れかの値動きを示す評価用値動きを取得し、
前記参照データは、過去の株式、為替、及び先物取引の少なくとも何れかの過去の値動きの経時推移を含み、
前記出力手段は、前記第1連関度に基づく前記評価用値動きの経時推移の評価を含む前記評価結果を生成すること
を特徴とする請求項3記載の事象評価支援システム。
The acquisition means, corresponding to the time when the evaluation video data was taken, acquires an evaluation price movement indicating a price movement of at least one of a stock, a currency exchange, and a futures transaction,
The reference data includes a historical trend of at least one of past stocks, exchange rates, and futures transactions,
The event evaluation support system according to claim 3, wherein the output unit generates the evaluation result including an evaluation of a temporal transition of the evaluation value movement based on the first association degree.
前記評価用映像データ及び前記過去の映像データは、経済情報に関する映像であること
を特徴とする請求項4記載の事象評価支援システム。
The event evaluation support system according to claim 4, wherein the evaluation video data and the past video data are images related to economic information.
前記出力手段は、予め設定された報知基準値と、前記第1連関度とを比較した結果に基づき、前記評価結果を出力すること
を特徴とする請求項3記載の事象評価支援システム。
The event evaluation support system according to claim 3, wherein the output unit outputs the evaluation result based on a result obtained by comparing a preset notification reference value with the first association degree.
前記過去の映像データは、犯行現場における犯行前後の映像を含み、
前記参照データは、犯罪の種類に関する情報であり、
前記出力手段は、前記評価用映像データに撮影された人のうち、犯行に及ぶ可能性のある人を特定する情報を含む前記評価結果を生成すること
を特徴とする請求項6記載の事象評価支援システム。
The past video data includes images before and after the crime at the crime scene,
The reference data is information on the type of crime,
The event evaluation according to claim 6, wherein the output unit generates the evaluation result including information for identifying a person who is likely to commit a crime among persons photographed in the video data for evaluation. Support system.
前記過去の映像データは、複数の視聴者に公開された映像であり、
前記参照データは、公開された前記過去の映像データに対応する視聴率であり、
前記評価用映像データは、未公開の映像データであり、
前記出力手段は、前記第1連関度に基づく視聴率の経時推移の評価を含む前記評価結果を生成すること
を特徴とする請求項3記載の事象評価支援システム。
The past video data is a video released to a plurality of viewers,
The reference data is an audience rating corresponding to the published past video data,
The evaluation video data is unpublished video data,
The event output support system according to claim 3, wherein the output unit generates the evaluation result including an evaluation of a temporal transition of the audience rating based on the first relevance.
前記過去の映像データは、ゲームの進行に関する進行情報を含み、
前記評価用映像データは、開発中のゲームの進行に関する開発進行情報を含み、
前記参照データは、前記ゲームの進行情報に対する課金量、ログイン数、及びプレイ時間の少なくとも何れかを含み、
前記出力手段は、前記第1連関度に基づいて、前記開発進行情報に対する課金量、ログイン数、プレイ時間の少なくとも何れかの経時推移の評価を含む前記評価結果を生成すること
を特徴とする請求項3記載の事象評価支援システム。
The past video data includes progress information regarding the progress of the game,
The video data for evaluation includes development progress information regarding the progress of the game under development,
The reference data includes at least one of a charge amount for the progress information of the game, the number of logins, and a play time,
The output means generates the evaluation result including an evaluation of a temporal transition of at least one of a charge amount, a number of logins, and a play time for the development progress information based on the first association degree. Item 3. The event evaluation support system according to Item 3.
前記評価手段は、前記参照データベースを参照し、一定期間に撮影された前記評価用映像データの全体に対して算出された前記第1連関度を含む前記評価データを取得すること
を特徴とする請求項2記載の事象評価支援システム。
The evaluation means refers to the reference database, and acquires the evaluation data including the first relevance calculated for the entire evaluation video data photographed in a certain period. Item 2. The event evaluation support system according to Item 2.
前記評価用映像データ及び前記過去の映像データは、防犯カメラの映像、取り調べ室における映像、会話中の映像、接客時の映像、カウンセリング時の映像、公演時の映像、診察時の映像、又は、手術時の映像を含むこと
を特徴とする請求項10記載の事象評価支援システム。
The video data for evaluation and the past video data are a video of a security camera, a video in an investigation room, a video during conversation, a video during customer service, a video during counseling, a video during performance, a video during medical examination, or The event evaluation support system according to claim 10, further comprising an image during surgery.
前記過去の映像データは、
過去に撮影された人、動物、及び背景の少なくとも何れかを含む過去の画像データと、
過去に撮影された人の声、動物の声、効果音、及び挿入曲の少なくとも何れかを含む過去の音データと、
前記参照データとの間に前記連関度を有する合成データと、
前記過去の画像データと前記合成データとの間、及び、前記過去の音データと前記合成データとの間における3段階以上の類似度と、
を含み、
前記参照データベースには、前記合成データと、前記参照データとの間における前記連関度が記憶されること
を特徴とする請求項1〜11の何れか1項記載の事象評価支援システム。
The past video data is
Past image data including at least one of a person, an animal, and a background photographed in the past;
Past sound data including at least one of a human voice, an animal voice, a sound effect, and an inserted song recorded in the past;
Synthetic data having the association degree with the reference data;
Three or more similarities between the past image data and the synthesized data, and between the past sound data and the synthesized data,
Including
The event evaluation support system according to any one of claims 1 to 11, wherein the association degree between the composite data and the reference data is stored in the reference database.
前記過去の映像データと、前記参照データとの間の関係を新たに取得した場合には、前記関係を前記連関度に反映させる更新手段をさらに備えること
を特徴とする請求項1〜12の何れか1項記載の事象評価支援システム。
The update means for reflecting the relationship in the association degree when a relationship between the past video data and the reference data is newly acquired is further provided. The event evaluation support system according to claim 1.
前記評価用映像データは、前記音データの内容に対応するテキストデータを含み、
前記評価手段は、前記参照データベースを参照し、前記画像データ、前記音データ、及び前記テキストデータの組み合わせと、前記参照データとの間の前記第1連関度を算出すること
を特徴とする請求項2〜13の何れか1項記載の事象評価支援システム。
The evaluation video data includes text data corresponding to the content of the sound data,
The evaluation means refers to the reference database, and calculates the first association degree between the reference data and a combination of the image data, the sound data, and the text data. The event evaluation support system according to any one of 2 to 13.
画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援装置であって、
評価用映像データを取得する取得部と、
予め取得された過去の映像データ、前記過去の映像データの評価に用いられた参照データ、及び、前記過去の映像データと前記参照データとの間における3段階以上の連関度が記憶された参照データベースと、
前記参照データベースを参照し、前記評価用映像データと、前記参照データとの間の3段階以上の第1連関度を含む評価データを取得する評価部と、
前記評価データに基づき評価結果を生成し、前記評価結果を出力する出力部と、
を備えることを特徴とする事象評価支援装置。
An event evaluation support apparatus that supports evaluation of events that may occur in the future based on video data including images and sounds,
An acquisition unit for acquiring video data for evaluation;
Reference database in which past video data acquired in advance, reference data used for evaluation of the past video data, and three or more levels of association between the past video data and the reference data are stored When,
An evaluation unit that refers to the reference database and obtains evaluation data including the first association degree in three or more stages between the video data for evaluation and the reference data;
Generating an evaluation result based on the evaluation data, and outputting the evaluation result; and
An event evaluation support apparatus comprising:
画像及び音を含む映像データに基づき、将来起こり得る事象の評価を支援する事象評価支援プログラムであって、
評価用映像データを取得し、
予め取得された過去の映像データ、前記過去の映像データの評価に用いられた参照データ、及び、前記過去の映像データと前記参照データとの間における3段階以上の連関度が記憶された参照データベースを参照し、前記評価用映像データと、前記参照データとの間の3段階以上の第1連関度を含む評価データを取得し、
前記評価データに基づき評価結果を生成し、前記評価結果を出力すること
をコンピュータに実行させることを特徴とする事象評価支援プログラム。
An event evaluation support program that supports evaluation of future events based on video data including images and sounds,
Obtain video data for evaluation,
Reference database in which past video data acquired in advance, reference data used for evaluation of the past video data, and three or more levels of association between the past video data and the reference data are stored And obtaining evaluation data including the first association degree of three or more stages between the video data for evaluation and the reference data,
An event evaluation support program that causes a computer to generate an evaluation result based on the evaluation data and output the evaluation result.
JP2017111112A 2017-06-05 2017-06-05 Event evaluation support system, event evaluation support device, and event evaluation support program Active JP6260979B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017111112A JP6260979B1 (en) 2017-06-05 2017-06-05 Event evaluation support system, event evaluation support device, and event evaluation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017111112A JP6260979B1 (en) 2017-06-05 2017-06-05 Event evaluation support system, event evaluation support device, and event evaluation support program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017232937A Division JP2018206341A (en) 2017-11-16 2017-11-16 Event evaluation support system, event evaluation support device, and event evaluation support program

Publications (2)

Publication Number Publication Date
JP6260979B1 JP6260979B1 (en) 2018-01-17
JP2018206085A true JP2018206085A (en) 2018-12-27

Family

ID=60989248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017111112A Active JP6260979B1 (en) 2017-06-05 2017-06-05 Event evaluation support system, event evaluation support device, and event evaluation support program

Country Status (1)

Country Link
JP (1) JP6260979B1 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020128126A (en) * 2019-02-07 2020-08-27 Assest株式会社 Platform danger degree determining program and system
JP2020129216A (en) * 2019-02-07 2020-08-27 Assest株式会社 Nursery enrollment probability determination program and system
JP2020128127A (en) * 2019-02-07 2020-08-27 Assest株式会社 Railroad crossing danger degree determining program and system
JP2020144810A (en) * 2019-03-08 2020-09-10 Assest株式会社 Crop yield estimation program and crop quality estimation program
WO2020184241A1 (en) * 2019-03-08 2020-09-17 Assest株式会社 Crop yield amount prediction program and cultivation environment assessment program
JP2020146030A (en) * 2019-03-08 2020-09-17 Assest株式会社 Agricultural system
WO2020202824A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
JP2020170235A (en) * 2019-04-01 2020-10-15 Assest株式会社 Rearing environment determination program
JP2020170236A (en) * 2019-04-01 2020-10-15 Assest株式会社 Cultivation environment determination program
JP2020201051A (en) * 2019-06-06 2020-12-17 クリスタルメソッド株式会社 Evaluation device and evaluation system
JP6812034B1 (en) * 2020-02-01 2021-01-13 Assest株式会社 Forex trading information display program
JP2021037925A (en) * 2019-08-30 2021-03-11 Assest株式会社 Diagram correction program and system, and program for estimating subsequent train delay time
JP2021039638A (en) * 2019-09-05 2021-03-11 Assest株式会社 Estimation program for moving cost and system
JP2021068333A (en) * 2019-10-26 2021-04-30 Assest株式会社 Child abuse sign determination program and system
JP2021125219A (en) * 2020-02-01 2021-08-30 Assest株式会社 Illegal stock transaction detection program
JP2021128737A (en) * 2020-02-17 2021-09-02 Assest株式会社 Storage environment discrimination program
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
US11520823B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
WO2023058677A1 (en) * 2021-10-06 2023-04-13 株式会社マスターリンク Management system and game system
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6374628B1 (en) * 2018-03-07 2018-08-15 オリエンタル白石株式会社 Reinforced concrete member discrimination system and reinforced concrete member discrimination program
JP6337227B1 (en) * 2018-03-07 2018-06-06 オリエンタル白石株式会社 Reinforced concrete member discrimination system and reinforced concrete member discrimination program
JP6371025B1 (en) * 2018-03-07 2018-08-08 オリエンタル白石株式会社 Reinforced concrete member discrimination system and reinforced concrete member discrimination program
JP6371027B1 (en) * 2018-06-20 2018-08-08 オリエンタル白石株式会社 Reinforced concrete member discrimination system and reinforced concrete member discrimination program
CN111209733B (en) * 2018-11-22 2023-04-18 阿里巴巴集团控股有限公司 Text record processing method and device
JP7221518B2 (en) * 2018-12-21 2023-02-14 独立行政法人自動車技術総合機構 Vehicle sound evaluation system and vehicle sound evaluation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257449A (en) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
JP2014044701A (en) * 2012-08-02 2014-03-13 Jcc Kk Video information analysis system
JP6031210B1 (en) * 2016-07-12 2016-11-24 サイジニア株式会社 Sales prediction device, sales prediction method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257449A (en) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd Device, method, and program for retrieving person
JP2014044701A (en) * 2012-08-02 2014-03-13 Jcc Kk Video information analysis system
JP6031210B1 (en) * 2016-07-12 2016-11-24 サイジニア株式会社 Sales prediction device, sales prediction method, and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11341714B2 (en) 2018-07-31 2022-05-24 Information System Engineering Inc. Information service system and information service method
JP2020129216A (en) * 2019-02-07 2020-08-27 Assest株式会社 Nursery enrollment probability determination program and system
JP2020128127A (en) * 2019-02-07 2020-08-27 Assest株式会社 Railroad crossing danger degree determining program and system
JP2020128126A (en) * 2019-02-07 2020-08-27 Assest株式会社 Platform danger degree determining program and system
JP2020144810A (en) * 2019-03-08 2020-09-10 Assest株式会社 Crop yield estimation program and crop quality estimation program
WO2020184241A1 (en) * 2019-03-08 2020-09-17 Assest株式会社 Crop yield amount prediction program and cultivation environment assessment program
JP2020146030A (en) * 2019-03-08 2020-09-17 Assest株式会社 Agricultural system
WO2020202824A1 (en) * 2019-03-29 2020-10-08 株式会社 情報システムエンジニアリング Information provision system, and information provision method
US11934446B2 (en) 2019-03-29 2024-03-19 Information System Engineering Inc. Information providing system
US11651023B2 (en) 2019-03-29 2023-05-16 Information System Engineering Inc. Information providing system
US11520823B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
US11520822B2 (en) 2019-03-29 2022-12-06 Information System Engineering Inc. Information providing system and information providing method
JP2020170235A (en) * 2019-04-01 2020-10-15 Assest株式会社 Rearing environment determination program
JP2020170236A (en) * 2019-04-01 2020-10-15 Assest株式会社 Cultivation environment determination program
JP2020201051A (en) * 2019-06-06 2020-12-17 クリスタルメソッド株式会社 Evaluation device and evaluation system
JP2021037925A (en) * 2019-08-30 2021-03-11 Assest株式会社 Diagram correction program and system, and program for estimating subsequent train delay time
JP2021039638A (en) * 2019-09-05 2021-03-11 Assest株式会社 Estimation program for moving cost and system
JP2021068333A (en) * 2019-10-26 2021-04-30 Assest株式会社 Child abuse sign determination program and system
JP2021125219A (en) * 2020-02-01 2021-08-30 Assest株式会社 Illegal stock transaction detection program
JP2021124800A (en) * 2020-02-01 2021-08-30 Assest株式会社 Exchange transaction information display program
WO2021153547A1 (en) * 2020-02-01 2021-08-05 Assest株式会社 Exchange transaction information display program
JP6812034B1 (en) * 2020-02-01 2021-01-13 Assest株式会社 Forex trading information display program
JP2021128737A (en) * 2020-02-17 2021-09-02 Assest株式会社 Storage environment discrimination program
WO2023058677A1 (en) * 2021-10-06 2023-04-13 株式会社マスターリンク Management system and game system

Also Published As

Publication number Publication date
JP6260979B1 (en) 2018-01-17

Similar Documents

Publication Publication Date Title
JP6260979B1 (en) Event evaluation support system, event evaluation support device, and event evaluation support program
JP2018206341A (en) Event evaluation support system, event evaluation support device, and event evaluation support program
Stappen et al. The multimodal sentiment analysis in car reviews (muse-car) dataset: Collection, insights and improvements
JP6807389B2 (en) Methods and equipment for immediate prediction of media content performance
JP2004502222A (en) Method and apparatus for tailoring the content of information presented to audience
CN116484318B (en) Lecture training feedback method, lecture training feedback device and storage medium
CN113748439A (en) Prediction of successful quotient for motion pictures
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
Lin et al. Looking at the body: Automatic analysis of body gestures and self-adaptors in psychological distress
US20230052442A1 (en) Analyzing Objects Data to Generate a Textual Content Reporting Events
KR20210091970A (en) System and method for analyzing video preference using heart rate information
CN116980665A (en) Video processing method, device, computer equipment, medium and product
CN116088675A (en) Virtual image interaction method, related device, equipment, system and medium
WO2022168180A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168185A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2023002562A1 (en) Video analysis system
WO2022168174A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168184A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168182A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168177A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168179A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168181A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
Lehmann-Willenbrock et al. A multimodal social signal processing approach to team interactions
WO2022168175A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168176A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6260979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250