JP2016053891A - Confirmation device and program - Google Patents
Confirmation device and program Download PDFInfo
- Publication number
- JP2016053891A JP2016053891A JP2014180147A JP2014180147A JP2016053891A JP 2016053891 A JP2016053891 A JP 2016053891A JP 2014180147 A JP2014180147 A JP 2014180147A JP 2014180147 A JP2014180147 A JP 2014180147A JP 2016053891 A JP2016053891 A JP 2016053891A
- Authority
- JP
- Japan
- Prior art keywords
- video
- scene
- evaluation
- confirmation
- evaluation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012790 confirmation Methods 0.000 title claims abstract description 109
- 238000011156 evaluation Methods 0.000 claims abstract description 156
- 238000003860 storage Methods 0.000 claims abstract description 39
- 238000009826 distribution Methods 0.000 claims abstract description 23
- 230000008451 emotion Effects 0.000 claims description 18
- 238000000034 method Methods 0.000 description 62
- 238000012545 processing Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、遠隔グループインタビューにおいて、インタビュー現場のモデレータと遠隔地の分析者間でインタビューを効率的に振り返ることを可能とする確認装置及びプログラムに関する。 The present invention relates to a confirmation device and a program that enable an effective review of an interview between an interviewer moderator and a remote analyst in a remote group interview.
遠隔グループインタビューは、インタビュー現場のモデレータと遠隔地にいる分析者が協力して実施される。図1は、遠隔グループインタビュー環境を模式的に示す図である。図示するように、遠隔グループインタビューにおいては、通常のグループインタビューと異なり、分析者がインタビュー現場L1ではなく遠隔地L2に存在する。モデレータについては通常のグループインタビューと同様、被験者と共に現場L1に存在する。このように、遠隔グループインタビューでは、分析者と被験者が同じ場所に共在する必要がないため、被験者をより容易に集めることが可能になるという利点が存在する。 The remote group interview is conducted in cooperation with the moderator at the interview site and the analyst at the remote location. FIG. 1 is a diagram schematically showing a remote group interview environment. As shown in the figure, in the remote group interview, unlike the normal group interview, the analyst exists in the remote location L2 instead of the interview site L1. The moderator is present at the site L1 together with the subject, as in a normal group interview. Thus, in remote group interviews, there is an advantage that it is possible to collect subjects more easily because the analyst and the subjects do not need to coexist in the same place.
しかし、図1に示すように、分析者はインタビュー現場L1を視聴するに際して、当該現場L1に設置された複数のビデオカメラにより撮影されネットワークNを介して中継された映像を通じて視聴する。このとき、分析者は、ビデオカメラを切り替えることで選択したカメラの中継映像を視聴するため、被験者の言動を把握し損なう恐れがある。このことが原因で,分析者はインタビュー中のシーンを見逃したり、誤って解釈したりしてしまう可能性がある。 However, as shown in FIG. 1, when viewing the interview site L1, the analyst views the video through a plurality of video cameras installed at the site L1 and relayed via the network N. At this time, since the analyst views the relay video of the selected camera by switching the video camera, the analyst may fail to grasp the test subject's behavior. This can cause analysts to miss or misinterpret the scene being interviewed.
このような事態を防ぐために、一般的にはインタビュー終了後に、モデレータと分析者間でインタビューを振り返る。効率的にインタビューを振り返るためには、ビデオカメラで撮影された膨大なインタビュー動画から、双方に意識の相違が生まれた場面のみを抽出することが必要である。 In order to prevent this situation, the interview is generally reviewed between the moderator and the analyst after the interview. In order to look back on the interview efficiently, it is necessary to extract only scenes where a difference in consciousness was born from the vast interview video shot with the video camera.
このような作業を効率化することに関連した従来技術として、特許文献1がある。特許文献1では、会議参加者の視線から、会議での見逃しシーンを効率的に振り返るための方式が提案されている。この方式では、注視対象物に視線が向けられているか否かで見逃しを判定している。 Patent Document 1 is a related art related to improving the efficiency of such work. Patent Document 1 proposes a method for efficiently looking back on a missed scene in a conference from the line of sight of a conference participant. In this method, overlooking is determined based on whether or not the line of sight is directed to the gaze target.
しかしながら、特許文献1の手法は、あくまで会議参加者の立場に立ったものであるため、遠隔グループインタビュー中で、ビデオカメラが注視対象物を捉えきれなかったことが原因で生じる見逃しシーンを振り返ることはできない。また、認識誤りシーンを見つけることもできない。 However, since the method of Patent Document 1 is based on the position of a conference participant, it looks back on the missed scene that occurs because the video camera could not catch the target object during the remote group interview. I can't. In addition, a recognition error scene cannot be found.
ここで、遠隔グループインタビューにおいて、インタビューに対する意識の相違を見つけるためには、モデレータ側と分析者側でインタビュー中にコメントの投稿を可能とし、インタビュー終了後に双方のコメントを比較することが、有効な手段の一つであると考えられる。 Here, in remote group interviews, it is effective to allow comments to be posted during the interview between the moderator and the analyst, and to compare the comments of both after the interview. It is considered one of the means.
このようなコメントの利用に関連した従来技術として、特許文献2では,コメント投稿時に指定した映像中のポインティング位置から、ユーザ間のコメントの類似性を判定する方式が提案されている。 As a conventional technique related to the use of such a comment, Patent Document 2 proposes a method of determining the similarity of a comment between users from a pointing position in a video designated at the time of comment posting.
しかしながら、特許文献2の方式は、ブログ等における3次元モデル等の画像を対象として、そのデザイン等についての多数ユーザ間での意見交換を補助するためのものである。このため、特許文献2の方式は、遠隔グループインタビューにおけるモデレータ側と分析者側との認識相違の解析にそのまま適用できるものではない。 However, the method of Patent Document 2 is intended to assist the exchange of opinions among a large number of users regarding the design and the like of an image such as a three-dimensional model in a blog or the like. For this reason, the method of patent document 2 is not directly applicable to the analysis of the recognition difference between the moderator side and the analyst side in the remote group interview.
すなわち、特許文献2では対象となる3次元モデル等の画像につき予めその各部位の画像を構造、色、模様その他の属性情報と紐付けて用意しておき、ユーザに対してポインティングにより部位を指定したうえでコメントを入力させたうえで、属性情報を考慮することによってコメント同士の類似性を判定している。特許文献2の手法では、ポインティング位置が近ければコメント同士が類似していると判定される可能性が高く、コメントの内容まで考慮してコメントの類似性を判定していない。遠隔グループインタビューに特許文献2の手法を仮に適用したとすると、モデレータ側と分析者側との認識相違があるシーン(認識誤りシーン)では、ポインティング位置は近くても内容の類似性が低いコメントが投稿されることもあるが、特許文献2の手法ではそのような認識誤りシーンを見つけることはできない。 That is, in Patent Document 2, an image of each part of an image such as a target three-dimensional model is prepared in advance by associating it with structure, color, pattern, and other attribute information, and the part is designated by pointing to the user. Then, after inputting a comment, similarity between comments is determined by considering attribute information. In the method of Patent Document 2, it is highly likely that the comments are similar if the pointing positions are close, and the similarity of the comments is not determined in consideration of the content of the comments. Assuming that the technique of Patent Document 2 is applied to a remote group interview, in a scene where there is a recognition difference between the moderator side and the analyst side (recognition error scene), there is a comment with low content similarity even if the pointing position is close Although it may be posted, the method of Patent Document 2 cannot find such a recognition error scene.
また、遠隔グループインタビューにおいては映像を解析する必要があるが、特許文献2の手法はそもそも画像を対象としたものであり、映像を対象とした手法ではない。 In remote group interviews, it is necessary to analyze video images. However, the method of Patent Document 2 is intended primarily for images and is not a method for video images.
本発明は、上記従来技術の課題に鑑み、遠隔グループインタビューにおいて、現場と遠隔地とで被験者の様子に対する評価の相違の確認を補助することができる確認装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems of the prior art, and it is an object of the present invention to provide a confirmation device and program capable of assisting in confirming a difference in evaluation with respect to the state of a subject between a site and a remote site in a remote group interview. .
上記目的を達成するため、本発明は、現場で被験者を対象として実施されるグループインタビューの映像を遠隔地に配信し、当該グループインタビューの終了後において現場及び/又は遠隔地で当該グループインタビューにおける被験者の様子の確認を補助する確認装置であって、前記グループインタビューの映像を取得する映像取得部と、前記取得した映像に基づき、遠隔地へ映像を配信する映像配信部と、前記配信した映像を遠隔地における視聴映像として記憶する視聴映像記憶部と、前記グループインタビューの進行に即したタイムスタンプが付与されたうえで、現場及び遠隔地のそれぞれから、被験者を指定してその様子を評価した評価情報を受信して記憶する評価記憶部と、前記視聴映像に対して、前記評価情報をそのタイムスタンプの位置において紐付けることで評価付与映像を生成する評価付与映像生成部と、前記評価付与映像を複数のシーンに分割すると共に、被験者に対する現場からの評価情報と遠隔地からの評価情報とが異なっていると判定されるシーンを、確認対象のシーンとして識別する確認対象映像生成部 と、を備えることを特徴とする。 In order to achieve the above object, the present invention distributes a video of a group interview conducted for a subject at a site to a remote location, and the subject in the group interview at the site and / or a remote location after the end of the group interview. A confirmation device for assisting confirmation of the state of the image, a video acquisition unit that acquires the video of the group interview, a video distribution unit that distributes the video to a remote location based on the acquired video, and the distributed video A viewing image storage unit for storing viewing images at a remote location, and a time stamp corresponding to the progress of the group interview was given, and an evaluation was performed by designating a subject from each of the site and the remote location. An evaluation storage unit for receiving and storing information; and An evaluation-giving video generation unit that generates an evaluation-giving video by linking at the position of the group, and the evaluation-giving video is divided into a plurality of scenes, and evaluation information from the field and evaluation information from a remote place for the subject A confirmation target video generation unit that identifies a scene determined to be different as a confirmation target scene.
また、本発明は、プログラムであって、コンピュータを前記確認装置として機能させることを特徴とする。 In addition, the present invention is a program that causes a computer to function as the confirmation device.
本発明によれば、グループインタビューの進行に即して現場及び遠隔地のそれぞれから、被験者を指定してその様子を評価した評価情報を受信して記憶しておき、被験者に対する現場からの評価情報と遠隔地からの評価情報とが異なっていると判定されるシーンを、確認対象のシーンとして識別するので、遠隔グループインタビューにおいて、現場と遠隔地とで被験者の様子に対する評価の相違の確認を補助することができる。 According to the present invention, the evaluation information from the site for the subject is received and stored from each of the site and the remote location in accordance with the progress of the group interview, and the evaluation information for evaluating the state is received and stored. Since the scene that is judged to be different from the evaluation information from the remote location is identified as the scene to be confirmed, the remote group interview assists in confirming the difference in evaluation with respect to the state of the subject between the site and the remote location can do.
図2は、一実施形態に係る確認装置の機能ブロック図である。確認装置10は、映像取得部21、全映像記憶部22、映像配信部23、視聴映像記憶部24、現場側評価入力部31、遠隔側評価入力部32、評価記憶部33、評価付与映像生成部41、確認対象映像生成部42、確認対象映像記憶部43、映像検索部51及び映像表示部52を備える。 FIG. 2 is a functional block diagram of a confirmation device according to an embodiment. The confirmation device 10 includes a video acquisition unit 21, an all video storage unit 22, a video distribution unit 23, a viewing video storage unit 24, an on-site evaluation input unit 31, a remote evaluation input unit 32, an evaluation storage unit 33, and an evaluation-added video generation Unit 41, confirmation target video generation unit 42, confirmation target video storage unit 43, video search unit 51, and video display unit 52.
図2に示すように、確認装置10はインタビュー現場L1と遠隔地L2との間で種々のデータ仲介を実施することで、遠隔グループインタビューを実現すると共に、その際の映像や後述する評価情報を保存しておくことにより、現場L1のモデレータ(及び書記者)と遠隔地L2の分析者(及び書記者)の間で、被験者の反応に対する認識が互いに違った箇所を確認対象の箇所として自動で検出する。こうして、遠隔グループインタビュー実施後にモデレータ及び/又は分析者は確認対象の箇所を検討することが可能となる。この際、モデレータ及び分析者が互いに意思疎通しながら、共同して検討することも可能であるし、モデレータ又は分析者がそれぞれ個別に検討することも可能である。 As shown in FIG. 2, the confirmation device 10 implements various data mediations between the interview site L1 and the remote site L2, thereby realizing remote group interviews, as well as video and evaluation information to be described later. By preserving the data, the moderator (and clerk) at the site L1 and the analyst (and clerk) at the remote site L2 will automatically identify the locations where the subject's reactions are different from each other. To detect. In this way, the moderator and / or the analyst can examine the location to be confirmed after the remote group interview. At this time, the moderator and the analyst can communicate with each other while communicating with each other, or the moderator and the analyst can individually consider them.
従って、図2の確認装置10は、図1における現場L1と遠隔地L2とをつなぐネットワークN上に存在することができるが、確認装置10を構成する任意の一部部分が現場L1及び/又は遠隔地L2に存在してもよい。この場合、確認装置10の当該離れて存在する各部はネットワークNを介して互いに通信し、必要なデータ授受を行えばよい。 2 can exist on the network N that connects the site L1 and the remote location L2 in FIG. 1, but any part of the verification device 10 can be configured at the site L1 and / or the site L1. It may exist in the remote location L2. In this case, the units of the confirmation apparatus 10 that are present at a distance may communicate with each other via the network N and perform necessary data exchange.
図3は、一実施形態に係る確認装置の動作のフローチャートである。以下、図3の各ステップを説明しながら、図2の各部の機能を説明する。 FIG. 3 is a flowchart of the operation of the confirmation apparatus according to the embodiment. Hereinafter, the function of each part in FIG. 2 will be described while explaining each step in FIG. 3.
ステップS1では、インタビュー現場L1に居るモデレータが主導することで、当該現場L1に居る1人以上(一般には複数人)の被験者を対象として、グループインタビューが実施される。この際特に、確認装置10によって次の3つの処理、すなわち、(1)映像配信処理、(2)映像記録処理、(3)評価情報記録処理が並行して実施される。当該3つの各処理(1)〜(3)はそれぞれ以下の通りである。 In step S1, the moderator at the interview site L1 takes the lead, and a group interview is conducted for one or more (generally multiple) subjects at the site L1. At this time, in particular, the confirmation device 10 performs the following three processes in parallel: (1) video distribution process, (2) video recording process, and (3) evaluation information recording process. The three processes (1) to (3) are as follows.
処理(1)は、当該現場L1におけるグループインタビューの映像を遠隔地L2へと配信する処理である。当該処理(1)により、遠隔地L2の分析者はリアルタイムでグループインタビューの様子を見守り、被験者の応答を観察することが可能となる。すなわち、図1で説明したような遠隔グループインタビューが実施される。 Process (1) is a process for distributing the video of the group interview at the site L1 to the remote location L2. By the processing (1), the analyst at the remote location L2 can observe the state of the group interview in real time and observe the response of the subject. That is, the remote group interview as described in FIG. 1 is performed.
処理(1)を実現する構成は次の通りである。まず、映像取得部21は、現場L1に配置された複数のカメラ(ビデオカメラ)の映像をそれぞれ取得して、映像配信部23に渡す。当該現場の複数のカメラは、全体として、グループインタビューに参加している被験者の様子をそれぞれ撮影可能なように配置されていることが好ましい。なお、当該配置の実例に関しては、図8を参照して後述する。 The configuration for realizing the process (1) is as follows. First, the video acquisition unit 21 acquires videos from a plurality of cameras (video cameras) arranged at the site L1 and passes them to the video distribution unit 23. It is preferable that the plurality of cameras at the site are arranged so as to be able to photograph each of the subjects participating in the group interview as a whole. An example of the arrangement will be described later with reference to FIG.
次に、映像配信部23は、映像取得部21より得られた複数カメラの映像の中から、遠隔地L2に存在する分析者が操作するスイッチャーによって選択された一つのカメラの映像を、遠隔地L2に存在するディスプレイへと配信することで、分析者に当該映像の視聴を可能とさせる。すなわち、遠隔地L2の分析者は、スイッチャーによって所望のカメラを選択したうえで、当該選択されたカメラの映像を視聴する。グループインタビューの進行に沿って注目すべき被験者が変わった場合は、分析者は適宜、スイッチャーをマニュアル操作することにより当該新たに注目すべき被験者の様子が最も確認しやすいようなカメラに切り替えて、グループインタビューの様子を視聴することとなる。 Next, the video distribution unit 23 transmits the video of one camera selected by the switcher operated by the analyst existing in the remote location L2 from the video of the multiple cameras obtained from the video acquisition unit 21. By distributing to the display that exists in L2, the analyst can view the video. That is, the analyst at the remote location L2 views a video of the selected camera after selecting a desired camera with the switcher. When the subject to be noticed changes as the group interview progresses, the analyst switches the camera to the one that makes it easier to confirm the state of the subject to be newly noticed by manually operating the switcher, Watch the group interview.
なお、映像には現場L1で録音された音声も付随しており、映像が配信されることで同時に音声も配信される。以下ではこのように「音声」が付随しているものとして「映像」に言及する。 Note that the video is accompanied by audio recorded at the site L1, and the video is distributed and the audio is simultaneously distributed. In the following, “video” will be referred to as “audio” accompanying it.
処理(2)は、処理(1)における各映像を記録する処理である。以下のように、全映像記憶部22及び視聴映像記憶部24が当該処理(2)を担う。 Process (2) is a process of recording each video in process (1). As described below, the entire video storage unit 22 and the viewing video storage unit 24 perform the processing (2).
まず、全映像記憶部22は、映像取得部21において取得した複数カメラの映像の全てを受け取り、それぞれ個別に記憶する。また、視聴映像記憶部24は、映像配信部23が遠隔地L2に配信した映像、すなわち、遠隔地L2の分析者がスイッチャーを用いて全カメラ映像の中から適宜切り替えながら視聴している視聴映像を受け取り、記憶する。 First, the entire video storage unit 22 receives all the videos of the plurality of cameras acquired by the video acquisition unit 21 and stores them individually. In addition, the viewing video storage unit 24 is a video distributed by the video distribution unit 23 to the remote location L2, that is, a viewing video that an analyst at the remote location L2 is watching while appropriately switching from all camera video using a switcher. Is received and memorized.
処理(3)は、インタビューの進行に沿った形で、現場L1のモデレータ側及び遠隔地L2の分析者側のそれぞれから、モデレータより質問を受ける等してその時点における注目の対象となっている被験者の様子に関して評価する情報を受け付け、タイムスタンプを付与したうえで当該評価情報を記録しておく処理である。 Process (3) is the subject of attention at the time, such as by receiving questions from the moderator from the moderator side of the site L1 and the analyst side of the remote site L2 in accordance with the progress of the interview. This is a process of receiving information to be evaluated regarding the state of the subject, recording the evaluation information after giving a time stamp.
処理(3)を実現する構成は次の通りである。まず、評価情報の入力の受け付けに関して、現場L1に居る書記者が、インタビュー現場L1に配置された現場側端末11に対して、現場L1にてインタビューの進行上において注目対象となっている被験者に関して、評価情報をマニュアルで入力する。当該現場L1の書記者は、インタビュー風景を直接見ながら評価情報を入力することとなる。 The configuration for realizing the process (3) is as follows. First, regarding the acceptance of the input of evaluation information, the scribe who is at the site L1 is concerned with the subject who is focused on the progress of the interview at the site L1 with respect to the site side terminal 11 arranged at the interview site L1 Enter the evaluation information manually. The clerk at the site L1 inputs the evaluation information while directly viewing the interview scene.
現場側端末11では当該入力された評価情報に入力された際のタイムスタンプを付与したうえで、現場側評価入力部31へと送信する。タイムスタンプ付与され評価情報を受け取った現場側評価入力部31は、当該情報を評価記憶部33に保存する。 The site-side terminal 11 sends a time stamp to the site-side evaluation input unit 31 after adding a time stamp when it is input to the input evaluation information. The site-side evaluation input unit 31 that has received the evaluation information with the time stamp stores the information in the evaluation storage unit 33.
同様に、遠隔地L2に居る書記者も、映像配信部23によって配信されているインタビュー映像を視聴する分析者が、インタビューの進行上において注目対象となっている被験者に対して与えた評価情報を遠隔側端末12に入力する。 Similarly, the clerk at the remote location L2 also receives evaluation information given to the subject who is the subject of attention in the progress of the interview by the analyst who views the interview video distributed by the video distribution unit 23. Input to the remote terminal 12.
遠隔側端末12では当該入力された評価情報に入力された際のタイムスタンプを付与したうえで、遠隔側評価入力部32へと送信する。タイムスタンプ付与され評価情報を受け取った遠隔側評価入力部32は、当該情報を評価記憶部33に保存する。 The remote terminal 12 adds a time stamp at the time of input to the input evaluation information, and transmits it to the remote evaluation input unit 32. The remote-side evaluation input unit 32 that has received the evaluation information with the time stamp stores the information in the evaluation storage unit 33.
以上のようにして、処理(3)により、評価記憶部33には現場L1及び遠隔地L2の双方より、評価情報が入力され送信されたものを受信する都度、評価情報が蓄積されていくこととなる。なお、評価記憶部33では、現場L1又は遠隔地L2のいずれの側から送信された評価情報であるかの区別を含めて、評価情報を記憶する。 As described above, the evaluation information is accumulated in the evaluation storage unit 33 every time the evaluation information is input and transmitted from both the site L1 and the remote location L2 by the process (3). It becomes. The evaluation storage unit 33 stores the evaluation information including the distinction between the evaluation information transmitted from the site L1 or the remote location L2.
ここで、評価情報は、[1]評価の対象となった被験者が誰であるか特定する情報と、[2]当該被験者のグループインタビュー進行上における具体的な様子を評価する情報と、を含んだ情報として構成することができる。現場L1及び遠隔地L2のそれぞれの書記者は、当該構成に従う形で、評価情報を入力するものとする。当該各情報[1],[2]に関しては以下の通りである。 Here, the evaluation information includes: [1] information for identifying who is the subject of the evaluation, and [2] information for evaluating a specific state of the subject in the progress of the group interview. Can be configured as information. Each clerk in the field L1 and the remote site L2 shall input the evaluation information in a form according to the configuration. The information [1] and [2] are as follows.
[1] 評価対象となった被験者が誰であるかを特定する情報については、グループインタビューを開始する前に主催者側での準備として、参加する被験者のリストを作っておき、当該リスト内から選択する形で入力すればよい。例えば参加する被験者がA,B,Cの合計3名であれば、Aさん、Bさん及びCさんというリストを作っておけばよい。 [1] For information identifying who is the subject of evaluation, prepare a list of subjects to participate in preparation for the organizer before starting the group interview. You can enter it in the form of selection. For example, if there are a total of three participants, A, B, and C, you can create a list of A, B, and C.
あるいは、遠隔地L2側であれば、配信映像上において被験者を画面上でクリックする等により指定するようにしてもよい。この場合も参加する被験者のリストは予め用意しておくと共に、周知の画像からの人物検出技術を適用することで、クリックした位置における被験者が誰であるかを特定することができる。 Alternatively, on the remote location L2 side, the subject may be specified by clicking on the screen on the distribution video. Also in this case, a list of subjects to participate in is prepared in advance, and by applying a known person detection technique from an image, it is possible to specify who is the subject at the clicked position.
[2] 被験者の様子を評価する情報は、以下のように種々の実施形態が可能である。 [2] The information for evaluating the state of the subject can be various embodiments as follows.
一実施形態では、通常のテキストにより、対象となる被験者の様子を記述する形で、様子を評価する情報を入力させるようにすることができる。一実施形態では、所定の感情評価項目を予め用意しておき、当該項目内から選択する形で、様子を評価する情報を入力させるようにすることができる。例えば、所定の感情評価項目として、感情が「ポジティブ」又は「ネガティブ」のいずれに該当するかという2項目を予め設定しておき、当該2項目のいずれに該当するか選択することで入力させるようにすることができる。 In one embodiment, it is possible to input information for evaluating the state in the form of describing the state of the subject subject as a normal text. In one embodiment, predetermined emotion evaluation items can be prepared in advance, and information for evaluating the state can be input in a form selected from the items. For example, as the predetermined emotion evaluation item, two items are set in advance as to whether the emotion corresponds to “positive” or “negative”, and it is input by selecting which of the two items corresponds Can be.
また、一実施形態では、上記のテキスト及び所定の感情評価項目の両方を入力させることで、被験者の様子を評価する情報を与えるようにしてもよい。この場合、テキストに関しては、選択された感情評価項目に関して、なぜ当該項目を選択したかを説明する情報として構成されるようにしてもよい。例えば上記例示した2項目のうち「ポジティブ」を選択した場合、被験者の具体的などのような振る舞いから「ポジティブ」であると判断したかをテキストとして記入するようにしてもよい。 Further, in one embodiment, information for evaluating the state of the subject may be provided by inputting both the text and the predetermined emotion evaluation item. In this case, the text may be configured as information that explains why the selected emotion evaluation item is selected. For example, when “positive” is selected from the above-described two items, the specific behavior of the subject may be entered as text indicating that it is determined to be “positive”.
また、どのような場合に評価情報を入力するかの判断は、グループインタビューの目的に応じた所定の業務上の取り決め等に従う形で、現場L1及び遠隔地L2のそれぞれの書記者(又は書記者に指示する分析者)に委ねられる。 In addition, the decision on when to enter the evaluation information is made in accordance with the prescribed business arrangements according to the purpose of the group interview, and the clerk (or clerk) at each of the site L1 and the remote site L2. To the analyst who gives instructions).
例えば、企画段階のスマートフォンを操作してもらい、被験者から端末に関する意見を集めることを目的としたグループインタビューの場合であれば、現場L1のモデレータは順次、当該スマートフォンの新機能の紹介を行い、被験者に操作感などを訪ねるといった形でグループインタビューは進行する。この場合、新機能の使い勝手等がグループインタビューにおいて収集したい情報となるので、被験者が使い勝手をどのように感じているかが読み取れた際に、当該読み取った感情を評価情報として入力するものとして、取り決めておけばよい。 For example, in the case of a group interview with the aim of gathering opinions about the terminal from the subject in the planning stage, the moderator at the site L1 introduces the new functions of the smartphone in sequence, Group interviews proceed in the form of visiting the operation feelings. In this case, since the user-friendliness, etc. of the new function is the information that the user wants to collect in the group interview, when reading how the subject feels usability, it is decided that the read emotion will be input as evaluation information. Just keep it.
特に、評価情報は、被験者の非言語的な反応(楽しそうな顔をしている、あるいは逆に、困ったような顔をしている、等の反応)に関して入力するものとして、取り決めておいてもよい。 In particular, the evaluation information is determined as input regarding the subject's non-verbal responses (responses such as having a pleasant face, or conversely a troubled face). May be.
また、現場L1及び遠隔地L2のそれぞれにおいて端末11,12に以上の評価情報を入力する主体を書記者として説明した。当該書記者に入力を実施させる理由は次の通りである。すなわち、現場L1においてはモデレータはグループインタビューの司会を務めるため、インタビューの進行に沿って逐次、評価情報を入力するという作業を行うことは困難である。このため、現場L1においては当該入力する役割を書記者が担う。 In addition, the subject who inputs the above evaluation information to the terminals 11 and 12 in each of the site L1 and the remote site L2 has been described as a clerk. Reasons for the clerk to input are as follows. In other words, since the moderator serves as a moderator for the group interview at the site L1, it is difficult to perform the task of inputting evaluation information sequentially as the interview progresses. For this reason, the clerk plays the role of inputting at the site L1.
同様に、遠隔地L2においても分析者はインタビュー映像を継続して視聴し続ける必要があるので、入力作業を書記者に担わせる。この際、入力すべき評価情報については、分析者から書記者に対して口述等で伝えるようにすればよい。 Similarly, in the remote location L2, the analyst needs to continue watching the interview video, so the clerk is responsible for the input work. At this time, the evaluation information to be input may be communicated from the analyst to the scribe by dictation or the like.
以上、処理(1)〜(3)が並行して実施される図3のステップS1が、あるグループインタビュー全体について完了すると、当該グループインタビューに関しての一連の情報(映像及び評価情報)が蓄積された状態となり、ステップS2へと進む。 As described above, when step S1 of FIG. 3 in which the processes (1) to (3) are performed in parallel is completed for an entire group interview, a series of information (video and evaluation information) about the group interview is accumulated. It will be in a state and will progress to step S2.
ステップS2では、以上のステップS1で蓄積された視聴映像記憶部24の視聴映像と評価記憶部33の評価情報とを参照して、評価付与映像生成部41が評価付与映像を生成してから、ステップS3へと進む。 In step S2, with reference to the viewing video of the viewing video storage unit 24 accumulated in the above step S1 and the evaluation information of the evaluation storage unit 33, the evaluation imparted video generation unit 41 generates the evaluation imparted video, Proceed to step S3.
ステップS2にて当該生成される評価付与映像とは、評価記憶部33に記憶されているそれぞれの評価情報を、当該評価情報に付与されたタイムスタンプに一致する時刻の位置において、視聴映像記憶部24の視聴映像に対して時間軸上で紐付けた映像である。すなわち、視聴映像に対して、そのグループインタビューが進行するにつれ適宜、現場L1又は遠隔地L2で入力された評価情報が、当該入力された時刻と紐付ける形で追加されたものが評価付与映像である。 The evaluation imparted video generated in step S2 means that each of the evaluation information stored in the evaluation storage unit 33 is the viewing video storage unit at a position corresponding to the time stamp assigned to the evaluation information. This is a video linked to 24 viewing videos on the time axis. In other words, as the group interview progresses with respect to the viewing video, the evaluation-added video is appropriately added with the evaluation information input at the site L1 or the remote location L2 in a form linked to the input time. is there.
ステップS3では、ステップS2にて生成された評価付与映像を解析することで、確認対象映像生成部42が、評価付与映像の各シーンにつき確認すべきシーンであるか否かの判定を下すことにより、確認対象映像を生成して確認対象映像記憶部43に記憶させてから、ステップS4へと進む。 In step S3, by analyzing the evaluation imparted video generated in step S2, the confirmation target video generation unit 42 determines whether each scene of the evaluation imparted video is a scene to be confirmed. Then, the confirmation target video is generated and stored in the confirmation target video storage unit 43, and then the process proceeds to step S4.
当該生成される確認対象映像は、評価付与映像に対してその各シーンに確認すべきシーンであるか否かの情報を付与した映像として構成されていてもよいし、評価付与映像の各シーンの中から確認すべきシーンと判定されたシーンのみを切り取ってつなげた映像として構成されていてもよい。確認対象映像が当該いずれの構成を取る場合においても、確認対象映像生成部42では、(a)評価付与映像をシーン分割する処理と、(b)当該分割された各シーンが確認すべきシーンであるか否かを判定する処理と、を行う。各処理(a),(b)は以下の通りである。 The generated confirmation target video may be configured as a video in which information indicating whether each scene is a scene to be confirmed is given to the evaluation-giving video, or each scene of the evaluation-giving video. It may be configured as an image in which only scenes determined as scenes to be confirmed are cut out and connected. Regardless of the configuration of the confirmation target video, the confirmation target video generation unit 42 (a) processes that divide the evaluation-added video into scenes, and (b) the divided scenes are scenes to be confirmed. And a process for determining whether or not there is. Each processing (a), (b) is as follows.
(a) 評価付与映像のシーン分割に関しては、一般の映像(評価付与映像のように評価情報が紐付けられていない通常の映像)を対象とした、映像内容に応じてシーンを適切に分割する技術が多く提案されているため、そのような既存技術を利用すればよい。例えば、以下の[特許文献3]に開示された既存技術を利用してもよい。
[特許文献3] 特開2008-283229号公報 (映像区間分割システム,日本電気株式会社)
(a) Regarding the scene division of evaluation-given video, the scene is appropriately divided according to the video content for general video (ordinary video that is not associated with evaluation information such as evaluation-given video) Since many technologies have been proposed, such existing technologies may be used. For example, the existing technology disclosed in [Patent Document 3] below may be used.
[Patent Document 3] Japanese Unexamined Patent Application Publication No. 2008-283229 (Video Segmentation System, NEC Corporation)
(b) 分割された各シーンが確認すべきシーンであるか否かの判定に関しては、当該シーンに付与されているモデレータ側から付与された(すなわち、現場側評価入力部31から入力された)評価情報と、分析者側から付与された(すなわち、遠隔側評価入力部32から入力された)評価情報と、を比較して、当該両情報が互いに異なっていると判定できるか否かによって判断すればよい。 (b) Regarding the determination as to whether each divided scene is a scene to be confirmed, it is given from the moderator attached to the scene (that is, input from the on-site evaluation input unit 31) The evaluation information is compared with the evaluation information given from the analyst side (that is, input from the remote-side evaluation input unit 32), and the determination is made based on whether or not the information can be determined to be different from each other. do it.
ここで、評価付与映像には時間軸上で評価情報が付与されているため、シーン分割後においても各シーンの当該時間軸上(当初の評価付与映像と共通の時間軸上)において紐付けられている評価情報を参照することにより、上記の判断が可能である。 Here, since the evaluation information is assigned to the evaluation imparted video on the time axis, it is linked on the time axis of each scene (on the same time axis as the original evaluation imparted video) even after the scene is divided. The above judgment can be made by referring to the evaluation information.
評価情報同士が異なっているか否かの判定については、評価情報をどのような実施形態で構成したかに応じて所定の判定手法により判断すればよい。前述のように評価情報は[1]対象となる被験者が誰であるかの情報と、[2]当該被験者の様子を評価した内容と、で構成される。[2]に関しては種々の実施形態が可能であるが、以下では前述のように感情評価項目が「ポジティブ」又は「ネガティブ」の2項目のうちいずれであるかを特定することで様子を評価する場合を例として説明する。 Whether or not the evaluation information is different may be determined by a predetermined determination method according to the embodiment in which the evaluation information is configured. As described above, the evaluation information is composed of [1] information on who is the subject subject and [2] contents of evaluating the subject. Although various embodiments are possible with respect to [2], in the following, as described above, the state is evaluated by specifying whether the emotion evaluation item is “positive” or “negative”. A case will be described as an example.
この場合、一実施形態では、確認すべきと判定されたシーンに対してさらに、確認すべき意味合いの違いから区別を設けることが可能である。すなわち、「見逃しシーン」又は「認識誤りシーン」の2種類の区別を設けることが可能である。 In this case, in one embodiment, a scene determined to be confirmed can be further distinguished from a difference in meaning to be confirmed. That is, it is possible to provide two types of distinction: “missing scene” or “recognition error scene”.
ここで、見逃しシーンとは、ある被験者に対してモデレータ側からのみ評価情報が入力されているシーンとして定義する。すなわち、当該シーンに付与された評価情報における上記[1]の情報、すなわち、どの被験者を対象としているかの情報を調べて、モデレータ側からのみ評価情報が与えられているような被験者が1名でも存在すれば、当該シーンは確認すべきシーンであり、その種別が見逃しシーンであるものとして判定する。 Here, the missed scene is defined as a scene in which evaluation information is input only from a moderator side to a subject. That is, the information of [1] above in the evaluation information given to the scene, that is, information on which subject is the target, and even one subject whose evaluation information is given only from the moderator side If it exists, it is determined that the scene is a scene to be confirmed and the type is a missed scene.
見逃しシーンはすなわち、現場L1の書記者のみが気付き、遠隔地L2の分析者は気付かなかった(見逃してしまった)対象者の何らかの応答を含むものであるため、このような観点から確認すべきシーンとなる。 Since the missed scenes include some response of the subject who was noticed only by the clerk at the site L1 and not (not missed) by the analyst at the remote location L2, it should be confirmed from this point of view. Become.
また、認識誤りシーンとは、上記の見逃しシーンとは逆に、[A]ある被験者に対して分析者側からのみ評価情報が入力されているシーン、又は、[B]ある被験者に対してモデレータ側と分析者側との両方から評価情報が入力されているが、評価情報における内容評価すなわち「ポジティブ」又は「ネガティブ」の結果が互いに異なるシーン、として定義する。 In contrast to the above-described missed scenes, the recognition error scene is [A] a scene in which evaluation information is input only from the analyst side for a subject, or [B] a moderator for a subject. Evaluation information is input from both the analysis side and the analyst side, but it is defined as a scene in which the content evaluation in the evaluation information, that is, “positive” or “negative” results are different from each other.
上記両条件[A],[B]のうち、[A]については見逃しシーンの判定と同様にして満たしているか否かを判断可能である。[B]についてはモデレータ側の評価情報と分析者側の評価情報とで上記[1]の被験者が共通しているものを見つけたうえでさらに、一方には上記[2]の「ポジティブ」評価が与えられ、もう一方には「ネガティブ」評価が与えられている場合に、条件[B]が満たされると判断することができる。 Of the two conditions [A] and [B], it is possible to determine whether [A] is satisfied in the same manner as the determination of the missed scene. For [B], after finding out what the subject in [1] mentioned above has in common between the evaluation information on the moderator side and the evaluation information on the analyst side, the “positive” evaluation in [2] above Can be determined that the condition [B] is satisfied when the other is given a “negative” evaluation.
認識誤りシーンとはすなわち、モデレータ側が正しい判断を下しているとの前提のもとで、分析者側が当該正しい判断とは異なる判断をしてしまっているシーン(分析者側が「認識誤り」をしているシーン)であるため、確認すべきシーンとなる。 A recognition error scene is a scene in which the analyst has made a judgment that is different from the correct judgment under the assumption that the moderator has made the correct judgment (the analyst has identified a “recognition error”. The scene to be confirmed.
なお、上記定義において「モデレータ側」と「分析者側」を入れ替えることで、さらに、「モデレータ側」の認識誤りシーンを定義することも可能である。 It should be noted that the “moderator side” and “analyzer side” may be interchanged in the above definition to further define the “moderator side” recognition error scene.
図5は、当該ステップS3にて確認対象映像生成部42により生成される確認対象映像を模式的に示す図である。[1]は、上記処理(a)によって当初の評価付与映像の全体SC(シーン集合SC)が時間軸上で一連のシーンsc1〜sc6に分割されることで、時間軸上に予め付与されていた評価情報が対応するシーンに紐付いた状態を表している。そして[1]では、モデレータ側で付与された2つの評価情報のうち一方がシーンsc2に紐付く評価情報E1[sc2]となり、もう一方がシーンsc4に紐付く評価情報E1[sc4]となっている。また、分析者側で付与された1つの評価情報がシーンsc2に紐付く評価情報E2[sc2]となっている。 FIG. 5 is a diagram schematically showing the confirmation target video generated by the confirmation target video generation unit 42 in step S3. [1] is given in advance on the time axis by dividing the entire SC (scene set SC) of the initial evaluation imparted video into the series of scenes sc1 to sc6 on the time axis by the above process (a). The evaluation information represents a state associated with the corresponding scene. In [1], one of the two pieces of evaluation information given on the moderator side is evaluation information E1 [sc2] associated with the scene sc2, and the other is evaluation information E1 [sc4] associated with the scene sc4. Yes. Also, one piece of evaluation information given by the analyst is evaluation information E2 [sc2] associated with the scene sc2.
そして、各評価情報の内容は図示するように、評価情報E1[sc2]は被験者Aを「ネガティブ」評価するものであり、評価情報E1[sc4]は被験者Cを「ポジティブ」評価するものであり、評価情報E2[sc2]は被験者Aを「ポジティブ」評価するものである。従って、図示するように処理(b)により、シーンsc2は同一の被験者Aに関してモデレータ側と分析者側とで評価が異なるものであるため、認識誤りシーンと判定される。また、シーンsc4は被験者Cに関してモデレータ側からのみ評価情報が付与されているものであるため、見逃しシーンと判定される。その他のシーンsc1,sc3,sc5,sc6については認識誤りシーンでも見逃しシーンでもなく、確認対象のシーンには該当しないものとの判定が得られる。 As shown in the figure, the evaluation information E1 [sc2] evaluates the subject A “negative”, and the evaluation information E1 [sc4] evaluates the subject C “positive”. Evaluation information E2 [sc2] is used to evaluate subject A “positively”. Accordingly, as shown in the drawing, the scene sc2 is determined to be a recognition error scene because the evaluation of the scene sc2 is different between the moderator side and the analyst side for the same subject A. Further, since the scene sc4 is given evaluation information only from the moderator side with respect to the subject C, it is determined as a missed scene. The other scenes sc1, sc3, sc5, and sc6 are neither recognition-recognized scenes nor overlooked scenes, but are determined not to correspond to the confirmation target scene.
図5では以上の[1]にて確認対象となったシーンsc2,sc4を切り出して新たに生成した映像SC'が[2]に示されている。前述のように、一実施形態では当該映像SC'を確認対象映像としてもよいし、一実施形態ではシーンsc2,sc4が確認対象シーンである旨の情報が付加された状態での[1]の映像SCを確認対象映像としてもよい。 In FIG. 5, the image SC ′ newly generated by cutting out the scenes sc2 and sc4 to be confirmed in the above [1] is shown in [2]. As described above, in one embodiment, the video SC ′ may be a confirmation target video. In one embodiment, the information of [1] in a state where information indicating that the scenes sc2 and sc4 are confirmation target scenes is added. The video SC may be a confirmation target video.
図4は、以上のステップS3における確認対象映像生成部42による確認対象映像の生成処理のフローチャートである。ステップS11では、確認対象映像生成部42が処理対象の評価付与映像を入力として受け取り、ステップS12に進む。ステップS12では、確認対象映像生成部42が評価付与映像をシーン毎に分割してシーン集合SCとし、ステップS13へ進む。ステップS13は、当該ステップS13からステップS18までの間におけるシーン判別処理のループを表すためのダミーステップであり、当該ループ処理内の最初のステップであるステップS14へ進む。 FIG. 4 is a flowchart of the confirmation target video generation processing by the confirmation target video generation unit 42 in the above step S3. In step S11, the confirmation target video generation unit 42 receives the evaluation imparted video to be processed as an input, and proceeds to step S12. In step S12, the confirmation target video generation unit 42 divides the evaluation imparted video for each scene to form a scene set SC, and the process proceeds to step S13. Step S13 is a dummy step for representing a loop of the scene determination process between Step S13 and Step S18, and the process proceeds to Step S14 which is the first step in the loop process.
ステップS14ではシーン集合SC内から1つの要素sc(すなわちシーンsc)を処理対象として取り出し、ステップS15へ進む。ステップS15では、シーンscから、当該シーンsc内に付与されているモデレータ側及び分析者側の評価情報E1,E2をそれぞれ取得してステップS16へ進む。なお、シーンscに評価情報E1,E2が付与されていない場合もあるが、その場合は付与されていない旨の情報を取得する。 In step S14, one element sc (that is, scene sc) is extracted from the scene set SC as a processing target, and the process proceeds to step S15. In step S15, the moderator side and analyzer side evaluation information E1 and E2 assigned in the scene sc are acquired from the scene sc, and the process proceeds to step S16. In some cases, the evaluation information E1 and E2 is not assigned to the scene sc. In this case, information indicating that the evaluation information E1 and E2 is not assigned is acquired.
ステップS16では、評価情報E1,E2を比較してシーンscが確認対象となるかを判定する。前述のように当該判定は、評価情報をどのように構成しているかに応じた所定判定が可能であるが、一実施形態では枠F16内に描かれるサブステップS21〜S24により、確認対象のシーンであるか否かを判定し、さらにその種別が「見逃しシーン」又は「認識誤りシーン」の2種類のうちいずれであるかを判定することができる。サブステップS21〜S24は以下の通りである。 In step S16, the evaluation information E1, E2 is compared to determine whether the scene sc is a confirmation target. As described above, the determination can be performed in accordance with how the evaluation information is configured, but in one embodiment, the scene to be confirmed is determined by substeps S21 to S24 drawn in the frame F16. It is possible to determine whether the type is “missing scene” or “recognition error scene”. Sub-steps S21 to S24 are as follows.
ステップS21では、当該シーンscの評価情報E1,E2を調べて、モデレータ側の評価情報E1のみ存在するような被験者が存在するかを判定し、存在していればステップS22に進み、存在していなければステップS22をスキップしてステップS23へ進む。ステップS22では、シーンscを確認対象シーンの一種として見逃しシーンに分類して、ステップS23へ進む。 In step S21, the evaluation information E1 and E2 of the scene sc is examined to determine whether or not there is a subject who only has the evaluation information E1 on the moderator side. If there is, the process proceeds to step S22 and exists. If not, skip step S22 and proceed to step S23. In step S22, the scene sc is classified as a missed scene as a type of confirmation target scene, and the process proceeds to step S23.
ステップS23では、当該シーンscの評価情報E1,E2を調べて、「分析者側の評価情報E2のみ存在する被験者が存在する」又は「モデレータ、分析者の両者より評価情報E1,E2が与えられているが、その内容が異なる被験者が存在する」の少なくとも一方が成立するか否かを判定し、成立していればステップS24へ進み、成立していなければステップS24をスキップしてステップS17へと進む。ステップS24では、シーンscを確認対象シーンの一種として認識誤りシーンに分類して、ステップS17へ進む。 In step S23, the evaluation information E1 and E2 of the scene sc is checked, and "there is a subject who only has evaluation information E2 on the analyst side" or "evaluation information E1 and E2 are given by both the moderator and the analyst. However, if at least one of “there are subjects with different contents” is satisfied, the process proceeds to step S24, and if not, the process skips step S24 to step S17. Proceed with In step S24, the scene sc is classified as a recognition error scene as a kind of confirmation target scene, and the process proceeds to step S17.
以上、ステップS16の一実施形態としてのサブステップS21〜S24を説明した。なお、ステップS21,S23の両者において否定の判定が下された場合(ステップS22,S24の両方がスキップされた場合)は、当該シーンscは確認対象のシーンではない旨の判断を得る。 The sub-steps S21 to S24 as one embodiment of step S16 have been described above. When a negative determination is made in both steps S21 and S23 (when both steps S22 and S24 are skipped), it is determined that the scene sc is not a confirmation target scene.
ステップS17では、直前のステップS16において当該シーンscが確認対象と判定された場合、シーンscを、確認対象映像を構成している集合SC'に追加して、ステップS18に進む。なお、当該集合SC'には、図4のフローを開始するに際してその初期値として空集合φを設定しておけばよい。 In step S17, when it is determined in step S16 immediately before that scene sc is a confirmation target, the scene sc is added to the set SC ′ constituting the confirmation target video, and the process proceeds to step S18. For the set SC ′, an empty set φ may be set as an initial value when the flow of FIG. 4 is started.
ステップS18では当該ステップS13〜S18のループ処理が終了したかの判定が行われる。ここで、集合SCが空集合φである場合、ループ処理は終了した旨の判定を下してステップS19へと進む。一方、集合SCが空集合φではない場合、集合SC内にまだ処理されていない要素sc(シーンsc)が残っているので、これらを対象としてループ処理を継続すべくステップS14へと戻る。 In step S18, it is determined whether or not the loop processing in steps S13 to S18 has been completed. Here, when the set SC is the empty set φ, it is determined that the loop processing has ended, and the process proceeds to step S19. On the other hand, if the set SC is not the empty set φ, there remains an element sc (scene sc) that has not yet been processed in the set SC, and the process returns to step S14 to continue the loop processing for these elements SC.
ステップS19では、確認対象映像生成部42が集合SC'に含まれるシーンを結合して確認対象映像を生成し、当該映像を確認対象映像記憶部43に保存して、図4のフローは終了する。なお、集合SC'として確認対象映像を生成する場合は、図5の例で示した[2]の形式で確認対象映像が生成される。別の一実施形態として、図5の[1]の形式、すなわち当初のシーン集合としての映像SC内の各シーンに確認対象のシーンであるか否かの情報を付加した形式で確認対象映像を生成してもよい。 In step S19, the confirmation target video generation unit 42 combines the scenes included in the set SC ′ to generate a confirmation target video, stores the video in the verification target video storage unit 43, and the flow in FIG. 4 ends. . When the confirmation target video is generated as the set SC ′, the confirmation target video is generated in the format [2] shown in the example of FIG. As another embodiment, the confirmation target video is displayed in the format of [1] in FIG. 5, that is, in a format in which information indicating whether or not the scene is the confirmation target is added to each scene in the video SC as the initial scene set. It may be generated.
図3に戻り、以上のステップS3を終えると次のステップS4では、生成された確認対象映像を参照して、モデレータ及び/又は分析者が確認作業(グループインタビューの振り返り)を行う。当該作業を補助すべく、確認装置10では、モデレータ及び/又は分析者からの要求に応じて、確認を行いたい箇所の映像をモデレータ及び/又は分析者に対して表示する。具体的には以下のように、映像検索部51がモデレータ及び/又は分析者からの要求を受信して表示すべき映像の検索を行い、映像表示部52が当該検索された映像をモデレータ及び/又は分析者に対して表示する。 Returning to FIG. 3, when the above step S3 is completed, in the next step S4, the moderator and / or the analyst performs a confirmation operation (review of the group interview) with reference to the generated confirmation target video. In order to assist the work, the confirmation device 10 displays an image of a location to be confirmed to the moderator and / or the analyst in response to a request from the moderator and / or the analyst. Specifically, as described below, the video search unit 51 receives a request from a moderator and / or an analyst, searches for a video to be displayed, and the video display unit 52 displays the searched video as a moderator and / or Or display it to the analyst.
映像検索部51は、モデレータ側の現場側端末11及び分析者側の遠隔側端末12からそれぞれ確認すべきシーンの検索要求を受け付け、当該要求に合致するシーンを確認対象映像記憶部43から検索して取得すると共に、当該シーンに対応する全てのビデオカメラのシーンを全映像記憶部22より取得し、映像表示部52に渡す。 The video search unit 51 receives a search request for a scene to be confirmed from the field side terminal 11 on the moderator side and the remote side terminal 12 on the analyst side, and searches the confirmation target video storage unit 43 for a scene that matches the request. In addition, the scenes of all video cameras corresponding to the scene are acquired from the entire video storage unit 22 and passed to the video display unit 52.
映像表示部52では、当該検索された確認対象映像内のシーンを、検索要求を送信したモデレータ側の現場側端末11及び/又は分析者側の遠隔側端末12において表示させる。当該表示させる際に、当該シーンに付与され確認対象映像生成部42において当該シーンを確認対象のシーンと判定する根拠となった評価情報を併せて表示させるようにしてよい。当該評価情報の表示には、シーン画面内に周知のテロップ等の形式で重畳させて表示させるようにしてもよいし、シーン画面とは別途に表示させるようにしてもよい。 In the video display unit 52, the scene in the searched confirmation target video is displayed on the moderator-side terminal 11 and / or the analyzer-side remote terminal 12 that transmitted the search request. When the display is performed, the evaluation information that is given to the scene and is the basis for determining the scene as the confirmation target scene in the confirmation target video generation unit 42 may be displayed together. The evaluation information may be displayed by being superimposed in a known telop format in the scene screen, or may be displayed separately from the scene screen.
さらに、映像表示部52では当該シーンに対応する全ビデオカメラのシーンを取得しているので、確認対象映像内のシーンを当該表示させる際に、モデレータ及び/又は分析者は各端末において任意のビデオカメラを選択することで、指定したビデオカメラのシーンを視聴することができる。 Further, since the video display unit 52 acquires scenes of all the video cameras corresponding to the scene, when displaying the scene in the confirmation target video, the moderator and / or the analyst can use any video on each terminal. By selecting a camera, the scene of the designated video camera can be viewed.
すなわち、遠隔地L2にてグループインタビューを観察していた際は、分析者はスイッチャーによって切り替えられたいずれか1つのビデオカメラの映像を視聴するが、当該ステップS4にて確認作業を実施する際には、対象シーンを分析者が実際に視聴していたビデオカメラ以外にも任意のビデオカメラを指定して視聴し、分析者及び/又はモデレータが確認を行うことが可能となる。シーンにおける見逃しや認識誤りは適切なビデオカメラが選択されていなかったことに起因することもありうるため、当該選択により効率的に確認作業を実施することが可能となる。 In other words, when observing the group interview at the remote location L2, the analyst views the video of any one video camera switched by the switcher, but when performing the confirmation work in step S4 In addition to the video camera that the analyst actually viewed the target scene, any video camera can be designated and viewed, and the analyst and / or moderator can confirm the target scene. An oversight or a recognition error in a scene may be caused by the fact that an appropriate video camera has not been selected, so that the confirmation operation can be efficiently performed by the selection.
映像検索部51において現場側端末11及び遠隔側端末12からそれぞれ受け付ける検索要求は、以下のように種々の実施形態が可能である。 The search request received from the site side terminal 11 and the remote side terminal 12 in the video search unit 51 can be various embodiments as follows.
一実施形態では、端末11,12側に予め確認対象映像記憶部43に保存されている確認対象映像の構成情報を送信しておき、当該構成情報内から視聴を要求するシーンを指定するという形で検索要求が構成されていてもよい。 In one embodiment, the configuration information of the confirmation target video stored in the confirmation target video storage unit 43 in advance is transmitted to the terminals 11 and 12 side, and a scene to be viewed is designated from the configuration information. The search request may be configured with.
すなわち、端末11,12側には、図5で説明したような確認対象映像の構成情報(時系列上で分割された一連の各シーンを区別する情報並びに各シーンが確認対象か否かの情報及び「認識誤りシーン」又は「見逃しシーン」を区別する情報)を送信しておき、端末11,12側から所望の箇所を選択させるようにしてよい。 That is, the terminals 11 and 12 have, on the side of the configuration information of the confirmation target video as described in FIG. 5 (information for distinguishing a series of scenes divided in time series and information on whether each scene is a confirmation target or not). And “information for distinguishing“ recognition error scene ”or“ missing scene ”) may be transmitted so that a desired location is selected from the terminals 11 and 12 side.
また、上記のように個別のシーンを直接選択する他にも、一実施形態では「認識誤りシーン」に該当する全シーンを要求する、あるいは「見逃しシーン」に該当する全シーンを要求する等、条件指定により検索要求を構成することができる。この場合も、確認対象映像の構成情報は予め端末11,12側に送信しておいてもよいし、条件指定を行うための所定のメニュー項目を端末11,12に送信しておいてもよい。 In addition to directly selecting individual scenes as described above, in one embodiment, all scenes corresponding to “recognized scenes” are requested, or all scenes corresponding to “missing scenes” are requested, etc. Search requests can be configured by specifying conditions. Also in this case, the configuration information of the confirmation target video may be transmitted to the terminals 11 and 12 in advance, or a predetermined menu item for specifying conditions may be transmitted to the terminals 11 and 12. .
以上、図3の各ステップ及び図2の各部を説明した。図6は、図2とは別の一実施形態に係る確認装置10の機能ブロック図である。図2の構成との差異点は次の通りである。すなわち、図2の構成においては、遠隔地L2で分析者がスイッチャーを操作することにより、映像取得部21で取得される全カメラ映像のうち所望の1台のカメラの映像を選択して、映像配信部23へ入力させるようにしていた。これに対して、図6の構成ではスイッチャーが省略され、従って分析者はスイッチャーを操作する必要はなく、映像配信部23へ入力させる1台のカメラ映像の選択処理を、スイッチャーに代えて注視対象取得部25及びカメラ選択部26が担う。その他の構成及び動作は図2及び図3で説明したのと全く同様である。 In the above, each step of FIG. 3 and each part of FIG. 2 were demonstrated. FIG. 6 is a functional block diagram of the confirmation apparatus 10 according to an embodiment different from FIG. Differences from the configuration of FIG. 2 are as follows. That is, in the configuration of FIG. 2, the analyst operates the switcher at the remote location L2, and selects the video of one desired camera from all the camera videos acquired by the video acquisition unit 21, and the video Input was made to the distribution unit 23. On the other hand, in the configuration of FIG. 6, the switcher is omitted, and therefore the analyst does not need to operate the switcher, and instead of the switcher, the process of selecting one camera video to be input to the video distribution unit 23 is the target of gaze. The acquisition unit 25 and the camera selection unit 26 are responsible. Other configurations and operations are exactly the same as those described with reference to FIGS.
注視対象取得部25及びカメラ選択部26は図6の実施形態における確認装置10に備わる構成としてもよいし、その片方又は両方が確認装置10の外部構成であってもよい。当該各部25,26の機能は以下の通りである。 The gaze target acquisition unit 25 and the camera selection unit 26 may be configured in the confirmation device 10 in the embodiment of FIG. 6, or one or both of them may be an external configuration of the confirmation device 10. The functions of the units 25 and 26 are as follows.
注視対象取得部25は、周知の顔認識とアイトラッキング技術により、モデレータ側の書記者の注視対象(すなわち被験者)を取得し、当該取得結果をカメラ選択部26に渡す。アイトラッキングを実現する具体的なデバイスとしては、グラス型のウェアラブルデバイスなどを利用することができ、書記者が当該デバイスを装着することにより、注視対象取得部25が実現される。あるいは、書記者においてはその一人称映像を記録するデバイスのみを装着しておき、当該一人称映像に対して顔認識とアイトラッキング技術を別途の装置が実施することにより、注視対象取得部25を実現してもよい。 The gaze target acquisition unit 25 acquires the gaze target (that is, the subject) of the moderator writer by using known face recognition and eye tracking technology, and passes the acquisition result to the camera selection unit 26. As a specific device for realizing eye tracking, a glass-type wearable device or the like can be used, and the gaze target acquisition unit 25 is realized by the writer wearing the device. Alternatively, the clerk only wears a device that records the first person video, and a separate device performs face recognition and eye tracking technology on the first person video, thereby realizing the gaze target acquisition unit 25. May be.
カメラ選択部26は、映像取得部21から受理した全カメラ画像のうち、注視対象取得部25から受理した対象(すなわち被験者)が、最も大きい割合で含まれる画像を撮影したカメラを選択して、当該カメラ画像を映像配信部23に渡す。こうして、ライブ配信されるインタビューの映像の各時点においてカメラ選択部26がいずれかのカメラ画像を選択することで、図2のスイッチャーと同様の機能が実現される。 The camera selection unit 26 selects a camera that captures an image in which the target (that is, the subject) received from the gaze target acquisition unit 25 is included in the largest proportion among all the camera images received from the video acquisition unit 21, The camera image is transferred to the video distribution unit 23. Thus, the function similar to the switcher of FIG. 2 is realized by the camera selection unit 26 selecting one of the camera images at each time point of the live-distributed interview video.
図7は、一実施形態に係るカメラ選択部26の動作のフローチャートである。ステップS31では、カメラ選択部26が、注視対象取得部25が取得した注視対象oを入力として受け取り、ステップS32へ進む。ステップS32では、注視対象oが被験者のいずれかであるか否かを判定し、いずれかの被験者であればステップS33へ進み、いずれの被験者でもなければ当該フローは終了する。 FIG. 7 is a flowchart of the operation of the camera selection unit 26 according to an embodiment. In step S31, the camera selection unit 26 receives the gaze target o acquired by the gaze target acquisition unit 25 as an input, and proceeds to step S32. In step S32, it is determined whether or not the gaze target o is one of the subjects, and if it is any subject, the process proceeds to step S33, and if it is not any subject, the flow ends.
なお、ステップS32でいずれの被験者でもないと判定された場合は、カメラ選択部26では、当該時刻tの直前時刻t-1のフレームにおいて選択されていたカメラの画像を継続して利用するよう判断し、当該カメラ画像を映像配信部23に渡せばよい。 When it is determined in step S32 that the subject is not any subject, the camera selection unit 26 determines to continue using the image of the camera selected in the frame at time t-1 immediately before the time t. Then, the camera image may be passed to the video distribution unit 23.
ステップS33では、当該時刻tにおける全カメラ画像集合C={c1, c2, …, cn}(nはカメラ台数)を入力として受け取ってから、ステップS34へ進む。ステップS34では、以降のステップにおいて利用する変数として、対象最大占有割合pmax及び選択カメラ番号kを両者共に初期値の0に設定してから、ステップS35に進む。 In step S33, all camera image sets C = {c1, c2,..., Cn} (n is the number of cameras) at the time t are received as input, and the process proceeds to step S34. In step S34, the target maximum occupation ratio pmax and the selected camera number k are both set to initial values 0 as variables used in the subsequent steps, and then the process proceeds to step S35.
ステップS35〜S39がカメラ選択のループ処理となり、ステップS35は当該ループ開始を示すダミーステップであって、ステップS36へ進む。なお、ループ制御変数としてiを利用する。iには当該ループの何巡目の処理であるかが格納される。従って、初期値としてi=1を設定する。 Steps S35 to S39 constitute a camera selection loop process. Step S35 is a dummy step indicating the start of the loop, and the process proceeds to step S36. Note that i is used as a loop control variable. i stores the number of rounds in the loop. Therefore, i = 1 is set as an initial value.
ステップS36では、カメラ画像ciに対象oが含まれる割合pを算出し、ステップS37へ進む。当該割合pは例えば、対象oすなわち被験者oの顔が画像内において占有する面積割合として算出することができる。その他、顔以外の部分を含めて算出するようにしてもよい。当該算出には周知の人物認識技術を利用することができる。 In step S36, the ratio p in which the object o is included in the camera image ci is calculated, and the process proceeds to step S37. For example, the ratio p can be calculated as an area ratio occupied by the face of the object o, that is, the subject o in the image. In addition, it may be calculated including a part other than the face. A known person recognition technique can be used for the calculation.
ステップS37では割合pが対象最大占有割合pmaxより大きいか否かが判定され、大きい場合にはステップS38に進み、大きくない場合にはステップS38をスキップしてステップS39へ進む。ステップS38では対象最大占有割合pmaxに割合pの値を代入して更新すると共に、選択カメラ番号kに変数iの値を代入して更新してから、ステップS39へ進む。 In step S37, it is determined whether or not the ratio p is larger than the target maximum occupation ratio pmax. If larger, the process proceeds to step S38, and if not larger, the process skips step S38 and proceeds to step S39. In step S38, the value of the ratio p is substituted into the target maximum occupation ratio pmax and updated, and the value of the variable i is substituted and updated in the selected camera number k. Then, the process proceeds to step S39.
ステップS39では、カメラ選択処理ループが終了したか否かをループ回数iがカメラ台数nに到達したか否かによって判定し、i=nであり到達していればステップS40へ進み、そうではない場合(i<nである場合)はiを1だけインクリメントしてからステップS36に戻り、ループ処理を継続する。 In step S39, it is determined whether or not the camera selection processing loop has been completed based on whether or not the number of loops i has reached the number n of cameras. If i = n, the process proceeds to step S40. In the case (if i <n), i is incremented by 1, and then the process returns to step S36 to continue the loop processing.
ステップS40では、当該図7のフローの最終結果として、カメラ選択部26はカメラ番号が当該時点の変数kであるカメラ画像ckを映像配信部23に渡し、フローは終了する。 In step S40, as a final result of the flow of FIG. 7, the camera selection unit 26 passes the camera image ck whose camera number is the variable k at the time point to the video distribution unit 23, and the flow ends.
以上、各実施形態における確認装置10の動作を説明した。以下では、当該動作の際の画像等の模式的な例をいくつか紹介する。 The operation of the confirmation device 10 in each embodiment has been described above. Below, some typical examples of images and the like during the operation will be introduced.
図8はグループインタビューの一番面の例を示す図である。図示するように、インタビュー現場L1にはモデレータ、書記者及び被験者A,B,Cが存在し、インタビューの様子をビデオカメラA,B,Cで撮影している。画像IA,IB,ICはビデオカメラA,B,Cでそれぞれ撮影された画像である。当該インタビューは、被験者に企画段階のスマートフォン端末を操作してもらい、被験者から端末に関する意見を集めることを目的とするものとして説明する。なお、後述する図9〜図11で示す例についても、当該図8と共通のインタビュー環境を想定している。 FIG. 8 is a diagram showing an example of the first surface of the group interview. As shown in the figure, there are a moderator, a scribe, and subjects A, B, and C at the interview site L1, and the state of the interview is shot with video cameras A, B, and C. Images IA, IB, and IC are images taken by video cameras A, B, and C, respectively. The interview will be described as the purpose of having the subject operate the smartphone terminal at the planning stage and collecting opinions about the terminal from the subject. Note that the examples shown in FIGS. 9 to 11 to be described later also assume the same interview environment as in FIG.
まず、分析者側へインタビュー映像を配信する処理(図3のステップS1)の模式的な例を、図6の実施形態を前提として紹介する。 First, a schematic example of the process of distributing the interview video to the analyst (step S1 in FIG. 3) will be introduced on the premise of the embodiment in FIG.
インタビュー中に、モデレータ側の書記者が被験者Aに視線を向けていると、注視対象取得部25は被験者Aを注視対象として取得し、その情報をカメラ選択部26に送る。映像取得部21は,ビデオカメラA,B,Cの現時点でのカメラ画像IA,IB,ICを取得し,カメラ選択部26へ送る.ビデオカメラA,B,Cのカメラ画像IA,IB,ICの例は、図8に示す通りである。 During the interview, if the moderator-side writer is looking at the subject A, the gaze target acquisition unit 25 acquires the subject A as a gaze target and sends the information to the camera selection unit 26. The video acquisition unit 21 acquires the current camera images IA, IB, and IC of the video cameras A, B, and C, and sends them to the camera selection unit 26. Examples of camera images IA, IB, and IC of video cameras A, B, and C are as shown in FIG.
カメラ選択部26は,被験者Aが含まれる割合が最も大きい画像を撮影したビデオカメラを選択する。ここでは,図8で示される画像ICが、被験者Aが含まれる割合が最も大きいので、ビデオカメラAが選択される。最後に、映像配信部23が,ビデオカメラAの画像を分析者側に配信し、配信画像は視聴映像記憶部24に格納する。 The camera selection unit 26 selects a video camera that has captured an image with the largest percentage of subjects A included. Here, the video IC is selected because the image IC shown in FIG. Finally, the video distribution unit 23 distributes the image of the video camera A to the analyst side, and stores the distribution image in the viewing video storage unit 24.
そして、以上のような処理がグループインタビューの進行する各時点において実施されることとなる。なお、上記の例では図6の実施形態で注視対象取得部25及びカメラ選択部26により画像が選択される場合を例としたが、図2の実施形態においてもスイッチャーにより分析者の指定した画像が選択されることで同様の処理が行われることとなる。 The processing as described above is performed at each time point when the group interview progresses. In the above example, the case where an image is selected by the gaze target acquisition unit 25 and the camera selection unit 26 in the embodiment of FIG. 6 is taken as an example, but also in the embodiment of FIG. The same processing is performed by selecting.
次に、評価付与映像から認識誤りシーンを判別する場合の例について説明する。 Next, an example of discriminating a recognition error scene from the evaluation imparted video will be described.
ここで、評価情報は前述のように、感情評価項目が2項目「ポジティブ」又は「ネガティブ」のいずれであるかを選択し、且つ、なぜそのような選択を行ったかをテキストで記述したものとして構成されている場合を例として、説明を行う。 Here, as described above, it is assumed that the evaluation information is selected from the two items “positive” or “negative” as the emotion evaluation items, and the text describes why such selection is made. An explanation will be given by taking the case where it is configured as an example.
モデレータ側と分析者側の書記者が端末装置11,12からあるシーンにおける被験者Aに対して、それぞれ「スマホ画面を頻繁にスワイプしているが,何かのアイコンが見つからずに困っているようだ。」(ネガティブ感情)、「スマホ画面の操作に夢中になっており,興味津々の様子だ。」(ポジティブ感情)という感情情報付のコメントとして、評価情報を投稿する。 The moderator side and the analyst side clerk asked the subject A in the scene from the terminal devices 11 and 12, respectively. “I swipe the smartphone screen frequently, but it seems to be in trouble because I cannot find any icons. "(Negative emotions)", "I am crazy about the operation of the smartphone screen, I am intrigued." (Positive emotions) Post the evaluation information as a comment with emotion information.
現場側入力部31及び遠隔側入力部32がそれぞれ、これらの評価情報(タイムスタンプ、評価対象の被験者A、「ポジティブ」又は「ネガティブ」の2項目から選択された感情情報、コメントすなわち感情情報の選択に対するテキストによる説明、入力者情報)を受理し、評価記憶部33に格納する。また、インタビュー中に、全てのビデオカメラで撮影されたインタビュー映像は、全映像記憶部22に格納される。 Each of the site-side input unit 31 and the remote-side input unit 32 includes the evaluation information (time stamp, subject A to be evaluated, emotion information selected from two items of “positive” or “negative”, comments, that is, emotion information). A text explanation for the selection, input person information) is received and stored in the evaluation storage unit 33. In addition, during the interview, interview videos taken by all video cameras are stored in the entire video storage unit 22.
評価付与映像生成部41は、評価記憶部33と視聴映像記憶部24を参照して、評価情報に付与されたタイムスタンプに基づいて,評価付与映像を生成する。確認対象映像生成部42は、評価情報が付与された映像中のシーンごとに、被験者に対するモデレータ側と分析者側の評価情報を比較することで、確認対象としての見逃しシーン又は認識誤りシーンであるか、あるいは、確認対象のシーンには該当しないか、を判別する。 The evaluation-added video generation unit 41 refers to the evaluation storage unit 33 and the viewing video storage unit 24, and generates an evaluation-added video based on the time stamp given to the evaluation information. The confirmation target video generation unit 42 compares the evaluation information on the moderator side and the analyst side with respect to the subject for each scene in the video to which the evaluation information is given, and is a missed scene or a recognition error scene as a confirmation target. Or whether it does not correspond to the scene to be confirmed.
上記コメント内容を例示したシーンについては,評価情報に付与された感情情報が異なっているため、分析者が認識を誤った可能性があると判断され、認識誤りシーンと判別することとなる。当該シーンsc2の評価情報におけるコメント付き映像の画像IM[sc2]の例を図9に示す。なお、図9における評価情報E1[sc2]及びE2[sc2]は、図5の例と対応している。 About the scene which illustrated the said comment content, since the emotion information provided to evaluation information is different, it is judged that there is a possibility that the analyst has mistaken recognition, and it will discriminate | determine from a recognition error scene. An example of an image IM [sc2] with a comment in the evaluation information of the scene sc2 is shown in FIG. Note that the evaluation information E1 [sc2] and E2 [sc2] in FIG. 9 correspond to the example in FIG.
また、以下に、見逃しシーンと判別する場合の例を紹介する。 In the following, an example in which the scene is determined as a missed scene will be introduced.
図10は、モデレータ側の被験者Cに対する、「端末の手触り感を楽しんでおり、端末デザインは非常に気に入ってくれた様子だ。」(ポジティブ感情)というコメントのみが評価情報E1[sc4]として付与されたシーンsc4における画像IM[sc4]を示している。このシーンsc4は、被験者Cに対して、モデレータ側からのみのコメントが付与されているため、分析者側が見逃した可能性があると判断され、見逃しシーンと判別する。なお、図10における評価情報E1[sc4]は、図5の例と対応している。 FIG. 10 shows only the comment “Appreciation of Emotion of the terminal and the terminal design very much” (positive emotion) is given as the evaluation information E1 [sc4] to the subject C on the moderator side. An image IM [sc4] in the rendered scene sc4 is shown. Since this scene sc4 is given a comment from the moderator only to the subject C, it is determined that the analyst may have missed it, and is determined to be a missed scene. Note that the evaluation information E1 [sc4] in FIG. 10 corresponds to the example in FIG.
最後に、確認対象映像記憶部43から検索した認識誤りシーンを、端末11及び/又は12に表示する処理の例について説明する。 Finally, an example of processing for displaying the recognition error scene retrieved from the confirmation target video storage unit 43 on the terminals 11 and / or 12 will be described.
端末11,12から映像検索部51に検索対象として「認識誤りシーン」を指定する。すると、映像検索部51は確認対象映像記憶部43と全映像記憶部22から、全ての認識誤りシーンと、それらのシーンに対応する全ビデオカメラのシーンとをそれぞれ取得し、映像表示部52に送る。映像表示部52は受理したシーンを端末11,12に表示する。 A “recognition error scene” is designated as a search target from the terminals 11 and 12 to the video search unit 51. Then, the video search unit 51 acquires all recognition error scenes and scenes of all video cameras corresponding to those scenes from the confirmation target video storage unit 43 and the entire video storage unit 22, and stores them in the video display unit 52. send. The video display unit 52 displays the received scene on the terminals 11 and 12.
このとき、端末11,12での検索シーンの表示例を図11に示す。当該図11の表示例は図9の例と対応するものである。 At this time, a display example of the search scene on the terminals 11 and 12 is shown in FIG. The display example of FIG. 11 corresponds to the example of FIG.
図11にて、現在、端末11,12にはカメラBの映像が映像IM[sc2]として表示されており、右側にはさらに、映像IM100として示すように、カメラBとは別視点のカメラAとCの映像IM[A],IM[C]も表示されている。現在ではカメラBの映像IM[B]が選択された状態であることが強調表示EMとして示されているが、カメラAまたはCの映像IM[A]またはIM[C]を選択すると、映像IM[sc2]も対応するカメラの映像に切り替えることが可能である。 In FIG. 11, the video of camera B is currently displayed as video IM [sc2] on terminals 11 and 12, and camera A of a different viewpoint from camera B is further shown on the right side as video IM100. And the video IM [A] and IM [C] are also displayed. Currently, it is shown as highlighted EM that the video IM [B] of camera B is selected, but when video IM [A] or IM [C] of camera A or C is selected, video IM [sc2] can also be switched to the corresponding camera image.
以下、本発明における補足的事項を説明する。 Hereinafter, supplementary matters in the present invention will be described.
(1)図2又は図6に示した確認装置10は、当該構成されている各部を任意に分割して、それぞれサーバとして構成することで確認システムとして構成されていてもよい。例えば、図3のステップS1を担う配信・記録サーバと、ステップS2,S3を担う確認対象映像生成サーバと、ステップS4を担う検索・表示サーバとして構成されていてもよい。 (1) The confirmation device 10 shown in FIG. 2 or FIG. 6 may be configured as a confirmation system by arbitrarily dividing each configured part and configuring each part as a server. For example, it may be configured as a distribution / recording server responsible for step S1 in FIG. 3, a confirmation target video generation server responsible for steps S2 and S3, and a search / display server responsible for step S4.
また同様に、現場L1及び遠隔地L2の任意の構成が確認装置10に含まれていてもよい。逆に、確認装置10の任意の構成が現場L1及び遠隔地L2に配置されていてもよい。 Similarly, any configuration of the site L1 and the remote location L2 may be included in the confirmation device 10. Conversely, any configuration of the confirmation device 10 may be disposed at the site L1 and the remote location L2.
(2)確認対象映像を生成後、検索要求を行う端末11,12は、必ずしも現場L1及び遠隔地L2に存在している必要はない。その他の任意の地点より検索要求を実施し、対応する映像を表示させることが可能である。 (2) After the confirmation target video is generated, the terminals 11 and 12 that make a search request are not necessarily present at the site L1 and the remote location L2. It is possible to make a search request from any other point and display the corresponding video.
(3)評価情報をテキストのみで構成し、「ポジティブ」又は「ネガティブ」等の所定の感情評価項目を含めずに構成する場合、確認対象映像生成部42では周知のテキスト解析技術により、前述の処理(b)すなわち各シーンが確認対象か否かを判定することができる。 (3) When the evaluation information is composed only of text and does not include a predetermined emotion evaluation item such as “positive” or “negative”, the confirmation target video generation unit 42 uses the known text analysis technique to Processing (b), that is, whether or not each scene is a confirmation target can be determined.
例えば、予め学習させたサポートベクトルマシンを適用して、テキストをカテゴリ分類し、カテゴリが共通であれば評価内容は同じであり、カテゴリが異なれば評価内容は異なるものとして判定することができる。当該評価内容の判定に従い、「ポジティブ」又は「ネガティブ」の2項目で判定した場合と全く同様に、「見逃しシーン」や「認識誤りシーン」の識別を行うようにしてもよい。 For example, by applying a support vector machine that has been learned in advance, the texts are classified into categories, and if the categories are common, the evaluation contents are the same, and if the categories are different, the evaluation contents are different. According to the determination of the evaluation content, “missing scene” and “recognition error scene” may be identified in the same manner as in the case of determination with two items “positive” or “negative”.
(4)本発明は、コンピュータを確認装置10として機能させるプログラムとしても提供可能である。当該コンピュータは、CPU(中央演算装置)、メモリ及び各種I/Fといった周知のハードウェアで構成することができ、当該プログラムを読み込んで実行するCPUが確認装置10の各部として機能することとなる。 (4) The present invention can also be provided as a program that causes a computer to function as the confirmation device 10. The computer can be configured with known hardware such as a CPU (Central Processing Unit), a memory, and various I / Fs, and the CPU that reads and executes the program functions as each unit of the confirmation device 10.
10…確認装置、21…映像取得部、22…全映像記憶部、23…映像配信部、24…視聴映像記憶部、25…注視対象取得部、26…カメラ選択部、31…現場側評価入力部、32…遠隔側評価入力部、33…評価記憶部、41…評価付与映像記憶部、42…確認対象映像生成部、43…確認対象映像記憶部、51…映像検索部、52…映像表示部 10 ... confirmation device, 21 ... video acquisition unit, 22 ... all video storage unit, 23 ... video distribution unit, 24 ... viewing video storage unit, 25 ... gazing target acquisition unit, 26 ... camera selection unit, 31 ... site side evaluation input 32: Remote side evaluation input unit, 33 ... Evaluation storage unit, 41 ... Evaluation imparted video storage unit, 42 ... Confirmation target video generation unit, 43 ... Confirmation target video storage unit, 51 ... Video search unit, 52 ... Video display Part
Claims (9)
前記グループインタビューの映像を取得する映像取得部と、
前記取得した映像に基づき、遠隔地へ映像を配信する映像配信部と、
前記配信した映像を遠隔地における視聴映像として記憶する視聴映像記憶部と、
前記グループインタビューの進行に即したタイムスタンプが付与されたうえで、現場及び遠隔地のそれぞれから、被験者を指定してその様子を評価した評価情報を受信して記憶する評価記憶部と、
前記視聴映像に対して、前記評価情報をそのタイムスタンプの位置において紐付けることで評価付与映像を生成する評価付与映像生成部と、
前記評価付与映像を複数のシーンに分割すると共に、被験者に対する現場からの評価情報と遠隔地からの評価情報とが異なっていると判定されるシーンを、確認対象のシーンとして識別する確認対象映像生成部と、を備えることを特徴とする確認装置。 This is a confirmation device that distributes video of group interviews conducted on subjects in the field to remote locations, and assists in confirming the status of subjects in the group interviews at the site and / or remote locations after the group interview is completed. And
A video acquisition unit for acquiring video of the group interview;
Based on the acquired video, a video distribution unit that distributes the video to a remote location;
A viewing video storage unit for storing the distributed video as a viewing video at a remote location;
After being given a time stamp according to the progress of the group interview, from each of the site and the remote place, an evaluation storage unit that receives and stores evaluation information that specifies the subject and evaluates the state thereof,
For the viewing video, an evaluation-added video generation unit that generates an evaluation-added video by associating the evaluation information at the time stamp position;
Confirmation video generation that divides the evaluation-giving video into a plurality of scenes and identifies a scene determined to have different evaluation information from the field for the subject and evaluation information from a remote location as a scene to be confirmed And a confirmation device.
共通の被験者につき、現場からの評価情報及び遠隔地からの評価情報の両者を受信しているが、当該両者における評価内容が異なっていると判定されるシーン、
又は、遠隔地からの評価情報のみが受信され、現場からの評価情報が受信されていないような被験者が存在するシーン、を前記確認対象のシーンの一種として、遠隔地における認識誤りシーンとして識別することを特徴とする請求項1ないし3のいずれかに記載の確認装置。 The confirmation target video generation unit
For a common subject, both the evaluation information from the site and the evaluation information from a remote location have been received, but the scene where it is determined that the evaluation contents in the two are different,
Alternatively, a scene in which there is a subject who receives only evaluation information from a remote location and has not received evaluation information from the site is identified as a recognition error scene in the remote location as a kind of the scene to be confirmed. The confirmation apparatus according to any one of claims 1 to 3, wherein
現場からの評価情報のみが受信され、遠隔地からの評価情報が受信されていないような被験者が存在するシーン、を前記確認対象のシーンの一種として、遠隔地における見逃しシーンとして識別することを特徴とする請求項1ないし4のいずれかに記載の確認装置。 The confirmation target video generation unit
A scene in which there is a subject who receives only evaluation information from the site and has not received evaluation information from a remote location is identified as a scene to be overlooked as a type of the confirmation target scene. The confirmation device according to any one of claims 1 to 4.
現場及び/又は遠隔地より検索要求を受信し、当該検索要求に合致するシーンを前記確認対象映像より検索する映像検索部と、
前記検索要求を送信した現場及び/又は遠隔地に対して前記検索されたシーンを表示させる映像表示部と、をさらに備えることを特徴とする請求項1ないし5のいずれかに記載の確認装置。 The confirmation target video generation unit generates a confirmation target video from a scene identified as the confirmation target,
A video search unit that receives a search request from the site and / or a remote location, and searches for a scene that matches the search request from the confirmation target video;
The confirmation apparatus according to any one of claims 1 to 5, further comprising a video display unit that displays the searched scene on a site and / or a remote place where the search request is transmitted.
前記映像配信部は、前記取得された映像において複数のカメラから時系列上の各時点で選択された1台のカメラの映像を、遠隔地へと配信し、
前記映像表示部は、前記検索されたシーンを表示するに際して、併せて前記選択された1台のカメラの映像以外の複数のカメラの映像を表示することを特徴とする請求項6に記載の確認装置。 The video acquisition unit acquires the video of the group interview from each of a plurality of cameras,
The video distribution unit distributes the video of one camera selected at each time point in time series from a plurality of cameras in the acquired video to a remote place,
The confirmation according to claim 6, wherein when displaying the searched scene, the video display unit also displays videos of a plurality of cameras other than the video of the selected one camera. apparatus.
前記取得された注視対象の被験者を最も大きい割合で含む画像を撮影したカメラを、前記映像配信部において前記選択される1台のカメラとして決定するカメラ選択部と、をさらに備えることを特徴とする請求項7に記載の確認装置。 A gaze target acquisition unit that acquires which subject is the target of the group interviewer at the site;
A camera selection unit that determines a camera that has captured an image including the acquired subject to be watched at the highest ratio as the one camera to be selected in the video distribution unit; The confirmation device according to claim 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014180147A JP6283587B2 (en) | 2014-09-04 | 2014-09-04 | Confirmation device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014180147A JP6283587B2 (en) | 2014-09-04 | 2014-09-04 | Confirmation device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016053891A true JP2016053891A (en) | 2016-04-14 |
JP6283587B2 JP6283587B2 (en) | 2018-02-21 |
Family
ID=55744548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014180147A Active JP6283587B2 (en) | 2014-09-04 | 2014-09-04 | Confirmation device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6283587B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022196167A1 (en) * | 2021-03-19 | 2022-09-22 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005124160A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Conference supporting system, information display, program and control method |
JP2006209332A (en) * | 2005-01-26 | 2006-08-10 | Nippon Telegr & Teleph Corp <Ntt> | Sense of value estimation method and device and its program |
JP2009267621A (en) * | 2008-04-23 | 2009-11-12 | Yamaha Corp | Communication apparatus |
JP2010176544A (en) * | 2009-01-30 | 2010-08-12 | Toshiba Corp | Conference support device |
-
2014
- 2014-09-04 JP JP2014180147A patent/JP6283587B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005124160A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Conference supporting system, information display, program and control method |
JP2006209332A (en) * | 2005-01-26 | 2006-08-10 | Nippon Telegr & Teleph Corp <Ntt> | Sense of value estimation method and device and its program |
JP2009267621A (en) * | 2008-04-23 | 2009-11-12 | Yamaha Corp | Communication apparatus |
JP2010176544A (en) * | 2009-01-30 | 2010-08-12 | Toshiba Corp | Conference support device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022196167A1 (en) * | 2021-03-19 | 2022-09-22 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6283587B2 (en) | 2018-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10979761B2 (en) | Intelligent video interaction method | |
AU2021202992B2 (en) | System of Automated Script Generation With Integrated Video Production | |
CN108369633B (en) | Visual representation of photo album | |
WO2018026967A1 (en) | Computer-assisted agendas for video-conferences | |
CN101489073B (en) | Information processing device, information processing method | |
CN105872452A (en) | System and method for browsing summary image | |
US11314089B2 (en) | Method and device for evaluating view images | |
DE112017003800T5 (en) | MONITORING SUPPORT DEVICE, MONITORING SUPPORT SYSTEM AND MONITORING SUPPORT PROCESS | |
KR101895846B1 (en) | Facilitating television based interaction with social networking tools | |
JP6105180B1 (en) | Work support device, work support method and program | |
CN111263170A (en) | Video playing method, device and equipment and readable storage medium | |
CN108605115A (en) | Track auxiliary device, tracking auxiliary system and tracking householder method | |
KR20090093904A (en) | Apparatus and method for scene variation robust multimedia image analysis, and system for multimedia editing based on objects | |
JP2017169181A (en) | Reproduction device | |
JP2014230203A (en) | Content providing program, content providing method and content providing device | |
JP2009086952A (en) | Information processing system and information processing program | |
JP6283587B2 (en) | Confirmation device and program | |
US11294474B1 (en) | Controlling video data content using computer vision | |
Duan et al. | Flad: a human-centered video content flaw detection system for meeting recordings | |
US11290753B1 (en) | Systems and methods for adaptive livestreaming | |
US10887384B2 (en) | Digital collaboration system | |
JP4601964B2 (en) | Data collection management system, data collection management method, and data collection management program | |
JP2016122413A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
Tojo et al. | How Ethnographic Practices Are Reconfigured with 360-degree Cameras. | |
KR102023687B1 (en) | Method for sharing images, and system and application implementing the same method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6283587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |