JP6702657B2 - 映像処理装置、映像処理方法、及びプログラム - Google Patents

映像処理装置、映像処理方法、及びプログラム Download PDF

Info

Publication number
JP6702657B2
JP6702657B2 JP2015110216A JP2015110216A JP6702657B2 JP 6702657 B2 JP6702657 B2 JP 6702657B2 JP 2015110216 A JP2015110216 A JP 2015110216A JP 2015110216 A JP2015110216 A JP 2015110216A JP 6702657 B2 JP6702657 B2 JP 6702657B2
Authority
JP
Japan
Prior art keywords
video
information
shot
annotation information
annotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015110216A
Other languages
English (en)
Other versions
JP2016224687A (ja
Inventor
森 重樹
重樹 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015110216A priority Critical patent/JP6702657B2/ja
Priority to US15/150,140 priority patent/US9860475B2/en
Publication of JP2016224687A publication Critical patent/JP2016224687A/ja
Application granted granted Critical
Publication of JP6702657B2 publication Critical patent/JP6702657B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Circuits (AREA)

Description

本発明は、処理対象の映像とアノテーション情報とを表示させることが可能な映像処理装置、方法及びプログラムに関する。
映画などのコンテンツの制作に際して、映像コンテンツを構成するそれぞれの各シーンの映像は、複数のショット映像(撮影の最小単位となる短い映像)から構成されていることがある。そして、特定のシーン映像の各ショット映像を撮影する場合には、類似のシチュエーションで繰り返し撮影を行い、撮影された各ショット映像を比較して、最終的に使用されるショット映像を選択することによって当該特定のシーン映像を生成することができる。このような撮影においては、ショット映像が大量に撮影される為、各ショット映像を識別する為のアノテーション等の情報を各ショット映像に付加すると利便性が向上する。
また、ペン型指示装置によるデータ入力を可能とする電子カメラであって、当該ペン型指示装置による指示の軌跡を、撮影画像と重ね合わせて表示するが知られている(特許文献1)。
特開平9−149307号公報
上述した特許文献1では、再生する撮影画像に対応づけられた入力情報は確認できるものの、他の画像に対応づけられた入力情報を利用して他の画像との比較を行うことを考慮していない。
本発明は、再生する対象である映像に関連する他の映像に対応するアノテーション情報を視認することを可能にする映像処理装置、方法及びプログラムを提供することを目的とする。
上記の課題を解決するための一手段として、本発明の映像処理装置は、以下の構成を備える。即ち、撮影済みの映像のうち、撮影中の映像と関連する少なくとも一つの関連映像に対応するアノテーション情報を取得する取得手段と、前記撮影中の映像と、前記取得手段によって取得された前記関連映像に対応するアノテーション情報とを、表示画面に表示するよう制御する表示制御手段と、を有し、前記アノテーション情報は、少なくとも前記関連映像中の基準時間に基づく時間情報と、前記関連映像を構成する画像上での位置を示す位置情報を含むものであって、前記表示制御手段は、前記撮影中の映像を表示する前記表示画面に、前記取得手段によって取得された前記関連映像に対応するアノテーション情報を表示するタイミングと位置を、前記時間情報前記位置情報に基づいて制御する。
本発明により、映像と、当該映像に関連する他の映像に対応するアノテーション情報とを、表示することができる。
実施形態1における映像処理システムの構成例を示すブロック図 映像コンテンツの構成を示す図 実施形態4におけるアノテーション情報の時間及び位置を示す図 実施形態1における蓄積装置の構成例を示すブロック図 実施形態1におけるタブレット装置の構成例を示すブロック図 実施形態1におけるタブレット装置の表示画面を示す図 実施形態1におけるショット映像にアノテーション情報を付加する手順を示す流れ図 実施形態1におけるアノテーション情報の表示画面を示す図 実施形態1における映像処理システムの処理手順を示す流れ図 アノテーション情報の一例を示す図 実施形態2における映像処理システムの構成例を示すブロック図 実施形態2における映像処理システムの処理手順を示す流れ図 実施形態2における撮像装置のファインダ画面を示す図 実施形態3におけるタブレット装置の処理手順を示す流れ図 実施形態3におけるアノテーション情報の表示を示す図 実施形態4におけるタブレット装置の処理手順を示す流れ図
以下、添付の図面を参照して、本発明を実施形態の一例に基づいて詳細に説明する。尚、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。以下、1以上の画像を含むものを映像と示す。また、以下の実施形態においてアノテーション情報は、映像(ショット映像)に付加されたメタデータである。例えば、アノテーション情報は、コメント情報であっても構わないし、注目点に関する情報であっても構わない。
(実施形態1)
図1は、本実施形態に係る映像処理システムの構成を示す図である。各装置101〜105は無線又は有線で接続されている。本実施形態の映像処理システムにおいて、デジタルクラップボード101と撮像装置102とは無線又は有線で接続されており、撮影する対象のショットの映像データに関する撮影情報を送受信する。尚、撮影情報については後述する。また、本実施形態の映像処理システムにおいて、撮像装置102と蓄積装置103とは無線又は有線で接続されている。そして、撮像装置102は撮影して得られた映像データを蓄積装置103へ送信し、蓄積装置103は撮像装置102から取得した映像データを蓄積する。また、本実施形態の映像処理システムにおいて、タブレット装置104と蓄積装置103とは無線又は有線で接続されている。そして、タブレット装置104は撮像装置102で撮影された映像データや蓄積装置103に蓄積された映像データを表示し、編集装置105は蓄積装置103に蓄積された映像データを用いて映像コンテンツを生成する。
次に、各装置101〜105の詳細について説明する。デジタルクラップボード101は、撮影する対象のショットの映像データ(以下、撮影の最小単位である1ショット分の映像データを、ショット映像と称す)に係るシーン番号、ショット番号、テイク数等の撮影情報を表示する。ショット映像の撮影毎に、デジタルクラップボード101に表示された撮影情報を取得することによって、本実施形態の映像処理システムは各ショット映像に視覚的なタグ(付加情報)を付けることができる。例えば、ショット映像の撮影開始前に、デジタルクラップボード101に表示された撮影情報を、撮像装置102を用いて撮影することにより、各ショット映像に視覚的な付加情報を付けるようにしてもよい。また、撮影装置102が、外部装置(不図示)に設定された撮影情報を取得しても構わないし、ユーザによって設定された撮影情報を取得しても構わない。尚、ショット映像の詳細については後述する。
撮像装置102は、被写体を撮影し、映像データを生成する。即ち、本実施形態において撮像装置102は、ショット映像を生成する。また、本実施形態において撮像装置102は、デジタルクラップボード101と接続されている。
蓄積装置103は、撮像装置102で撮影されたショット映像、及び当該ショット映像に関連するメタデータ(以下、ショット映像に関連するメタデータを、ショットデータと称す)を蓄積する。ショットデータには、撮影情報、クラップボード情報、及びアノテーション情報のうち少なくとも一つが含まれる。尚、クラップボード情報、及びアノテーション情報の詳細については後述する。また、本実施形態において蓄積装置103は、タブレット装置104と通信する。タブレット装置104は、撮像装置102によるショット映像の撮影中に、ユーザによって指定されたアノテーション情報をショットデータとして蓄積装置103へ入力する。また、タブレット装置104は、蓄積装置103に蓄積されたショット映像を受信して表示する。編集装置105は、蓄積装置103に蓄積されたショット映像を繋ぎ併せる等の各種の編集処理を行い、映像コンテンツを生成する。尚、デジタルクラップボード101、撮像装置102、蓄積装置103、タブレット装置104、及び編集装置105の各部の詳細は後述する。
次に、映像コンテンツ及びショット映像の詳細について、図2(a)を用いて説明する。図2の(a)は、1以上のショット映像を含む映像コンテンツであって、デジタルシネマやドラマ等の映像コンテンツを作成する為の映像データの階層概念の一例を説明する図である。脚本やシナリオ等に基づく映像コンテンツは、一以上のシーケンスから構成されている。一つのシーケンスは、一以上のシーン(場面)から構成されている。さらに、一つのシーンは、一以上のショットから構成されている。尚、本実施形態において撮像装置102は、一つのショットを一回の撮影単位とする。
例えば、人物Aと人物Bの二人が会話を行うシーンにおいて、二人が会話しているロングのショット、人物Bのクローズアップのショット、人物Bの肩越しに人物Aを撮影するショルダーショット等、撮影の位置や角度に変化のあるショットが撮影される。ショットやシーンの撮影は、脚本やシナリオの順番(映像コンテンツの再生順序)で行われるとは限らず、カメラやセットの都合で、映像コンテンツの再生順序とは異なる順番で行われる場合もある。また、一つのショットに関する撮影は、役者やスタッフのミス、監督の意向、予測不能な自然現象等の影響により、何度も撮り直しを行う場合がある。このように、同一のショットに対して行う撮影をテイクと呼び、同じショットを複数回撮影した場合には、各撮影を識別するためにテイクと呼ばれる番号を各ショット映像に付与する。
即ち、デジタルシネマやドラマ等の映像コンテンツに含まれる各ショット映像のファイル毎に、シーケンス、シーン、ショット、テイクの番号等の撮影情報を、ショットデータとして付加することによって、各ショット映像を特定(識別)することができる。例えば、図2(a)に示す映像201はシーケンス1シーン1ショット2テイク4と示され、映像202はシーケンス1シーン1ショット4テイク3と示される。尚、同じショットの番号を持つテイクが複数存在している場合には、これらのテイクは置き換え可能なテイクとして、映像処理システムによって認識される。尚、ここで説明したシーケンス、シーン、ショット、テイク等の用語は本実施形態を説明する為の一例に過ぎず、異なる用語を用いても構わない。
また、図2(b)は、同一のショットにおける複数のテイクの時間軸の一致(同期)を説明する図である。同一ショットにおける各テイクは、同じショットの撮り直しである為に映像の時間の長さはほぼ同一である場合が多い。また、同一ショットにおける各テイクは、映像コンテンツとして編集される際に互いに置き換えが可能である。しかしながら、実際の撮影においては、撮像装置102による撮影を開始してから映像コンテンツに用いられる部分の映像の先頭までの時間が、各テイクのショット映像において異なる場合がある。この様な場合、監督による演技開始の号令(指示)であるアクションコール(所定の識別情報)のタイミングを演技の開始の時間(時刻)を示す時間情報として利用することによって、同一ショットの複数のテイクに対して同期処理を施すことができる。即ち、本実施形態における映像処理システムは、同一ショットの複数のテイクにおける各アクションコールのタイミングを一致(同期)させる。尚、アクションコールのタイミングは、監督(ユーザ)による演技開始の指示のタイミングに限定されず、ユーザによる種々の指示のタイミングでも構わない。また、風景のみの映像等のように、演技のないショット映像を撮影する場合は、撮影開始を示すロールコールのタイミングをアクションコールのタイミングとして用いても構わない。尚、ロールコールのタイミングは、監督(ユーザ)による撮影開始の指示のタイミングでも構わないし、撮像装置102による撮影処理の開始のタイミングでも構わない。
本実施形態において蓄積装置103は、この様な時間情報をショットデータのクラップボード情報として蓄積する。尚、本実施形態において時間情報は、映像の先頭の時間を示すものとしたが、これに限定されず、基準となる所定の時間を示すものであれば構わない。
図2(b)に示す具体例において、テイク1からテイク6までの、撮影開始を示すロールコールから演技開始を示すアクションコールまでの時間はバラバラである。しかしながら、役者はアクションコールに応じて演技を開始するので、アクションコールのタイミングを示す時間情報に基づいて各テイクに対して同期処理を施すことができる。尚、同期処理についての詳細は後述する。また、このアクションコールを、クラップボードの電子化に伴い、同一ショットの各テイクに対する同期処理で用いられる信号(アクションコール信号)として、デジタルクラップボード101と接続されている撮像装置102に記録することができる。尚、ここでアクションコール信号は、クラップボード情報に含まれる情報の一つである。
次に、図1に戻り、各装置101〜105の各部の詳細を説明する。まず、デジタルクラップボード101は、撮像装置102から無線通信又は有線通信によって取得したシーン番号、ショット番号、テイク番号、撮影日時等の撮影情報を、表示部301に表示するよう制御する。また、デジタルクラップボード101は、ユーザによるデジタルクラップボード101に対する操作を受け付け、受け付けた操作に関する情報(クラップボード情報)を撮像装置102に送信(出力)する。例えば、デジタルクラップボード101は、ユーザによるアクションコールの操作を受け付けた場合に、当該アクションコールを受け付けたタイミングを示す時間情報を、クラップボード情報として撮像装置102に送信(出力)する。ここで、本実施形態においてデジタルクラップボード101は検出部(不図示)を有し、当該検出部がアクションコールに対応する音(ユーザの声や特定の音等)を検出することに基づいて、アクションコールの操作を受け付ける。尚、これに限定されず、アクションコールに対応するボタン(不図示)がユーザによって押下されたことに応じてアクションコールの操作を受け付けても構わない。また、デジタルクラップボード101は、時間情報(アクションコールのタイミングを示す時間情報)の他に、受け付けた操作(アクションコール)を示す情報を、クラップボード情報として撮像装置102に出力しても構わない。
撮像装置102は各部302〜308を包含する。レンズ302は、撮像光学系を構成し、撮像部304の撮像面に画像を結像させる。撮像部304は、被写体を撮像する為の撮像部であって、レンズ302を通して結像した光を電荷に変換して映像データを生成するセンサを有する。ファインダ303は、ユーザが被写体の構図を確認する為のファインダである。ファインダ表示制御部305は、ファインダ303に撮像部304で撮像された画像(映像)を表示するよう制御する。また、メタデータ送受信部306は、撮影に伴って生成されたメタデータ(撮影データ)を、撮像装置102の外部へ送信する。ここで、撮影データには、上述した撮影情報、及び、デジタルクラップボード101から受信(入力)されたクラップボード情報のうち少なくとも一つが含まれる。
プロキシ映像生成部308は、撮像部304によって生成された映像データに基づいて、当該映像データよりも解像度の低いプロキシ映像をリアルタイムに生成する。映像データ送信部307は、撮像部304によって生成された映像データと、プロキシ映像生成部308によって生成されたプロキシ映像のデータとを合成して、出力データとして撮像装置102外部へ送信する。
蓄積装置103は各部309〜318を包含する。メタデータ受信部309は、撮像装置102から送信された、撮影に伴って生成されたメタデータ(撮影データ)を受信する。映像データ受信部310は、撮像装置102から送信された、映像データを含む出力データを受信する。プロキシ映像送信部311は、映像データ受信部310で受信された出力データからプロキシ映像のデータを分離して、分離したプロキシ映像のデータをタブレット装置104に送信する。データ蓄積部312は、メタデータ受信部309が受信した撮影情報やクラップボード情報等のメタデータ、及びタブレット装置104から受信したアノテーション情報を、ショットデータとして蓄積する。また、データ蓄積部312は、ショットデータと、映像データ受信部310が受信した映像データ及び/又はプロキシ映像のデータとを関連付けて蓄積する。
ショットデータ抽出部314は、タブレット装置104を用いて選択された映像データに対応するショットデータを、データ蓄積部312に蓄積されたショットデータから抽出する。関連ショット検出部315は、ショットデータ抽出部314で抽出されたショットデータに基づいて、選択された映像データと関連するショット映像(関連ショット映像)がデータ蓄積部312に存在するか否かを検出する。即ち、関連ショット検出部315は、関連ショット映像のショットデータがデータ蓄積部312に蓄積されているか否かを検出する。ここで、抽出されたショットデータに関連するショットデータは、ショットデータ抽出部314で抽出されたショットデータのショット番号と同一のショット番号を有する他のテイクの映像データに対応するショットデータとする。例えば、タブレット装置104を用いて選択された映像データが図2(a)の映像201である場合、ショットデータ抽出部314は当該映像201に対応するショットデータを抽出する。そして、関連ショット検出部315は、当該映像201と同一のショット番号(ショット−2)を有するテイク−1、テイク−2、テイク−3、テイク−5、及びテイク−6の5つのテイクのショットデータを、関連ショット映像のショットデータとして検出する。
尚、本実施形態において関連ショット検出部315は、関連ショット映像のショットデータがデータ蓄積部312に蓄積されているか否かを検出したが、これに限定されない。例えば、関連ショット検出部315は、関連ショット映像の映像データ及び/又はプロキシ映像のデータがデータ蓄積部312に存在するか否かを判定するようにしても構わない。
アノテーション情報フィルタ部317は、ユーザによってタブレット装置104を用いて選択されたフィルタ情報に基づいて、抽出するアノテーション情報の種類を選択(決定)する。ここで、フィルタ情報は、表示させるアノテーション情報を選択する為の情報である。このように、抽出するアノテーション情報の種類を選択することによって、同一ショットの複数のテイクの映像データを比較する場合に、各アノテーション情報の種類の表示/非表示の制御をすることが可能となる。例えば、不必要な種類のアノテーション情報を非表示にしたり、注目すべき種類のアノテーション情報のみを表示したりすることが可能となる。アノテーション情報抽出部316は、ショットデータ抽出部314で抽出されたショットデータに対応するアノテーション情報を抽出する。また、アノテーション情報抽出部316は、関連ショット検出部315で検出された関連ショット映像に対応するアノテーション情報であって、アノテーション情報フィルタ部317によってフィルタリングされた1以上のアノテーション情報を抽出する。
同期部318は、アノテーション情報抽出部316で抽出されたそれぞれのアノテーション情報の持つ時間情報を、図2(b)のアクションコールのタイミング(時間情報)を基準時間情報として調整する。例えば、同期部318は、アノテーション情報抽出部316で抽出されたアノテーション情報の時間情報を、アクションコールの時間情報を基準時間情報00:00として調整する。即ち、本実施形態において同期部318は、選択されたショット映像と抽出された関連ショット映像のそれぞれのアクションコールのタイミングを一致(同期)させ、関連ショット映像に付加されたアノテーション情報の時間情報を調整する。
尚、アノテーション情報の時間情報の調整の方法については、アクションコールの時間情報を用いた方法に限らない。即ち、本実施形態において同期部318は、特定の音声情報、画像の特徴情報、撮影の設定情報、被写体の位置情報のうち少なくともいずれかに関する時間情報を用いて、アノテーション情報の時間情報の調整を行う。例えば、同期部318は特定のセリフや効果音を検出した時間に関する情報(特定の音声情報)を用いてアノテーション情報の時間情報の調整を行っても構わない。また、同期部318は、画像が暗くなったことを検出した時間、明るくなったことを検出した時間、又は画像が変化したことを検出した時間に関する情報(画像の特徴情報)を用いてアノテーション情報の時間情報の調整を行っても構わない。また、同期部318は、撮像装置102に設定された撮影情報(撮影の設定情報)を用いてアノテーション情報の時間情報の調整を行っても構わない。また、被写体の位置又は、被写体が移動した位置に関する情報(被写体の位置情報)等、アクションコールの時間情報と異なる情報を用いてアノテーション情報の時間情報の調整を行っても構わない。このように、同期部318は、アクションコールや特定の検出に対応する時間情報、及び/又は装置や被写体の位置情報を用いることにより、アノテーション情報の時間情報を調整することができる。アノテーション情報送信部313は、同期部318で調整されたアノテーション情報を、タブレット装置104に送信する。
タブレット装置104は各部319〜319を包含する。プロキシ映像受信部320は、撮像装置102から蓄積装置103を介して送信されたプロキシ映像のデータを受信する。ショット出力部322は、プロキシ映像受信部320によって受信されたプロキシ映像のデータを、必要に応じて表示部321に表示するよう制御する。また、アノテーション情報受信部324は、蓄積装置103に蓄積されたアノテーション情報を受信する。アノテーション出力部319は、アノテーション情報受信部324によって受信されたアノテーション情報を、表示部321に表示するよう制御する。そして、表示部321は、ショット出力部322及びアノテーション出力部319による制御に応じて、プロキシ映像のデータ及びアノテーション情報を(再生)表示する。
尚、本実施形態においてタブレット装置104は、撮像装置102から蓄積装置103を介して取得したプロキシ映像のデータを表示部321に表示するが、これに限定されない。即ち、タブレット装置104は、蓄積装置103に蓄積された映像データ(RAWデータ)を取得して表示部321に表示するようにしても構わない。
タブレット入力部323は、ユーザの操作を受け付け、受け付けた操作に基づく指示の情報を取得する。例えば、タブレット入力部323は、タブレット装置104の操作者(ユーザ)による表示部321へのタッチ操作を検出し、タッチされた時間及び/又は位置に基づく様々な指示の情報を取得することができる。ここで、タッチされた時間の情報は、ユーザによるタッチ操作を検出した時の時間情報(タイミング)を示す。また、タッチされた位置の情報は、空間的な位置の情報であって、タッチ操作を検出した表示部321の表示画面上の座標情報(ポジション)を示す。
ここで、タブレット入力部323が、受け付けた操作に基づいて、アノテーション情報を取得した場合について説明する。表示部321上に、撮像装置102で撮影中の映像データに対応するプロキシ映像のデータが表示されている際に、タブレット入力部323は、映像データにアノテーション情報を付加するためのユーザによる操作を受け付ける。そして、タブレット入力部323は、受け付けた操作に基づいて、指示されたアノテーションの種類に関する情報と、ユーザによってタッチされた時間及び/又は位置に関する情報とを、アノテーション情報として取得する。さらに、タブレット入力部323は取得したアノテーション情報を蓄積装置103へ送信する。
また、タブレット入力部323は、ユーザによる表示部321への操作に基づいて、蓄積装置103に蓄積された撮影済みのショット映像のうち、表示部321に再生(表示)させる対象のショット映像を選択(決定)する。そして、タブレット入力部323は、当該選択の結果に関する情報(再生ショット選択情報)を蓄積装置103に送信する。また、タブレット入力部323は、表示部321に表示させるアノテーション情報を選択する為のフィルタ情報を決定し、決定したフィルタ情報を蓄積装置103へ送信する。この処理により、表示部321は、タブレット入力部323によって決定されたショット映像と一緒に、選択されたアノテーション情報を表示することが可能となる。
尚、本実施形態において、タブレット装置104は、表示部321にプロキシ映像のデータ及びアノテーション情報を表示するよう制御する部として、ショット出力部322とアノテーション出力部319を用いたが、これに限定されない。即ち、タブレット装置104は、ショット出力部322とアノテーション出力部319の両方の機能を集約した表示制御部(不図示)を有していても構わない。よって、表示制御部(不図示)は、プロキシ映像受信部320によって受信されたプロキシ映像のデータと共に、アノテーション情報受信部324によって受信されたアノテーション情報を表示部321に表示するよう制御することができる。
また、本実施形態において表示部321はユーザによる操作を受け付け、タブレット入力部323は、表示部321へのユーザによる操作に基づく指示の情報を取得するが、これに限定されない。即ち、表示部321がタブレット入力部323の機能を備えていても構わない。
編集装置105は各部330〜331を包含する。撮影及びアノテーション情報の付加作業が完了した後に、編集装置105の蓄積部330は、蓄積装置103のデータ蓄積部312で蓄積されたショットデータをコピー(複製)し、蓄積(保持・保存)する。そして、編集部331は、蓄積部330に蓄積されたショットデータ(映像データ、映像データに付帯するメタデータ、及びアノテーション情報)に基づいて映像データを編集し、映像コンテンツを生成する。ここで、編集部331は、ショットデータだけでなく、予め決められた映像コンテンツに関する脚本やシナリオデータに基づいて、映像コンテンツを生成しても構わない。
図4及び図5は、本実施形態における主要なデバイスとなる蓄積装置103及びタブレット装置104の内部構成を説明する図である。まず、図4の蓄積装置103の各部について詳細を説明する。CPU(Central Processing Unit)401は、図1に示した蓄積装置103の各部309〜318における演算や論理判断等の処理を行い、バス408に接続された各部402〜407の構成要素を制御する。ROM(Read Only Memory)402は、CPU401による制御のためのプログラムであって、後述する流れ図の処理手順を含む各種の指示を示すプログラムを格納する。RAM(Random Access Memory)403は、外部記憶装置(不図示)等からロードされたプログラムやデータ、I/F(インターフェイス)を介して外部から取得したデータ等を一時的に記憶する。映像CODEC404は、グラフィック処理用のメディアプロセッサ等から構成されており、映像データの各種トランスコード処理を行う。映像信号I/F405は、映像のストリーム信号を扱うI/Fである。ストレージ406は、映像信号を蓄積あるいはキャッシュ(一時的に保存)する。無線通信I/F407は、映像ストリームを送受信し、所定のバンド幅、及び1以上のチャンネルを保持している。
次に、図5のタブレット装置104の各部について詳細を説明する。ここで、図5の各部501〜508は、図4の各部401〜408と、それぞれ同一の機能を有するため、説明を省略する。尚、各部402〜408と各部502〜508の回路規模については、同一でなくても構わない。例えば、本実施形態における図4のストレージ406の回路規模は、図5のストレージ506の回路規模よりも大きくても良い。CPU501は、図1に示したタブレット装置104の各部319〜324における演算や論理判断等の処理を行い、バス508に接続された各部501〜507、509〜510の構成要素を制御する。タブレット入力デバイス509及び表示デバイス510は、タブレット装置104のUIを構成するデバイスである。ユーザが表示デバイス510の表示画面をタッチ操作することによって、タブレット装置104は当該操作に対応する指示及び情報を取得することができる。例えば、ユーザが表示デバイス510の表示画面に対してピンチアウト操作をすることによって、タブレット入力デバイス509は、表示デバイス510に操作されたピンチアウト操作に対応する拡大指示を取得するようにしてもよい。
また、本実施形態における撮像装置102はCPU(不図示)及びROM(不図示)を有する。そして、CPU(不図示)は図1に示す撮像装置102の各部305〜308における演算や論理判断等の処理を行い、ROM(不図示)は後述する流れ図の処理手順を含む各種の指示を示すプログラムを格納する。
次に、本実施形態による撮影中のショット映像にアノテーション情報を付加する手順の詳細について、図6(a)、図6(b)、図6(c)、図7(a)、図7(b)、図7(c)、及び図7(d)を用いて説明する。まず、図6(a)、図6(b)、及び図6(c)は、本実施形態を実現するタブレット装置104の表示部321における表示画面(操作画面)を示す図である。本実施形態において、撮像装置102を用いてショットの撮影を行いながら、撮影中のショット映像をタブレット装置104に再生(表示)する。また、撮影の監督やスタッフ等のユーザは、撮像装置102によってショットの撮影を行っている際に、タブレット装置104を用いてアノテーション情報をリアルタイムに付加することができる。
図6(a)において、表示画面601はタブレット装置104の表示部321における表示画面(操作画面)である。領域602は、撮像装置102において撮影中の映像を、プロキシ映像のデータを利用してリアルタイムに表示する領域である。タブレット装置104は、ユーザによる表示画面601の領域602へのタッチ操作を検出し、タッチされた時間及び/又は位置に対応したアノテーション情報を、表示されたプロキシ映像のデータに付加することが可能である。また、表示603は、撮影中のショット映像に対応するショットデータの表示であり、ボタン604は、アノテーション情報の種類を指定する為のショートカットボタンである。ボタン605及びボタン606は、表示画面601に表示されていないショートカットボタンを表示する為の移動ボタンを示す。また、表示607は、撮影中のショットに関連する撮影済みのテイクのショット映像のサムネイルを一覧表示するUI枠であり、表示608は撮影済みのショット映像のサムネイルの例である。
本実施形態においてユーザは、タブレット装置104を用いてプロキシ映像を再生中に、図6(b)に示すように領域602上の、プロキシ映像の右上端に対応する位置610を指示する。例えば、図6(a)に示すようにプロキシ映像の背景にスタッフ609が移り込んでいる場合、ユーザはタッチ操作によって、図6(b)に示すようにスタッフ609に対応する画像上の位置610を指示する。タブレット入力部323は、ユーザによる指示を検出し、検出した指示に基づいてアノテーション情報の時間情報及び/又は位置情報を取得する。ここで、アノテーション情報の時間情報は、プロキシ映像においてアクションコールの時間を基準とする場合に、アクションコールの時間からアノテーション情報を付加する指示が検出された時までの時間情報(タイミング)を示す。また、アノテーション情報の位置情報は、空間的な位置の情報であって、プロキシ映像における画像上の座標情報(ポジション)を示す。
そして、タブレット装置104は、表示部321の表示画面601における領域602上の位置610に、カーソルマーク(以下、単にカーソルと称す)を表示するよう制御する。即ち、表示されるカーソルは、位置610を示す図形(画像)である。さらに、ユーザは、図6(c)に示すようにボタン604のうち位置610に付加するアノテーション情報の種類611を選択・指示する。例えば、図6(c)では、ユーザによって、再生中のプロキシ映像における背景が失敗(NG:NO GOOD)であることを示すアノテーション情報の種類611が指示されている。そして、タブレット入力部323は、ユーザによって指示されたアノテーション情報の種類に関する情報を取得する。
次に、撮影中のショット映像にアノテーション情報を付加する手順の詳細について、図7(a)、図7(b)、図7(c)、及び図7(d)を用いて以下に説明する。図7(a)、図7(b)、図7(c)、及び図7(d)は、ショットの撮影が行われる際の、デジタルクラップボード101、撮像装置102、蓄積装置103、及びタブレット装置104のそれぞれにおいて実行される処理を説明する流れ図である。
まず、図7(a)について説明する。図7(a)は、ショットの撮影が行われる際に、撮像装置102において実行される処理の手順を示す流れ図である。尚、図7(a)に示す流れ図は、撮像装置102のCPU(不図示)がROM(不図示)に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図7(a)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
まず、ステップS701において撮像装置102は、撮影する対象のショット映像に係る撮影情報を撮像装置102の外部等から取得し、設定する。例えば、撮像装置102は、ユーザによって設定された撮影情報を取得するようにしてもよい。また、撮影情報は、撮影する対象のショット映像に係るシーン番号、ショット番号、テイク数等、図2(a)に示す様なユニークなIDの情報を示す。例えば、シネマやドラマの撮影は、撮影スタジオのセットや役者のスケジュールを考慮して事前に作成された撮影計画に基づいて、撮影すべきショットの順番が決められる場合がある。また、シネマやドラマの撮影は、脚本やシナリオが用意されている場合がある。このため、撮像装置102は、撮影すべきショットの順番や、脚本やシナリオの順番に基づいて、各ショットにユニークなIDを予め設定することができる。
ステップS702において撮像装置102は、ステップS701で設定された撮影情報を接続されたデジタルクラップボード101に送信する。ステップS703において撮像部304は、被写体の撮影を開始し、映像データを生成する。次に、ステップS704においてプロキシ映像生成部308は、撮像部304によって生成された映像データに基づいて、当該生成された映像データよりも解像度の低いプロキシ映像のデータをリアルタイムに生成する。ステップS705においてメタデータ送受信部306は、撮影に伴って生成されたメタデータ(撮影データ)として、撮像装置102に設定された撮影情報を逐次取得する。ここで、メタデータ送受信部306は、撮影情報の他に、映像の先頭の時間を示す時間情報等のクラップボード情報を取得しても構わない。尚、本実施形態においてメタデータ送受信部306が撮影情報を取得する構成としたが、これに限定されない。例えば、プロキシ映像生成部308が撮影情報を取得して、プロキシ映像に付加するようにしても構わない。
ステップS706において映像データ送信部307は、撮像部304で撮影されたショット映像のデータ(RAWデータ)及びプロキシ映像生成部308で生成されたプロキシ映像のデータを、出力データとして蓄積装置103に送信する。ステップS707においてメタデータ送受信部306は、ステップS705において取得したメタデータを蓄積装置103に送信する。尚、出力データとメタデータのそれぞれの送信順序は限定されない。例えば、ステップS706とステップS707の順番が逆でも構わない。
次に、ステップS708においてメタデータ送受信部306はデジタルクラップボード101から出力されたクラップボード情報を受信する。そして、ステップS709においてメタデータ送受信部306は、ステップS708において受信したクラップボード情報に基づいて、アクションコール信号を蓄積装置103に送信する。ここで、アクションコール信号は、同一ショットにおける複数のテイクの時間軸を一致(同期)させる為に用いられる基準時間情報である。ステップS710において撮像装置102は、1ショット分の撮影が終了したか否かを判定する。そして、撮像装置102は、ステップS710において1ショット分の撮影が終了していないと判定された場合にショットの撮影を継続し、終了したと判定された場合にショットの撮影を終了する。
次に、図7(b)について説明する。図7(b)は、撮像装置102によりショットの撮影が行われる際に、撮像装置102と接続されたデジタルクラップボード101において実行される処理の手順を示す流れ図である。尚、図7(b)に示す流れ図は、デジタルクラップボード101のCPU(不図示)がROM(不図示)に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図7(b)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
まず、ステップS711においてデジタルクラップボード101は、撮像装置102から撮影情報を受信する。そして、ステップS712においてデジタルクラップボード101は、ステップS711において取得した撮影情報を表示部301に表示するよう制御する。次に、撮影が開始された後に、ステップS713においてデジタルクラップボード101は、ユーザによりデジタルクラップボード101に対する操作が行われたか否かを判定する。ステップS713においてデジタルクラップボード101に対する操作が行われたと判断した場合にステップS714へ進む。そして、ステップS714においてデジタルクラップボード101は、受け付けた操作に関するクラップボード情報を撮像装置102へ送信する。例えば、デジタルクラップボード101は、ユーザによるアクションコールの操作を受け付けた場合に、ステップS714に進み、撮像装置102へアクションコール信号をクラップボード情報として送信する。
次に、図7(c)について説明する。図7(c)は、撮像装置102によりショットの撮影が行われる際に、蓄積装置103において実行される処理の手順を示す流れ図である。尚、図7(c)に示す流れ図は、蓄積装置103のCPU401がROM402に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図7(c)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
ステップS715において映像データ受信部310は、撮像装置102の映像データ送信部307から映像データとプロキシ映像のデータとを含む出力データの受信が開始されたか否かを判定する。ここで、ステップS715において出力データの受信が開始されていないと判断された場合は、出力データの受信が開始されるまでステップS715の処理を行う。そして、ステップS715において出力データの受信が開始されると判断された場合に、ステップS716において映像データ受信部310は、出力データを受信する。ステップS717においてプロキシ映像送信部311は、ステップS716において映像データ受信部310によって入力された出力データからプロキシ映像のデータを取り出し、タブレット装置104に送信する。ステップS718においてメタデータ受信部309は、撮像装置102のメタデータ送受信部306からメタデータを入力する。ステップS719では撮像装置102のメタデータ送受信部306からアクションコール信号を入力する。
次に、ステップS720においてデータ蓄積部312は、各ステップS716、ステップS718、及びステップS719で入力された出力データ、アクションコール信号を含むメタデータを逐次蓄積する。次に、ステップS721においてデータ蓄積部312は、タブレット装置104からアノテーション情報が入力されたか否かを判定し、アノテーション情報が入力された場合にステップS722に進み、当該アノテーション情報を受信する。ステップS723にてデータ蓄積部312は、ステップS722にてデータ蓄積部312によって受信されたアノテーション情報を、ステップS716にて映像データ受信部310によって受信された撮影中の映像データと関連付けて蓄積する。そして、ステップS724において蓄積装置103は、撮像装置102からの映像データの入力が終了したか否かを判定し、映像データの入力が終了したと判定されるまで、タブレット装置104からのアノテーション情報の入力と蓄積を繰り返す。
次に、図7(d)について説明する。図7(d)は、撮像装置102によりショットの撮影が行われる際に、タブレット装置104において実行される処理の手順を示す流れ図である。尚、図7(d)に示す流れ図は、タブレット装置104のCPU501がROM502に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図7(d)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
ステップS725においてプロキシ映像受信部320は、蓄積装置103のプロキシ映像送信部311から送信されたプロキシ映像のデータを受信する。そして、ステップS726においてタブレット装置104は、ステップS725においてプロキシ映像受信部320によって受信されたプロキシ映像のデータをタブレット装置104の表示部321における表示画面601の領域602に表示するよう制御する。次に、ステップS727においてタブレット入力部323は、タブレット装置104にアノテーション情報が入力されたか否かを判定する。ここで、タブレット入力部323は、ユーザによる表示画面601の領域602へのタッチ操作を受け付け、タッチされた時間及び/又は位置に関する情報に基づいてアノテーション情報を生成する。
そして、ステップS727においてアノテーション情報が入力されたと判定された場合に、ステップS728においてタブレット入力部323は、入力されたアノテーション情報の種類に関する情報を取得する。尚、アノテーションの種類に関する情報は、図6(a)に示した表示画面601における領域602上に対するユーザによるタッチ操作の前または後に、ボタン604(ショートカットボタン)に対するユーザによるタッチ操作を検出することによって取得される。またこの際、ユーザがボタン605及びボタン606を操作した場合、タブレット入力部323は、さらに詳細なアノテーション情報の種類に関する情報や、テキストによるアノテーション情報を入力することも可能である。ステップS729においてタブレット入力部323は、取得したアノテーション情報を蓄積装置103に送信する。
ここで、タブレット装置104のタブレット入力部323に入力され、蓄積装置103のデータ蓄積部312に蓄積されるアノテーション情報の例について、図10を用いて説明する。尚、図10はアノテーション情報の一例である。図10に示すように、本実施形態においてアノテーション情報は、ショットID、アノテーションID、アノテーション情報のスタート時間及びエンド時間、アノテーション情報が付加された画像上の位置(X座標及びY座標、その他の位置)に関する情報を含む。また、本実施形態においてアノテーション情報は、アノテーション情報の種類(GOOD/NG(NO GOOD)、大分類、小分類)、コメント等に関する情報を含む。GOOD/NGは、映像コンテンツの生成において映像の適切性を示す情報であって、GOODは適していることを示し、NGは適していないことを示す。例えば、図6(c)に示すように、背景にスタッフ609が入り込んだ場合、「GOOD/NG:NG」、「大分類:背景」、「小分類:映り込み」がアノテーション情報の種類として含まれる。
尚、ショットIDは、図2(a)に示す映像データの階層概念に基づいて、アノテーション情報が付加されたショット映像のシーケンス、シーン、ショット、テイクの番号を示す。例えば、RC01−S12−S07−T5なるショットIDで示されたショット映像は、シーケンス番号01、シーン番号12、ショット番号07、テイク番号5の映像を示す。また、アノテーションIDは、ショット映像に付加された各アノテーション情報を識別するための識別子(符号)である。スタート時間は、ショット映像におけるアノテーション情報の付加が開始された時間の情報を示す。また、エンド時間は、アノテーションの付加が終了した時間の情報を示す。尚、本実施形態において、スタート時間及びエンド時間は、アクションコールのタイミングを基準とし、アクションコールのタイミングからアノテーション情報の付加が開始された時間とアノテーション情報の付加が終了した時間とに関する情報を示す。また、アノテーション情報が付加された画像上の位置は、図6(a)に示す表示画面601の領域602における位置(座標)を示す。
また、本実施形態においてアノテーション情報は、図10に示す情報を含むが、これに限定されない。即ち、アノテーション情報はアノテーション情報が付加された時間情報及び/又は位置情報を少なくとも含むものであれば構わないし、図10に示す情報以外の情報を含んでも構わない。
以上で説明したように、図6(a)、図6(b)、図6(c)、図7(a)、図7(b)、図7(c)、及び図7(d)で説明した操作を行うことにより、撮影中のショット映像にアノテーション情報を付加することができる。
次に、本実施形態による撮影されたショット映像を再生する処理の詳細について、図8(a)、図8(b)、図8(c)、図9(a)、及び図9(b)を用いて説明する。図8(a)、図8(b)、及び図8(c)は、撮影されたショット映像を再生する場合のタブレット装置104の表示部321における表示画面を示す図である。例えば、本実施形態におけるタブレット装置104は、同一ショットに対して撮影された4種類のテイクについて、図8(a)、図8(b)、及び図8(c)に示すように表示し、各テイクのショット映像を比較することができる。尚、図8(a)、図8(b)、及び図8(c)において、図6(a)、図6(b)、及び図6(c)で示したものと同じ機能を有するものは同じ符号を付与し、説明を省略する。
図8(a)において、表示807は、撮像装置102によって撮影済みのショットに関連するテイクの一覧を示すサムネイルである。図8(a)において太枠で囲まれたショット映像808は、撮影済みのショットに関するテイクのうち、ユーザによって再生する対象として選択されたショット映像である。領域802は、選択されたショット映像808を、プロキシ映像のデータを利用して表示する領域である。タブレット装置104は、ユーザによる表示画面601の領域802へのタッチ操作を検出する。そしてタブレット装置104は、タッチされた時間及び/又は位置に対応したアノテーション情報を、表示されたプロキシ映像のデータに付加することが可能である。即ち、図6(a)では、撮影中のショット映像に対してアノテーション情報を付加するのに対し、図8(a)では、撮影後であって再生中のショット映像に対してアノテーション情報を付加する。ボタン803は、プレイバックコントロールのためのツールボタンである。例えば、ボタン803は、表示対象の映像データに対して、再生、一時停止、停止、スキップ前、巻き戻し、早送り、スキップ後、スロー再生等を指示したり、シークバー(再生バー)を用いて再生箇所を指定したりすることができる。
また、図8(a)に示すように領域802上には、選択されたショット映像808だけでなく、選択されたショット映像808と関連するショット映像(関連ショット映像)において付加されたアノテーション情報809が表示されている。即ち、領域802には、選択されたショット映像808と同一のショットの他のテイクのショット映像である関連ショット映像812において付加されたアノテーション情報809が表示される。このように、関連ショット映像に付加されたアノテーション情報「テイク4でNG(背景)」をテキスト情報として一緒に表示(重畳表示)する。このような重畳表示により、ユーザは関連ショット映像に付加されたアノテーション情報の時間及び位置を注目点として確認することができる。
さらに、図8(b)に示すように、撮影されたショット映像を再生中に、ユーザが当該ショット映像の右端に対応する位置810を指示した場合、タブレット装置104のタブレット入力部323は、ユーザによる指示を検出する。そして、タブレット入力部323は、検出した指示に基づいてアノテーション情報の時間情報及び/又は位置情報を取得する。そして、タブレット装置104は、表示部321の表示画面601における領域802上の位置810に、カーソルを表示するよう制御する。さらに、ユーザは、図8(c)に示すようにボタン604のうち位置810に付加するアノテーション情報の種類811を選択・指示する。例えば、図8(c)では、ユーザによって、再生中のプロキシ映像の背景がNG(失敗)であることを示すアノテーション情報の種類811が指示されている。そして、タブレット入力部323は、ユーザによって指示されたアノテーション情報の種類に関する情報を取得する。このようにして、タブレット装置104は、撮影されたショット映像を再生中に、アノテーション情報を追加することができる。
次に、撮影されたショット映像を再生する手順の詳細について、図9(a)及び図9(b)を用いて以下に説明する。図9(a)及び図9(b)は、ショット映像を再生する際の、タブレット装置104及び蓄積装置103のそれぞれにおいて実行される処理を説明する流れ図である。
まず、図9(a)について説明する。図9(a)は、ショット映像を再生する際に、タブレット装置104において実行される処理の手順を示す流れ図である。尚、図9(a)に示す流れ図は、タブレット装置104のCPU501がROM502に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図9(a)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
まず、ステップS901においてタブレット装置104のタブレット入力部323は、ユーザによる指示に基づいて、再生するショット映像を選択(決定)する。例えば、タブレット入力部323は、ユーザによってショットIDがRC01−S12−S09−T2(図10の1001)であるショット映像を再生する指示を受け付け、当該ショットIDに関連するショット映像を、再生するショット映像として選択する。ここで、図10に示すように、当選択されたショット映像1001に対応するショット番号S09には、テイク番号T1〜5(T1、T2、T3、T4、及びT5)の5本のショット映像が存在する。このような場合、撮影時においては、当該5本のショット映像のうちに撮影ミスのないショット映像があることを確認する必要がある。また、映像コンテンツの作成時に、当該5本のショット映像のうちに撮影ミスのないショット映像を選択する必要がある。
ステップS902においてタブレット入力部323は、ステップS901における選択の結果に関する情報(再生ショット選択情報)を蓄積装置103に送信する。そして、ステップS903においてプロキシ映像受信部320は、蓄積装置103に蓄積されたショットデータのうち、ステップS901で選択されたショット映像に関連するショットデータ(映像データ)を受信する。ステップS904においてタブレット入力部323は、ユーザ操作に基づいて、ショット映像を再生する際に合わせて表示させるアノテーション情報の種類を選択し、選択したアノテーション情報の種類に基づいてフィルタ情報を決定する。ここで、本実施形態においてタブレット入力部323は、図10の情報1002のような「GOOD/NG」のタグや、情報1003の「大分類」及び情報1004の「小分類」のような特定の「分類」のタグを、アノテーション情報の種類として取得する。そして、タブレット入力部323は、当該アノテーション情報の種類に基づいて、ショット映像の比較の目的に合ったフィルタ情報を選択することができる。例えば、タブレット入力部323は、再生するショット映像に付加されたアノテーション情報のみを表示するためのフィルタ情報を選択しても構わない。また、当該再生するショット映像に関連するショット映像に付加されたアノテーション情報も一緒に表示するためのフィルタ情報を選択しても構わない。
ステップS905においてタブレット装置104は、ステップS904においてタブレット入力部323によって選択されたフィルタ情報を蓄積装置103に送信する。蓄積装置103は、タブレット装置104から取得したフィルタ情報に基づいて、タブレット装置104から取得したアノテーション情報をフィルタリングする。この蓄積装置103の処理の詳細については後述する。そして、ステップS906においてアノテーション情報受信部324は、蓄積装置103によってフィルタリングを施されたアノテーション情報を受信する。そして、ステップS907においてアノテーション出力部319及びショット出力部322は、ステップS903で受信したプロキシ映像のデータ及びステップS906で受信したアノテーション情報を、表示部321に表示するよう制御する。以上の処理によって、表示部321は、図8(a)に示す様に、領域802に、選択されたショット映像と、当該選択されたショット映像に重畳(対応)されたアノテーション情報809とを表示する。
さらに、表示部321に選択したショット映像に対応するプロキシ映像のデータ及びアノテーション情報を表示中に、ユーザが表示部321の表示画面601における領域802に対してタッチ操作した場合について説明する。この場合、タブレット入力部323は、図8(b)に示す位置810へのユーザによるタッチ操作を検出し、検出した結果に基づいて、表示中のショット映像に対するアノテーション情報を追加することが出来る。このことから、ステップS908においてタブレット入力部323は、アノテーション情報が追加されたか否かを判定する。そして、ステップS908においてアノテーション情報が入力されたと判定された場合、ステップS909においてタブレット入力部323は、図8(c)に示すユーザによるタッチ操作に基づいてアノテーション情報を取得する。そして、ステップS910においてタブレット入力部323は、ステップS909で取得したアノテーション情報を蓄積装置103へ送信する。ステップS911においてタブレット装置104は、1ショット分の映像データの再生が終了したか否かを判定する。そして、タブレット装置104は、ステップS911において1ショット分の再生が終了していないと判定した場合にステップS908の処理へ戻り、終了したと判定した場合にショットの再生及びアノテーション情報の追加を終了する。即ち、タブレット装置104は、1ショット分の再生が終了したと判定するまで、アノテーション情報を追加することができる。
次に、図9(b)について説明する。図9(b)は、ショット映像を再生する際に、蓄積装置103において実行される処理を説明する流れ図である。尚、図9(b)に示す流れ図は、蓄積装置103のCPU401がROM402に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図9(b)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
まず、ステップS912においてショットデータ抽出部314は、タブレット装置104のタブレット入力部323から出力された再生ショット選択情報を受信する。そして、ステップS913においてショットデータ抽出部314は、ステップS912において受信した再生ショット選択情報に対応したショットデータを抽出する。ステップS914においてプロキシ映像送信部311は、ステップS913においてショットデータ抽出部314によって抽出されたショットデータをタブレット装置104に送信する。そして、ステップS915において関連ショット検出部315は、ステップS913においてショットデータ抽出部314によって抽出されたショットデータと関連する関連ショット映像の検出を行う。
ステップS916において関連ショット検出部315は、ステップS915において関連ショット映像が検出されたか否かを判定し、関連ショット映像が検出されたと判定した場合に蓄積装置103はステップS917の処理へ進む。一方、ステップS916において関連ショット映像が検出されなかったと判定された場合に蓄積装置103はステップS918の処理へ進む。ステップS917においてアノテーション情報抽出部316は、関連ショット検出部315によって検出された関連ショット映像に対応するアノテーション情報を、データ蓄積部312から取得する。ステップS918においてアノテーション情報フィルタ部317は、タブレット装置104のタブレット入力部323から出力されたフィルタ情報を受信する。そして、ステップS919においてアノテーション情報フィルタ部317は、受信したフィルタ情報に基づいて、ステップS917においてアノテーション情報抽出部316によって取得された関連ショット映像に対応するアノテーション情報にフィルタ処理を施す。即ち、ステップS919においてアノテーション情報フィルタ部317は、フィルタ情報に基づいて、抽出するアノテーション情報の種類を選択する。
次に、ステップS920において同期部318は、関連するショット映像のアノテーション情報の時間情報の調整を、図2(b)で説明した様に、アクションコールのタイミング(時間情報)に基づいて行う。さらに、ステップS921においてアノテーション情報送信部313は、ステップS919で選択され、ステップS920で調整されたアノテーション情報を、タブレット装置104に送信する。さらに、タブレット装置104においてショットの再生が行われている間に、追加のアノテーション情報が付加される場合がある。そこで、ステップS922において蓄積装置103は、追加のアノテーション情報を受信したか否かを判定する。ステップS923においてデータ蓄積部312は、追加のアノテーション情報を受信し、ステップS924においてデータ蓄積部312は、再生中のショット映像と関連付けて追加のアノテーション情報を蓄積する。そして、ステップS925において蓄積装置103は、1ショット分の映像データの再生が終了したか否かを判定し、再生が終了していないと判定した場合にステップS922の処理へ戻り、終了したと判定した場合にアノテーション情報の蓄積処理を終了する。
以上のように本実施形態における映像処理システムは、図8(a)、図8(b)、図8(c)、図9(a)及び図9(b)に示す処理を行う。これによって、本実施形態の映像処理システムは、再生中のショット映像と、当該ショット映像に関連するショット映像に付加されたアノテーション情報とを同時に表示する。これによって、本実施形態における映像処理システムは、ユーザにとって、関連ショット映像に付加されたアノテーション情報を視認し易くすい映像処理システムを提供する。さらに、本実施形態における映像処理システムは、再生中のショット映像に対して、新たに見つかった点についてアノテーション情報を追加する。
以上説明したように、本実施形態の映像処理システムによれば、映像(特定のショット映像)と、当該特定のショット映像に関連する他の映像(関連ショット映像)に付加されたアノテーション情報とを、表示することができる。即ち、本実施形態における映像処理システムによれば、特定のショット映像の再生を行う際に、当該特定ショット映像と置き換え可能である関連ショット映像に付加されたアノテーション情報を表示することができる。そして、特定のショット映像の再生中であっても、ユーザにとって、関連ショット映像のアノテーション情報を考慮して特定のショット映像を映像コンテンツに用いるか否かを決定することのできる映像処理システムを提供することができる。
また、本実施形態の映像処理システムは、特定のショット映像を再生する際に、当該特定のショット映像に関連する他のテイクのショット映像(関連ショット映像)に付加されたアノテーション情報によって示唆される注目箇所及びその内容を表示する。これによって、同一ショットにおいて複数のテイクのショット映像が存在する場合に、ユーザは当該特定のショット映像における注目点を視認することができ、映像コンテンツを生成する為に用いられるショット映像を従来よりも容易に選択することができる。
また、本実施形態における映像処理システムは、同一のショットに対する複数のテイクのショット映像の撮影において、タブレット装置を用いて簡単にアノテーション情報を付加することができる。
(実施形態2)
上述の実施形態1では、ショット映像に付加されたアノテーション情報を、当該ショット映像に関連するショット映像の再生時に、タブレット装置104の表示部321に表示する構成としていた。本実施形態では、ショット映像に付加されたアノテーション情報を、当該ショット映像と同一のショットの他のテイクのショット映像(関連ショット映像)の撮影時に撮像装置102のファインダ303に表示する構成とする。
図11は、本実施形態による映像処理システムの構成を示す図である。尚、本実施形態の図11において、実施形態1の図1の各部と同じ機能を有する部は同じ符号を付与し、その説明を省略する。本実施形態において撮像装置102は、アノテーション情報重畳部1101を備えている点で、実施形態1の図1に示す撮像装置102と異なる。アノテーション情報重畳部1101は、蓄積装置103から送信されたアノテーション情報であって撮影中のショット映像に関連するショット映像に付加されたアノテーション情報と、撮像部304で撮像された画像(映像)とを重畳する。そして、ファインダ表示制御部305は、アノテーション情報重畳部1101によって重畳されたアノテーション情報と撮影された映像とをファインダ303に表示するよう制御する。
また、本実施形態において蓄積装置103は、アノテーション情報送信部313がアノテーション情報を撮像装置102に送信する点で、実施形態1の図1に示す蓄積装置103と異なる。本実施形態においてアノテーション情報送信部313は、撮像装置102のメタデータ送受信部306から出力されたメタデータに基づき、データ蓄積部312に蓄積された、撮影中のショット映像に関連するショット映像のアノテーション情報を取得する。そして、アノテーション情報送信部313は、取得したアノテーション情報を撮像装置102へ送信する。
次に、本実施形態によるショットの撮影が行われる際の手順の詳細について、図12(a)、図12(b)、及び図13を用いて説明する。図12(a)、及び図12(b)は、ショットの撮影が行われる際の、撮像装置102、及び蓄積装置103のそれぞれにおいて実行される処理を説明する流れ図である。尚、図12(a)、及び図12(b)において、実施形態1の図7(a)、及び図7(c)と同等の処理を行うステップには同じ符号を付与し、説明を省略する。また、本実施形態において、ショットの撮影が行われる際の、デジタルクラップボード101、及びタブレット装置104のそれぞれにおいて実行される処理は、実施形態1の図7(b)、及び図7(d)と同等のため、説明を省略する。
まず、図12(a)について説明する。図12(a)は、ショットの撮影が行われる際に、撮像装置102において実行される処理の手順を示す流れ図である。尚、図12(a)に示す流れ図は、撮像装置102のCPU(不図示)がROM(不図示)に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図12(a)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
ステップS1202においてメタデータ送受信部306は、ステップS701で設定された撮影情報を接続されたデジタルクラップボード101及び蓄積装置103に送信する。また、ステップS1208においてアノテーション情報重畳部1101は、蓄積装置103から撮影中のショット映像に関連するショット映像に付加されたアノテーション情報を受信する。さらに、ステップS1211においてアノテーション情報重畳部1101は、ステップS1208で受信したアノテーション情報と撮像部304で撮像された映像とを重畳し、ファインダ303に表示するよう制御する。以後、撮像装置102は、実施形態1の図7(a)と同様に、ステップS710において1ショット分の撮影が終了したと判定されるまでショットの撮影を継続する。
次に、図12(b)について説明する。図12(b)は、撮影済みの特定のショットについて、更なるテイクの撮影を行う際に、蓄積装置103において実行される処理の手順を示す流れ図である。尚、図12(b)に示す流れ図は、蓄積装置103のCPU401がROM402に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図12(b)に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。
ステップS1217においてメタデータ受信部309は、撮像装置102が撮影するショット映像のメタデータを撮像装置102から受信する。次に、ステップS1218において関連ショット検出部315は、ステップS1217で取得されたメタデータに基づいて、データ蓄積部312に蓄積されたショットデータのうち、撮影中のショット映像に関連する関連ショット映像のショットデータを検出する。ここで、関連ショット映像のショットデータとは、蓄積装置103に既に蓄積されている映像データであって、ステップS1217で取得した撮影中のショット映像と同一のショット番号を持つ、他のテイクのショット映像を示す。ステップS1219において関連ショット検出部315は、撮影中のショット映像に関連する関連ショット映像の有無を判定し、関連ショット映像が有ると判定した場合にステップS1220へ進み、関連ショット映像が無いと判定した場合にステップS715へ進む。
ステップS1220においてアノテーション情報送信部313は、ステップ1218で検出された関連ショット映像に対応するアノテーション情報を取得する。ステップS1221において同期部318は、実施形態1の図9(b)に示すステップS920の処理と同様に、関連ショット映像に付加されたアノテーション情報の時間情報を、アクションコールのタイミング(時間情報)に基づいて調整する。即ち、本実施形態において同期部318は、撮影中のショット映像と関連ショット映像のそれぞれのアクションコールのタイミングを基準時間情報00:00として一致(同期)させ、関連ショット映像に付加されたアノテーション情報の時間情報を調整する。そして、ステップS1222においてアノテーション情報送信部313は、ステップS1221で時間情報を調整施された、関連ショット映像のアノテーション情報を、撮像装置102に送信する。
次に、図13について説明する。図13は、撮影中のショット映像と関連する関連ショット映像に付加されたアノテーション情報と、撮像部304で撮像された映像とを重畳して表示する場合の、ファインダ303における表示画面(ファインダ画面)を示す図である。図13に示すように、ファインダ303におけるファインダ画面1302には、関連ショット映像に付加されたアノテーション情報1303が撮影中のショット映像と重畳されて表示されている。このように、関連ショット映像に付加されたアノテーション情報「テイク4でNG(背景)」をテキスト情報で一緒に表示(重畳表示)する。このような重畳表示により、ユーザは関連ショット映像に付加されたアノテーション情報の時間情報及び位置情報を注目点として確認することができる。
以上で説明したように、図12(a)、図12(b)、及び図13で説明した操作を行うことにより、撮影中のショット映像と関連する関連ショット映像に付加されたアノテーション情報をファインダ303に表示することができる。
以上説明したように、本実施形態の映像処理システムによれば、映像(特定のショット映像)と、当該特定のショット映像に関連する他の映像(関連ショット映像)に付加されたアノテーション情報とを表示することができる。即ち、本実施形態における映像処理システムによれば、特定のシチュエーションにおいてショット映像の取り直しを行う際に、特定のシチュエーションで撮影済みの関連ショット映像に付加されたアノテーション情報を表示することができる。
また、本実施形態の映像処理システムは、特定のショット映像を撮影する際に、当該特定のショット映像に関連する他のテイクのショット映像(関連ショット映像)に付加されたアノテーション情報によって示唆される注目箇所及びその内容を表示する。これによって、同一ショットにおいて新たなテイクのショット映像を撮影する(取り直しする)場合に、ユーザは当該ショット映像における注目点を視認することができ、撮影済みの関連ショット映像と同じ撮影ミスをする可能性を低減させることができる。また、撮影済みの関連ショット映像に付けられたアノテーション情報(注目点)をファインダ303で確認しながら、ショット映像の取り直しを行うことができるため、利便性を向上させることができる。
尚、本実施形態の図12(b)に示すステップS1221にて同期部318は、撮影中のショット映像に重畳表示するアノテーション情報の表示タイミングを、関連ショット映像に付けられたアノテーション情報と同一のタイミングとしたがこれに限定されない。即ち、ステップS1221において同期部318は、アノテーション情報の時間情報の調整処理において所定のオフセットを付けても構わない。例えば、同期部318が関連ショット映像のアクションコールのタイミングを基準時間情報00:00とした場合のアノテーション情報の時間情報に所定のオフセットを付けて、時間情報の調整を行っても構わない。そして、アノテーション情報重畳部1101は、関連ショット映像で付加されたアノテーション情報が、関連ショット映像でアノテーション情報が付けられたタイミングよりも早いタイミングで表示されるように、撮像された映像に重畳しても構わない。これらの処理によってユーザは、予め関連ショット映像で付けられたアノテーション情報を事前に確認した上で、当該アノテーション情報が付けられたタイミングに対応する撮影を行うことができる。
さらに、本実施形態においては、撮影の際に重畳表示するアノテーション情報について、関連するショット映像に付けられた全てのアノテーション情報としたが、これに限定さずれない。即ち、撮像装置102又はタブレット装置104において、表示するアノテーション情報の種類を選択する手段を設け、撮像装置102が撮影の為に必要なアノテーション情報を表示する構成にしても構わない。このような構成によって、撮影の際に不必要なアノテーション情報を非表示とし、簡潔に表示できるため、全てのアノテーション情報を表示する場合と比較して、ユーザにとって必要な注意点をより視認し易い映像処理システムを提供することができる。
(実施形態3)
上述の実施形態1及び実施形態2では、図8(a)に示すようにアノテーション情報が付加された画像上の位置をカーソルで示し、アノテーション情報に係る補足情報をテキスト情報として表示する構成としていた。本実施形態では、付加されたアノテーション情報の種類に基づいて、表示の形態を変更する構成とする。
図14は、本実施形態においてショット映像を再生する際に、タブレット装置104によって実行される処理の手順を示す流れ図である。尚、図14に示す流れ図は、タブレット装置104のCPU501がROM502に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図14に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。また、図14において、実施形態1の図9(a)の処理と同等の処理を行うステップには同じ符号を付与し、説明を省略する。
ステップS1407においてアノテーション出力部319は、ステップS906で受信したアノテーション情報を、分類情報に基づいて分類する。ここで分類情報は、アノテーション情報に関する「GOOD/NG」の情報(図10の情報1002)、及び/又は、アノテーション情報が再生するショット映像に付けられたか否かを示す情報のことである。即ち、本実施形態のステップS1407においてアノテーション出力部319は、アノテーション情報の「GOOD/NG」の情報がGOOD(成功)であるかNO(失敗)であるかを判定する。また、アノテーション出力部319は、アノテーション情報が再生するショット映像(自テイク)に付けられたか、又は、当該再生するショット映像に関連する関連ショット映像(他のテイク)に付けられたかを判定する。そして、アノテーション出力部319は、図15(b)に示すように、受信したアノテーション情報を分類情報に基づいて分類し、各分類に対応するカーソルの形状を割り当てる。即ち、本実施形態では、自テイクでGOOD、自テイクでNG、他テイクでGOOD、他テイクでNGのそれぞれを示す異なる4通りの形状のカーソルを用意している。
次に、ステップS1408においてアノテーション出力部319及びショット出力部322は、ステップS903で受信したプロキシ映像のデータ及びステップS906で受信したアノテーション情報を、表示部321に表示するよう制御する。尚、本実施形態のステップS1408においてアノテーション出力部319は、ステップS1407において分類情報に基づいて割り当てられたカーソルの形状を用いて、アノテーション情報を表示するよう制御する。
ここで、図15(a)は、本実施形態の図14に示す処理を行い、ショット映像を再生する場合の、タブレット装置104の表示部321における表示画面を示す図である。尚、図15(a)において、実施形態1の図8(a)で示したものと同じ機能を有するものは同じ符号を付与し、説明を省略する。タブレット装置104は、図15(a)に示すように他のテイクでアノテーション情報としてNGの情報が付された位置1509には、図15(b)におけるカーソル1511を表示する。また、タブレット装置104は、図15(a)に示すように自テイクでアノテーション情報としてGOODの情報が付された位置1510には、図15(b)におけるカーソル1512を表示する。このように、再生するショット映像(自テイク)に付加されたアノテーション情報「自テイクでGOOD」と、関連ショット映像(他のテイク)に付加されたアノテーション情報「テイク4でNG(背景)」とをテキスト情報として一緒に表示(重畳表示)する。このような表示により、ユーザは再生するショット映像および関連ショット映像に付加されたアノテーション情報の時間情報及び位置情報を注目点として確認することができる。
以上説明したように、本実施形態の映像処理システムによれば、映像(特定のショット映像)と、当該特定のショット映像に関連する他の映像(関連ショット映像)に付加されたアノテーション情報とを、表示することができる。即ち、本実施形態における映像処理システムによれば、特定のショット映像の再生を行う際に、当該特定ショット映像と置き換え可能である関連ショット映像に付加されたアノテーション情報を表示することができる。そして、特定のショット映像の再生中であっても、ユーザにとって、関連ショット映像のアノテーション情報を考慮して特定のショット映像を映像コンテンツに用いるか否かを決定することのできる映像処理システムを提供することができる。
また、本実施形態の映像処理システムは、特定のショット映像を再生する際に、当該特定のショット映像に関連する他のテイクのショット映像(関連ショット映像)に付加されたアノテーション情報によって示唆される注目箇所及びその内容を表示する。これによって、同一ショットにおいて複数のテイクのショット映像が存在する場合に、ユーザは当該特定のショット映像における注目点を視認することができ、映像コンテンツを生成する為に用いられるショット映像を従来よりも容易に選択することができる。
また、本実施形態の映像処理システムは、付加されたアノテーション情報の種類に基づいて表示の形態を変更することができる。これによって、表示形態に基づいてアノテーション情報を識別することができるため、アノテーション情報をカーソルとテキスト情報とを用いて表示する場合と比較して、ユーザにとって識別し易い映像処理システムを提供することができる。
尚、本実施形態において映像処理システムは、図10の情報1002に示すGOOD/NGの情報、及び、再生中のショット映像に付けられた情報であるか否かに基づいてアノテーション情報の分類を行った。しかしながら、これに限定されず、図10の情報1003、及び/又は情報1004等、その他の情報に基づいて分類することによって、表示方法を変更する構成としても構わない。
また、本実施形態において映像処理システムは、特定のショット映像を再生する際に、関連ショット映像に付加されたアノテーション情報を、当該アノテーション情報の種類に基づいて表示の形態を変更した。しかしながらこれに限定されず、実施形態2で示したように、特定のショット映像を撮影する際に、関連ショット映像に付加されたアノテーション情報を、当該アノテーション情報の種類に基づいて表示の形式を変更しても構わない。この場合、タブレット装置104のアノテーション出力部319が行う処理を、撮像装置102の処理部(例えば、図11におけるアノテーション情報重畳部1101)が行っても構わない。
(実施形態4)
上述の実施形態1、実施形態2、及び実施形態3における映像処理システムは、蓄積装置103でフィルタ処理が施された後の、関連する全てのアノテーション情報を、表示する構成であった。本実施形態における映像処理システムは、アノテーション情報が付けられた時間情報、画像上の位置情報、及びアノテーション情報の内容(種類)に関する情報のうち少なくともいずれか一つが近似又は同じのアノテーション情報を纏めて表示する構成とする。
図16は、本実施形態によるショットの再生を行う際の、タブレット装置104において実行される処理を説明する流れ図である。尚、図16に示す流れ図は、タブレット装置104のCPU501がROM502に記憶されている制御プログラムを実行し、情報の演算及び加工、各ハードウェアの制御を実行することにより実現される。尚、図16に示す流れ図のステップの一部または全部を、ASIC等のハードウェアで実現する構成としても構わない。また、図16において、実施形態1の図9(a)の処理と同等の処理を行うステップには同じ符号を付与し、説明を省略する。
ステップS1607においてアノテーション出力部319は、選択されたショット及び関連するテイクに対応するアノテーション情報のうち、時間情報が近似している又は同一のアノテーション情報のセット(群、対)を抽出する。ここで、図3(a)を用いて、時間情報が近似している又は同一のアノテーション情報について説明する。図3(a)において各情報1701〜1707は、テイク−1からテイク−6までの各ショット映像に付加されたアノテーション情報の時間を示している。尚、図3(a)に示すように、情報1701が付加された時間(期間)の中心の時間を、アノテーション情報の付加時間1708とする。他の各情報1702〜1707についても同様に、アノテーション情報が付加された時間の中心の時間を、各情報1702〜1707の付加時間とする。また、図3(a)に示すように、ショット映像の再生画面においてアノテーション情報として表示される期間を、アノテーション情報の表示期間1709とする。
アノテーション出力部319は、アノテーション情報の時間情報に関する近似又は同一の判定において様々な方法を用いることが可能であるが、本実施形態においては以下の二段階の方法を用いる。即ち、第一段階としてアノテーション出力部319は、蓄積装置103から受信したアノテーション情報のうち、表示期間の重なりがあるアノテーション情報のセットを抽出する。そして、第二段階としてアノテーション出力部319は、第一段階で抽出したアノテーション情報のセットに対して、各アノテーション情報の中心時間の時間距離(差分)について判定を行う。
ここで、図3(a)に示すアノテーション情報(各情報1701〜1707)を例に、アノテーション出力部319の処理の詳細を説明する。第一段階としてアノテーション出力部319は、各情報1701〜1707のうち、表示期間が重なるアノテーション情報のセットである、情報1703と情報1704の第1セット、及び情報1705と情報1706の第2セットを抽出する。次に、第二段階としてアノテーション出力部319は、各セット(第1セットと第2セット)のアノテーション情報の中心時間の時間距離について計測を行い、計測した時間距離が予め定められた判定基準値を超えるか否かを判定する。そして、計測した時間距離が予め定められた判定基準値よりも小さいセットを、時間情報が近似している又は同一のアノテーション情報として抽出する。
例えば、本実施形態では、予め定められた判定基準値を1secとし、アノテーション出力部319は、アノテーション情報の中心時間の時間距離が1secより大きいか否かを判定する。そして、図3(a)に示すように、第1セットの情報1703と情報1704の中心時間の時間距離は0.5secであって、第2セットの情報1705と情報1706の中心時間の時間距離は1.2secである。以上のことから、アノテーション出力部319は、予め定められた判定基準値(1sec)より小さい時間距離を有する第1セットの情報1703と情報1704とを、時間情報が近似している又は同一のアノテーション情報のセットとして抽出する。
次に、ステップS1608においてアノテーション出力部319は、ステップS1607にて抽出したアノテーション情報のセットについて、アノテーション情報が付加された画像上の位置(座標)が近似又は同一のアノテーション情報のセットを抽出する。ここで、図3(b)を用いて、位置が近似している又は同一のアノテーション情報のセットについて説明する。図3(b)において各カーソル1710〜1713は、ステップS1607で抽出された各アノテーション情報(各情報1703〜1706)が表示画面上に表示される際の位置に対応して示されている。また、図3(b)では、各情報に対応する位置の中心位置を、一点鎖線の交点で示している。例えば、図3(b)に示すように、情報1703に対応するカーソル1710の位置の中心位置を、アノテーション中心位置1714とする。
アノテーション出力部319は、アノテーション情報の位置に関する近似又は同一の判定について様々な方法を用いることが可能であるが、本実施形態においては以下の方法を用いる。即ち、アノテーション出力部319は、ステップS1607で抽出したセットの各アノテーション情報に対応する位置の中心位置間の座標距離(差分)を算出し、算出した座標距離が定められた判定基準値を超えるか否かを判定する。そして、アノテーション出力部319は、算出した座標距離が予め定められた判定基準値よりも小さいアノテーション情報のセットを、位置が近似している又は同一のアノテーション情報のセットとして抽出する。尚、ここで用いられる座標距離の単位については、アノテーション情報を付加する際の解像度及びアノテーション情報を表示する画面の解像度により定められるのが好ましく、本実施形態においては図3(b)に示すように座標距離の単位記号を省略する。
例えば、本実施形態では、予め定められた判定基準値を1評価値とし、アノテーション出力部319は、アノテーション情報の中心位置の間の座標距離が1評価値より大きいか否かを判定する。そして、図3(b)に示すように、第1セットの各情報1703〜1704に対応する各カーソル1710〜1711の位置の中心位置間の座標距離は1.5評価値である。また、第2セットの各情報1705〜1706に対応する各カーソル1712〜1713位置の中心位置間の座標距離は0.6評価値である。以上のことから、アノテーション出力部319は、予め定められた判定基準値(1評価値)より小さい座標距離を有する第2セットの情報1705と情報1706を、位置が近似している又は同一のアノテーション情報のセットとして抽出する。尚、第2セットの情報1705と情報1706は、カーソル1712とカーソル1713に対応するアノテーション情報である。
その結果ステップS1609において、アノテーション出力部319は、付加された時間情報が近似又は同一であって、且つ付加された位置が近似又は同一であると判定されたアノテーション情報について、以下の処理を行う。即ち、ステップS1610においてアノテーション出力部319は、時間情報が近似又は同一であって、位置が近似又は同一であるアノテーション情報として、第2セットの情報1705と情報1706を統合する(纏める)。そして、ステップS1611においてアノテーション出力部319は、統合したアノテーション情報を表示部321に表示するよう制御する。また、ステップS1611においてアノテーション出力部319は、時間情報が近似又は同一であって、位置が近似又は同一である各アノテーション情報の中間位置間の中心を、統合したアノテーション情報の位置として設定し、表示するよう制御する。
ここで、図3(c)は、本実施形態の図16に示す処理を行い、ショット映像を再生する際に、他のショット映像に付加されたアノテーション情報の表示例を示す図である。前述の図3(b)に示すように、他のショット映像にアノテーション情報(各情報1703〜1706)が付加されている場合、本実施形態においてタブレット装置104は図16の処理を行う。そして、タブレット装置104は、図3(c)に示すように、各情報1703〜1706に対応する各カーソル1710、1717、及び1715を表示する。尚、図3(c)のカーソル1715は、図3(b)のカーソル1712の中心位置とカーソル1713の中心位置の中心に表示される。
以上説明したように、本実施形態の映像処理システムによれば、映像(特定のショット映像)と、当該特定のショット映像に関連する他の映像(関連ショット映像)に付加されたアノテーション情報とを、表示することができる。即ち、本実施形態における映像処理システムによれば、特定のショット映像の再生を行う際に、当該特定ショット映像と置き換え可能である関連ショット映像に付加されたアノテーション情報を表示することができる。そして、特定のショット映像の再生中であっても、ユーザにとって、関連ショット映像のアノテーション情報を考慮して特定のショット映像を映像コンテンツに用いるか否かを決定することのできる映像処理システムを提供することができる。
また、本実施形態の映像処理システムは、特定のショット映像を再生する際に、当該特定のショット映像に関連する他のテイクのショット映像(関連ショット映像)に付加されたアノテーション情報によって示唆される注目箇所及びその内容を表示する。これによって、同一ショットにおいて複数のテイクのショット映像が存在する場合に、ユーザは当該特定のショット映像における注目点を視認することができ、映像コンテンツを生成する為に用いられるショット映像を従来よりも容易に選択することができる。
また、本実施形態の映像処理システムは、付加された時間及び位置に関する情報が近似又は同一であるアノテーション情報を纏めて表示する。これによって、複数のアノテーション情報が付加された場合であっても、表示画面上で複数のアノテーション情報が重複して表示されることを防ぐとこができる。即ち、複数のアノテーション情報が付加された場合であっても、全てのアノテーション情報を表示する場合と比較して、ユーザによって視認し易い映像処理システムを提供することができる。
尚、本実施形態において映像処理システムは、アノテーション情報が付加された時間及び位置が近似又は同一であるか否かの判定に基づいて、アノテーション情報の統合を行ったが、これに限定されない。即ち、アノテーション情報の時間、位置及び内容(種類)に関する情報のうち少なくとも一つに基づいて、アノテーション情報の統一を行うものであれば構わない。アノテーション情報の内容(種類)とは、例えば図10に示すアノテーション情報の分類や、実施形態3の図15(b)で説明した様なアノテーション情報の分類を示す。即ち、図10の情報1003に示す大分類及び/又は情報1004に示す小分類が、類似又は同一のアノテーション情報を纏めて表示するようにしても構わない。また、図10の情報2に示すGOOD/NGに関する情報が同一のアノテーション情報を纏めて表示するようにしても構わない。また、図15(b)に示すように自テイク/他のテイクに関する情報、又は、GOOD/NGに関する情報に基づいて、同一のカーソルの形状が割り当てられるアノテーション情報を纏めて表示しても構わない。
尚、本実施形態において映像処理システムは、付加された時間及び位置が近似又は同一のアノテーション情報を、付加された時間及び位置が近似又は同時でないアノテーション情報のカーソルと同じ形状のカーソルを用いて表示した。即ち、図3(b)及び図3(c)に示すように表示した。しかしながらこれに限定されず、統合されたアノテーション情報をユーザにとって視認し易いように表示しても構わない。即ち、アノテーション情報を統合して表示する場合に、統合しないで表示する場合と異なるカーソルを用いて表示しても構わない。例えば、統合して表示する場合のカーソルを、統合しないで表示する場合のカーソルと比較して太く表示する、大きく表示する、異なる色を用いて表示する、点滅させて表示する等しても構わない。また、本実施形態において映像処理しシステムは、統合するアノテーション情報について、統合された旨を補助情報として表示しても構わない。
また、本実施形態にて映像処理システムは、特定のショット映像を再生する際に、関連ショット映像に付加されたアノテーション情報を、当該アノテーション情報の時間情報、位置情報、及び内容(種類)に関する情報の少なくともいずれか一つに基づいて統合して表示した。しかしながら、本実施形態の映像処理システムはこれに限定されない。即ち、実施形態2で示したように特定のショット映像を撮影する際に、関連ショット映像に付加されたアノテーション情報を、当該アノテーション情報の時間情報、位置情報、及び内容(種類)に関する情報の少なくともいずれか一つに基づいて統合して表示しても構わない。この場合、タブレット装置104のアノテーション出力部319が行う処理を、撮像装置102の処理部(例えば、図11におけるアノテーション情報重畳部1101)が行っても構わない。
(その他の実施形態)
上述の各実施形態1〜4において映像処理システムは、複数の装置101〜105から構成されるシステムとしたが、これに限定されない。即ち、何れかの装置が他の装置を包含する構成としても良いし、さらには単一の装置によって構成されても構わない。例えば、撮像装置102と蓄積装置103とが単一の装置によって構成されても構わないし、撮像装置102とタブレット装置104とが単一の装置によって構成されても構わない。また、タブレット装置104と編集装置105とが単一の装置によって構成されても構わない。また、タブレット装置104は、表示部321から成る表示装置と、タブレット装置104のその他の処理部から成る制御装置とによって構成されても構わない。
また、上述の各実施形態1〜4において映像処理システムは、撮像装置102を1つ含む構成としたが、これに限定されず、撮像装置102を複数含む映像処理システムにも適応可能である。このような場合、複数の撮像装置102は撮影して得られたショット映像を蓄積装置103に送信し、蓄積装置103は受信したショット映像を蓄積する。そして、蓄積装置103は、タブレット装置104によって選択したショット映像に関連するショット映像を蓄積したショット映像から抽出し、複数の撮像装置102のうち少なくともいずれか及び/又はタブレット装置104に表示しても構わない。
また、上述の各実施形態1〜4において映像処理システムは、アノテーション情報が付加された位置を図6(b)、図8(a)、図13、図15(a)及び図15(b)に示すように、カーソルを用いて示したが、これに限定されない。即ち、図10の情報1005に示すように、アノテーション情報が付加された位置を、「右端」や「中央」等のように範囲で示しても良いし、テキスト等で示してもよい。
また、上述の各実施形態1〜4にて映像処理システムは、特定のショット映像の再生又は撮影時に、当該特定のショットに関連する他のショットに付加されたアノテーション情報を表示するが、当該他のショットをテイク毎に異なる方法で表示しても構わない。例えば、特定のショットに関連するショット映像(同一ショットの他のテイクのショット映像)が複数ある場合に、アノテーション情報に対応するカーソル及び/又はテキストを、テイク毎に異なる色を用いて表示しても構わない。
また、上述の各実施形態1〜4においてタブレット装置104は、撮像装置102から蓄積装置103を介して送信されたプロキシ映像のデータを受信し、表示部321に表示する構成としたがこれに限定されない。例えば、タブレット装置104は、撮像装置102の撮像部304で生成された映像データを受信し、表示部321に表示しても構わない。また、タブレット装置104は、表示部321に表示されたプロキシ映像のデータにアノテーション情報を付加しても構わないし、撮像装置102の撮像部304によって生成された映像データにアノテーション情報を付加しても構わない。また、タブレット装置104は、表示部321にプロキシ映像のデータを表示する場合に、表示されているプロキシ映像のデータと当該プロキシ映像のデータに対応する映像データの両方にアノテーション情報を付加しても構わない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 デジタルクラップボード
102 撮像装置
103 蓄積装置
104 タブレット装置
105 編集装置

Claims (13)

  1. 撮影済みの映像のうち、撮影中の映像と関連する少なくとも一つの関連映像に対応するアノテーション情報を取得する取得手段と、
    前記撮影中の映像と、前記取得手段によって取得された前記関連映像に対応するアノテーション情報とを、表示画面に表示するよう制御する表示制御手段と、
    を有し、
    前記アノテーション情報は、少なくとも前記関連映像中の基準時間に基づく時間情報と、前記関連映像を構成する画像上での位置を示す位置情報を含むものであって、
    前記表示制御手段は、前記撮影中の映像を表示する前記表示画面に、前記取得手段によって取得された前記関連映像に対応するアノテーション情報を表示するタイミングと位置を、前記時間情報と前記位置情報に基づいて制御することを特徴とする映像処理装置。
  2. 前記表示制御手段は、前記取得手段によって取得された前記関連映像に対応するアノテーション情報の種類に基づいて、当該アノテーション情報の表示の形態を決定することを特徴とする請求項に記載の映像処理装置。
  3. さらに、前記撮影中の映像に対応するアノテーション情報を取得する第二の取得手段を有し、
    前記表示制御手段は、前記撮影中の映像を表示する表示画面に、前記撮影中の映像と、前記取得手段によって取得された関連映像に対応するアノテーション情報と、前記第二の取得手段によって取得された撮影中の映像に関連するアノテーション情報とを表示するよう制御することを特徴とする請求項1または2に記載の映像処理装置。
  4. 前記表示制御手段は、前記撮影中の映像に対応するアノテーション情報と、前記関連映像に対応する第二のアノテーション情報とを表示させる場合に、アノテーション情報が前記撮影中の映像に対応するか又は前記関連映像に対応するかを示す情報と、映像の適切性を示す情報とに基づいて、当該アノテーション情報に対応する形状の図形を表示するよう制御することを特徴とする請求項2に記載の映像処理装置。
  5. 前記表示制御手段は、複数のアノテーション情報を表示する場合に、当該複数のアノテーション情報のうち、時間、位置、及び種類のうち少なくとも一つが近似又は同一のアノテーション情報を、統合して表示することを特徴とする請求項1乃至のいずれか一項に記載の映像処理装置。
  6. 前記表示制御手段は、前記取得手段によって取得された前記関連映像に付加されているアノテーション情報の時間情報に基づいて、当該時間情報が示す前記関連映像上のタイミングよりも前のタイミングで当該関連映像に付加されたアノテーション情報を表示することを特徴とする請求項に記載の映像処理装置。
  7. さらに、前記撮影中の映像と前記関連映像のそれぞれの所定の識別情報の時間を示す前記基準時間の情報に基づいて、前記撮影中の映像と前記関連映像との同期処理を施す同期手段を有し、
    前記表示制御手段は、前記同期手段によって同期処理を施された前記関連映像に対応するアノテーション情報を表示するよう制御することを特徴とする請求項1乃至のいずれか一項に記載の映像処理装置。
  8. 前記同期手段は、前記撮影中の映像と前記関連映像のそれぞれの撮影時の特定の音声情報、画像の特徴情報、撮影の設定情報、被写体の位置情報のうち少なくともいずれかに対応する前記基準時間の情報に基づいて、前記撮影中の映像と前記関連映像との同期処理を施すことを特徴とする請求項に記載の映像処理装置。
  9. 前記アノテーション情報は、前記関連映像の処理中にユーザ操作によって前記関連映像に付加されたものであって、
    前記関連映像中の基準時間に基づく時間情報とは、前記関連映像の処理中に前記ユーザ操作を検出したタイミングに対応し、前記関連映像を構成する画像上での位置を示す位置情報とは、前記ユーザ操作を検出した際の前記表示画面上の位置に対応することを特徴とする請求項1乃至8のいずれか1項に記載の映像処理装置。
  10. 撮影済みの映像のうち、撮影中の映像に関連付けられた少なくとも一つの関連映像に対応するアノテーション情報を取得する取得手段と、
    前記撮影中の映像と、前記取得手段によって取得された前記関連映像に対応するアノテーション情報とを表示画面に表示するよう制御する表示制御手段と、
    を有することを特徴とする映像処理装置。
  11. 撮影済みの映像のうち、撮影中の映像と関連する少なくとも一つの関連映像に対応するアノテーション情報を取得する取得工程と、
    前記撮影中の映像と、前記取得工程によって取得された前記関連映像に対応するアノテーション情報とを、表示画面に表示するよう制御する表示制御工程と、
    を有し、
    前記アノテーション情報は、少なくとも前記関連映像中の基準時間に基づく時間情報と、前記関連映像を構成する画像上での位置を示す位置情報を含むものであって、
    前記表示制御工程では、前記撮影中の映像を表示する前記表示画面に、前記取得工程によって取得された前記関連映像に対応するアノテーション情報を表示するタイミングと位置を、前記時間情報と前記位置情報に基づいて制御することを特徴とする映像処理方法。
  12. 撮影済みの映像のうち、撮影中の映像に関連付けられた少なくとも一つの関連映像に対応するアノテーション情報を取得する取得工程と、
    前記撮影中の映像と、前記取得工程によって取得された前記関連映像に対応するアノテーション情報とを表示画面に表示するよう制御する表示制御工程と、
    を有することを特徴とする映像処理方法。
  13. コンピュータを、請求項1乃至請求項1のいずれか一項に記載の映像処理装置の各手段として機能させるためのプログラム。
JP2015110216A 2015-05-29 2015-05-29 映像処理装置、映像処理方法、及びプログラム Active JP6702657B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015110216A JP6702657B2 (ja) 2015-05-29 2015-05-29 映像処理装置、映像処理方法、及びプログラム
US15/150,140 US9860475B2 (en) 2015-05-29 2016-05-09 Video processing apparatus, video processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015110216A JP6702657B2 (ja) 2015-05-29 2015-05-29 映像処理装置、映像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016224687A JP2016224687A (ja) 2016-12-28
JP6702657B2 true JP6702657B2 (ja) 2020-06-03

Family

ID=57399363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015110216A Active JP6702657B2 (ja) 2015-05-29 2015-05-29 映像処理装置、映像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US9860475B2 (ja)
JP (1) JP6702657B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10789726B2 (en) * 2017-03-15 2020-09-29 Rubber Match Productions, Inc. Methods and systems for film previsualization
JP6344731B1 (ja) * 2017-06-27 2018-06-20 Co−Growth株式会社 コンテンツ評価システム
JP7150590B2 (ja) * 2018-12-25 2022-10-11 キヤノン株式会社 電子機器
JP7150591B2 (ja) * 2018-12-25 2022-10-11 キヤノン株式会社 電子機器
GB2594621B (en) * 2018-12-25 2023-02-22 Canon Kk Electronic device
US11403787B2 (en) 2019-10-24 2022-08-02 Baobab Studios Inc. Systems and methods for creating a 2D film from immersive content
US11955144B2 (en) * 2020-12-29 2024-04-09 Snap Inc. Video creation and editing and associated user interface

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09149307A (ja) 1995-09-21 1997-06-06 Nikon Corp ペン入力機能を備える電子カメラ
US6628303B1 (en) * 1996-07-29 2003-09-30 Avid Technology, Inc. Graphical user interface for a motion video planning and editing system for a computer
AU4264701A (en) * 2000-04-05 2001-10-15 Sony United Kingdom Limited Audio and/or video generation apparatus and method of generating audio and/or video signals
JP4404247B2 (ja) 2002-11-22 2010-01-27 ソニー株式会社 映像プログラム制作支援システム,処理装置,映像プログラムの処理方法及びプログラム
US7324069B2 (en) * 2004-05-14 2008-01-29 Pixar Animation review methods and apparatus
JP2006155384A (ja) * 2004-11-30 2006-06-15 Nippon Telegr & Teleph Corp <Ntt> 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
JP4165542B2 (ja) 2005-09-20 2008-10-15 ソニー株式会社 ビデオデータ処理装置,ビデオデータ処理装置の処理方法,プログラム,記録媒体
JP2007304769A (ja) * 2006-05-10 2007-11-22 Fuji Xerox Co Ltd 素材貼付装置
JP4704286B2 (ja) * 2006-07-10 2011-06-15 シャープ株式会社 コンテンツ表示装置、コンテンツ表示方法、プログラム、および記録媒体
JP4469868B2 (ja) * 2007-03-27 2010-06-02 株式会社東芝 説明表現付加装置、プログラムおよび説明表現付加方法
US8200063B2 (en) * 2007-09-24 2012-06-12 Fuji Xerox Co., Ltd. System and method for video summarization
US7782371B2 (en) * 2007-10-16 2010-08-24 Arnold & Richter Cline Technik Gmbh & Co. Betriebs Kg Apparatus for the recording of image data and meta data
JP2010074437A (ja) * 2008-09-17 2010-04-02 Nippon Telegr & Teleph Corp <Ntt> アノテーション付与方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体
US8823744B2 (en) * 2012-03-23 2014-09-02 Bluebeam Software, Inc. Method for indicating annotations associated with a particular display view of a three-dimensional model independent of any display view
US9118886B2 (en) * 2012-07-18 2015-08-25 Hulu, LLC Annotating general objects in video
JP6179889B2 (ja) * 2013-05-16 2017-08-16 パナソニックIpマネジメント株式会社 コメント情報生成装置およびコメント表示装置
JP2015002417A (ja) * 2013-06-14 2015-01-05 キヤノン株式会社 撮影装置およびその制御方法
US11831692B2 (en) * 2014-02-06 2023-11-28 Bongo Learn, Inc. Asynchronous video communication integration system
US10431259B2 (en) * 2014-04-23 2019-10-01 Sony Corporation Systems and methods for reviewing video content
US9959623B2 (en) * 2015-03-09 2018-05-01 Here Global B.V. Display of an annotation representation

Also Published As

Publication number Publication date
US20160353053A1 (en) 2016-12-01
JP2016224687A (ja) 2016-12-28
US9860475B2 (en) 2018-01-02

Similar Documents

Publication Publication Date Title
JP6702657B2 (ja) 映像処理装置、映像処理方法、及びプログラム
JP4760892B2 (ja) 表示制御装置、表示制御方法及びプログラム
CN107018316B (zh) 图像处理装置、图像处理方法以及存储介质
JP2011147109A (ja) 撮像装置及び画像処理装置
KR20100043138A (ko) 화상 처리 장치, 동화상 재생 장치, 이들에서의 처리 방법 및 프로그램
JP2011091571A (ja) 動画像作成装置及び動画像作成方法
JP6238134B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2013007836A (ja) 画像表示装置、画像表示方法及びプログラム
JP2016189544A (ja) 画像撮影装置、画像撮影方法、プログラムおよび記録媒体
US20120229678A1 (en) Image reproducing control apparatus
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP5646582B2 (ja) 撮像装置
JP6602080B2 (ja) 撮影システム及びその制御方法、コンピュータプログラム
KR20180075506A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
JP2010130093A (ja) 撮像装置および撮像装置用プログラム
JP5479149B2 (ja) 画像生成装置
JP2013117908A (ja) 画像処理装置、画像処理方法、および撮像装置
JP2017021254A (ja) 映像処理装置、映像処理方法、及びプログラム
JP6625598B2 (ja) 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム
US20190198058A1 (en) Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system
JP7150590B2 (ja) 電子機器
JP6259006B2 (ja) 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム
JP5932963B2 (ja) 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム
JP5677598B2 (ja) 画像生成装置、画像生成方法、画像生成プログラム及び画像生成システム
CN113261302B (zh) 电子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200507

R151 Written notification of patent or utility model registration

Ref document number: 6702657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151