JP7199886B2 - 画像処理装置、画像処理方法、及び、プログラム - Google Patents

画像処理装置、画像処理方法、及び、プログラム Download PDF

Info

Publication number
JP7199886B2
JP7199886B2 JP2018172675A JP2018172675A JP7199886B2 JP 7199886 B2 JP7199886 B2 JP 7199886B2 JP 2018172675 A JP2018172675 A JP 2018172675A JP 2018172675 A JP2018172675 A JP 2018172675A JP 7199886 B2 JP7199886 B2 JP 7199886B2
Authority
JP
Japan
Prior art keywords
information
image data
video
shooting
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018172675A
Other languages
English (en)
Other versions
JP2020047991A5 (ja
JP2020047991A (ja
Inventor
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018172675A priority Critical patent/JP7199886B2/ja
Priority to PCT/JP2019/028014 priority patent/WO2020054212A1/ja
Publication of JP2020047991A publication Critical patent/JP2020047991A/ja
Priority to US17/194,728 priority patent/US20210203905A1/en
Publication of JP2020047991A5 publication Critical patent/JP2020047991A5/ja
Priority to JP2022205952A priority patent/JP2023033322A/ja
Application granted granted Critical
Publication of JP7199886B2 publication Critical patent/JP7199886B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Description

本発明は、仮想視点映像を生成する画像処理装置に関する。
昨今、複数のカメラを異なる位置に設置して、複数視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点映像を生成する技術が注目されている。上記のようにして複数視点画像から仮想視点映像を生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の映像と比較してユーザに高臨場感を与えることが出来る。
非特許文献1には、複数の視点(カメラ)で対象シーンを撮影した画像から任意の視点位置の画像を合成する方法について記載されている。この中で、Model Based Rendering技術が紹介されている。この方式でも対象を取り囲むように多数のカメラが配置される。この方式によって3次元モデルを復元することで、任意の視点からの映像の合成が可能になるとともに、選手の位置や動きを再現できるのでスポーツ分析にも有用である。
稲本他、「視点位置の内挿に基づく3次元サッカー映像の仮想視点鑑賞システム」映像情報メディア学会 Vol.58 No.4 pp529-539 2004 Rec. ITU-T H.265 V3 (04/2015)
しかしながら、非特許文献1に記載の技術では、仮想視点映像を生成するための映像データはそれぞれの装置内部で管理、保管、処理されるため、当該映像データを相互利用することは困難であった。
本発明は、上記課題に鑑みてなされたものであり、その目的は、仮想視点映像を生成するための映像データの相互利用を容易にすることにある。
本発明の一実施形態に係る画像処理装置は、数の撮像装置により取得される複数の撮像画像のうち少なくとも一つの画像データであって、仮想視点画像の生成に使用される画像データを取得する取得手段と、撮影設定情報、撮影状況情報、撮影対象情報、及び、撮影権利情報のうち少なくとも1つを、所定の情報として、前記取得手段により取得される画像データに付加する付加手段とを有すことを特徴とする
本発明によれば、仮想視点映像を生成するための映像データの相互利用を容易にすることが可能になる。
第1の実施形態における画像処理装置100を含むシステムの構成例を示す構成図である。 第1の実施形態におけるISOBMFFファイルの構造の一例を示す図である。 第1の実施形態におけるEXIFファイルの構造の一例を示す図である。 第1の実施形態におけるFVVI IFDのタグ情報の構成の一例を示す図である。 第1の実施形態における映像ファイル生成処理のフローチャートである。 第1の実施形態における別の映像ファイル生成処理のフローチャートである。 第1の実施形態における画像処理装置100を含むシステムの別の構成例を示す構成図である。 第2の実施形態における画像処理装置400を含むシステムの構成例を示す構成図である。 第2の実施形態におけるH.265符号化方式のビットストリームの構成例を示す図である。 第2の実施形態におけるVUI Parametersの構成例vui_parameters()を示す図である。 第2の実施形態におけるSEI messageの構成例sei_payload()を示す図である。 第2の実施形態におけるfree_viewpoint_video_info(payloadSize)の構成例を示す図である。 第2の実施形態におけるfree_viewpoint_video_info(payloadSize)の構成例を示す図である。 第2の実施形態におけるfree_viewpoint_video_info(payloadSize)の構成例を示す図である。 第2の実施形態におけるfree_viewpoint_video_info(payloadSize)の構成例を示す図である。 第2の実施形態におけるPPSの構造の一例を示す図である。 第2の実施形態におけるpic_free_viewpoint_info()の詳細を示す図である。 第2の実施形態におけるpic_free_viewpoint_info()の詳細を示す図である。 第2の実施形態におけるpic_free_viewpoint_info()の詳細を示す図である。 第2の実施形態におけるビットストリーム生成処理を表すフローチャートである。 第3の実施形態における画像処理装置500を含むシステムの構成例を示す構成図である。 第3の実施形態における表示画面の例を表す図である。 各実施形態における画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
以下、添付の図面を参照して、本発明の実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1の実施形態)
図1は、第1の実施形態における画像処理装置100を含むシステムの構成例を示す。本システムでは、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラを設置し、撮影が行われる。
画像処理装置100は、カメラ101a~z、入力部102、環境情報取得部103、端末104、ファイル生成部105、メタ情報付与部106、出力部107、保存部108を有する。
カメラ101a~zは、被写体を囲むように配置され、同期をとって撮影が行われる。ただし、カメラの台数、配置は限定されない。カメラ101a~zは、ネットワークを介して画像処理装置100の入力部102に接続されている。
入力部102は、カメラ101a~zで撮影された映像データの入力を受け付け、ファイル生成部105に出力する。
端末104は、ユーザから映像データに関するメタ情報の入力を受け付け、入力されたメタ情報をメタ情報付与部106に出力する。入力されるメタ情報は、例えば、撮影設定情報、撮影状況情報、撮影対象情報、及び撮影権利情報の少なくとも1つを含む。メタ情報の詳細は後述する。
環境情報取得部103は、環境情報を取得するセンサー等からなり、例えば、撮影当日の気象情報等を取得し、メタ情報付与部106に出力する。なお、環境情報の取得方法はこれに限定されず、例えば、インターネット等を通じて外部から入手してもよい。
ファイル生成部105は、入力された映像データに対してファイル化に必要なヘッダデータを付与し、映像ファイルを生成する。以下では、ISO/IEC 14496-12(MPEG-4 Part12) ISO base media format(以下、ISOBMFF)規格を例として用い、映像ファイルのフォーマットについて説明する。ただし、映像ファイルのフォーマットはこれに限定されない。
図2は、本実施形態におけるISO BMFFファイルの構成例を示す。
図2(a)において、ISO BMFFファイル200は、ftyp(File Type Compatibility Box)201、moov(Movie Box)202のボックスを含む。また、ISO BMFFファイル200は、meta(metadata)203、mdat(Media Data Box)204のボックスを含む。ボックスftyp201には、ファイルフォーマットの情報が含まれ、例えばファイルがISO BMFFファイルであることや、ボックスのバージョン、映像ファイルを作成したメーカ名称等が記載される。ボックスmoov202には、メディアデータ(映像データ)を管理するための時間軸や、アドレスなどの情報が含まれる。ボックスmeta203には、映像データのメタ情報が含まれる。ボックスmeta203に含まれるメタ情報については後述する。ボックスmdat204には、実際に動画として再生されるメディアデータ(映像データ)が含まれる。
図1に戻り、メタ情報付与部106は、環境情報取得部103や端末104から受け取った情報に基づいて、メタ情報を示すボックスmeta203を生成する。ファイル生成部105は、ボックスmeta203を用いて、映像ファイルにメタ情報を付与することができる。ボックスmeta203の構成例を、以下に示す。
aligned(8) class MetaBox (handler_type)extends FullBox(‘meta‘, version = 0, 0) {
HandlerBox(handler_type) theHandler;
PrimaryItemBox primary_resource; // optional
DataInformationBox file_locations; // optional
ItemLocationBox item_locations; // optional
ItemProtectionBox protections; // optional
ItemInfoBox item_infos; // optional
IPMPControlBox IPMP_control; // optional
ItemReferenceBox item_refs; // optional
ItemDataBox item_data; // optional
Filming_scene_information;// optional
Filming_condition; // optional
Filming_object; // optional
Filming_right_holder; // optionl
Box other_boxes[]; // optional

Filming_scene_informationが撮影設定情報を、Filming_conditionが撮影状況情報を、Filming_objectが撮影対象情報を、Filming_right_holderが撮影権利情報を表す。
撮影設定情報を表すFilming_scene_informationボックスの構成を以下に示す。
Box Type: ‘ffsi‘
Container: Meta box (‘meta‘)
Mandatory: No
Quantity: Zero or one
また、そのシンタックスを以下に示す。
aligned(8) class ItemLocationBox extends FullBox(‘ffsi‘,version,0) {
unsigned int(32) offset_size;
unsigned int(32) length_size;
unsigned int(32) base_offset_size;
if (version == 1)
unsigned int(32) index_size;
else
unsigned int(32) reserved;
unsigned int(16)num_free_viewpoint_original_video_info;
for (i=0; i<num_free_viewpoint_original_video_info; i++)
unsigned char(8) free_viewpoint_original_video_info[i];
unsigned int(32) category_code;
unsigned int(64) filming_date_time_code;
unsigned int(16) num_char_place_name;
for (i=0; i<num_char_place_name;i++)
unsigned char(8) place_name[i];
unsigned int(16) num_char_convention_name;
for (i=0; i<num_char_convention_name;i++)
unsigned char(8) convention_name[i];
unsigned int(16) num_char_event_name;
for (i=0; i<num_char_event_name;i++)
unsigned char(8) event_name[i];
unsigned int(16) num_char_stage_name;
for (i=0; i<num_char_stage_name;i++)
unsigned char(8) stage_name[i];
unsigned int(16) num_char_place_name;
for (i=0; i<num_char_place_name;i++)
unsigned char(8) place_name[i];
unsigned char(8) free_viewpoint_filming_info_code
if (free_viewpoint_filming_info_code && 0x01) { // システム有無
unsigned int(16) num_char_filming_system_info_minus1;
for (i=0; i<=num_char_ filming_system_info_minus1;i++)
unsigned char(8) filming_system_information[i];
} // システム有無
if (free_viewpoint_filming_info_code && 0x02) { // 0x02
unsigned int(16) max_num_target_point_minus1;
unsigned int(16) num_target_point_minus1;
for (i=0; i<=num_target_point_minus1;i++) { // 注視点
unsigned int(16) target_point_name_length;
for (j=0; j<target_point_name_length;j++)
unsigned char(8) target_point_name[i][j];
for (j=0; j<3)
signed int(16) target_point_location[i][j];
unsigned int(16) num_camera_minus1;
unsigned int(16) max_camera_name_length;
unsigned int(16) camera_name_length;
for (j=0; j<=num_camera_minus1;j++){ // カメラ
for (k=0; k<camera_name_length;k++)
unsigned int(16) camera_name[i][j][k];
for (k=0; k<3)
unsigned int(16) camera_location[i][j][k];
for (k=0; k<4)
unsigned int(16) camera_attitude[i][j][k];
unsigned int(16) num_char_camera_type_info;
for (k=0; k<num_char_camera_type;k++)
unsigned char(8) camera_type_information[i][j][k];
unsigned int(16) num_char_lenz_type_info;
for (k=0; k<num_char_lenz_type;k++)
unsigned char(8) lenz_type_information[i][j][k];
unsigned int(16) focus_distance[i][j];
} // カメラ
} // 注視点
} // 0x02
}
上記シンタックスにおいて、offset_size、length_size、base_offset_size、index_size、reservedは上記規格の規格書に記載されており、ボックスの大きさ等に関係する符号である。
num_free_viewpoint_original_video_infoは、仮想視点映像生成に必要な映像データ等に関する情報の文字列の長さを表す符号である。free_viewpoint_original_video_infoは、素材データに関する情報の文字列を格納する配列である。
category_codeは撮影の対象を表すコードであり、スポーツ、エンタメ、監視などの撮影の目的の分類を表す。例えば、スポーツは0x0001、エンタメは0x0002等となる。
filming_date_time_codeは撮影日時を表す符号であり、撮影開始時刻等を表す。撮影日時は、例えば、W3C-DTFのフォーマットで表す。撮影日時は、例えば、西暦年、月、日、時、分、秒、ミリ秒で表す。撮影日時は、例えば、UTC(協定世界時=グリニッジ標準時)との時差(時、分)で表す。filming_date_time_codeは、このような撮影日時を表すビット列に、予備のビットを加えて統合したビット列として符号とする。
num_char_place_nameは、撮影場所を表す文字列の長さを表す符号である。place_nameは撮影場所の名称を表す文字列であり、例えば、“東京サッカースタジアム”といった文字列である。なお、撮影場所の情報は文字列に限定されない。また、言語を表すためのコードを付加してもよい。
num_char_convemtion_nameは、撮影の概要、すなわち、大会や講演の名称等を表す文字列の長さを表す符号である。convention_nameは撮影イベントの名称を表す文字列であり、例えば、“第xxx回オリンピック”といった文字列である。なお、撮影イベントの情報は文字列に限定されない。また、言語を表すためのコードを付加してもよい。
num_char_event_nameは、撮影内容の詳細に関する情報の文字列の長さを表す符号である。撮影内容の詳細とは、例えば、競技種目であったり、ミュージカルやコンサートのような内容の種類であったりする。event_nameは撮影内容の詳細を表す文字列であり、例えば、“サッカー”、“卓球”、“100m背泳ぎ”、”ミュージカル“、“コンサート”、“マジックショー”といった文字列である。
num_char_stage_nameは、撮影対象の段階の詳細に関する情報の文字列の長さを表す符号である。stage_nameは撮影段階の詳細を表す文字列であり、例えば、“予選”、“1回戦”、“準決勝”、”決勝“、“リハーサル”、“本番”、“第xx回講演”といった文字列である。
free_viewpoint_filming_info_codeは、撮影システム等に関する情報を表す符号である。例えば、1ビット目が1であれば、撮影システムに関する情報があり、2ビット目が1であれば、カメラに関する情報があるといったことを表す。
num_char_filming_system_info_minus1は、撮影システムの名称を表す文字列の長さを表す符号である。filming_system_informationは撮影システムの名称を表す文字列である。
max_num_target_point_minus1は、本撮影システムで使用するカメラの向く注視点の数の最大値を表す値である。num_target_point_minus1は本撮影システムで使用するカメラの向く注視点の数を表す符号である。
target_point_name_lengthは、注視点を識別するための名称等を表す文字列の長さを表す符号である。注視点を識別するための名称等を設定しない場合は文字列の長さを0にする。target_point_nameはそれぞれの注視点を識別するための名称等を表す。
target_point_locationは注視点の位置を3次元座標で表すための符号である。
num_camera_minus1は、本撮影システムで使用するカメラの台数を表す符号である。max_camera_name_lengthはそれぞれのカメラを識別するための名称等を付与するための文字列の長さの最大値を表す符号である。camera_name_lengthはカメラを識別するための名称等を表す文字列の長さを表す符号である。camera_nameはカメラを識別するための名称等を表す。また、単にカメラを識別するための番号であってもよい。
camera_locationは当該カメラの位置を3次元の位置で表す。camera_attitudeはカメラの姿勢を表す符号である。
num_char_camera_type_infoはカメラ自体の情報、例えば、会社名や機種名を表す文字列の長さを表す符号である。camera_type_informationはカメラ自体の情報、例えば、会社名や機種名を表す文字列である。
num_char_lenz_type_infoはカメラに装着されているレンズの情報、例えば、会社名や機種名を表す文字列の長さを表す符号である。lenz_type_informationはレンズ自体の情報、例えば、会社名や機種名を表す文字列である。focus_distanceはレンズの撮影時の画角を表すための焦点距離を表す符号である。
次に、撮影状況情報を表すFilming_conditionボックスの構成を以下に示す。
Box Type: ‘ffci‘
Container: Meta box (‘meta‘)
Mandatory: No
Quantity: Zero or one
また、そのシンタックスを以下に示す。
aligned(8) class ItemLocationBox extends FullBox(‘ffci‘,version,0) {
unsigned int(32) offset_size;
unsigned int(32) length_size;
unsigned int(32) base_offset_size;
if (version == 1)
unsigned int(32) index_size;
else
unsigned int(32) reserved;
unsigned int(8) room_code;
signed int(16) illuminant_code;
if (illuminant_code > 0) {
if (illuminant_code == 1 ){
unsigned int(16) sun_direction;
unsigned int(8) sun_altituude;

unsigned int(32) weather_code;
signed int(16) templature_C_value;
unsigned int(8) humidity_value;
unsigned int(8) wind_direction;
unsigned int(8) wind_force;

上記シンタックスにおいて、room_codeは、場所の屋内外等の情報を表す符号である。例えば、その値が0であれば状況が不明であることを表す。また、その値が1であれば屋外であり、2であればドームであり、3であれば屋内であるといったことを表す。
illuminant_codeは、光源に関する情報を表す符号である。例えば、太陽光であれば、その値を1とする。また、蛍光灯などの屋内照明には光源ごとにそのコードを割り当てる。また、その値が0であれば光源に関する情報はないことを表す。
sun_directionは太陽(光源)の方向を表す符号である。例えば、北を0とし、その方位を360度で表す値でも良い。sun_altituudeは太陽の高度を表す値である。例えば、水平方向に対する角度で表すこともできる。
weather_codeは天候を表す符号である。例えば、その値が0であれば晴天を表し、1から10の値は雲量を表してもよい。また、その上の桁に雨や雪などの情報を割り当てても良い。
templature_C_valueは気温を表し、例えば、摂氏で表すものとする。また、気温が計測されていない場合には0xFFFFとすることで、気温が計測されている場合と計測されていない場合を区別することができる。humidity_valueは湿度を%で表す。
wind_directionは風向を表し、例えば、北を0とし、その方位を360度で表した場合の値でもよい。wind_forceは風力を表す値である。または、風速を表しても良い。
次に、撮影対象情報を表すFilming_objectボックスの構成を以下に示す。
Box Type: ‘ffoi‘
Container: Meta box (‘meta‘)
Mandatory: No
Quantity: Zero or one
また、そのシンタックスを以下に示す。
aligned(8) class ItemLocationBox extends FullBox(‘ffoi‘,version,0) {
unsigned int(32) offset_size;
unsigned int(32) length_size;
unsigned int(32) base_offset_size;
if (version == 1)
unsigned int(32) index_size;
else
unsigned int(32) reserved;
unsigned int(16) max_num_object;
unsigned int(16) num_object;
for (i=0; i<=num_object;i++) {
unsigned int(16) num_char_object_info;
for (j=0; j<num_char_object_info;j++)
unsigned char(8) object_information[j][i];

上記シンタックスにおいて、max_num_objectは、撮影された対象の数の最大値を表す値である。num_objectはフレーム単位や、映像のクリップ単位、映像全体を単位として、実際に撮影されている対象の数である。
num_char_object_infoは対象を表す文字列の長さを表す値である。object_informationは対象を表す文字列である。
次に、撮影権利情報を表すFilming_right_holderボックスの構成を以下に示す。
Box Type: ‘ffri‘
Container: Meta box (‘meta‘)
Mandatory: No
Quantity: Zero or one
また、そのシンタックスを以下に示す。
aligned(8) class ItemLocationBox extends FullBox(‘ffri‘,version,0) {
unsigned int(32) offset_size;
unsigned int(32) length_size;
unsigned int(32) base_offset_size;
if (version == 1)
unsigned int(32) index_size;
else
unsigned int(32) reserved;
unsigned int(16) max_num_right_holder;
unsigned int(16) num_right_holder;
for (i=0; i<num_right_holder; i++) {
unsigned int(16) num_char_right_holder;
for (j=0; j<num_char_right_holder_info;j++)
unsigned char(8) right_holder_information[i][j]

上記シンタックスにおいて、max_num_right_holderは、撮影に関する権利を有する個人、団体(以下、権利者と総称する)の数の最大値を表す値である。num_right_holderはフレーム単位や、映像のクリップ単位、映像全体を単位として、実際に権利を有する権利者の数である。
num_char_right_holderは権利者の名称等を表す文字列の長さを表す値である。
right_holder_informationは権利者の名称等を表す文字列である。
以上説明したように、ファイル生成部105は、メタ情報付与部106が生成したボックスmeta203を使用して、ISO BMFFファイル200にメタ情報を付与することができる。
また、図2(b)に示すように、一般的なボックスmeta203の代わりに、専用のボックスを新たに設けてもよい。例えば、fvvi(Free Viewpoint Video Info)205といったボックスタイプを新たに設けることができる。
上記のボックスfvvi205は、映像(シーケンス)全体、複数フレームからなる映像クリップ単位、またはフレーム単位に付与することができる。すなわち、図2(c)に示すように、ボックスfvvi205をボックスmoov202に付与してもよい。また、ボックスmoov202の中にさらなるボックスmoovが含まれている場合には、ボックスfvvi205をその中のボックスmoovに付与してもよい。さらには、図2(d)に示すように、ボックスfvvi205を複数に分けて付与してもよい。
図1に戻り、出力部107は、メタ情報が付加された映像ファイルを外部に出力する。保存部108は、メタ情報が付加された映像ファイルを記憶媒体に保存する。
なお、ファイルフォーマットはISO BMFFに限定されない。例えば、静止画を格納する「カメラ映像機器工業会規格 DC-008-2012 デジタルスチルカメラ用画像ファイルフォーマット規格 Exif2.3」(以下、Exif規格)を用いることも可能である。図3は、本実施形態におけるExif規格を用いたファイル(EXIFファイル)のフォーマットの例を示す。ファイルフォーマット300では、仮想視点映像に関するメタ情報が、Free Viewpoint Video Information Image File Directory(以下、FVVI IFD)301として定義される。FVVI IFD301は、撮影設定情報、撮影状況情報、撮影対象情報、撮影権利情報を格納している。図4は、本実施形態におけるFVVI IFD301のタグ情報の構成の一例を示す。FVVI IFD301には、上述したISO BMFFの各符号がそれぞれのタグに格納されている。
図5は、本実施形態における映像ファイル生成処理のフローチャートを示す。フローチャートに示される一連の処理は、後述するように、画像処理装置100のCPU801がROM803に格納されている制御プログラムをRAM802に読み込み、実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。各処理の説明における記号「S」は、当該フローチャートにおけるステップを意味する。その他のフローチャートについても同様である。
まず、S1000において、メタ情報付与部106は、端末104からユーザが入力した撮影設定情報を取得する。撮影設定情報は、撮影場所、撮影日時、イベント内容、カメラ情報の少なくとも1つを含む。また、カメラ情報は、カメラの注視点の位置、カメラの台数、カメラの配置、カメラの姿勢、焦点距離の少なくとも1つを含む。
S1001において、メタ情報付与部106は、端末104からユーザが入力した撮影権利情報を取得する。撮影権利情報は、撮影に関する権利者の情報を含む。
S1002において、メタ情報付与部106は、端末104からユーザが入力した撮影対象情報を取得する。撮影対象情報は、撮影される対象に関する情報、例えば、選手名やチーム内の役割を含む。すなわち、撮影対象情報は、撮影される対象の名称、対象群の名称の少なくとも1つを含む。
S1003において、メタ情報付与部106は、環境情報取得部103から、環境情報取得部103が取得した撮影状況情報、例えば、光源、気温、湿度、風向、風力の情報を取得する。すなわち、撮影状況情報は、撮影時の気象情報を含む。
なお、S1000からS1003の順序は限定されるものではなく、任意の順序でよい。また、S1000からS1003のうちの少なくとも1つのステップを実行して、撮影設定情報、撮影権利情報、撮影対象情報、及び撮影状況情報のうちの少なくとも1つをメタ情報付与部106が取得するようにしてもよい。
S1004において、ファイル生成部105は、映像ファイルのヘッダデータを生成する。例えば、ファイル生成部105は、ISO BMFFではボックスftyp201を生成し、Exifでは、0thIFDを生成する。生成されたヘッダデータはメタ情報付与部106に入力され、ファイル生成部105でファイルに格納される。
S1005において、メタ情報付与部106は、取得された撮影設定情報、撮影権利情報、撮影対象情報、撮影状況情報の少なくとも1つをメタ情報として、ファイルに付与する。ファイル生成部105は、付与されたメタ情報をファイルに格納する。なお、メタ情報は、ISO BMFFではボックスmetaやボックスffviを使用して付与される。また、ExifではFVVI IFDを使用して付与される。
S1006において、入力部102は、カメラ101a~zから映像データの入力を受け付け、ファイル生成部105に入力する。
S1007において、ファイル生成部105は、入力部102を介して入力された映像データをファイルに格納する。例えば、ISO BMFFでは、ファイル生成部105は、映像データをボックスmdatとして、必要な符号を付与してファイルに格納する。また、Exifでは、ファイル生成部105は、映像データをImage Dataとしてファイルに格納する。さらに、映像データを格納したファイルは、出力部107で外部に出力されたり、保存部108で保存されたりする。なお、ファイル生成部105は、映像データを符号化してもよい。
S1008において、カメラ101a~zからの映像データの入力が終了したり、端末104から終了の指示が入力されたりした場合には、処理を終了する。そうでない場合はS1006に戻り、次の映像データの処理を行う。
以上説明したように、本実施形態における映像ファイル生成処理が行われる。本実施形態によると、ISOBMFFやExifを利用して、映像データにメタ情報を付与し、映像ファイルを生成することができる。
図6は、本実施形態における別の映像ファイル生成処理のフローチャートを示す。以下では、時刻ごとに変化する撮影状況情報をフレーム単位で映像データに付与する例を説明する。なお、図5のフローチャートにおけるステップと同じ処理が実行されるステップについては同じ番号を付し、詳細な説明は省略する。
図6のフローチャートでは、S1006で入力部102が映像データをファイル生成部105に出力すると、S1013に進む。
S1013において、メタ情報付与部106は、環境情報取得部103から撮影状況情報、例えば、光源、気温、湿度、風向、風力を取得する。
S1014において、メタ情報付与部106は、取得した撮影状況情報からメタ情報を生成し、映像ファイルに付与する。メタ情報は、ISO BMFFではボックスmetaやボックスffviを使用して映像ファイルに付与することができる。また、ExifではFVVI IFDを使用して付与することができる。
このように、図6に示した映像ファイル生成処理では、時刻ごとに変化する撮影状況情報をフレーム単位で付与することができる。また、別のメタ情報もフレーム単位で付与してもよい。例えば、カメラが被写体に追従して動くシステムにおいては、その注視点が移動することになり、これを撮影設定情報として映像ファイルに付与することができる。また、撮影対象情報は、映像に移っている対象のみに限定してフレーム単位で付与することができる。
以上説明したように、本実施形態によると、生成した映像ファイルを共通の映像ファイルとして相互利用できるようにして、撮影設定情報、撮影権利情報、撮影対象情報、撮影状況情報のうち少なくとも1つをメタ情報として付与することができる。これにより、映像データの検索、取得を効率よく行うことができる。
なお、本実施形態における画像処理装置100は、図1で説明した物理的な構成に限定されず、論理的に構成されてもよい。
また、本実施形態では、データを暗号化して保存してもよい。その場合、データが暗号化されているか否かを判別する符号を含んでもよい。
また、本実施形態では、撮影設定情報のうちカメラの設置情報を、ファイル生成部105が、例えばカメラ101a~zのそれぞれから、カメラのID等の番号と共に映像データと合わせて入力部102を介して取得してもよい。
また、本実施形態では、ファイル生成部105は、入力された映像データをそのままファイルに格納したが、符号化して格納するようにしてもよい。
また、本実施形態では、メタ情報付与部106は、入力されたメタ情報をそのままファイルに格納したが、符号化して格納してもよい。
また、図7に示すように、3Dモデル生成部110が仮想視点映像を生成するために必要な処理を行った映像ファイルにメタ情報を付与してもよい。なお、同図において、図1と同様の構成要素については同じ番号を付し、説明を省略する。例えば、3Dモデル生成部110は、入力部102から入力された複数の映像データから対象が映っている領域をそれぞれ切り出し、3Dモデルを生成する。ファイル生成部115は、入力部102から入力された映像データに加えて、3Dモデル生成部110から取得した3Dモデルを映像ファイルに加える。また、ファイル生成部115は、3Dモデル単位のメタ情報(撮影対象情報)をメタ情報付与部106から取得し、映像ファイルに付与する。このように、本実施形態では、3Dモデルを利用する場合にも、仮想視点映像の生成時や表示時に簡単に撮影対象情報を多重化して表示することが可能になる。
(第2の実施形態)
第2の実施形態では、メタ情報を用いて映像データを検索し、検索結果を用いて仮想視点映像を生成する画像処理について説明する。
図8は、本実施形態における画像処理装置400を含むシステムの構成例を示す。画像処理装置400は、外部の保存装置401に接続されている。保存装置401は、例えば第1の実施形態の図1に記載されている保存部108と同じように、メタ情報が付与された映像ファイルを格納している。本実施形態は、説明を容易にするために、ISOBMFFで記述された映像ファイルを例として説明する。
画像処理装置400は、インターフェース(I/F)部402、端末403、メタ情報比較部404、ファイル選択部405を有する。さらに、画像処理装置400は、ファイル解析部406、メタ情報バッファ407、仮想視点映像生成部408、メタ情報付与部409、出力部410、保存部411を有する。画像処理装置400は、保存装置401から所望の映像データを読出し、仮想視点映像を生成する。
端末403は、ユーザから、仮想視点映像を生成するための映像データに関する検索条件の入力を受け付ける。端末403は、例えば、「○○大会の決勝戦のデータ」といったキーワードを検索条件として受け付ける。端末403は、受け付けたキーワードをメタ情報比較部404に入力する。
端末403から検索の開始が発せられると、I/F部402は、保存装置401に格納されている映像ファイルのヘッダデータから、ボックスmeta203のデータ(すなわち、メタ情報)を映像ファイル単位で読み込む。読み込まれたボックスmeta203のデータは、メタ情報比較部404に入力される。
メタ情報比較部404は、I/F部402から入力されたメタ情報と、端末403から入力されたキーワードを比較する。メタ情報比較部404は、キーワードに合致するメタ情報がある場合、ファイル選択部405に、当該メタ情報を有する映像ファイルの情報、例えば、ファイルパスやファイル名を通知する。
ファイル選択部405は、通知された映像ファイルの情報に基づいて仮想視点映像の生成に使用する映像ファイルを選択し、I/F部402を介して保存装置401にアクセスする。保存装置401は、アクセスにしたがって選択された映像ファイルを読出し、I/F部402を介して、ファイル解析部406に入力する。
ファイル解析部406は入力された映像ファイルを解析し、映像ファイルからメタ情報を分離して、分離したメタ情報をメタ情報バッファ407に格納し、仮想視点映像の生成に必要な映像データを仮想視点映像生成部408に入力する。
仮想視点映像生成部408は、入力された映像データを使用して、ユーザによって指定された仮想視点からの映像(すなわち、仮想視点映像)を生成する。仮想視点映像生成部408は、生成された仮想視点映像を符号化する。ここでは、H.265符号化方式を用いて符号化する例を説明するが、これに限定されない。例えば、H.264や、MPEG-1,2、4などの符号化方式でもよい。MPEG-1,2、4では例えば、user_data()に格納してもよいし、新たなヘッダを定義してもよい。H.265符号化方式で符号化された仮想視点映像のビットストリームは、メタ情報付与部409に入力される。
メタ情報付与部409は、メタ情報バッファ407に格納された元の映像データのメタ情報を読出し、入力されたビットストリームに付与する。また、メタ情報付与部409は、生成された映像ファイル(ビットストリーム)が仮想視点映像であることを示すメタ情報を追加して付与する。さらには、メタ情報付与部409は、仮想視点映像を生成したシステムの情報やその権利者に関する情報も付加することができる。
出力部410は、メタ情報が付与された仮想視点映像のビットストリームを外部に出力する。保存部411は、メタ情報が付与された仮想視点映像のビットストリームを記憶媒体に保存する。
図9は、本実施形態におけるH.265符号化方式で符号化されたビットストリーム900の構成例を表す図である。
ビットストリーム900は、先頭にシーケンス全体を表すシーケンスヘッダ(seq_parameter_set_rbsp()、以下SPS)901を含む。SPS901の中には、画像に対して便利な情報を付与するVUI(Video Usability Information) Parameters902が含まれる。図10は、本実施形態におけるVUI Parameters902の構成例vui_parameters()を示す。なお、aspect_ratio_info_present_flg符号からlog2_max_mv_length_vertical符号までの詳細な説明は、非特許文献2に記載されているので省略する。本実施形態では、log2_max_mv_length_vertical符号に続けて、以下の符号が付与される。
free_viewpoint_video_flag符号は本ビットストリームが仮想視点映像であるか否かを表すフラグである。その値が1であれば、本ビットストリームの映像は仮想視点映像であることを示し、0であれば、通常のカメラ等で撮影された映像であることを示す。なお、本実施形態が適用されないビットストリームではこのフラグは存在しないので、その場合はその値は0とされる。
free_viewpoint_original_video_info_flag符号は本ビットストリームの仮想視点映像を生成した元の素材となる映像データが存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した素材となる映像データが存在することを示し、0であれば、その素材となる映像データが無いか、あるいはアクセスできないことを表す。
free_viewpoint_filming_scene_info_flag符号は本ビットストリームの仮想視点映像を生成した元の素材となる映像データの撮影時の設定に関する撮影設定情報に関するメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の撮影設定情報がメタ情報として存在することを示す。0であれば、そのメタ情報は存在しないことを表す。
free_viewpoint_filming_condition_info_flag符号は本ビットストリームの仮想視点映像を生成した元の素材となる映像データ撮影時の状況に関する撮影状況情報のメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の撮影状況情報がメタ情報として存在することを示す。0であれば、そのメタ情報は存在しないことを表す。
free_viewpoint_filmed_object_info_flag符号は本ビットストリームの仮想視点映像を生成した元の素材となる映像データの撮影時の対象に関する撮影対象情報に関するメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の撮影対象情報がメタ情報として存在することを示す。0であれば、そのメタ情報は存在しないことを表す。
free_viewpoint_right_holder_info_flag符号は本ビットストリームの仮想視点映像を生成した元の素材となる映像データの撮影時の権利者に関する撮影権利情報に関するメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の撮影権利報がメタ情報として存在することを示す。0であれば、そのメタ情報は存在しないことを表す。
図9に戻り、本実施形態におけるビットストリーム900は、さらに、付加拡張情報(Supplemental enhancement information:以下、SEIと略す)message903を含むことができる。図11は、本実施形態におけるSEI message903の構成例sei_payload()を示す。その種類(payloadType)とその大きさ(payloadSize)によって内容が決定される。なお、alternative_depth_info(payloadSize)までの詳細は、非特許文献2の7.3.5章 Supplemental enhancement information message syntaxを参照されたい。
本実施形態では、メタ情報のpayloadTypeを「201」と定義する。payloadTypeが「201」の場合に、free_viewpoint_video_info(payloadSize)によって、payloadSizeが表す大きさのメタ情報が読み出される。
図12~図15は、free_viewpoint_video_info(payloadSize)の構成例を表す。本実施形態では、ISO BMFFに記載された符号と同じ符号は同様の意味を持つので、詳細な説明は省略する。
図12は、free_viewpoint_video_info(payloadSize)の符号のうち、以下の符号を示す。
free_viewpoint_original_video_info_flag符号は、図10に示した上記VUI Parameters902の同名の符号と同様に機能する。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データが存在することを示し、0であれば、その素材となる映像データが無いか、あるいはアクセスできないことを表す。その値が0であれば、num_free_viewpoint_original_video_info_minus1符号や、free_viewpoint_original_video_info符号は省略される。
free_viewpoint_filming_scene_info_flag符号は、図10に示した上記VUI Parameters902の同名の符号と同様に機能する。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の設定に関する撮影設定情報に関するメタ情報が存在することを示す。その値が0であれば、続くcategory_code以下の撮影設定情報は存在しない。なお、図面を簡易にするため図12では、num_char_place_name_minus1以下の撮影設定情報に関するメタ情報は省略されている。
free_viewpoint_filming_condition_info_flag符号は、図10に示した上記VUI Parameters902の同名の符号と同様に機能する。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の状況に関する撮影状況情報に関するメタ情報が存在することを示す。その値が0であれば、続くilluminant_code以下の撮影状況情報は存在しない。
図13及び図14は、free_viewpoint_video_info(payloadSize)の符号のうち、図12に示した符号に続く以下の符号を示す。
free_viewpoint_filmed_object_info_flag符号は、図10に示した上記VUI Parameters902の同名の符号と同様に機能する。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の対象に関する撮影対象情報に関するメタ情報が存在することを示す。その値が0であれば、続くmax_num_object_minus1以下の撮影対象情報は存在しない。なお、図面を簡易にするため図13では、object_information以下の撮影対象情報に関するメタ情報は省略されている。
free_viewpoint_filming_right_holder_info_flag符号は、図10に示した上記VUI Parameters902の同名の符号と同様に機能する。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時の権利者に関する撮影権利報に関するメタ情報が存在することを示す。その値が0であれば、続くmax_num_right_holder_minus1以下の撮影権利情報は存在しない。
free_viewpoint_filming_camera_info_flag符号は本ビットストリームの仮想視点映像の素材となる映像データを撮影した時のカメラの設定に関する撮影設定情報に関するメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる映像データを撮影した時のカメラの設定に関する撮影設定情報がメタ情報として、存在することを示す。0であれば、そのメタ情報は存在しないことを表す。すなわち、free_viewpoint_filming_system_info_flag以下の符号は存在しない。
free_viewpoint_filming_system_info_flag符号は本ビットストリームの仮想視点映像の素材となる映像データを撮影した時のシステムに関する撮影設定情報に関するメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した元の素材となる撮影した時のシステムに関する撮影設定情報がメタ情報として、存在することを示す。0であれば、そのメタ情報は存在しないことを表す。すなわち、num_char_filming_system_info_minus1以下の符号は存在しない。
図15は、free_viewpoint_video_info(payloadSize)の符号のうち、図14に示した符号に続く以下の符号を示す。
free_viewpoint_pruduct_info_flag符号は本ビットストリームの仮想視点映像を生成した時に関する生成設定情報に関するメタ情報が存在するか否かを表すフラグである。生成設定情報は、生成したシステムや生成された映像データの権利者に関する情報を含むが、これに限定されない。その値が1であれば、本ビットストリームの仮想視点映像を生成した時の生成設定情報がメタ情報として存在することを示す。0であれば、そのメタ情報は存在しないことを表す。すなわち、free_viewpoint_product_system_info_flag以下の符号は存在しない。
free_viewpoint_product_system_info_flag符号は本ビットストリームの仮想視点映像を生成した時に使用したシステムに関するメタ情報が存在するか否かを表すフラグである。この値が1であれば、本ビットストリームの仮想視点映像を生成した時の生成システム情報がメタ情報として存在することを示す。0であれば、そのメタ情報は存在しないことを表す。すなわち、num_char_product_system_info_minus1以下の符号は存在しない。
num_char_product_system_info_minus1は、仮想視点映像を生成したシステムの名称を表す文字列の長さを表す符号である。
product_system_informationは、仮想視点映像を生成したシステムの名称を表す。なお、仮想視点映像を生成したシステムに関する情報は名称に限定されず、型番やバージョンであっても良い。
free_viewpoint_product_right_holder_info_flag符号は本ビットストリームの仮想視点映像を生成した時の権利者に関する生成権利情報に関するメタ情報が存在するか否かを表すフラグである。その値が1であれば、本ビットストリームの仮想視点映像を生成した時の権利者に関する生成権利情報に関するメタ情報が存在することを示す。その値が0であれば、続くmax_num_product_right_holder_minus1以下の生成権利情報は存在しない。
max_num_product_right_holder_minus1は、仮想視点映像生成に関する権利を有する権利者の数の最大値を表す値である。num_product_right_holder_minus1は、フレーム単位や、映像のクリップ単位、または映像全体を単位として、実際に権利を有する権利者の数を表す。
num_char_product_right_holder_info_minus1は、仮想視点映像生成に関する権利者の名称等を表す文字列の長さを表す値である。
product_right_holder_informationは、仮想視点映像生成に関する権利者の名称等の文字列を表す。
図9に戻り、実際の仮想視点映像の映像データの符号が続き、ビットストリームを完結する。
図20は、本実施形態におけるビットストリーム生成処理のフローチャートを示す。
S2000において、メタ情報比較部404は、端末403から、ユーザが入力した検索条件であるキーワードを取得する。
S2001において、I/F部402は、保存装置401に格納された映像ファイルのヘッダデータから、ボックスmeta203のデータ(すなわち、メタ情報)を映像ファイル単位で取得する。取得したデータは、メタ情報比較部404に入力される。
S2002において、メタ情報比較部404は、I/F部402から入力されたメタ情報と端末403から取得したキーワード(すなわち、検索条件)を比較する。メタ情報比較部404は、キーワードに合致するメタ情報がある場合、ファイル選択部405に当該メタ情報を有する映像ファイルの情報を通知する。
S2003において、ファイル選択部405は、通知された映像ファイルの情報に基づいて仮想視点映像の生成に使用する映像ファイルを選択し、I/F部402を介して保存装置401にアクセスする。保存装置401は、アクセスにしたがって選択された映像ファイルを読出し、I/F部402を介してファイル解析部406に入力する。
S2004において、ファイル解析部406は、入力された映像ファイルを解析してメタ情報を分離し、分離したメタ情報をメタ情報バッファ407に格納する。また、ファイル解析部406は、入力された映像ファイルの映像データを仮想視点映像生成部408に入力する。
S2005において、メタ情報付与部409は、メタ情報バッファ407に格納された元の映像のメタ情報を読出し、ビットストリームのヘッダに付与する。
S2006において、仮想視点映像生成部408は、ユーザ等から指定された仮想視点からの映像(すなわち、仮想視点映像)を生成する。
S2007において、仮想視点映像生成部408は、生成された仮想視点映像を符号化し、ビットストリームに格納する。
S2008において、映像データの入力が終了したり、端末403から終了の指示が入力されたりした場合に処理を終了する。そうでなければS2006に戻り、次の映像データを処理する。
以上説明したように、本実施形態によると、仮想視点映像を共通のビットストリームとして相互利用できるようにして、撮影設定情報、撮影権利情報、撮影対象情報、撮影状況情報のうち少なくとも1つをメタ情報として付与することができる。これにより、仮想視点映像の検索、取得を効率よく行うことができる。また、ビットストリームが仮想視点映像であるか否かの情報を付与することで、仮想視点映像を対象とした検索機能も実現が可能になる。
なお、複数の映像ファイルを保存装置401から読み出して仮想視点映像を生成した場合、各映像ファイルに対応する仮想視点映像にそれぞれのメタ情報を付与しても良いし、複数の映像ファイルのメタ情報をまとめて1つのメタ情報として付与してもよい。
また、第1の実施形態の図6のフローチャートのように、フレーム単位でメタ情報を付与することも可能である。例えば、フレーム単位を表すピクチャのヘッダに映像データが仮想視点映像であるか否かの情報を付与することも可能である。
図9に戻り、本実施形態におけるビットストリーム900は、ピクチャのヘッダ(pic_parameter_set_rbsp()、以下PPS)904を含むことができる。図16は、本実施形態におけるPPS904の構造の一例を示す。
pic_free_viewpoint_info_flag符号は、ピクチャ単位で、仮想視点映像の撮影、生成に関するメタ情報があるか否かを表す。その値が1であれば、pic_free_viewpoint_info()に仮想視点映像の撮影、生成に関するメタ情報が含まれていることを示す。図17~図19は、本実施形態におけるpic_free_viewpoint_info()の詳細を示す。基本的には、図12~図15の内容をフレームごとに設定できるように、フレーム単位で判定が必要なフラグに関してはpic_の接頭詞を付与して、同じ内容を符号化してビットストリームに付与される。これらによってフレーム単位でメタ情報の更新が可能になる。
また、各フレームに付与されるpic_free_viewpoint_info_flag符号を、シーケンスや複数フレームで構成されるチャプタのような単位で纏めてVUI parameterの部分に含めても良い。それにより、シーケンス内の一部が仮想視点映像であった場合、各フレームを復号しなくても当該情報を取得することができる。
また、本ビットストリームをボックスmdatに格納してISO BMFFファイルを構成してもよい。
(第3の実施形態)
本実施形態では、メタ情報によるビットストリームの検索を行い、検索結果を表示する画像処理装置について説明する。
図21は、本実施形態における画像処理装置500を含むシステムの構成例を示す。画像処理装置500は、外部の保存装置550、及び保存装置551に接続されている。保存装置550は、例えば、第2の実施形態の図8に記載されている保存装置401と同じように、仮想視点映像を生成するために必要な映像ファイルを格納している。保存装置551は、例えば、第2の実施形態の図8に記載されている保存部411と同じように、仮想視点映像の映像ファイルやビットストリームを格納している。本実施形態では、保存装置550に格納された映像ファイルから生成された仮想視点映像を、H.265符号化方式で符号化したビットストリームを例にとって説明する。
画像処理装置500は、インターフェース(I/F)部502、メタ情報比較部505、データ選択部506、ビットストリーム解析部507、メタ情報バッファ508、復号部509、表示部520を有する。画像処理装置500は、保存装置550から所望の映像ファイルを読出し、表示を行うとともに、別途、仮想視点映像を表示する。
端末503は、ユーザから、仮想視点映像のビットストリームに関する検索条件(例えば、キーワード)の入力を受け付け、メタ情報比較部505に出力する。
端末503から検索の開始が発せられると、I/F部502は保存装置551から、ビットストリームのヘッダ情報とメタ情報を読出し、メタ情報比較部505に入力する。さらに、本実施形態で生成されていない他のH.265符号化方式で符号化されたビットストリームも含まれるものとする。
メタ情報比較部505は、I/F部502から入力されたメタ情報と、端末503から入力されたキーワードを比較する。メタ情報比較部505は、端末503から入力されたキーワードに合致するメタ情報が存在する場合、データ選択部506に、当該メタ情報を有するビットストリームの情報、例えば、データパスやビットストリーム名を通知する。
データ選択部506は、通知されたビットストリームの情報に基づいて、表示するビットストリームを選択し、I/F部502を介して保存装置551にアクセスする。保存装置551は、アクセスにしたがって目的のビットストリームを読出す。読み出されたビットストリームはI/F部502を介して、ビットストリーム解析部507に入力される。
ビットストリーム解析部507は、入力されたビットストリームのヘッダを復号して解析し、ヘッダからメタ情報を分離して、メタ情報バッファ508に格納する。また、ビットストリーム解析部507は、映像データのビットストリームを復号部509に入力する。復号部509は、入力されたビットストリームを復号して、表示部520に入力する。また、復号部509は、選択されたビットストリームが複数存在する場合はそれぞれのビットストリームを復号し、表示部520に入力する。表示部520は、復号された1または複数のビットストリームを表示する。
また、ビットストリーム解析部507は、分離したメタ情報から当該映像データが仮想視点映像であることが判明した場合、これを表示部520に通知する。表示部520は通知に応じて、表示されている映像が仮想視点映像であることを表示する。
図22は、本実施形態における表示部520の表示画面を示す。表示画面600において、ユーザは端末503を用いて、検索条件となるキーワードをキーワードウィンドウ603a~cに入力し、検索ボタン604を押下して映像(ビットストリーム)の検索を行う。
表示部520は、検索結果として選択された複数の映像601a~dを、候補ウィンドウ602に表示する。さらに、表示部520は、候補ウィンドウ602に表示されている複数の映像の中から、ユーザが端末503を用いて選択した1つの映像を、表示ウィンドウ605に表示する。表示ウィンドウ605は表示バー606を有する。表示バー606は、フレーム単位で当該映像が仮想視点映像である部分を太線で示す。映像が仮想視点映像であるか否かは、ストリーム単位ではVUI Parameters902のfree_viewpoint_video_flag符号の有無や、SEI_message903を参照することで判断することができる。また、フレーム単位ではPPS904のpic_free_viewpoint_info_flag符号の値で判断することができる。
映像のうち、仮想視点映像である部分が再生される場合、表示部520は表示ウィンドウ605に、表示されている映像が仮想視点映像であることを示すマーカ607を表示する。マーカ607は、候補ウィンドウ602において、複数の映像601a~dのうち、仮想視点映像を含むものに表示してもよい。
以上説明したように、本実施形態における画像処理装置500は、メタ情報によるビットストリームの検索を行い、検索結果を表示することができる。
また、本実施形態における画像処理装置500を含むシステムでは、検索結果として表示中の映像について、ユーザの指示に応じて再度、メタ情報を用いて仮想視点映像の生成を行うことができる。データ選択部506は、仮想視点映像を再生成する映像データに対応するメタ情報を、メタ情報バッファ508から読み出す。データ選択部506は、ビットストリームのfree_viewpoint_original_video_info_flag符号の値を参照し、本ビットストリームの仮想視点映像を生成した素材となる映像データが存在するか判定する。上述したように、free_viewpoint_original_video_info_flag符号の値が1であれば、素材となる映像データが存在することを示し、0であれば、素材となる映像データが無いか、あるいはアクセスできないことを示す。映像データが存在する場合、free_viewpoint_original_video_info_flag符号やpic_free_viewpoint_original_video_info符号を参照して、映像データの保存場所を特定する。
データ選択部506は、I/F部502を介して保存装置550の特定された保存場所にアクセスし、仮想視点映像を生成した素材となる映像データを読出し、画像処理装置400に入力する。画像処理装置400は、入力された映像データを使用して仮想視点映像を再生成し、I/F部502を介して画像処理装置500に入力する。すなわち、画像処理装置400は、図8のI/F部402を介して入力された映像データを使用して、仮想視点映像を再生成する。また、画像処理装置400は、生成した仮想視点映像のビットストリームを出力部410を介して、図21のI/F部502に入力する。画像処理装置500は、入力されたビットストリームをビットストリーム解析部507、復号部509によって処理し、表示部520に表示する。
なお、上記実施形態では、画像処理装置500が、素材となる映像データを取得して画像処理装置400に入力したが、画像処理装置500は、画像処理装置400に映像データの保存場所を通知するだけでもよい。その場合、画像処理装置400が当該保存場所に保存された映像データを取得して、仮想視点映像を再生成することができる。
このように、本実施形態における画像処理装置500を含むシステムでは、検索結果として表示中の映像について、仮想視点映像を再生成することができる。
以上説明したように、本実施形態によると、仮想視点映像を共通のビットストリームとして利用できるようにして、付与された撮影設定情報、撮影権利情報、撮影対象情報、撮影状況情報、生成設定情報のうち少なくとも1つを検索に用いることができる。これにより、メタ情報による仮想視点映像のビットストリームの検索を効率よく行うことができる。また、本実施形態によると、検索結果として表示中の映像について、再度、仮想視点映像を生成することができる。
図23は、上記各実施形態に係る画像処理装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。
CPU801は、RAM802やROM803に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る画像処理装置の各処理を実行する。即ち、CPU801は、上述した画像処理装置の各処理部として機能する。
RAM802は、外部記憶装置806からロードされたコンピュータプログラムやデータ、I/F(インターフェース)807を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM802は、CPU801が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM802は、例えば、画像データを記憶するためのフレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
ROM803は、コンピュータの設定データや、ブートプログラムなどを格納している。操作部804は、キーボードやマウスなどを含む。ユーザは、操作部804を用いて、各種の指示をコンピュータに入力することができる。出力部805は、CPU801による処理結果を表示する。出力部805は、例えば液晶ディスプレイとすることができる。
外部記憶装置806は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置806は、OS(オペレーティングシステム)や、上述した画像処理装置の各処理部の機能をCPU801に実現させるためのコンピュータプログラムを保存している。更に、外部記憶装置806は、処理対象としての画像データを保存しても良い。
外部記憶装置806に保存されているコンピュータプログラムやデータは、CPU801による制御に従って適宜、RAM802にロードされ、CPU801によって処理される。I/F807は、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器と接続するために使用される。コンピュータは、I/F807を介して様々な情報を取得したり、送出したりすることができる。バス808は、上述したコンピュータの各構成要素を相互に通信可能に接続する。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、上述した実施形態で説明したメタ情報を示す符号をデータ名として利用してもよい。例えば、ファイル名を、いくつかのメタ情報を「_」で結んだ名称に統一することで、データの検索を行うことができる。例えば、データ名として用いるメタ情報は、filming_date_time_code、convention_name、event_name、stage_name、free_viewpoint_filming_info_code等である。
100 画像処理装置
101a~101z カメラ
102 入力部
103 環境情報取得部
104 端末
105 ファイル生成部
106 メタ情報付与部
107 出力部
108 保存部

Claims (19)

  1. 数の撮影装置により取得される複数の撮影画像のうち少なくとも一つに基づく画像データであって、仮想視点画像の生成に使用される画像データを取得する取得手段と、
    撮影設定情報、撮影状況情報、撮影対象情報、及び、撮影権利情報のうち少なくとも1つを、所定の情報として、前記取得手段により取得される画像データに付加する付加手段と
    有することを特徴とする画像処理装置。
  2. 前記付加手段は、前記所定の情報を、前記取得手段により取得される画像データに含まれる複数のフレームのそれぞれに付加することを特徴とする請求項1に記載の画像処理装置。
  3. 前記付加手段は、前記所定の情報を、前記取得手段により取得される画像データに基づいて生成される複数の次元モデルのそれぞれ付加することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記付加手段により前記所定の情報が付加された前記画像データを出力する出力手段を有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記画像データを検索するための検索条件を受け付ける受付手段を有し
    前記出力手段は、前記受付手段により受け付けられた検索条件に対応する前記所定の情報が付加された前記画像データを出力する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 複数の撮影装置により取得される複数の撮影画像のうち少なくとも一つに基づく画像データであって、所定の情報として、撮影設定情報、撮影状況情報、撮影対象情報、及び、撮影権利情報のうち少なくとも1つが関連付けられた画像データを取得する取得手段と、
    前記取得手段により取得される画像データに基づいて、仮想視点画像データを生成する生成手段と、
    前記生成手段により生成される仮想視点画像データに関連付けられた前記所定の情報を、前記生成手段により生成される仮想視点画像データに付加する付加手段と
    有することを特徴とする画像処理装置。
  7. 前記付加手段により前記所定の情報が付加された前記仮想視点画像データを出力する出力手段を有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記仮想視点画像データを検索するための検索条件を受け付ける受付手段を有し、
    前記出力手段は、前記受付手段により受け付けられた検索条件に対応する前記所定の情報が付加された前記仮想視点画像データを出力する
    ことを特徴とする請求項7に記載の画像処理装置。
  9. 前記撮影設定情報は、撮影場所を特定する情報、撮影日時を特定する情報、イベントを特定する情報及び、撮影装置を特定する情報のうち少なくとも1つを含むことを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  10. 前記撮影装置を特定する情報は、撮影装置の注点の位置を特定するための情報撮影装置のを特定するための情報撮影装置の位置を特定するための情報撮影装置の姿勢を特定するための情報及び、前記複数の撮影装置それぞれの焦点距離を特定するための情報うち少なくとも1つを含むことを特徴とする請求項に記載の画像処理装置。
  11. 前記撮影状況情報は、前記複数の撮影装置により撮影が行われる間の気象に関する情報を含むことを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記撮影対象情報は、前記複数の撮影装置により撮影される対象の名称を特定するための情報及び、前記複数の撮影装置により撮影される対象群の名称を特定するための情報うち少なくとも1つを含むことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記撮影権利情報は、撮影に関する権利者に関する情報、及び、撮影に基づいて取得されるデータに関する権利者に関する情報のうち少なくとも1つを含むことを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記付加手段は、ISO BMFFのフォーマットに基づいて、前記所定の情報を付加することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記付加手段は、Exifのフォーマットに基づいて、前記所定の情報を付加することを特徴とする請求項1乃至14のいずれか1項に記載の画像処理装置。
  16. 前記付加手段は、H.265符号化方式に基づくビットストリームに対して、前記所定の情報を付加することを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17. の撮影装置により取得される複数の撮影画像のうち少なくとも一つに基づく画像データであって、仮想視点画像の生成に使用される画像データを取得する取得工程と、
    撮影設定情報、撮影状況情報、撮影対象情報、及び、撮影権利情報のうち少なくとも1つを、所定の情報として前記取得工程において取得される画像データ付加する付加工程と
    有することを特徴とする画像処理方法。
  18. 複数の撮影装置により取得される複数の撮影画像のうち少なくとも一つに基づく画像データであって、所定の情報として、撮影設定情報、撮影状況情報、撮影対象情報、及び、撮影権利情報のうち少なくとも1つが関連付けられた画像データを取得する取得工程と、
    前記取得工程において取得される画像データに基づいて、仮想視点画像データを生成する生成工程と、
    前記生成工程において生成される仮想視点画像データに関連付けられた前記所定の情報を、前記生成工程において生成される仮想視点画像データに付加する付加工程と
    有することを特徴とする画像処理方法。
  19. コンピュータを、請求項1乃至16のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2018172675A 2018-09-14 2018-09-14 画像処理装置、画像処理方法、及び、プログラム Active JP7199886B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018172675A JP7199886B2 (ja) 2018-09-14 2018-09-14 画像処理装置、画像処理方法、及び、プログラム
PCT/JP2019/028014 WO2020054212A1 (ja) 2018-09-14 2019-07-17 画像処理装置、画像処理方法、及び、プログラム
US17/194,728 US20210203905A1 (en) 2018-09-14 2021-03-08 Image processing apparatus, image processing method, and storage medium
JP2022205952A JP2023033322A (ja) 2018-09-14 2022-12-22 画像処理装置、画像処理方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018172675A JP7199886B2 (ja) 2018-09-14 2018-09-14 画像処理装置、画像処理方法、及び、プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022205952A Division JP2023033322A (ja) 2018-09-14 2022-12-22 画像処理装置、画像処理方法、及び、プログラム

Publications (3)

Publication Number Publication Date
JP2020047991A JP2020047991A (ja) 2020-03-26
JP2020047991A5 JP2020047991A5 (ja) 2021-10-28
JP7199886B2 true JP7199886B2 (ja) 2023-01-06

Family

ID=69777113

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018172675A Active JP7199886B2 (ja) 2018-09-14 2018-09-14 画像処理装置、画像処理方法、及び、プログラム
JP2022205952A Pending JP2023033322A (ja) 2018-09-14 2022-12-22 画像処理装置、画像処理方法、及び、プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022205952A Pending JP2023033322A (ja) 2018-09-14 2022-12-22 画像処理装置、画像処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US20210203905A1 (ja)
JP (2) JP7199886B2 (ja)
WO (1) WO2020054212A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109783A (ja) 2008-10-31 2010-05-13 Casio Computer Co Ltd 電子カメラ
WO2015037472A1 (ja) 2013-09-11 2015-03-19 ソニー株式会社 画像処理装置および方法
JP2017200200A (ja) 2012-04-27 2017-11-02 パナソニックIpマネジメント株式会社 コンテンツ再生方法、コンテンツ再生装置およびコンテンツ再生プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4937043B2 (ja) * 2007-08-28 2012-05-23 株式会社東芝 映像検索システム及び映像検索装置
WO2015037473A1 (ja) * 2013-09-11 2015-03-19 ソニー株式会社 画像処理装置および方法
US10013486B2 (en) * 2015-03-03 2018-07-03 Openhd Pty Ltd System, content editing server, audio recording slave device and content editing interface for distributed live performance scheduled audio recording, cloud-based audio content editing and online content distribution of audio track and associated metadata
US20170134162A1 (en) * 2015-11-10 2017-05-11 Shannon Code System and process for verifying digital media content authenticity

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010109783A (ja) 2008-10-31 2010-05-13 Casio Computer Co Ltd 電子カメラ
JP2017200200A (ja) 2012-04-27 2017-11-02 パナソニックIpマネジメント株式会社 コンテンツ再生方法、コンテンツ再生装置およびコンテンツ再生プログラム
WO2015037472A1 (ja) 2013-09-11 2015-03-19 ソニー株式会社 画像処理装置および方法

Also Published As

Publication number Publication date
JP2020047991A (ja) 2020-03-26
JP2023033322A (ja) 2023-03-10
WO2020054212A1 (ja) 2020-03-19
US20210203905A1 (en) 2021-07-01

Similar Documents

Publication Publication Date Title
US6559846B1 (en) System and process for viewing panoramic video
JP6960528B2 (ja) メディアコンテンツを生成および処理するための方法、装置、およびコンピュータプログラム
JP6309749B2 (ja) 画像データ再生装置および画像データ生成装置
JP7399224B2 (ja) メディアコンテンツを送信するための方法、装置及びコンピュータプログラム
US20120128058A1 (en) Method and system of encoding and decoding media content
US20160029091A1 (en) Method of displaying a region of interest in a video stream
JP2007082088A (ja) コンテンツとメタデータを記録、再生する装置、コンテンツ処理装置、プログラム
US20080018503A1 (en) Method and apparatus for encoding/playing multimedia contents
US10931930B2 (en) Methods and apparatus for immersive media content overlays
CN113115110B (zh) 视频合成方法、装置、存储介质与电子设备
CN113949829B (zh) 媒体文件封装及解封装方法、装置、设备及存储介质
KR101843025B1 (ko) 카메라워크 기반 영상합성 시스템 및 영상합성방법
US20220182576A1 (en) File generation device, file generation method, file reproduction device, file reproduction method, and program
JP7199886B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
CN112153472A (zh) 一种画面特效的生成方法及装置、存储介质及电子设备
JP5401103B2 (ja) 動画情報管理装置、および方法
Chen et al. Simplified carriage of MPEG immersive video in HEVC bitstream
US20210382931A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer-readable storage medium
CN114556962B (zh) 多视点视频处理方法和装置
JP2008072572A (ja) コンテンツ撮影装置
KR20220103109A (ko) 파일 처리 장치 및 파일 처리 방법
US20170287521A1 (en) Methods, circuits, devices, systems and associated computer executable code for composing composite content
JP2014030267A (ja) 撮像装置
CN117082262A (zh) 点云文件封装与解封装方法、装置、设备及存储介质
CN117544738A (zh) Rsv文件的播放修复方法、设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221221

R151 Written notification of patent or utility model registration

Ref document number: 7199886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151