JP7435631B2 - 表示システムおよび表示方法 - Google Patents

表示システムおよび表示方法 Download PDF

Info

Publication number
JP7435631B2
JP7435631B2 JP2021572251A JP2021572251A JP7435631B2 JP 7435631 B2 JP7435631 B2 JP 7435631B2 JP 2021572251 A JP2021572251 A JP 2021572251A JP 2021572251 A JP2021572251 A JP 2021572251A JP 7435631 B2 JP7435631 B2 JP 7435631B2
Authority
JP
Japan
Prior art keywords
map
information
video
scene
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021572251A
Other languages
English (en)
Other versions
JPWO2021149262A1 (ja
Inventor
遥 久保田
明 片岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021149262A1 publication Critical patent/JPWO2021149262A1/ja
Application granted granted Critical
Publication of JP7435631B2 publication Critical patent/JP7435631B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、表示システムおよび表示方法に関する。
従来、映像情報は撮影時の状況を正確に再現可能であり、個人や事業を問わず他分野で活用可能であることが知られている。例えば、工事等の作業を行うにあたって、作業者視点でのカメラ映像等の動画映像を作業ログとして、マニュアル化、業務分析、作業証跡等に活用可能である。
このような活用にあたっては、連続的な映像から特定の場面(シーン)のみを抽出したいケースが多いが、目視での作業は手間がかかり非効率である。このため、各映像シーンへのタグ付けによる特定のシーンを検出する技術が知られている。例えば、映像から特定のシーンを抽出するために、GPS(Global Positioning System)や設置型センサ等を利用して撮影位置を検出し、映像シーンと撮影位置とを紐付ける方法が知られている。
胡晟、劉健全、西村祥治 「大量な映像における高速な動的場面の分析と検索」 情報処理学会研究報告 2017/11/8
従来の方法では、映像から特定の場面を効率的に抽出することができない場合があるという課題があった。例えば、映像から特定の場面を効率的に抽出するために、GPS等を利用して映像シーンと撮影位置とを紐付ける場合に、屋内や遮蔽物の多い環境では撮影位置と映像シーンとを紐付けることが難しい場合があった。また、このような環境ではセンサ等を設置することも考えられるが、設置に対するユーザの負荷が大きかった。
上述した課題を解決し、目的を達成するために、本発明の表示システムは、映像情報に基づいて、撮影された領域の地図を生成し、前記映像情報における各シーンの前記地図上の撮影位置の情報を取得する映像処理部と、ユーザの操作により前記地図上の撮影位置の指定を受け付けた場合には、該撮影位置の情報を用いて、該撮影位置で撮影した映像情報のシーンの情報を検索し、検索したシーンの情報を出力する検索処理部とを有することを特徴とする。
本発明によれば、映像から特定の場面を効率的に抽出することができるという効果を奏する。
図1は、第1の実施形態に係る表示システムの構成の一例を示す図である。 図2は、地図上から撮影位置を指定して該当シーンを表示する処理例を説明する図である。 図3は、第1の実施形態に係る表示装置における映像およびパラメータの保管時の処理の流れの一例を示すフローチャートである。 図4は、第1の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。 図5は、移動経路を含む地図の表示例を示す図である。 図6は、移動経路を含む地図の表示例を示す図である。 図7は、第2の実施形態に係る表示システムの構成の一例を示す図である。 図8は、第2の実施形態に係る表示装置における位置合わせ処理の流れの一例を示すフローチャートである。 図9は、第3の実施形態に係る表示システムの構成の一例を示す図である。 図10は、ユーザが地図を任意の単位にエリア分けする際の操作例を示す図である。 図11は、各シーンにおける撮影者の滞在エリアをタイムライン上に可視化する処理について説明する図である。 図12は、第3の実施形態に係る表示装置におけるエリア分割処理の流れの一例を示すフローチャートである。 図13は、第3の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。 図14は、第4の実施形態に係る表示システムの構成の一例を示す図である。 図15は、リアルタイム視点からシーンを検索する処理の概要を説明する図である。 図16は、第4の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。 図17は、第5の実施形態に係る表示システムの構成の一例を示す図である。 図18は、リアルタイムな位置に基づいて進行方向を提示する処理を説明する図である。 図19は、第5の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。 図20は、表示プログラムを実行するコンピュータを示す図である。
以下に、本願に係る表示システムおよび表示方法の実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る表示システムおよび表示方法が限定されるものではない。
[第1の実施形態]
以下の実施の形態では、第1の実施形態に係る表示システム100の構成、表示装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[表示システムの構成]
まず、図1を用いて、表示システム100の構成について説明する。図1は、第1の実施形態に係る表示システムの構成の一例を示す図である。表示システム100は、表示装置10および映像取得装置20を有する。
表示装置10は、映像取得装置20によって撮影された撮影範囲を含む地図上からオブジェクト位置や範囲を指定することで、映像から指定位置を被写体とした映像シーンを検索して出力する装置である。なお、図1の例では、表示装置10が、端末装置として機能する場合を想定して図示しているが、これに限定されるものではなく、サーバとして機能してもよく、検索した映像シーンをユーザ端末に出力するようにしてもよい。
映像取得装置20は、映像を撮影するカメラ等の機器である。なお、図1の例では、表示装置10と映像取得装置20とが別々の装置である場合を例示しているが、表示装置10が映像取得装置20の機能を有していてもよい。映像取得装置20は、撮影者が撮影した映像のデータを映像処理部11に通知するとともに、映像保管部15に格納する。
表示装置10は、映像処理部11、パラメータ保管部12、UI(User Interface)部13、検索処理部14および映像保管部15を有する。以下では、各部について説明する。なお、上述した各部は、複数の装置が分散して保持してもよい。例えば、表示装置10が映像処理部11、パラメータ保管部12、UI(User Interface)部13、検索処理部14を有し、映像保管部15は他の装置が有していてもよい。
なお、パラメータ保管部12および映像保管部15は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、又は、ハードディスク、光ディスク等の記憶装置によって実現される。また、映像処理部11、パラメータ保管部12、UI部13、検索処理部14は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路である。
映像処理部11は、映像情報に基づいて、撮影された領域の地図を生成し、映像情報における各シーンの地図上の撮影位置の情報を取得する。
例えば、映像処理部11は、SLAM(Simultaneous Localization and Mapping)の技術を用いて、映像情報から地図を生成し、地図の情報を入力処理部13aに通知する。また、映像処理部11は、映像情報における各シーンの地図上の撮影位置を取得してパラメータ保管部12に格納する。なお、SLAMの技術に限定されるものではなく、他の技術を代用してもよい。
SLAMとは自己位置推定と環境地図作成を同時に行う技術であるが、本実施形態では、Visual SLAMの技術が用いられるものとする。Visual SLAMでは、映像内の連続したフレーム間で画素や特徴点をトラッキングすることで、フレーム間での変位を用いて自己位置の変位を推定する。更に、その際に利用した画素や特徴点の位置を3次元点群としてマッピングすることで、撮影環境の環境地図を再構成する。
また、Visual SLAMでは、自己位置がループした場合は、以前に生成した点群と新たにマッピングした点群が矛盾しないように点群地図全体を再構築(ループクロージング)する。なお、Visual SLAMでは、単眼カメラやステレオカメラ、RGB-Dカメラなど用いるデバイスによって精度、地図の特性、利用可能なアルゴリズム等が異なる。
映像処理部11は、SLAMの技術を適用して、映像、カメラパラメータ(例えば、RGB-Dカメラのdepth値等)を入力データとして用いることで、点群地図、各キーフレームの姿勢情報(フレーム時刻(タイムスタンプ)、撮影位置(x座標、y座標、z座標)、撮影方向(方向ベクトルもしくはクオータニオン))を出力データとして得ることができる。
パラメータ保管部12は、映像シーンの各シーンに紐付けて、撮影位置を保存する。パラメータ保管部12に記憶される情報は、後述する検索処理部14によって検索される。
UI部13は、入力処理部13aおよび出力部13bを有する。入力処理部13aは、検索ユーザの操作により、地図上の撮影位置の指定を受け付ける。例えば、特定の撮影位置から撮影された映像シーンを検索ユーザが検索したい場合には、入力処理部13aは、検索ユーザの操作により地図上の撮影位置のポイントに対するクリック操作を受け付ける。
出力部13bは、後述する検索処理部14によって検索された映像シーンを表示する。例えば、出力部13bは、検索処理部14から検索結果として、該当シーンの時間帯を受信すると、該当シーンの時間帯に対応する映像シーンを映像保管部15から読み出し、読み出した映像シーンを出力する。映像保管部15は、映像取得装置20によって撮影された映像情報を保存する。
検索処理部14は、ユーザの操作により地図上の撮影位置の指定を受け付けた場合には、該撮影位置の情報を用いて、該撮影位置で撮影した映像情報のシーンの情報を検索し、検索したシーンの情報を出力する。例えば、検索処理部14は、入力処理部13aによってユーザの操作により地図上の撮影位置の指定を受け付けた場合には、指定された撮影位置から映した撮影フレームについてパラメータ保管部12への照会を行い、撮影フレームのタイムスタンプリストを取得し、該当シーンの時間帯を出力部14cに出力する。
ここで、図2を用いて、地図上から撮影位置を指定して該当シーンを表示する処理例を説明する。図2は、地図上から撮影位置を指定して該当シーンを表示する処理例を説明する図である。図2に例示するように、表示装置10は、画面にSLAM地図を表示し、検索ユーザの操作により確認したい映像位置がクリックされると、撮影位置から一定距離内で撮影された該当シーンを検索して、該当シーンの動画を表示する。
また、表示装置10は、検索された各シーンの動画内における時間帯を表示するとともに、該当シーンの撮影位置を地図上にプロットして表示する。また、図3に例示するように、表示装置10は、検索結果を撮影時刻の早いものから自動再生し、表示中のシーンの撮影位置および撮影時刻も表示する。
[表示装置の処理手順]
次に、図3および図4を用いて、第1の実施形態に係る表示装置10による処理手順の例を説明する。図3は、第1の実施形態に係る表示装置における映像およびパラメータの保管時の処理の流れの一例を示すフローチャートである。図4は、第1の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。
まず、図3を用いて、映像およびパラメータの保管時の処理の流れについて説明する。図3に例示するように、表示装置10の映像処理部11は、映像情報を取得すると(ステップS101)、取得した映像を映像保管部15に映像を保存する(ステップS102)。また、映像処理部11は、映像から撮影環境の地図と各シーンの撮影位置を取得する(ステップS103)。
そして、映像処理部11は、映像に紐づいた撮影位置をパラメータ保管部12に保存する(ステップS104)。また、入力処理部13aは、映像と紐づいた地図を受け取る(ステップS105)。
次に、図4を用いて、検索時の処理の流れについて説明する。図4に例示するように、表示装置10の入力処理部13aは、点群地図を表示し、ユーザ入力を待機する(ステップS201)。そして、入力処理部13aがユーザ入力を受け付けると(ステップS202肯定)、検索処理部14は、ユーザ入力で指定された撮影位置を引数に映像シーンをパラメータ保管部12から呼出す(ステップS203)。
パラメータ保管部12は、各映像シーンの位置情報を参照し、付近で撮影された各フレームのタイムスタンプを抽出する(ステップS204)。そして、検索処理部14は、取得したフレームのタイムスタンプのうち連続したフレーム同士をつなげシーンとして検出する(ステップS205)。例えば、検索処理部14は、取得したフレームのタイムスタンプのうち所定の閾値以下の差で連続するフレームを集約し、最初と最後のフレームからシーンの時間帯を取得する。その後、出力部13bは、各シーンの時間帯に基づき映像シーンを呼出し、ユーザに提示する(ステップS206)。
[第1の実施形態の効果]
このように、第1の実施形態に係る表示システム100の表示装置10では、映像情報に基づいて、撮影された領域の地図を生成し、映像情報における各シーンの地図上の撮影位置の情報を取得する。そして、表示装置10は、ユーザの操作により地図上の撮影位置の指定を受け付けた場合には、該撮影位置の情報を用いて、該撮影位置で撮影した映像情報のシーンの情報を検索し、検索したシーンの情報を出力する。このため、表示装置10では、映像から特定の場面を効率的に抽出することができるという効果を奏する。
また、表示装置10では、映像内から撮影位置を取得するSLAMの機能を導入することで、屋内や遮蔽物の多いGPS情報が利用しにくい空間での撮影でも撮影位置を適切に把握することができる。更に、表示装置10は、利用環境へのセンサや画像マーカ等の設置稼働をかけずに、より高解像度で死角の少ない位置推定が可能となり、映像から特定の場面を効率的に抽出することが可能となる。
また、表示装置10は、各映像シーンの撮影位置を把握するため、映像内から位置と環境地図を同期的に取得する機能を用いることで、撮影現場の地図の用意や、事前にセンサ出力と地図の対応付けを行わずとも、推定位置と地図の対応付いた環境地図を取得することができる。
[第2の実施形態]
上述した第1の実施形態では、検索時に地図を表示して検索ユーザから撮影位置の指定を受け付ける場合を説明したが、さらに、地図上において撮影者(撮影位置)の移動軌跡を可視化して撮影位置の指定を受け付けるようにしてもよい。
以下では、第2の実施形態として、表示システム100Aの表示装置10Aでは、地図上に撮影位置の移動軌跡をさらに表示し、該移動軌跡から撮影位置の指定を受け付ける場合について説明する。なお、第1の実施形態と同様の構成や処理については説明を適宜省略する。
例えば、表示装置10Aは、図5に例示するように、地図上に経路を表示することで、特定の撮影者の移動軌跡の中から撮影位置の指定を受け付けることが可能である。また、表示装置10は、滞在時間や視点方向など、位置・向き・タイムスタンプから得られる情報をニーズに応じて可視化してもよい。また、表示装置10は、移動軌跡の中から撮影範囲の指定を受け付けるようにしてもよい。このように、表示装置10は、地図上に経路を表示することで、ある撮影者が各所で何をしたかを検索ユーザが判断する場合に有効であり、映像の活用を円滑にすることが可能である。
図7は、第2の実施形態に係る表示システムの構成の一例を示す図である。表示装置10Aは、第1の実施形態に係る表示装置10と比較して位置合わせ部16を有している点が異なる。
位置合わせ部16は、外部から取得した画像地図と映像処理部11によって生成された地図と位置が対応するように画像地図を変形し、該画像地図上に撮影位置を時系列順にプロットし、連続するプロット間を線でつなげた移動軌跡を含む地図を生成する。
入力処理部13aは、地図上に撮影位置の移動軌跡をさらに表示し、該移動軌跡から撮影位置の指定を受け付ける。つまり、入力処理部13aは、位置合わせ部16によって生成された移動軌跡を含む地図を表示し、該移動軌跡から撮影位置の指定を受け付ける。
このように、表示装置10Aは、点群地図と画像地図の位置対応に基づき撮影位置を画像地図上にマッピングし、それらを時系列順につなぎ移動軌跡を可視化することが可能である。
また、入力処理部13aは、映像情報から撮影時のパラメータを抽出し、該撮影時のパラメータから得られる情報を表示するとともに、映像処理部11によって生成された地図を表示し、表示した地図における撮影位置の指定を受け付ける。つまり、図5に例示するように、入力処理部13aは、例えば、撮影時のパラメータとして、映像内から各映像シーンの位置、向きおよびタイムスタンプを抽出し、位置、向きおよびタイムスタンプから、指定位置の撮影時刻や、滞在時の視点方向を地図上に表示したり、ポイントサイズで滞在時間の長さを表現したりするようにしてもよい。
[表示装置の処理手順]
次に、図8を用いて、第2の実施形態に係る表示装置10Aによる処理手順の例を説明する。図8は、第2の実施形態に係る表示装置における位置合わせ処理の流れの一例を示すフローチャートである。
図8に例示するように、表示装置10Aの位置合わせ部16は、点群地図、撮影位置、タイムスタンプを取得し(ステップS301)、対象領域を表すユーザ任意の地図を取得する(ステップS302)。
そして、位置合わせ部16は、任意地図と点群地図の位置が対応するよう、任意地図を座標移動・拡縮・回転する(ステップS303)。続いて、位置合わせ部16は、変形済みの任意地図上に撮影位置をタイムスタンプ順にプロットし、連続するプロット間を線でつなぐ(ステップS304)。そして、位置合わせ部16は、上書きした地図を入力処理部に通知する(ステップS305)。
[第2の実施形態の効果]
このように、第2の実施形態に係る表示システム100Aでは、表示装置10Aが、地図上において移動軌跡を可視化することで、ユーザが移動軌跡を確認した上で確認したい撮影位置を指定することができるという効果を奏する。つまり、検索ユーザが特定の作業者の行動概要を把握したうえで映像を検索することが可能である。
[第3の実施形態]
表示システムの表示装置は、ユーザが地図を任意の単位にエリア分けできるものとし、各シーンの撮影位置に基づき滞在ブロックをタイムライン上に可視化して、ユーザが滞在ブロックの遷移を確認しながら検索したい時間帯を指定できるようにしてもよい。そこで、第3の実施形態として、表示システム100Bの表示装置10Bが、地図上の領域を任意のエリアに区分けする指示を受け付け、該指示に基づいて、地図の領域をエリアに分割し、検索時には、エリアが分割された地図を表示し、表示した地図における撮影位置の指定を受け付ける場合を説明する。なお、第1の実施形態と同様の構成や処理については説明を適宜省略する。
図9は、第3の実施形態に係る表示システムの構成の一例を示す図である。図9に例示するように、表示装置10Bは、第1の実施形態と比較して、エリア分割部13cを有する点が異なる。エリア分割部13cは、地図上の領域を任意のエリアに区分けする指示を受け付け、該指示に基づいて、地図の領域をエリアに分割する。例えば、エリア分割部13cは、図10に例示するように、ユーザの操作により地図上の領域を任意のエリアに区分けし、区分けしたエリアごとに色を付す。また、例えば、エリア分割部13cは、エリアが分割された地図とともに、図11に例示するように、各シーンの撮影者の滞在ブロックが分かるようにタイムラインを色分けする。
入力処理部13aは、エリア分割部13cによってエリアが分割された地図を表示するとともに、表示した地図におけるエリアに対応する時間帯の指定を受け付ける。例えば、入力処理部13aは、エリア分割部13cからエリア分け済みの地図とタイムラインを取得して表示し、検索ユーザによりタイムライン上から1つ以上の任意の時間帯の指定を受け付ける。
[表示装置の処理手順]
次に、図12および図13を用いて、第3の実施形態に係る表示装置10Bによる処理手順の例を説明する。図12は、第3の実施形態に係る表示装置におけるエリア分割処理の流れの一例を示すフローチャートである。図13は、第3の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。
まず、図12を用いて、エリア分割処理の流れについて説明する。図12に例示するように、表示装置10のエリア分割部13cは、映像処理部11から地図を取得し(ステップS401)、取得した地図を表示してユーザの入力を受け付ける(ステップS402)。
そして、エリア分割部13cは、ユーザの入力に従いエリア分けし、各エリアにおける撮影者滞在状況をパラメータ保管部12に照会する(ステップS403)。そして、パラメータ保管部12は、各エリアにおける撮影フレームのタイムスタンプリストをエリア分割部13cに返す(ステップS404)。
そして、エリア分割部13cは、タイムライン上に各時刻の滞在エリアを地図上の各エリアとの対応がわかるように可視化し(ステップS405)、エリア分け済みの地図とタイムラインを入力処理部13aに渡す(ステップS406)。
次に、図13を用いて、検索時の処理の流れについて説明する。図13に例示するように、表示装置10の入力処理部13aは、エリア分割部13cから渡された地図およびタイムラインを表示してユーザ入力を待機する(ステップS501)。
そして、入力処理部13aがユーザ入力を受け付けると(ステップS502肯定)、検索処理部14は、ユーザ入力で指定された時間帯の映像シーンをパラメータ保管部12から呼出し、出力部1bに通知する(ステップS503)。その後、出力部13bは、各シーンの時間帯に基づき映像シーンを呼出し、ユーザに提示する(ステップS504)。
[第3の実施形態の効果]
このように、第3の実施形態に係る表示システム100Bでは、ユーザは地図上で任意のエリア分けを行い、表示装置10Bが、各エリアにおける撮影時間帯を示すタイムラインをエリア分けされた地図と併せて表示するので、検索ユーザはタイムライン上から時間帯を選択して、容易に映像の検索を行うことが可能である。このため、表示システム100Bは、複数個所を行き来する作業の特定や、ユーザが、各ブロックでの滞在時間を確認したい場合などに特に有効である。また、例えば、表示システム100Bは、同じ作業を撮影した複数の映像において大幅に滞在時間が異なるブロックの参照、往復して作業を行われる特定の2ブロックでの映像シーンを切り出し、部屋単位のブロッキングで各部屋を選択し廊下などの移動中映像の除去等にも有効である。
[第4の実施形態]
上述した第1の実施形態では、検索時において検索ユーザが撮影位置を指定し、指定した撮影位置の映像シーンを検索する場合を説明したが、このような場合に限定されるものではなく、例えば、検索ユーザがリアルタイムに映像を撮影することで、撮影位置が同一の映像シーンを検索できるようにしてもよい。
以下では、第4の実施形態として、表示システム100Cの表示装置10Cが、ユーザが撮影したリアルタイムの映像情報を取得し、撮影された領域の地図を生成し、該映像情報から地図上におけるユーザの撮影位置を特定し、特定したユーザの撮影位置を用いて、撮影位置が同一または類似のシーンの情報を検索する場合を説明する。なお、第1の実施形態と同様の構成や処理については説明を適宜省略する。
図14は、第4の実施形態に係る表示システムの構成の一例を示す図である。図14に例示するように、表示システム100Cの表示装置10Cは、第1の実施形態と比較して、特定部17および地図比較部18を有する点が異なる。
特定部17は、検索ユーザが撮影したリアルタイムの映像情報をウェアラブルカメラ等の映像取得装置20から取得し、映像情報に基づいて、撮影された領域の地図Bを生成し、該映像情報から地図上におけるユーザの撮影位置を特定する。そして、特定部17は、生成した地図Bを地図比較部18に通知し、特定したユーザの撮影位置を検索処理部14に通知する。なお、特定部17は、撮影位置とともに向きも特定してもよい。
例えば、特定部17は、映像処理部11と同様に、SLAMの技術を用いて、映像情報から特徴点のトラッキングにより地図を生成し、各シーンの撮影位置および撮影方向を取得するようにしてもよい。
地図比較部18は、映像処理部11から受信した地図Aと特定部17から受信した地図Bとを比較し、両者の対応関係をもとめ、地図間の対応関係を検索処理部14に通知する。
検索処理部14は、特定部17によって特定されたユーザの撮影位置および撮影方向を用いて、パラメータ保管部12に記憶された各シーンのなかから、撮影位置が同一または類似のシーンの情報を検索し、検索したシーンの情報を出力する。例えば、検索処理部14は、先行者の地図Aにおける検索ユーザの撮影位置および撮影方向に基づき映像シーンを照会し、撮影フレームのタイムスタンプリストを取得し、該当シーンの時間帯を出力部13bに出力する。
これにより、表示装置10Cでは、検索ユーザが検索地点までの視点映像を撮影し、得られた地図Bと保管された地図Aとの比較に基づき、現在位置で撮影された映像シーンを受け取ることが可能である。ここで、図15を用いて、リアルタイム視点からシーンを検索する処理の概要を説明する。図15は、リアルタイム視点からシーンを検索する処理の概要を説明する図である。
例えば、ユーザが作業場Aに関する過去の作業履歴を閲覧したい場合に、ウェアラブルカメラを装着したユーザは作業場Aに移動して、作業場Aの映像をウェアラブルカメラで撮影し、表示装置10Cに検索実行を命令する。表示装置10Cは、過去の作業場Aにおける作業履歴のシーンを検索し、シーンの映像を表示する。
[表示装置の処理手順]
次に、図16を用いて、第4の実施形態に係る表示装置10Cによる処理手順の例を説明する。図16は、第4の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。
図16に例示するように、表示装置10Cの特定部17は、ユーザの移動中の視点映像(図14における映像Bに相当)を取得する(ステップS601)。その後、特定部17は、ユーザからの検索命令を受け付けたか判定する(ステップS602)。そして、特定部17は、ユーザからの検索命令を受け付けると(ステップS602肯定)、ユーザの視点映像から地図Bとユーザの現在位置を取得する(ステップS603)。
そして、地図比較部18は、地図Aと地図Bを比較し、地図Bを地図Aに重ねるために必要な移動・回転・拡縮の処理を算出する(ステップS604)。続いて、検索処理部14は、ユーザの現在位置を地図Aでの値に変換し、該当位置で撮影された映像シーンを照会する(ステップS605)。
パラメータ保管部12は、各映像シーンの位置情報を参照し、全条件を満たす各フレームのタイムスタンプを抽出する(ステップS606)。そして、検索処理部14は、取得したフレームのタイムスタンプのうち連続したフレーム同士をつなげてシーンとして検出する(ステップS607)。その後、出力部13bは、各シーンの時間帯に基づき映像シーンを呼出し、ユーザに提示する(ステップS608)。
[第4の実施形態の効果]
このように、第4の実施形態に係る表示システム100Cでは、表示装置10Cが、ユーザが撮影したリアルタイムの映像情報を取得し、映像情報に基づいて、撮影された領域の地図を生成し、該映像情報から地図上におけるユーザの撮影位置を特定する。そして、表示装置10Cは、特定したユーザの撮影位置を用いて、パラメータ保管部12に記憶された各シーンのなかから、撮影位置が同一または類似のシーンの情報を検索し、検索したシーンの情報を出力する。このため、表示装置10Cは、リアルタイムで得た映像から現在位置で撮影されたシーンの検索を実現することが可能であり、例えば、自己の位置を検索キーとして、現在位置の作業場に関する過去の作業履歴をリアルタイムに閲覧することが可能である。
[第5の実施形態]
上述した第5の実施形態では、検索ユーザが撮影したリアルタイムな映像を取得し、自己の位置を検索キーとして、現在位置で撮影されたシーンの検索を行う場合を説明したが、これに場合に限定されるものではなく、例えば、検索ユーザが撮影したリアルタイムな映像を取得し、自己の位置を検索キーとして、同段階での映像シーンと行動を再現するための進行方向を出力できるようにしてもよい。
以下では、第5の実施形態として、表示システム100Dの表示装置10Dが、検索ユーザが撮影したリアルタイムな映像を取得し、自己の位置を検索キーとして、同段階での映像シーンと行動を再現するための進行方向を出力する場合を説明する。なお、第1の実施形態や第4の実施形態と同様の構成や処理については説明を適宜省略する。
図17は、第5の実施形態に係る表示システムの構成の一例を示す図である。図17に例示するように、表示システム100Dの表示装置10Dは、第1の実施形態と比較して、特定部17を有する点が異なる。
特定部17は、検索ユーザが撮影したリアルタイムの映像情報をウェアラブルカメラ等の映像取得装置20から取得し、映像情報に基づいて、撮影された領域の地図を生成し、該映像情報から地図上におけるユーザの撮影位置を特定する。なお、特定部17は、撮影位置とともに向きも特定してもよい。例えば、特定部17は、映像処理部11と同様に、SLAMの技術を用いて、映像情報から特徴点のトラッキングにより地図を生成し、各シーンの撮影位置および撮影方向を取得するようにしてもよい。
検索処理部14は、特定部17によって特定されたユーザの撮影位置を用いて、パラメータ保管部12に記憶された各シーンのなかから、撮影位置が同一または類似のシーンの情報を検索するとともに、該シーンの後続フレームの撮影位置から映像情報の撮影者の進行方向を判定し、該進行方向をさらに出力する。
ここで、図18を用いて、リアルタイムな位置に基づいて進行方向を提示する処理を説明する。図18は、リアルタイムな位置に基づいて進行方向を提示する処理を説明する図である。
例えば、図18に例示するように、開始地点においては、表示装置10Dは、検索ユーザに対して現段階での映像シーンを表示するとともに、ユーザが参照映像の開始地点で視点映像の撮影を開始する。そして、表示装置10Dは、リアルタイムに映像を取得して地図上の位置を推定し、ユーザの現在位置で撮影された映像シーンと撮影方向を提示する。
また、表示装置10Dは、ユーザの移動に伴い、位置推定を再試行し、映像シーンと撮影方向の出力を更新する。これにより、図18に例示するように、表示装置10は、検索ユーザが先行者と同じルートを辿って開始地点から最終地点にたどり着けるようにナビゲーションを実行することが可能である。
[表示装置の処理手順]
次に、図19を用いて、第5の実施形態に係る表示装置10Dによる処理手順の例を説明する。図19は、第5の実施形態に係る表示装置における検索時の処理の流れの一例を示すフローチャートである。
図19に例示するように、表示装置10Dの特定部17は、ユーザの移動中の視点映像と位置・向きを取得する(ステップS701)。その後、特定部17は、視点映像から参照映像の地図における現在位置を判断する(ステップS702)。なお、ここでは、参照映像の撮影開始地点と、視点映像の撮影開始地点とが同じであるものとする。
そして、検索処理部14は、参照映像の移動軌跡とユーザの移動状況を比較し、同じ段階の時点の映像シーンと撮影方向を呼出す(ステップS703)。そして、出力部13bは、該当した各映像シーンとユーザの向かうべき進行方向を提示する(ステップS704)。その後、表示装置10Dは、最終地点に到達したか否かを判定し(ステップS705)、最終地点に到達していない場合には(ステップS705否定)、S701の処理に戻り、上記の処理を繰り返す。また、表示装置10Dは、最終地点に到達した場合には(ステップS705肯定)、本フローの処理を終了する。
[第5の実施形態の効果]
このように、第5の実施形態に係る表示システム100Dでは、表示装置10Dが、検索ユーザが撮影したリアルタイムな映像を取得し、自己の位置を検索キーとして、同段階での映像シーンと行動を再現するための進行方向を出力する。このため、表示装置10Dは、例えば、検索ユーザが先行者と同じルートを辿って開始地点から最終地点にたどり着けるようにナビゲーションを実行することが可能である。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施の形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
図20は、表示プログラムを実行するコンピュータを示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、例えばディスプレイ1061に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、表示装置の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、装置における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施の形態の処理で用いられるデータは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク、WANを介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10、10A、10B、10C、10D 表示装置
11 映像処理部
12 パラメータ保管部
13 UI部
13a 入力処理部
13b 出力部
14 検索処理部
15 映像保管部
16 位置合わせ部
17 特定部
18 地図比較部
20 映像取得装置
100、100A、100B、100C、100D 表示システム

Claims (6)

  1. 映像情報に基づいて、撮影された領域の地図を生成し、前記映像情報における各シーンの前記地図上の撮影位置の情報を取得する映像処理部と、
    外部から取得した画像地図と前記映像処理部によって生成された地図と位置が対応するように前記画像地図を変形し、該画像地図上に前記撮影位置を時系列順にプロットし、連続するプロット間を線でつなげた移動軌跡を含む地図を生成する位置合わせ部と、
    前記位置合わせ部によって生成された移動軌跡を含む地図を表示し、該移動軌跡から撮影位置の指定を受け付ける入力処理部と、
    前記入力処理部により前記地図上の撮影位置の指定を受け付けた場合には、該撮影位置の情報を用いて、該撮影位置で撮影した映像情報のシーンの情報を検索し、検索したシーンの情報を出力する検索処理部と
    を有することを特徴とする表示システム。
  2. 前記入力処理部は、前記映像情報から撮影時のパラメータを抽出し、該撮影時のパラメータから得られる情報を表示するとともに、前記映像処理部によって生成された地図を表示し、表示した地図における撮影位置の指定を受け付けることを特徴とする請求項1に記載の表示システム。
  3. 前記地図上の領域を任意のエリアに区分けする指示を受け付け、該指示に基づいて、前記地図の領域をエリアに分割するエリア分割部をさらに有し、
    前記入力処理部は、前記エリア分割部によってエリアが分割された地図を表示するとともに、表示した地図におけるエリアに対応する時間帯の指定を受け付けることを特徴とする請求項に記載の表示システム。
  4. ユーザが撮影したリアルタイムの映像情報を取得し、前記映像情報に基づいて、撮影された領域の地図を生成し、該映像情報から前記地図上における前記ユーザの撮影位置を特定する特定部をさらに有し、
    前記検索処理部は、前記特定部によって特定されたユーザの撮影位置を用いて、各シーンのなかから、撮影位置が同一または類似のシーンの情報を検索し、検索したシーンの情報を出力することを特徴とする請求項1に記載の表示システム。
  5. 前記特定部は、前記映像処理部によって生成された地図上における前記ユーザの撮影位置を特定し、
    前記検索処理部は、前記特定部によって特定されたユーザの撮影位置を用いて、各シーンのなかから、撮影位置が同一または類似のシーンの情報を検索するとともに、該シーンの後続フレームの撮影位置から前記映像情報の撮影者の進行方向を判定し、該進行方向をさらに出力することを特徴とする請求項に記載の表示システム。
  6. 表示システムによって実行される表示方法であって、
    映像情報に基づいて、撮影された領域の地図を生成し、前記映像情報における各シーンの前記地図上の撮影位置の情報を取得する映像処理工程と、
    外部から取得した画像地図と前記映像処理工程によって生成された地図と位置が対応するように前記画像地図を変形し、該画像地図上に前記撮影位置を時系列順にプロットし、連続するプロット間を線でつなげた移動軌跡を含む地図を生成する位置合わせ工程と、
    前記位置合わせ工程によって生成された移動軌跡を含む地図を表示し、該移動軌跡から撮影位置の指定を受け付ける入力処理工程と、
    前記入力処理工程により前記地図上の撮影位置の指定を受け付けた場合には、該撮影位置の情報を用いて、該撮影位置で撮影した映像情報のシーンの情報を検索し、検索したシーンの情報を出力する検索処理工程と
    を含むことを特徴とする表示方法。
JP2021572251A 2020-01-24 2020-01-24 表示システムおよび表示方法 Active JP7435631B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/002629 WO2021149262A1 (ja) 2020-01-24 2020-01-24 表示システムおよび表示方法

Publications (2)

Publication Number Publication Date
JPWO2021149262A1 JPWO2021149262A1 (ja) 2021-07-29
JP7435631B2 true JP7435631B2 (ja) 2024-02-21

Family

ID=76993229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021572251A Active JP7435631B2 (ja) 2020-01-24 2020-01-24 表示システムおよび表示方法

Country Status (3)

Country Link
US (1) US20230046304A1 (ja)
JP (1) JP7435631B2 (ja)
WO (1) WO2021149262A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144010A (ja) 2015-01-31 2016-08-08 泰章 岩井 画像集約システム、画像収集システム、画像収集方法
US20160241864A1 (en) 2015-02-14 2016-08-18 Remote Geosystems, Inc. Geospatial Media Recording System
CN108388636A (zh) 2018-02-24 2018-08-10 北京建筑大学 基于自适应分段最小外接矩形的街景影像检索方法及装置
US20180315201A1 (en) 2017-04-28 2018-11-01 Entit Software Llc Stitching maps generated using simultaneous localization and mapping
JP2019114195A (ja) 2017-12-26 2019-07-11 シャープ株式会社 写真関連情報表示装置、複合機及び写真関連情報表示方法
JP2019174920A (ja) 2018-03-27 2019-10-10 株式会社日立ソリューションズ 物品管理システム、及び物品管理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7149961B2 (en) * 2003-04-30 2006-12-12 Hewlett-Packard Development Company, L.P. Automatic generation of presentations from “path-enhanced” multimedia
US6906643B2 (en) * 2003-04-30 2005-06-14 Hewlett-Packard Development Company, L.P. Systems and methods of viewing, modifying, and interacting with “path-enhanced” multimedia
US9269243B2 (en) * 2011-10-07 2016-02-23 Siemens Aktiengesellschaft Method and user interface for forensic video search
CN105681743B (zh) * 2015-12-31 2019-04-19 华南师范大学 基于移动定位和电子地图的视频拍摄管理方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144010A (ja) 2015-01-31 2016-08-08 泰章 岩井 画像集約システム、画像収集システム、画像収集方法
US20160241864A1 (en) 2015-02-14 2016-08-18 Remote Geosystems, Inc. Geospatial Media Recording System
US20180315201A1 (en) 2017-04-28 2018-11-01 Entit Software Llc Stitching maps generated using simultaneous localization and mapping
JP2019114195A (ja) 2017-12-26 2019-07-11 シャープ株式会社 写真関連情報表示装置、複合機及び写真関連情報表示方法
CN108388636A (zh) 2018-02-24 2018-08-10 北京建筑大学 基于自适应分段最小外接矩形的街景影像检索方法及装置
JP2019174920A (ja) 2018-03-27 2019-10-10 株式会社日立ソリューションズ 物品管理システム、及び物品管理プログラム

Also Published As

Publication number Publication date
JPWO2021149262A1 (ja) 2021-07-29
WO2021149262A1 (ja) 2021-07-29
US20230046304A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
US11443444B2 (en) Interior photographic documentation of architectural and industrial environments using 360 panoramic videos
US11163813B2 (en) Providing a thumbnail image that follows a main image
CN109671115B (zh) 使用深度值估计的图像处理方法和装置
JP7355821B2 (ja) 疎結合されたリローカライゼーションサービスおよびアセット管理サービスを介して人工環境内でデジタルアセットを提示するためのシステムおよび方法
US8487926B2 (en) Method and apparatus for generating 3D image using 2D photograph images
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US8390534B2 (en) Method and device for generating tracking configurations for augmented reality applications
KR102472767B1 (ko) 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
JP2018163654A (ja) 電気通信インベントリ管理のためのシステムおよび方法
JPWO2018142496A1 (ja) 三次元計測装置
US20210044793A1 (en) Generation method for generating free viewpoint image, display method for displaying free viewpoint image, free viewpoint image generation device, and display device
JP2019190974A (ja) キャリブレーション装置、キャリブレーション方法、及びプログラム
JP7435631B2 (ja) 表示システムおよび表示方法
Pollok et al. A visual SLAM-based approach for calibration of distributed camera networks
KR101758786B1 (ko) 영상 내에서 특정 지점의 위치를 결정하기 위한 장치 및 그 방법
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
WO2014203743A1 (en) Method for registering data using set of primitives
JP2018097490A (ja) 情報処理装置、方法およびプログラム
JP7310935B2 (ja) 表示システムおよび表示方法
KR20210051002A (ko) 포즈 추정 방법 및 장치, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
Kropp et al. Model-based pose estimation for visual indoor progress monitoring using line features
JP7286388B2 (ja) 位置推定システム、位置推定装置、位置推定方法、及びプログラム
WO2016098187A1 (ja) 画像検索装置および画像検索方法
JP2002230527A (ja) 立体情報取得装置および立体情報取得方法ならびに立体情報取得プログラムを記録したコンピュータリーダブル記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240122

R150 Certificate of patent or registration of utility model

Ref document number: 7435631

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150