JP6619686B2 - 視聴範囲推定方法及び視聴範囲推定装置 - Google Patents

視聴範囲推定方法及び視聴範囲推定装置 Download PDF

Info

Publication number
JP6619686B2
JP6619686B2 JP2016088816A JP2016088816A JP6619686B2 JP 6619686 B2 JP6619686 B2 JP 6619686B2 JP 2016088816 A JP2016088816 A JP 2016088816A JP 2016088816 A JP2016088816 A JP 2016088816A JP 6619686 B2 JP6619686 B2 JP 6619686B2
Authority
JP
Japan
Prior art keywords
area
subject
viewing range
viewpoint
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016088816A
Other languages
English (en)
Other versions
JP2017199171A (ja
Inventor
聡一郎 内田
聡一郎 内田
高田 英明
英明 高田
麻衣子 井元
麻衣子 井元
小川 克彦
克彦 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Keio University
Original Assignee
Nippon Telegraph and Telephone Corp
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Keio University filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016088816A priority Critical patent/JP6619686B2/ja
Publication of JP2017199171A publication Critical patent/JP2017199171A/ja
Application granted granted Critical
Publication of JP6619686B2 publication Critical patent/JP6619686B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、撮影された映像から被写体を抽出し、別の時間、別の場所で投影して再現するテレプレゼンス技術に関する。
近年、映像の高精細化や投影技術の発達を背景として、撮影された映像から人物や物体を抽出し、別の時間、別の場所で自然な形で再現し、高い臨場感のあるコンテンツとして提供するためのシステムが検討されている。
人物や物体を任意の空間上に再現する手段の一つとして、ハーフミラーや透明スクリーン等を用い、2次元平面に投影する方法がある(例えば非特許文献1)。ハーフミラーや透明スクリーンに人物や物体を投影する方法は、音楽ライブなど大勢の観客を動員する商業コンテンツでも利用され始めている。
3次元の被写体を撮影して2次元平面上に投影した場合、見る位置によって被写体の見え方は異なるはずであるが、投影された映像を見る位置を変えても見え方は一定である。つまり、3次元空間上の人物や物体を2次元平面上に投影する方法では、視点の位置を変更することによって生まれる視差(運動視差)が表現されず、不自然に見えてしまう。
この問題に対して、非特許文献2では、観測者の顔情報から視点の位置を推定し、その位置から見えるべき映像を求めてリアルタイムに表示するシステムが提案されている。非特許文献2の手法を用いることで、観測者の運動視差も考慮した自然な映像を表示することが可能となる。
Hanyuool Kim, 他5名、"MARIO: Mid-Air Augmented Reality Interaction with Objects"、Entertainment Computing, December 2014, Volume 5, Issue 4, pp. 233-241 玉井康之、他4名、"運動視差提示による実画像3次元ディスプレイの提案"、第25回ロボット学会学術講演会、2007年
しかしながら、非特許文献2の手法は、観測者が単独であることを前提としており、大勢の聴衆に向けて提供される商業コンテンツには適さないという問題があった。
本発明は、上記に鑑みてなされたものであり、2次元平面に投影した被写体が自然に見える範囲を求めることを目的とする。
第1の本発明に係る視聴範囲推定方法は、コンピュータが実行する視聴範囲推定方法であって、被写体を撮影した映像から当該被写体が写っている被写体領域を抽出するステップと、前記被写体の3次元モデルを生成するステップと、前記3次元モデルに前記被写体領域を対応付けて前記3次元モデルにおいて前記映像に写っている部分を特定するステップと、各視点から前記3次元モデルを見た時に、当該視点から見えて前記映像にも写っている第1領域、当該視点から見えなくて前記映像に写っている第2領域、当該視点から見えて前記映像に写っていない第3領域を抽出するステップと、各視点の前記第1領域、前記第2領域、前記第3領域の割合に基づいて視聴範囲を決定するステップと、を有することを特徴とする。
第2の本発明に係る視聴範囲推定装置は、被写体を撮影した映像から当該被写体が写っている被写体領域を抽出する被写体抽出手段と、前記被写体の3次元モデルを生成する被写体測定手段と、前記3次元モデルに前記被写体領域を対応付けて前記3次元モデルにおいて前記映像に写っている部分を特定する対応付け手段と、各視点から前記3次元モデルを見た時に、当該視点から見えて前記映像にも写っている第1領域、当該視点から見えなくて前記映像に写っている第2領域、当該視点から見えて前記映像に写っていない第3領域を抽出する領域抽出手段と、各視点の前記第1領域、前記第2領域、前記第3領域の割合に基づいて視聴範囲を決定する視聴範囲決定手段と、を有することを特徴とする。
本発明によれば、2次元平面に投影した被写体が自然に見える範囲を求めることができる。
被写体を撮影して投影したときに、見る位置によって被写体の見える領域が異なることを説明するための図である。 本実施の形態における視聴範囲推定装置の構成を示す機能ブロック図である。 被写体の3次元モデルを各視点から見た様子を示す図である。 被写体の横幅と奥行きと視点の角度から各領域の割合を出すことを説明する図である。 本実施の形態における視聴範囲推定装置の処理の流れを示すフローチャートである。 投影環境において映像を投影した様子を示す図である。 視聴者の評価結果をもとに視聴範囲を決定することを説明する図である。 投影環境に障害物が存在する場合に被写体の見える領域を抽出する様子を示す図である。 垂直方向の視聴範囲を示す図である。
まず、本実施の形態の視聴範囲の推定の概要について説明する。
視点の位置によって3次元空間上の被写体の見える領域は異なる。被写体を撮影して2次元平面上に投影した場合、投影された映像を見る位置によっては、例えば映像に対して斜め方向から見た場合、その映像が不自然に見えることがある。
図1に示すように、円柱状の被写体を撮影してハーフミラーに投影したとき、投影環境において投影された被写体の映像を正面からずれた位置で見た場合、本来ならば、領域βは見えずに、領域γは見えるはずであるが、実際には、領域βが見えて、領域γが見えない映像を見ることになる。なお、図1に示した領域α,β,γは視点の移動の前後によって見える見えないが異なる領域であり、以下のような領域である。領域αは、移動後も見えていて良く、実際にも見えている領域である。領域βは、移動後は見えていては駄目だが、実際には見えてしまう領域である。領域γは、移動後は新しく見えなければならないが、実際には見えない領域である。
領域αに対する領域βや領域γの割合が増加するにつれて、投影された映像が本来見えるべき映像と乖離し、不自然になる。そこで、本実施の形態では、撮影された被写体の映像と被写体の形状から各視点での領域α,β,γを抽出し、投影環境において領域βや領域γの割合が一定以上にならない視聴範囲を決定する。
次に、本実施の形態における視聴範囲推定装置について説明する。
図2は、本実施の形態における視聴範囲推定装置の構成を示す機能ブロック図である。
同図に示す視聴範囲推定装置1は、領域抽出部11、形状測定部12、対応付け部13、及び視聴範囲推定部14を備える。視聴範囲推定装置1は、カメラ2及びデプスセンサ3A〜3Nを接続する。視聴範囲推定装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは視聴範囲推定装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
領域抽出部11は、カメラ2で撮影した映像から被写体100の写っている領域を抽出する。領域の抽出は、例えばKinectのようなデプスセンサを用いてカメラ2から被写体100方向の撮影シーンのデプスマップを作成し、映像内の特徴点を抽出して実現することを想定する(参考文献:中島秀真、他5名、“Kinectによる安定な動物体領域抽出のためのカラー画像とデプスマップの時刻合わせ”、電子情報通信学会技術研究報告、2012年、第111巻、第378号、pp.183−190)。
形状測定部12は、被写体100の3次元空間上での形状を測定する。形状の測定は、デプスセンサ3A〜3Nや超音波を用いて3次元モデルを生成することを想定する。例えば、被写体100から等距離かつ複数箇所に配置されたデプスセンサ3A〜3Nによって得られたデプスマップを結合して被写体100の3次元モデルを生成する。
対応付け部13は、被写体100の領域(映像内での座標)と形状(3次元モデル)の情報から、映像内に写っている被写体100と3次元モデルとを対応付けて、3次元モデルにおいて映像内に写っている部分を特定する。例えば、デプスセンサ3A〜3Nを用いて3次元モデルを生成した場合、カメラ2と同じ位置のデプスセンサ3Aによって得られたデプスマップに画素を貼り付けることで実現できる。
視聴範囲推定部14は、被写体100の映像と3次元モデルを対応つけた情報を用い、撮影した映像を投影したときに、投影した映像が自然に見える視聴範囲を推定する。
ここで、視聴範囲の推定方法について説明する。被写体100を撮影したカメラ2の位置を基本位置とする。視点が基本位置から移動した位置から見える被写体100を考える。
視聴範囲推定部14は、被写体100の映像と3次元モデルを対応つけた情報を用いて、基本位置から移動した位置において被写体100の3次元モデルを見たとして、移動後も「引き続き見えていて良い領域α」、移動後は「見えていては駄目だが、実際は見えてしまう領域β」、移動後は「見えなければ駄目だが、実際は見えない領域γ」の各領域を抽出する。実際は見えてしまう領域は映像内に写っている領域であり、実際は見えない領域は映像内に写っていない領域である。
例えば、図3に示すように、立方体の被写体100の3次元モデルの正面を視点O(基本位置)とし、基本位置から視点K、視点Nと視点を移動させた位置において3次元モデルを見たときの領域α,β,γを抽出する。視点Oでは、立方体の正面のみが見えており、正面のみが撮影される。対応付け部13は、被写体100の映像と立方体の3次元モデルを対応付けて、3次元モデルにおいて映像内に写っている部分を特定する。視点Kから3次元モデルを見ると、立方体の正面と側面が見える。立方体の正面は、視点Kの位置から見えて、映像内に写っている領域なので領域αである。立方体の側面は、視点Kの位置から見えるが、映像内に写っていないので領域γである。視点Kからさらに右側に移動した視点Nにおいても、領域α,β,γを抽出する。視点の位置は、例えば、被写体100の3次元モデルの中心から等距離かつ等間隔に設定する。
視聴範囲推定部14は、各視点において領域α,β,γを抽出すると、各視点における領域αの面積に対する領域β,γの面積が一定以上の割合にならない視点の範囲を視聴範囲として決定する。以下に、各領域の割合を算出する一例を示す。例えば、被写体100が立方体の場合、図4に示すように、立方体の奥行きの長さをd、横幅の長さをw、基本位置である視点Oに対する視点Kの角度をθとすると、領域αの面積Sαと領域γの面積Sγの割合は次式(1)で表すことができる。
Figure 0006619686
あるいは、視聴範囲推定部14は、各視点から見た被写体100の3次元モデルを平面上に投影し、各視点における投影図から領域α,β,γそれぞれの面積を求めて領域α,β,γの割合を算出してもよい。
なお、各領域の色調、模様、又は輝度を考慮して各領域の割合を補正してもよい。例えば、色調に関しては、各領域の平均値や最も多くの面積を占める色調値を算出し、色調の膨張性や収縮性による錯覚を加味して領域の割合を決定する。
視聴範囲内として許容する領域α,β,γの割合の条件は、目的や意図に応じて任意に指定できるものとする。例えば、領域αの割合が全体(領域α,β,γの合計)の70%以上、領域βの割合が20%未満であって領域γの割合が30%未満、領域β,γの割合の合計が40%未満、などがある。さらに、条件を段階的に設けて、視聴範囲を複数に分けてもよい。視聴範囲を複数に分けることで、サービス提供者は、投影環境での各視聴範囲の料金設定に用いることができる。
次に、本実施の形態における視聴範囲推定装置の動作について説明する。
図5は、本実施の形態における視聴範囲推定装置1の処理の流れを示すフローチャートである。
撮影環境において、被写体100となる人物や物体をカメラ2で撮影する(ステップS11)。
領域抽出部11が撮影された映像から被写体100が写っている領域を抽出し(ステップS12)、形状測定部12が被写体100の三次元空間上での形状を測定する(ステップS13)。
対応付け部13が被写体100の領域と3次元モデルとを対応付ける(ステップS14)。
視聴範囲推定部14が、カメラ2の位置と異なる各視点から被写体100を見た時に、当該視点からは見えて映像にも写っている領域α、当該視点からは見えなくて映像に写っている領域β、及び当該視点からは見えて映像に写っていない領域γを抽出する(ステップS15)。
各視点における領域α,β,γの割合に応じて、視聴範囲を決定する(ステップS16)。
投影環境において、被写体100の映像を投影し、ハーフミラー等で結像させる(ステップS17)。
ステップS16で決定した視聴範囲を投影環境における被写体100の結像位置や投影環境の縮尺にあわせて補正し、最終的な視聴範囲を決定する(ステップS18)。
図6は、投影環境において映像を投影した様子を示す図である。結像した被写体の映像200の位置に合わせて、投影環境における最終的な視聴範囲300を決定する。被写体が複数ある場合には、各被写体に対応する視聴範囲から最終的な視聴範囲を決定する。例えば、被写体ごとの視聴範囲の重複部分を抽出しても良いし、目的や意図におうじて各視聴範囲を重み付けし、特定の視聴範囲のみを採用してもよい。また、被写体の映像200の結像位置や形状が変化する場合は、その変化に応じて最終的な視聴範囲300を変える。
視聴範囲を被写体ごとに分けることにより、特定の被写体に特化した座席を作り、料金設定に用いることができる。例えば、アイドルグループのメンバーそれぞれを被写体としたとき、各メンバーごとに最も自然に見える座席を知ることができる。
結像した被写体の映像200を人が見た時に受ける印象(自然に見えるか)は、機械的に算出した視聴範囲と一致しない可能性がある。また、何らかの理由により形状測定部12が被写体100の形状を測定できない可能性も考えられる。
そこで、投影環境において、視聴者に被写体100の映像200を見せ、その際の印象(自然さや整合性)を評価させて評価結果を集計し、評価結果をもとに視聴者の印象を考慮した視聴範囲を推定してもよい。評価方法は、アンケートを用いた感性的評価を想定する。
例えば、図7に示すように、視聴範囲300内とされた地点でも、評価結果が悪ければ同地点付近を視聴範囲から除外する。各地点での評価結果をもとに、被写体の映像200を中心とした扇型の範囲を算出し、未評価の地点も含めて視聴範囲310としても良い。
また、投影環境に支柱などの障害物がある場合、その位置や形状によっては、投影された被写体の映像の一部を視認することができない状況が想定される。そのため、障害物を考慮した次の処理を追加しても良い。
投影環境の形状を測定し、3次元モデルを生成する。3次元モデルは、平面の図面から作成しても良いし、投影環境に設置した複数のカメラの画像やデプスセンサの結果をもとに作成しても良い。
図5のステップS15において領域α,β,γを抽出するとき、図8に示すように、被写体100の3次元モデルと障害物110の3次元モデルを配置して、各視点から被写体100を見たときの領域α,β,γを抽出する。このとき、被写体100の一部が障害物110に重なる場合には、重なった部分を除外して領域を抽出する。図8の例では、視点Kにおいて、被写体100の領域γに障害物110が重なっているので、障害物110が無い場合と比べて領域γの面積は小さくなる。なお、本処理は、各領域が連続している時にのみ適用する。
また、投影環境によっては、視点の高さが必ずしも一定でなく、例えば投影された映像から離れるにしたがい座席の位置が徐々に高くなる構造である場合が考えられる。このような環境では、水平方向だけでなく、垂直方向についても投影される映像の自然さを考慮する必要がある。垂直方向の自然さを考慮すべく、以下の処理を追加しても良い。
視聴範囲内の視点の座標に高さを追加する。視点の高さは、投影環境において高度計を用いて求めても良いし、投影環境の図面を参照して求めても良い。
図5のステップS15において、高さの変化も含めた各視点から被写体100の3次元モデルを見た状態で、領域α,β,γを抽出する。
図5のステップS16では、高さも含めた視聴範囲を決定する。
図9は、垂直方向の視聴範囲を示す図である。被写体の映像200の垂直方向にも視聴範囲300が決められる。
以上説明したように、本実施の形態によれば、被写体100の3次元モデルに映像内に写っている被写体100を対応付けて3次元モデルにおいて映像内に写っている部分を特定し、各視点から前記3次元モデルを見た時に、当該視点から見えて映像にも写っている領域α、当該視点から見えなくて前記映像に写っている領域β、当該視点から見えて前記映像に写っていない領域γを抽出し、各視点の領域α、β、γの割合に基づいて視聴範囲を決定することにより、投影環境に投影した被写体100の映像200が自然に見える範囲が得られる。自然に見える範囲が得られるので、投影環境の広さや形状を適切に設定することが可能となる。
1…視聴範囲推定装置
11…領域抽出部
12…形状測定部
13…対応付け部
14…視聴範囲推定部
2…カメラ
3A〜3N…デプスセンサ
100…被写体
110…障害物
200…映像
300,310…視聴範囲

Claims (6)

  1. コンピュータが実行する視聴範囲推定方法であって、
    被写体を撮影した映像から当該被写体が写っている被写体領域を抽出するステップと、
    前記被写体の3次元モデルを生成するステップと、
    前記3次元モデルに前記被写体領域を対応付けて前記3次元モデルにおいて前記映像に写っている部分を特定するステップと、
    各視点から前記3次元モデルを見た時に、当該視点から見えて前記映像にも写っている第1領域、当該視点から見えなくて前記映像に写っている第2領域、当該視点から見えて前記映像に写っていない第3領域を抽出するステップと、
    各視点の前記第1領域、前記第2領域、前記第3領域の割合に基づいて視聴範囲を決定するステップと、
    を有することを特徴とする視聴範囲推定方法。
  2. 前記被写体領域を抽出するステップは、撮影シーンのデプスマップと前記映像から特徴点を抽出することを特徴とする請求項1に記載の視聴範囲推定方法。
  3. 前記視聴範囲を決定するステップは、前記第1領域、前記第2領域、前記第3領域それぞれの色調、模様、又は輝度を考慮して前記第1領域、前記第2領域、前記第3領域の割合を決定することを特徴とする請求項1又は2に記載の視聴範囲推定方法。
  4. 前記被写体の映像を投影環境において投影し、前記投影環境の各位置において前記映像を見た視聴者の評価結果を用いて前記視聴範囲を補正するステップを有することを特徴とする請求項1乃至3のいずれかに記載の視聴範囲推定方法。
  5. 前記第1領域、前記第2領域、前記第3領域を抽出するステップは、視点を垂直方向に移動したときの前記第1領域、前記第2領域、前記第3領域を抽出し、
    前記視聴範囲を決定するステップは、垂直方向も含めた前記視聴範囲を決定することを特徴とする請求項1乃至4のいずれかに記載の視聴範囲推定方法。
  6. 被写体を撮影した映像から当該被写体が写っている被写体領域を抽出する被写体抽出手段と、
    前記被写体の3次元モデルを生成する被写体測定手段と、
    前記3次元モデルに前記被写体領域を対応付けて前記3次元モデルにおいて前記映像に写っている部分を特定する対応付け手段と、
    各視点から前記3次元モデルを見た時に、当該視点から見えて前記映像にも写っている第1領域、当該視点から見えなくて前記映像に写っている第2領域、当該視点から見えて前記映像に写っていない第3領域を抽出する領域抽出手段と、
    各視点の前記第1領域、前記第2領域、前記第3領域の割合に基づいて視聴範囲を決定する視聴範囲決定手段と、
    を有することを特徴とする視聴範囲推定装置。
JP2016088816A 2016-04-27 2016-04-27 視聴範囲推定方法及び視聴範囲推定装置 Active JP6619686B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016088816A JP6619686B2 (ja) 2016-04-27 2016-04-27 視聴範囲推定方法及び視聴範囲推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016088816A JP6619686B2 (ja) 2016-04-27 2016-04-27 視聴範囲推定方法及び視聴範囲推定装置

Publications (2)

Publication Number Publication Date
JP2017199171A JP2017199171A (ja) 2017-11-02
JP6619686B2 true JP6619686B2 (ja) 2019-12-11

Family

ID=60237995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016088816A Active JP6619686B2 (ja) 2016-04-27 2016-04-27 視聴範囲推定方法及び視聴範囲推定装置

Country Status (1)

Country Link
JP (1) JP6619686B2 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3526896B2 (ja) * 1993-12-09 2004-05-17 株式会社応用計測研究所 動画像処理装置
JP3861866B2 (ja) * 2003-09-11 2006-12-27 日本電気株式会社 3次元グラフィックス表示装置
JP4464773B2 (ja) * 2004-09-03 2010-05-19 日本放送協会 3次元モデル表示装置及び3次元モデル表示プログラム

Also Published As

Publication number Publication date
JP2017199171A (ja) 2017-11-02

Similar Documents

Publication Publication Date Title
US11393173B2 (en) Mobile augmented reality system
US11869205B1 (en) Techniques for determining a three-dimensional representation of a surface of an object from a set of images
Anderson et al. Jump: virtual reality video
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
US9237330B2 (en) Forming a stereoscopic video
US20080246759A1 (en) Automatic Scene Modeling for the 3D Camera and 3D Video
US20130335535A1 (en) Digital 3d camera using periodic illumination
TWI547901B (zh) 模擬立體圖像顯示方法及顯示設備
US20120155744A1 (en) Image generation method
US20140181630A1 (en) Method and apparatus for adding annotations to an image
Zhao et al. Cube2video: Navigate between cubic panoramas in real-time
KR20150013709A (ko) 컴퓨터 생성된 3d 객체들 및 필름 카메라로부터의 비디오 공급을 실시간으로 믹싱 또는 합성하기 위한 시스템
CN109906600B (zh) 模拟景深
KR101713875B1 (ko) 프로젝터 투사 환경하에서의 사용자 시점을 고려한 가상공간 구현 방법 및 시스템
US11017587B2 (en) Image generation method and image generation device
Klose et al. Stereoscopic 3D view synthesis from unsynchronized multi-view video
JP2012185772A (ja) 非固定ズームカメラを用いた自由視点映像の合成画質高精度化方法およびプログラム
JP2014067372A (ja) 運動視差再現プログラムおよび装置ならびにその三次元モデル生成プログラムおよび装置
TW201337867A (zh) 數位告示系統及其方法
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
Yu et al. 3D reconstruction and enrichment of broadcast soccer video
JP6168597B2 (ja) 情報端末装置
JP6619686B2 (ja) 視聴範囲推定方法及び視聴範囲推定装置
JP2005063041A (ja) 3次元モデリング装置、方法、及びプログラム
Inamoto et al. Free viewpoint video synthesis and presentation of sporting events for mixed reality entertainment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191115

R150 Certificate of patent or registration of utility model

Ref document number: 6619686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250