JP2016154275A - 顔映像実体化システム、実体化装置 - Google Patents

顔映像実体化システム、実体化装置 Download PDF

Info

Publication number
JP2016154275A
JP2016154275A JP2015031285A JP2015031285A JP2016154275A JP 2016154275 A JP2016154275 A JP 2016154275A JP 2015031285 A JP2015031285 A JP 2015031285A JP 2015031285 A JP2015031285 A JP 2015031285A JP 2016154275 A JP2016154275 A JP 2016154275A
Authority
JP
Japan
Prior art keywords
materialization
data
video
target
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015031285A
Other languages
English (en)
Other versions
JP6452152B2 (ja
Inventor
直美 山下
Naomi Yamashita
直美 山下
淳司 大和
Atsushi Yamato
淳司 大和
英之 中西
Hideyuki Nakanishi
英之 中西
一晶 田中
Kazuaki Tanaka
一晶 田中
知也 岡島
Tomoya Okajima
知也 岡島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Osaka University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Osaka University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015031285A priority Critical patent/JP6452152B2/ja
Publication of JP2016154275A publication Critical patent/JP2016154275A/ja
Application granted granted Critical
Publication of JP6452152B2 publication Critical patent/JP6452152B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】相手の実際の映像を提示しながら、別々の空間にいる感覚を低減させる。
【解決手段】顔映像実体化システムは、実体化対象データ取得装置と実体化装置からなる。実体化対象データ取得装置は、少なくとも対象側映像取得部、モーショントラッキング部を備える。実体化装置は、少なくともロボット、スクリーン、投影部を備える。対象側映像取得部は、実体化対象の顔を含む映像のデータである実体化対象映像データを取得する。モーショントラッキング部は、実体化対象映像データから実体化対象の所定の顔の動きを抽出し、動きデータとして取得する。ロボットは、動きデータにしたがって所定の顔の動きを実体化する。スクリーンは、所定の顔の動きを示せるように一部がロボットに貼り付けられている。投影部は、スクリーンに実体化対象映像データの映像を投影する。
【選択図】図1

Description

本発明は、異なる空間にいる相手に対して、異なる空間にいるという感覚を低減させる顔映像実体化システム、実体化装置に関する。
相手の姿を見ながら会話できるビデオ会議は、その相手を身近に感じながら会話できる一般的な遠隔コミュニケーションの方法として知られている。しかし、2次元映像として表示されるために、動作が見逃されやすいなどの課題や、相手の映像を映すディスプレイがユーザ側の空間と相手側の空間を隔てるガラス窓に相当してしまうので、依然として別々の空間にいる感覚が強いという課題があった。
そこで、非特許文献1のような遠隔ユーザのジェスチャの可視性を向上させる手法や、非特許文献2のような相手の身体を模したロボットを介して会話するロボット会議が研究されている。
山下直美 他, "遠隔ユーザのジェスチャの可視性を向上させる手法の提案と評価", 情報処理学会論文誌, vol.52 No.1 97-108, Jan. 2011. Daisuke Sakamoto 他, "Andoroid as Telecommunication Medium with a Human-like Presence", Human-Robot Interaction (HRI), 2007 2nd ACM/IEEE International Conference on, 2007.
相手の身体の代替であるロボットがユーザと同じ空間に存在すれば、ビデオ会議よりも相手の存在感を強く感じられる。しかし、ビデオ会議とは異なり、相手の実際の姿をユーザに提示することができないという課題がある。
本発明は、相手の実際の映像を提示しながら、別々の空間にいる感覚を低減させることを目的とする。
本発明の第1の発明は、ネットワークを介して接続された実体化対象データ取得装置と実体化装置からなる顔映像実体化システムである。実体化対象データ取得装置は、対象側映像取得部、モーショントラッキング部、対象側通信部、対象側出力部を備える。実体化装置は、実体化側映像取得部、実体化側通信部、ロボット、スクリーン、投影部を備える。対象側映像取得部は、実体化対象の顔を含む映像のデータである実体化対象映像データを取得する。モーショントラッキング部は、実体化対象映像データから実体化対象の所定の顔の動きを抽出し、動きデータとして取得する。対象側通信部は、実体化対象映像データと動きデータとを実体化装置に送信し、実体化装置側の映像のデータである実体化側映像データを実体化装置から受信する。対象側出力部は、実体化側映像データの映像を出力する。実体化側映像取得部は、実体化側映像データを取得する。実体化側通信部は、実体化対象映像データと動きデータとを実体化対象データ取得装置から受信し、実体化側映像データを実体化対象データ取得装置に送信する。ロボットは、動きデータにしたがって所定の顔の動きを実体化する。スクリーンは、所定の顔の動きを示せるように一部がロボットに貼り付けられている。投影部は、スクリーンに実体化対象映像データの映像を投影する。
本発明の第2の発明は、実体化対象データ取得装置と実体化装置からなる顔映像実体化システムである。実体化対象データ取得装置は、対象側映像取得部、モーショントラッキング部、対象側記録部を備える。実体化装置は、実体化側記録部、ロボット、スクリーン、投影部を備える。対象側映像取得部は、実体化対象の顔を含む映像のデータである実体化対象映像データを取得する。モーショントラッキング部は、実体化対象映像データから実体化対象の所定の顔の動きを抽出し、動きデータとして取得する。対象側記録部は、実体化対象映像データと動きデータとを記録する。実体化側記録部は、実体化対象映像データと動きデータとを読み出す。ロボットは、動きデータにしたがって所定の顔の動きを実体化する。スクリーンは、所定の顔の動きを示せるように一部がロボットに貼り付けられている。投影部は、スクリーンに実体化対象映像データの映像を投影する。
本発明の顔映像実体化システムによれば、相手の実際の姿を提示できるというビデオ会議の利点と、相手の身体の代替が同じ空間に物理的に存在するというロボット会議の利点の両方を併せ持つことができるので、相手の実際の映像を提示しながら、別々の空間にいる感覚を低減させることができる。
本発明の顔映像実体化システムの機能構成例を示す図。 ロボットの顔の部分の例を示す図。 スクリーンの例を示す図。 実体化装置の全体の例を示す図。 実施例1の顔映像実体化システムの処理フロー例を示す図。 変形例の顔映像実体化システムの処理フロー例を示す図。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
図1に実施例1の顔映像実体化システムの機能構成例を示す。顔映像実体化システムは、ネットワーク800を介して接続された実体化対象データ取得装置100と実体化装置200からなる。実体化対象データ取得装置100は、対象側映像取得部110、モーショントラッキング部120、対象側通信部130、対象側出力部140を備える。実体化装置200は、実体化側映像取得部210、実体化側通信部230、ロボット240、スクリーン250、投影部260を備える。図2にロボットの顔の部分の例を、図3にスクリーンの例を、図4に実体化装置の全体の例を示す。図4(A)はスクリーンの背面側、図4(B)はスクリーンの前面側を示す図である。図5は実施例1の顔映像実体化システムの処理フロー例を示す図である。
対象側映像取得部110は、実体化対象の顔を含む映像のデータである実体化対象映像データを取得する(S110)。対象側映像取得部110は具体的にはカメラなどであり、音響データも一緒に取得してもよい。
モーショントラッキング部120は、実体化対象映像データから実体化対象の所定の顔の動きを抽出し、動きデータとして取得する(S120)。「所定の顔の動き」とは、目、鼻、口のような対面で会話している感覚を効果的に相手に与えられるような部分の動きとすればよい。また、顔の向きや位置も「所定の顔の動き」として抽出すればよい。
対象側通信部130は、実体化対象映像データと動きデータとを実体化装置200に送信し、実体化装置200側の映像のデータである実体化側映像データを実体化装置200から受信する(S130)。対象側出力部140は、実体化側映像データの映像を出力する(S140)。音響データも含まれる場合は、映像と一緒に出力すればよい。なお、対象側映像取得部110と対象側出力部140には一般的なビデオ会議装置を用いてもよい。
実体化側映像取得部210は、実体化側映像データを取得する(S210)。具体的にはカメラなどであり、音響データも一緒に取得してもよい。実体化側通信部230は、実体化対象映像データと動きデータとを実体化対象データ取得装置100から受信し、実体化側映像データを実体化対象データ取得装置100に送信する(S230)。
ロボット240は、動きデータにしたがって所定の顔の動きを実体化する(S240)。図2〜4に示した実体化装置200では、「所定の顔の動き」として目の動きを実体化する例を示している。ロボット240の眼球241は、眼球のピッチ軸用サーボモータ246とヨー軸用サーボモータ246によってピッチ軸とヨー軸の動きが可能である。瞼242は瞼用サーボモータ247によって瞬きが可能である。また、首243は首用サーボモータ248によってロール軸回転ができ、腰244は腰用サーボモータ249によってロール軸回転ができる。そして、首243と腰244の動きによって、あらかじめ定めた範囲で顔の向きと位置を変更できる。
スクリーン250は、所定の顔の動きを示せるように一部がロボットに貼り付けられている。なお、ロボット240がスクリーン250を引っ張る動きをする場合は、スクリーン250は伸縮可能な材質が望ましい。投影部260は、スクリーン250に実体化対象映像データの映像を投影する(S260)。図2〜4に示した実体化装置200では、スクリーン250は収縮性のある布であり、アクリル板255を覆っている。スクリーン250およびアクリル板255の真ん中付近に2つの穴251が設けられている。穴251の周辺のスクリーン(布)250がロボット240の瞼242に貼り付けられている。したがって、瞼242が開いた状態のときは眼球241が見え、瞼242を閉じると目を閉じた状態になる。また、アクリル板255はロボット240の顔部分に固定されていて、首243と腰244の動きによってスクリーン250全体が動くようになっている。また、スクリーン250の周りの投影部260によって投影された映像が映し出される側に外枠270が固定して配置されている。外枠270によってスクリーン250の縁が隠されるので、スクリーン250全体が動いているという感覚を与えないようにできる。顔の向きと位置の変更できる範囲は、スクリーン250の縁が外枠270で隠せる範囲とすればよい。
投影部260が映す映像の目の位置とロボット240の眼球241の位置が揃うように、ロボット240を動きデータにしたがって動作させる。なお、ロボット240が眼球241の位置を動かせないときは、投影部260側で映像の目の位置と眼球241の位置を揃えてもいい。また、投影光によって眼球241が影になりやすいので、眼球が明るくなるようにLEDなどで明るくしてもよい。
図2〜4の実体化装置200は目を実体化したものであるが、目だけでなく鼻や唇など他の顔面部位を実体化することも可能である。目を実体化した場合、相手がユーザ側の空間を見ていることを明確にできるため、対面で会話している感覚を効果的に強化できる。ロボット会議においても同様の効果が得られる可能性があるが、相手の外見をロボットで再現するためには、その人に合わせてロボットを1つ1つ設計しなければならず、コストの面から一般に普及させることは困難である。これに対し、本発明では、人により差が小さい顔面の一部のみをロボットで実体化するため、平均的な形状のロボットを量産することでコストを大幅に削減することができる。さらに、実体化部以外は映像であるため、相手の現在の服装等も提示することが可能である。
このように、本実施例の顔映像実体化システムによれば、相手の実際の姿を提示できるというビデオ会議の利点と、相手の身体の代替が同じ空間に物理的に存在するというロボット会議の利点の両方を併せ持つことができるので、相手の実際の映像を提示しながら、別々の空間にいる感覚を低減させることができる。さらに、双方向の通信を行っているので、実体化対象データ取得装置100側の動作や発言に基づいてロボット240が動く。よって、より別々の空間にいる感覚を低減できる。さらに、双方にモーショントラッキング部、ロボット、スクリーン部、投影部を備えれば、遠隔地間で互いに実体化装置を見ながら会話ができる。
[変形例]
実施例1では、実体化対象データ取得装置と実体化装置とが通信を行う例を示した。本変形例では、実体化対象データ取得装置で記録したデータに基づいて実体化装置が動作する場合を示す。本変形例の機能構成例も図1に示す。ただし、本変形例では、実体化装置側の映像を実体化対象データ取得装置側に送らないので、必要な構成部が少ない。本変形例の処理フロー例は図6に示す。
本変形例の顔映像実体化システムは、実体化対象データ取得装置300と実体化装置400からなる。実体化対象データ取得装置300は、対象側映像取得部110、モーショントラッキング部120、対象側記録部390を備える。実体化装置400は、実体化側記録部490、ロボット240、スクリーン250、投影部260を備える。
対象側映像取得部110は、実体化対象の顔を含む映像のデータである実体化対象映像データを取得する(S110)。モーショントラッキング部120は、実体化対象映像データから実体化対象の所定の顔の動きを抽出し、動きデータとして取得する(S120)。対象側記録部390は、実体化対象映像データと動きデータとを記録する(S390)。実体化側記録部490は、通信、郵送などの手段で実体化対象データ取得装置300から、あらかじめ実体化対象映像データと動きデータを受け取り、記録しておく(S490)。ロボット240は、動きデータにしたがって所定の顔の動きを実体化する(S240)。スクリーン250は、所定の顔の動きを示せるように一部がロボットに貼り付けられている。なお、ロボット240がスクリーン250を引っ張る動きをする場合は、スクリーン250は伸縮可能な材質が望ましい。投影部260は、スクリーンに実体化対象映像データの映像を投影する(S260)。
対象側映像取得部110、モーショントラッキング部120、ロボット240、スクリーン250、投影部260の実現方法は実施例1と同じであり、図2〜4を用いた説明と同様に実現すればよい。したがって、実体化対象データ取得装置300側の動作や発言に応じた動きを確認できないが、それ以外の効果は実施例1と同じである。
100、300 実体化対象データ取得装置 110 対象側映像取得部
120 モーショントラッキング部 130 対象側通信部
140 対象側出力部 200、400 実体化装置
210 実体化側映像取得部 230 実体化側通信部
240 ロボット 250 スクリーン
260 投影部 270 外枠
390 対象側記録部 490 実体化側記録部
800 ネットワーク

Claims (7)

  1. ネットワークを介して接続された実体化対象データ取得装置と実体化装置からなる顔映像実体化システムであって、
    前記実体化対象データ取得装置は、
    実体化対象の顔を含む映像のデータである実体化対象映像データを取得する対象側映像取得部と、
    前記実体化対象映像データから前記実体化対象の所定の顔の動きを抽出し、動きデータとして取得するモーショントラッキング部と、
    前記実体化対象映像データと前記動きデータとを前記実体化装置に送信し、前記実体化装置側の映像のデータである実体化側映像データを前記実体化装置から受信する対象側通信部と、
    前記実体化側映像データの映像を出力する対象側出力部と、
    を備え、
    前記実体化装置は、
    前記実体化側映像データを取得する実体化側映像取得部と、
    前記実体化対象映像データと前記動きデータとを前記実体化対象データ取得装置から受信し、前記実体化側映像データを前記実体化対象データ取得装置に送信する実体化側通信部と、
    前記動きデータにしたがって前記所定の顔の動きを実体化するロボットと、
    前記所定の顔の動きを示せるように一部が前記ロボットに貼り付けられたスクリーンと、
    前記スクリーンに前記実体化対象映像データの映像を投影する投影部と、
    を備える
    顔映像実体化システム。
  2. 映像のデータである実体化側映像データを取得する映像取得部と、
    実体化対象の顔を含む映像のデータである実体化対象映像データと前記実体化対象の所定の顔の動きを示す動きデータとを受信し、前記実体化側映像データを送信する通信部と、
    前記動きデータにしたがって前記所定の顔の動きを実体化するロボットと、
    前記所定の顔の動きを示せるように一部が前記ロボットに貼り付けられたスクリーンと、
    前記スクリーンに前記実体化対象映像データの映像を投影する投影部と、
    を備える実体化装置。
  3. 実体化対象データ取得装置と実体化装置からなる顔映像実体化システムであって、
    前記実体化対象データ取得装置は、
    実体化対象の顔を含む映像のデータである実体化対象映像データを取得する対象側映像取得部と、
    前記実体化対象映像データから前記実体化対象の所定の顔の動きを抽出し、動きデータとして取得するモーショントラッキング部と、
    前記実体化対象映像データと前記動きデータとを記録する対象側記録部と、
    を備え、
    前記実体化装置は、
    前記実体化対象映像データと前記動きデータとを読み出す実体化側記録部と、
    前記動きデータにしたがって前記所定の顔の動きを実体化するロボットと、
    前記所定の顔の動きを示せるように一部が前記ロボットに貼り付けられたスクリーンと、
    前記スクリーンに前記実体化対象映像データの映像を投影する投影部と、
    を備える
    顔映像実体化システム。
  4. 実体化対象の顔を含む映像のデータである実体化対象映像データと前記実体化対象の所定の顔の動きを示す動きデータとをあらかじめ記録しておく記録部と、
    前記動きデータにしたがって前記所定の顔の動きを実体化するロボットと、
    前記所定の顔の動きを示せるように一部が前記ロボットに貼り付けられたスクリーンと、
    前記スクリーンに前記実体化対象映像データの映像を投影する投影部と、
    を備える実体化装置。
  5. 請求項1または3記載の顔映像実体化システムであって、
    前記所定の顔の動きとは、少なくとも目、鼻、口のいずれかの動きを含む
    ことを特徴とする顔映像実体化システム。
  6. 請求項1または3記載の顔映像実体化システムであって、
    前記所定の顔の動きとは、少なくとも目の動きを含み、
    前記ロボットは、少なくとも眼球、瞼を実体化し、
    前記スクリーンは、前記瞼の部分に穴を有し、前記ロボットが瞼を閉じる動作のときには前記穴が閉じ、瞼を開く動作のときには前記穴が開く
    ことを特徴とする顔映像実体化システム。
  7. 請求項1,3,5,6のいずれかに記載の顔映像実体化システムであって、
    前記実体化装置は、前記スクリーンの周りの前記投影部によって投影された映像が映し出される側に配置される固定された外枠も備え、
    前記ロボットは、あらかじめ定めた範囲で顔の向きと位置の動きも実体化でき、
    前記ロボットは、前記投影部が映す目の位置と前記ロボットの眼球の位置とが揃うように動作し、
    前記スクリーンは、前記ロボットの顔の向きおよび位置の動きと一体的に動く
    ことを特徴とする顔映像実体化システム。
JP2015031285A 2015-02-20 2015-02-20 顔映像実体化システム、実体化装置 Active JP6452152B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015031285A JP6452152B2 (ja) 2015-02-20 2015-02-20 顔映像実体化システム、実体化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015031285A JP6452152B2 (ja) 2015-02-20 2015-02-20 顔映像実体化システム、実体化装置

Publications (2)

Publication Number Publication Date
JP2016154275A true JP2016154275A (ja) 2016-08-25
JP6452152B2 JP6452152B2 (ja) 2019-01-16

Family

ID=56761338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015031285A Active JP6452152B2 (ja) 2015-02-20 2015-02-20 顔映像実体化システム、実体化装置

Country Status (1)

Country Link
JP (1) JP6452152B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215940A (ja) * 2000-01-31 2001-08-10 Toshiba Corp 表情を有する知的ロボット
JP2006043780A (ja) * 2004-07-30 2006-02-16 Shinshu Univ 曲面顔画像表示を用いたコミュニケーションロボット
JP2006343583A (ja) * 2005-06-09 2006-12-21 Ntt Docomo Inc 顔形状提示装置
JP2009069789A (ja) * 2007-09-12 2009-04-02 Ishikawa Kogaku Zokei Kenkyusho:Kk 顔映像表示装置
JP2013110630A (ja) * 2011-11-22 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 会話映像表示システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215940A (ja) * 2000-01-31 2001-08-10 Toshiba Corp 表情を有する知的ロボット
JP2006043780A (ja) * 2004-07-30 2006-02-16 Shinshu Univ 曲面顔画像表示を用いたコミュニケーションロボット
JP2006343583A (ja) * 2005-06-09 2006-12-21 Ntt Docomo Inc 顔形状提示装置
JP2009069789A (ja) * 2007-09-12 2009-04-02 Ishikawa Kogaku Zokei Kenkyusho:Kk 顔映像表示装置
JP2013110630A (ja) * 2011-11-22 2013-06-06 Nippon Telegr & Teleph Corp <Ntt> 会話映像表示システム

Also Published As

Publication number Publication date
JP6452152B2 (ja) 2019-01-16

Similar Documents

Publication Publication Date Title
US10684467B2 (en) Image processing for head mounted display devices
US9479736B1 (en) Rendered audiovisual communication
US9959676B2 (en) Presentation of enhanced communication between remote participants using augmented and virtual reality
CA3003550C (en) Real-time visual feedback for user positioning with respect to a camera and a display
US10365711B2 (en) Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
US7705877B2 (en) Method and system for display of facial features on nonplanar surfaces
US20170132845A1 (en) System and Method for Reducing Virtual Reality Simulation Sickness
CN107924584A (zh) 增强现实
US20210318749A1 (en) Information processing system, information processing method, and program
JP2020507221A (ja) Hmdを用いたビデオ会議の改良された方法およびシステム
US11645823B2 (en) Neutral avatars
US20200151962A1 (en) Systems And Methods For Providing Real-Time Composite Video From Multiple Source Devices Featuring Augmented Reality Elements
JP2017511615A (ja) 物理的場所間のビデオ対話
US10984537B2 (en) Expression transfer across telecommunications networks
JP2016045814A (ja) 仮想現実サービス提供システム、仮想現実サービス提供方法
JP6452152B2 (ja) 顔映像実体化システム、実体化装置
CN108427195A (zh) 一种基于增强现实的信息处理方法及设备
Al Moubayed et al. Lip-reading: Furhat audio visual intelligibility of a back projected animated face
Otsuka et al. Mm+ space: nx 4 degree-of-freedom kinetic display for recreating multiparty conversation spaces
JP2001092990A (ja) 3次元仮想空間参加者表示方法、3次元仮想空間表示装置、および3次元仮想空間参加者表示プログラムを記録した記録媒体
US20240119619A1 (en) Deep aperture
Pang et al. Design considerations of a robotic head for telepresence applications
WO2020162035A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022242856A1 (en) Communication devices, adapting entity and methods for augmented/mixed reality communication

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181206

R150 Certificate of patent or registration of utility model

Ref document number: 6452152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250