JP6948420B2 - インタラクション方法、機器、システム、電子機器及び記憶媒体 - Google Patents
インタラクション方法、機器、システム、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP6948420B2 JP6948420B2 JP2020019202A JP2020019202A JP6948420B2 JP 6948420 B2 JP6948420 B2 JP 6948420B2 JP 2020019202 A JP2020019202 A JP 2020019202A JP 2020019202 A JP2020019202 A JP 2020019202A JP 6948420 B2 JP6948420 B2 JP 6948420B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- presentation
- audio
- interaction
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3147—Multi-projection systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
ユーザの環境におけるユーザ位置とユーザ行為を含むユーザ情報を収集することと、
前記ユーザ位置に基づいて、予め設定された環境モデリングにおいてユーザが位置するユーザモデリング位置を決定することと、
前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定することと、
前記提示モデリング位置に従って、前記オーディオとビデオの提示機器が環境において行うインタラクション情報の提示を制御することとを含む。
ユーザの環境におけるユーザ位置とユーザ行為を含むユーザ情報を収集することに用いられる収集モジュールと、
前記ユーザ位置に基づいて、予め設定された環境モデリングにおいてユーザが位置するユーザモデリング位置を決定し、前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定する処理モジュールと、
前記提示モデリング位置に従って、前記オーディオとビデオの提示機器が環境において行うインタラクション情報の提示を制御することに用いられる制御モジュールとを備える。
インタラクション機器及びオーディオとビデオの提示機器を含み、
前記インタラクション機器は、前記方法を実行することに用いられ、それにより前記オーディオとビデオの提示機器が前記インタラクション機器の制御にしたがって環境においてインタラクション情報の提示を行う。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリと、を備え、
前記メモリは、少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが前記方法を実行できる。
前記コンピュータ命令は、前記コンピュータに前記方法を実行させるために用いられる。
ステップ203、前記ユーザ位置に基づいて、予め設定された環境モデリングにおいてユーザが位置するユーザモデリング位置を決定し、
ステップ204、前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定し、
ステップ205、前記提示モデリング位置に従って、前記オーディオとビデオの提示機器の環境において行うインタラクション情報の提示を制御する。
ユーザの環境におけるユーザ位置とユーザ行為を含むユーザ情報を収集することに用いられる収集モジュール10と、
前記ユーザ位置に基づいて、予め設定された環境モデリングにおいてユーザが位置するユーザモデリング位置を決定し、前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定することに用いられる処理モジュール20と、
前記提示モデリング位置に従って、前記オーディオとビデオの提示機器が環境において行うインタラクション情報の提示を制御することに用いられる制御モジュール30とを備える。
前記処理モジュール20は、さらに前記各物体の物体情報に基づいて環境モデリングを構築することにも用いられる。
相応的に、前記処理モジュール20は、具体的に、ユーザの環境におけるユーザ座標に基づいて、環境モデリングにおける前記ユーザのユーザモデリング位置を決定ことに用いられる。
相応的に、前記処理モジュール20は、具体的に、ユーザの環境における音声情報の強度と、前記音声情報を収集した音声収集オーディオとビデオの提示機器のオーディオとビデオの提示機器位置とに基づいて、環境モデリングにおける前記ユーザのユーザモデリング位置を決定することに用いられる。
前記処理モジュール20は、具体的に、前記ユーザの顔の向き、及び/又は、前記ユーザモデリング位置に基づいて、オーディオとビデオの提示機器の提示面座標を決定し、前記ユーザと前記オーディオとビデオの提示機器との距離に基づいて、オーディオとビデオの提示機器が提示面において提示する際の提示属性を決定することに用いられる。
前記アクティブモジュールは、収集モジュール10がユーザの環境におけるユーザ位置とユーザ行為を含むユーザ情報を収集する前に、インタラクティブ機器を休止状態に設定し、所定の範囲内の人体信号をリアルタイムで検出することに用いられ、前記人体信号が検出された場合に、前記アクティブモジュールが、さらに前記インタラクション機器を動作状態に置き、ユーザの環境におけるユーザ情報を収集するステップを実行することに用いられる。
Claims (15)
- インタラクション方法であって、
ユーザの実環境におけるユーザ位置とユーザ行為を含むユーザ情報を収集することと、
前記ユーザの実環境におけるユーザ位置に基づいて、座標変換によって、予め設定された環境モデリングにおいて前記ユーザが位置するユーザモデリング位置を決定することと、
前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定することと、
前記提示モデリング位置に従って、前記オーディオとビデオの提示機器が前記実環境において行うインタラクション情報の提示を制御することとを含み、
ここで、前記ユーザの実環境におけるユーザ情報を収集することの前に、
前記実環境における各物体の環境における物体位置及び物体輪郭を含む物体情報を収集することと、
前記各物体の物体情報に基づいて前記環境モデリングを構築することとをさらに含み、
ここで、前記環境モデリングを構築する際に、各オーディオとビデオの提示機器の提示範囲を記憶する、ことを特徴とするインタラクション方法。 - 前記ユーザの実環境におけるユーザ情報を収集することは、
画像収集技術によって前記ユーザの前記実環境における位置画像を収集し、前記位置画像に対して画像解析を行って前記ユーザ位置を取得することを含む、ことを特徴とする請求項1に記載のインタラクション方法。 - 前記ユーザの実環境におけるユーザ情報を収集することは、
音声収集技術によって、前記ユーザの前記実環境における音声情報を収集し、前記音声情報は、前記音声情報の強度と、前記音声情報を収集した音声収集オーディオとビデオの提示機器のオーディオとビデオの提示機器位置とを含むことと、
前記ユーザの前記実環境における音声情報の強度と、前記音声情報を収集した音声収集オーディオとビデオの提示機器のオーディオとビデオの提示機器位置に基づいて、前記ユーザ位置を決定することとを含む、ことを特徴とする請求項1に記載のインタラクション方法。 - 前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定することは、
前記ユーザ行為に基づいて、前記ユーザの顔の向きを決定することと、
前記ユーザの顔の向きと前記ユーザモデリング位置とに基づいて、前記環境モデリングにおける前記オーディオとビデオの提示機器の前記提示モデリング位置を決定することとを含む、ことを特徴とする請求項1に記載のインタラクション方法。 - 前記提示モデリング位置は、提示面座標及び提示属性を含み、
前記ユーザの顔の向きと前記ユーザモデリング位置とに基づいて、前記環境モデリングにおける前記オーディオとビデオの提示機器の前記提示モデリング位置を決定することは、
前記ユーザの顔の向き、及び/又は、前記ユーザモデリング位置に基づいて、前記オーディオとビデオの提示機器の提示面座標を決定することと、
前記ユーザと前記オーディオとビデオの提示機器との距離に基づいて、前記オーディオとビデオの提示機器が提示面において提示する際の提示属性を決定することとを含む、ことを特徴とする請求項4に記載のインタラクション方法。 - 前記ユーザの実環境におけるユーザ情報を収集することの前に、
休止状態に設定し、リアルタイムで所定範囲内にユーザがいるかどうかを検出することと、
前記ユーザが検出されると、動作状態に設定してから、前記ユーザの実環境におけるユーザ情報を収集することとをさらに含み、
ここで、前記休止状態では、前記ユーザ情報を収集せず、前記動作状態では、前記ユーザ情報を収集する、ことを特徴とする請求項1に記載のインタラクション方法。 - インタラクション機器であって、
ユーザの実環境におけるユーザ位置とユーザ行為を含むユーザ情報を収集することに用いられる収集モジュールと、
前記ユーザの実環境におけるユーザ位置に基づいて、座標変換によって、予め設定された環境モデリングにおいて前記ユーザが位置するユーザモデリング位置を決定し、前記ユーザ行為に基づいて、前記環境モデリングにおけるオーディオとビデオの提示機器の提示モデリング位置を決定する処理モジュールと、
前記提示モデリング位置に従って、前記オーディオとビデオの提示機器が前記実環境において行うインタラクション情報の提示を制御することに用いられる制御モジュールとを備え、
ここで、前記収集モジュールは、さらに前記ユーザの実環境におけるユーザ情報を収集することの前に、
前記実環境における各物体の前記実環境における物体位置及び物体輪郭を含む物体情報を収集し、前記物体は、少なくとも1つの前記オーディオとビデオの提示機器を含み、前記オーディオとビデオの提示機器のオーディオとビデオの提示機器情報は、オーディオとビデオの提示機器提示範囲を含むことに用いられ、
前記処理モジュールは、さらに前記各物体の物体情報に基づいて前記環境モデリングを構築することに用いられることを特徴とするインタラクション機器。 - 前記収集モジュールは、画像収集技術によって、前記ユーザの前記実環境におけるユーザ座標を収集することに用いられ、
前記処理モジュールは、前記ユーザの前記実環境におけるユーザ座標に基づいて、前記環境モデリングにおける前記ユーザのユーザモデリング位置を決定ことに用いられる、ことを特徴とする請求項7に記載のインタラクション機器。 - 前記収集モジュールは、音声収集技術によって、前記ユーザの前記実環境における音声情報を収集することに用いられ、前記音声情報は、前記音声情報の強度と、前記音声情報を収集した音声収集オーディオとビデオの提示機器のオーディオとビデオの提示機器位置とを含み、
前記処理モジュールは、前記ユーザの前記実環境における音声情報の強度と、前記音声情報を収集した音声収集オーディオとビデオの提示機器のオーディオとビデオの提示機器位置とに基づいて、前記環境モデリングにおける前記ユーザのユーザモデリング位置を決定することに用いられる、ことを特徴とする請求項7に記載のインタラクション機器。 - 前記収集モジュールは、前記処理モジュールが肢体の動作に基づいてユーザの顔の向きを決定するように、前記ユーザの肢体の動作を収集することに用いられ、
前記処理モジュールは、さらに前記ユーザの顔の向きと前記ユーザモデリング位置に基づいて、前記環境モデリングにおける前記オーディオとビデオの提示機器の前記提示モデリング位置を決定することに用いられる、ことを特徴とする請求項7に記載のインタラクション機器。 - 前記提示モデリング位置は、提示面座標及び提示属性を含み、
前記処理モジュールは、前記ユーザの顔の向き、及び/又は、前記ユーザモデリング位置に基づいて、前記オーディオとビデオの提示機器の提示面座標を決定し、前記ユーザと前記オーディオとビデオの提示機器との距離に基づいて、前記オーディオとビデオの提示機器が提示面において提示する際の提示属性を決定することに用いられる、ことを特徴とする請求項10に記載のインタラクション機器。 - アクティブモジュールをさらに備え、
前記アクティブモジュールは、前記収集モジュールがユーザの実環境におけるユーザ情報を収集する前に、前記インタラクション機器を休止状態に設定し、所定の範囲内にユーザがいるかどうかをリアルタイムで検出することに用いられ、前記ユーザが検出された場合に、前記アクティブモジュールが、前記インタラクション機器を動作状態に設定し、ユーザの実環境におけるユーザ情報を収集するステップを実行することに用いられ、
ここで、前記休止状態では、前記ユーザ情報を収集せず、前記動作状態では、前記ユーザ情報を収集する、ことを特徴とする請求項7に記載のインタラクション機器。 - インタラクションシステムであって、
インタラクション機器及びオーディオとビデオの提示機器を含み、
前記インタラクション機器は、前記オーディオとビデオの提示機器が前記インタラクション機器の制御にしたがって環境においてインタラクション情報の提示を行うように、請求項1〜6のいずれか1項に記載のインタラクション方法を実行することに用いられることを特徴とするインタラクションシステム。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリと、を備え、
前記メモリは、少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサが請求項1〜6のいずれか1項に記載のインタラクション方法を実行できる、ことを特徴とする電子機器。 - コンピュータ命令が記憶された非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1〜6のいずれか1項に記載のインタラクション方法を実行させるために用いられる、ことを特徴とする非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910859793.5 | 2019-09-11 | ||
CN201910859793.5A CN110568931A (zh) | 2019-09-11 | 2019-09-11 | 交互方法、设备、系统、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043936A JP2021043936A (ja) | 2021-03-18 |
JP6948420B2 true JP6948420B2 (ja) | 2021-10-13 |
Family
ID=68779306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020019202A Active JP6948420B2 (ja) | 2019-09-11 | 2020-02-06 | インタラクション方法、機器、システム、電子機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210072818A1 (ja) |
JP (1) | JP6948420B2 (ja) |
CN (1) | CN110568931A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111309153B (zh) * | 2020-03-25 | 2024-04-09 | 北京百度网讯科技有限公司 | 人机交互的控制方法和装置、电子设备和存储介质 |
CN111625099B (zh) * | 2020-06-02 | 2024-04-16 | 上海商汤智能科技有限公司 | 一种动画展示控制方法及装置 |
KR102233395B1 (ko) * | 2020-10-12 | 2021-03-30 | (주)투핸즈인터랙티브 | 라이다 센서를 이용한 증강현실 인터랙티브 스포츠 장치 |
CN112965592A (zh) * | 2021-02-24 | 2021-06-15 | 中国工商银行股份有限公司 | 设备交互方法、装置及系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8983383B1 (en) * | 2012-09-25 | 2015-03-17 | Rawles Llc | Providing hands-free service to multiple devices |
CN104010147B (zh) * | 2014-04-29 | 2017-11-07 | 京东方科技集团股份有限公司 | 自动调节音频播放系统音量的方法和音频播放装置 |
US10297082B2 (en) * | 2014-10-07 | 2019-05-21 | Microsoft Technology Licensing, Llc | Driving a projector to generate a shared spatial augmented reality experience |
EP3438974A4 (en) * | 2016-03-31 | 2019-05-08 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
CN110383214B (zh) * | 2017-03-09 | 2022-05-10 | 索尼公司 | 信息处理装置、信息处理方法和记录介质 |
US11417135B2 (en) * | 2017-08-23 | 2022-08-16 | Sony Corporation | Information processing apparatus, information processing method, and program |
WO2019079790A1 (en) * | 2017-10-21 | 2019-04-25 | Eyecam, Inc | ADAPTIVE GRAPHIC USER INTERFACE SYSTEM |
CN109166575A (zh) * | 2018-07-27 | 2019-01-08 | 百度在线网络技术(北京)有限公司 | 智能设备的交互方法、装置、智能设备和存储介质 |
CN110163978A (zh) * | 2018-09-25 | 2019-08-23 | 中国国际海运集装箱(集团)股份有限公司 | 基于vr的设备展示方法、装置、系统、介质及电子设备 |
-
2019
- 2019-09-11 CN CN201910859793.5A patent/CN110568931A/zh active Pending
-
2020
- 2020-02-06 JP JP2020019202A patent/JP6948420B2/ja active Active
- 2020-04-27 US US16/859,688 patent/US20210072818A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20210072818A1 (en) | 2021-03-11 |
JP2021043936A (ja) | 2021-03-18 |
CN110568931A (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6948420B2 (ja) | インタラクション方法、機器、システム、電子機器及び記憶媒体 | |
US20210210091A1 (en) | Method, device, and storage medium for waking up via speech | |
CN104049721B (zh) | 信息处理方法及电子设备 | |
KR101568347B1 (ko) | 지능형 로봇 특성을 갖는 휴대형 컴퓨터 장치 및 그 동작 방법 | |
WO2020063758A1 (en) | Game Picture Display Method and Apparatus, Storage Medium and Electronic Device | |
EP3465414B1 (en) | Method, apparatus and computer-readable media for touch and speech interface with audio location | |
US9268404B2 (en) | Application gesture interpretation | |
US20170315519A1 (en) | Systems and methods to operate controllable devices with gestures and/or noises | |
US11188145B2 (en) | Gesture control systems | |
CN111586459B (zh) | 一种控制视频播放的方法、装置、电子设备及存储介质 | |
CN113426117B (zh) | 虚拟相机拍摄参数获取方法、装置、电子设备和存储介质 | |
CN111367488B (zh) | 语音设备及语音设备的交互方法、设备、存储介质 | |
CN111966212A (zh) | 基于多模态的交互方法、装置、存储介质及智能屏设备 | |
CN112233211A (zh) | 动画制作的方法、装置、存储介质及计算机设备 | |
CN110501918A (zh) | 智能家电控制方法、装置、电子设备和存储介质 | |
CN110557699A (zh) | 一种智能音箱交互方法、装置、设备及存储介质 | |
WO2022111458A1 (zh) | 图像拍摄方法和装置、电子设备及存储介质 | |
CN111901518B (zh) | 显示方法、装置和电子设备 | |
CN109542218B (zh) | 一种移动终端、人机交互系统及方法 | |
US11755119B2 (en) | Scene controlling method, device and electronic equipment | |
CN111047716B (zh) | 三维场景的态势标绘方法、计算机存储介质及电子设备 | |
CN116069229A (zh) | 显示装置及其控制方法 | |
CN111160318B (zh) | 电子设备控制方法及装置 | |
CN113824982A (zh) | 一种直播方法、装置、计算机设备及存储介质 | |
CN112686990A (zh) | 一种三维模型显示方法、装置、存储介质和计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6948420 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |