JP6661036B2 - 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 - Google Patents
閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 Download PDFInfo
- Publication number
- JP6661036B2 JP6661036B2 JP2019019771A JP2019019771A JP6661036B2 JP 6661036 B2 JP6661036 B2 JP 6661036B2 JP 2019019771 A JP2019019771 A JP 2019019771A JP 2019019771 A JP2019019771 A JP 2019019771A JP 6661036 B2 JP6661036 B2 JP 6661036B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior data
- analysis
- data
- media
- media content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 claims description 76
- 238000000034 method Methods 0.000 claims description 55
- 230000003542 behavioural effect Effects 0.000 claims description 39
- 238000007405 data analysis Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 4
- 238000010183 spectrum analysis Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 63
- 238000012360 testing method Methods 0.000 description 42
- 230000008451 emotion Effects 0.000 description 32
- 238000013480 data collection Methods 0.000 description 12
- 230000002996 emotional effect Effects 0.000 description 11
- 230000006397 emotional response Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000004931 aggregating effect Effects 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000010835 comparative analysis Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 206010021703 Indifference Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Development Economics (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、コンピュータユーザ行動の分析および処理に関する。特に、発明の実施形態は、たとえばメディアコンテンツに触れている間のコンピュータユーザの行動に関係する情報を使用して、たとえば他のメディアコンテンツと比較した当該メディアコンテンツの質的評価を行なうことに関する。そのような質的比較を用いることにより、コンテンツ制作者、ディストリビュータ、ネットワークオペレータおよび同様のエンティティがメディアコンテンツの送信をメディアコンテンツの十分な品質の項目のみに限定することが可能となり、それによって、ネットワークおよびコンピューティングリソースを保護する。
商業的な観点からは、たとえば広告(ad)、ゲーム、ミュージックビデオ、テレビ番組等のオンラインで提供されるコンテンツの性能を評価することができることが重要である。この点に関して、手動でコンテンツを格付けることによって、たとえば適切な定格値(たとえば星の数)を選択することによってフィードバックを提供するようにコンピュータユーザのためのシステムを提供することは一般的である。広告有効性トラッキングスキームの一部としてアンケートまたはインタビューを提供することも同様に一般的である。
最も一般的には、本発明は、メディアの所与の項目に触れた複数のコンピュータユーザについて収集された感情状態情報を含み得る行動データに基づくメディアの所与の項目の自動分析およびベンチマークのための高度な技術を提案する。特定の典型的な質的比較であるそのようなベンチマークの使用により、コンテンツ制作者、ディストリビュータ、ネットワークオペレータ、および同様のエンティティが、十分な品質である、たとえば所与のしきい値を越えるベンチマークスコアを所有し、それによってネットワークおよびコンピューティングリソースを保護するメディアコンテンツの項目のみに、メディアコンテンツの送信を限定することが可能となる。
を含み、その場合には、当該技術は、迅速な目的査定ツールを提供することができる。代替的にまたはその上、テスト中のメディア自体に対して比較分析を行うことができ、その場合には、当該技術は、たとえば、メディアがその対象視聴者に対して所期の影響を及ぼしたかどうかについて即時のフィードバックを行なうことができる。比較分析は、インパクト(肯定的または否定的)が観察される視聴者セクターを識別することをさらに支援し得る。
ンツエントリーの集計行動データと比較することは、分析のための集計行動データを抽出されたノルムと比較することを含む。ノルムは、テスト中のメディアの集計データの対応する特性をそれと比較することができる非コンテキストな相対的情報であり得る。
他の感情値によって標準化されたそれぞれのメディアのすべてまたは一部中の感情値と、
それぞれのメディアのすべてまたは一部中の感情スパンと、
感情ピークの相対時間と、
感情ピークの数と、
最も高い感情ピークの値と、
感情トラフの相対時間と、
感情トラフの数と、
最も低い感情トラフの値と、
それぞれのメディアのすべてまたは一部中の累積的な感情値と、
感情値の経時変化の尖度および/またはスキューと、
感情値の経時変化の増大および/または減少の持続時間と、
中間感情値の経時変化の中央値、範囲、および標準偏差と、
中間感情値の経時変化についての最大値と終値との間の相違と、
中間感情値の経時変化に基づく線形トレンドの交点および/または勾配と、
時間によって、またはデータ記録の数によって集計された時の中間感情値の百分位数分布記述子と、のうちいずれか1つ以上を含むことができる。
できる他の情報、たとえば、身振り、(たとえば、皮膚の色または監視アクセサリーに基づく)血圧、まばたきなどのうちのいずれかを含み得る。
タ分析サブグループの集計行動データを、抽出されたノルムと比較することを含む。
添付の図面を参照して発明の実施形態について以下に詳細に説明する。
図1は、本発明が動作し得る環境100の一実施形態を表す。ユーザ102は、ネットワーク対応型クライアントコンピューティング装置101、たとえば、PC、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、またはメディアコンテンツをレンダリングすることが可能であって、局所的なストレージ装置もしくは遠隔ストレージ装置上に存在し得る他の装置に関連付けられたメディアコンテンツをディスプレイ104上で閲覧する。クライアントコンピューティング装置101はしたがって、インターネットなどのネットワーク112を介してデータを送信および受信することが可能である。
ータ収集アプリケーション110がそれに関連付けられている。ユーザ102は、たとえばメディアプレーヤ108上のメディアコンテンツを閲覧しつつ、行動データ収集演習に参加するための招待をコンピューティング装置上で受信することができる。ある実施形態によれば、行動データ収集アプリケーションは、ワンタイムベースによってまたはいずれかの所与の行動データ収集演習の開始に先立って行われることができる行動データ収集演習への招待を受付ける前に、コンピュータユーザ行動データを収集するように動作可能ではない。招待の受付け後、行動データ収集アプリケーション110が実行し、リモート分析サーバ114と通信して、以下に記載されるように行動データ収集演習を実行し制御することができる。
ディアコンテンツエントリーをフィルタリングすることによって取得されることができる。集計データのサンプルは、たとえば、利用者情報、ビデオ中の一時的な場所(たとえば最初の10秒)などによって、他の分析次元において制限されることもできる。たとえば、当該メディアについて新しいコンテンツエントリーがすでに作成されている場合、サンプルは、テスト中のメディアに属する集計データが含まれないことを確実にするように配置されることができる。
メディアの最初の10秒において平均よりも多くの驚きを示したことを明らかにすることができる。ステップ612において、イントラメディアベンチマークデータが出力される。上記のように、出力は、表示、たとえばベンチマークデータのグラフ表示または一覧表であり得る。代替的にまたはその上、ベンチマークデータは比較の結果に関心を持つ第三者、たとえばテスト中のメディアの所有者に送信されることができる。本明細書に記載されるすべての典型的な送信のように、ローカルネットワーク上で分析サーバと同じ場所を共用するエンドポイントに送信されるか、または遠隔に位置するエンドポイントに到達するために1つ以上のネットワークによって送信され得る。
媒体」、「コンピュータプログラムメディア」、および「コンピュータ使用可能なメディア」という用語は、ランダムアクセス記憶装置(RAM)、リードオンリーメモリ(ROM)、リムーバブルストレージユニット(たとえば磁気または光ディスク、フラッシュメモリ素子など)、ハードディスクなどといった媒体を一般に指すために用いられる。
Claims (5)
- メディアコンテンツのインパクトを分析するコンピュータ実施方法であって、前記方法は、
分析されるべき1つのメディアコンテンツに関連する複数の個別行動データ記録を分析サーバにおいて受信することを含み、前記複数の個別行動データ記録の各々は、前記分析されるべき1つのメディアコンテンツの再生中にコンピュータユーザから取得され、前記複数の個別行動データ記録の各々は、1つ以上の分析次元によって表現可能な行動データを含み、前記方法はさらに、
前記分析サーバにおいてコンピュータ読取可能命令を実行して、前記分析サーバに、
前記受信された複数の個別行動データ記録を、複数の行動データ分析サブグループに分割するステップであって、前記複数の行動データ分析サブグループの各々は、前記分析次元のうち1つ以上において所定の特性を呈示する個別行動データ記録を有するステップと、
前記複数の行動データ分析サブグループの各々について前記個別行動データ記録における前記行動データを集計するステップと、
前記複数の行動データ分析サブグループの前記集計行動データ間の統計的に有意な相違を識別するステップと、
前記識別された統計的に有意な相違に基づいて、前記分析次元内の前記1つのメディアコンテンツの相対的なインパクトを示す出力を生成するステップと、を行わせることを含む、方法。 - 前記分析サーバは、前記複数の個別行動データ記録の前記集計行動データから1つ以上のノルムを抽出するステップを行い、前記複数の行動データ分析サブグループの前記集計行動データ間の統計的に有意な相違を識別するステップは、前記複数の行動データ分析サブグループの前記集計行動データを、前記抽出されたノルムと比較することを含む、請求項1に記載の方法。
- 前記分析サーバは、
前記複数の個別行動データ記録における行動データと前記1つ以上の分析次元との間の1つ以上の相関関係を検出するステップと、
前記受信された複数の個別行動データ記録を、前記検出された1つ以上の相関関係に基づいて、複数の行動データ分析サブグループにセグメント化するステップと、を行う、請求項1または請求項2に記載の方法。 - 前記検出するステップは、クラスタアルゴリズムおよび/またはスペクトル分析を適用する、請求項3に記載の方法。
- コンピューティング装置によって実行されるコンピュータプログラムであって、前記コンピューティング装置によって実行されると、メディアコンテンツの項目のインパクトをベンチマークする請求項1〜請求項4のいずれか1項に記載された方法を前記コンピューティング装置に行わせる、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1320485.4 | 2013-11-20 | ||
GBGB1320485.4A GB201320485D0 (en) | 2013-11-20 | 2013-11-20 | Method of benchmarking media content based on viewer behaviour |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532552A Division JP6669652B2 (ja) | 2013-11-20 | 2014-11-18 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019091487A JP2019091487A (ja) | 2019-06-13 |
JP6661036B2 true JP6661036B2 (ja) | 2020-03-11 |
Family
ID=49883906
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532552A Active JP6669652B2 (ja) | 2013-11-20 | 2014-11-18 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
JP2019019771A Active JP6661036B2 (ja) | 2013-11-20 | 2019-02-06 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532552A Active JP6669652B2 (ja) | 2013-11-20 | 2014-11-18 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10325145B2 (ja) |
EP (1) | EP3072091A1 (ja) |
JP (2) | JP6669652B2 (ja) |
CN (1) | CN105765611A (ja) |
GB (1) | GB201320485D0 (ja) |
WO (1) | WO2015075035A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10481749B1 (en) | 2014-12-01 | 2019-11-19 | Google Llc | Identifying and rendering content relevant to a user's current mental state and context |
GB201520398D0 (en) * | 2015-11-19 | 2016-01-06 | Realeyes Oü | Method and apparatus for immediate prediction of performance of media content |
EP4425947A2 (en) | 2016-02-23 | 2024-09-04 | Essilor International | A display exposure monitoring module |
US10339508B1 (en) | 2018-02-12 | 2019-07-02 | Capital One Services, Llc | Methods for determining user experience (UX) effectiveness of ATMs |
US11645578B2 (en) | 2019-11-18 | 2023-05-09 | International Business Machines Corporation | Interactive content mobility and open world movie production |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4064590B2 (ja) * | 1999-06-10 | 2008-03-19 | 三菱電機株式会社 | 放送番組録画装置 |
US20050021397A1 (en) | 2003-07-22 | 2005-01-27 | Cui Yingwei Claire | Content-targeted advertising using collected user behavior data |
JP4281790B2 (ja) * | 2006-12-08 | 2009-06-17 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US8230457B2 (en) | 2007-03-07 | 2012-07-24 | The Nielsen Company (Us), Llc. | Method and system for using coherence of biological responses as a measure of performance of a media |
WO2009059246A1 (en) * | 2007-10-31 | 2009-05-07 | Emsense Corporation | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
JP5243318B2 (ja) | 2009-03-19 | 2013-07-24 | 株式会社野村総合研究所 | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
US8850328B2 (en) * | 2009-08-20 | 2014-09-30 | Genesismedia Llc | Networked profiling and multimedia content targeting system |
KR101708682B1 (ko) * | 2010-03-03 | 2017-02-21 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법. |
US20130238394A1 (en) | 2010-06-07 | 2013-09-12 | Affectiva, Inc. | Sales projections based on mental states |
CN103339649A (zh) * | 2011-02-27 | 2013-10-02 | 阿弗科迪瓦公司 | 基于情感的视频推荐 |
US20130110565A1 (en) * | 2011-04-25 | 2013-05-02 | Transparency Sciences, Llc | System, Method and Computer Program Product for Distributed User Activity Management |
JP2013070155A (ja) * | 2011-09-21 | 2013-04-18 | Nec Casio Mobile Communications Ltd | 動画スコアリングシステム、サーバ装置、動画スコアリング方法、動画スコアリングプログラム |
US20130238396A1 (en) | 2012-03-06 | 2013-09-12 | Jukka SAPPINEN | Method, system and apparatus for designing assessment report |
JP2013218638A (ja) * | 2012-04-12 | 2013-10-24 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ配信システムおよびリコメンド方法 |
US9769512B2 (en) * | 2012-11-08 | 2017-09-19 | Time Warner Cable Enterprises Llc | System and method for delivering media based on viewer behavior |
US20140298364A1 (en) * | 2013-03-26 | 2014-10-02 | Rawllin International Inc. | Recommendations for media content based on emotion |
-
2013
- 2013-11-20 GB GBGB1320485.4A patent/GB201320485D0/en not_active Ceased
-
2014
- 2014-11-18 JP JP2016532552A patent/JP6669652B2/ja active Active
- 2014-11-18 EP EP14809302.4A patent/EP3072091A1/en not_active Withdrawn
- 2014-11-18 WO PCT/EP2014/074923 patent/WO2015075035A1/en active Application Filing
- 2014-11-18 CN CN201480063448.6A patent/CN105765611A/zh active Pending
- 2014-11-18 US US15/037,675 patent/US10325145B2/en active Active
-
2019
- 2019-02-06 JP JP2019019771A patent/JP6661036B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN105765611A (zh) | 2016-07-13 |
WO2015075035A1 (en) | 2015-05-28 |
JP6669652B2 (ja) | 2020-03-18 |
GB201320485D0 (en) | 2014-01-01 |
EP3072091A1 (en) | 2016-09-28 |
JP2019091487A (ja) | 2019-06-13 |
US20160300102A1 (en) | 2016-10-13 |
US10325145B2 (en) | 2019-06-18 |
JP2017503380A (ja) | 2017-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6661036B2 (ja) | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 | |
US11064257B2 (en) | System and method for segment relevance detection for digital content | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
US10423512B2 (en) | Method of collecting and processing computer user data during interaction with web-based content | |
US9805098B2 (en) | Method for learning a latent interest taxonomy from multimedia metadata | |
CN109511015B (zh) | 多媒体资源推荐方法、装置、存储介质及设备 | |
US20160188997A1 (en) | Selecting a High Valence Representative Image | |
JP2013537435A (ja) | ウェブサービスを用いた心理状態分析 | |
TW201340690A (zh) | 視訊推薦系統及其方法 | |
US11812105B2 (en) | System and method for collecting data to assess effectiveness of displayed content | |
CN113506124B (zh) | 一种智慧商圈中媒体广告投放效果的评价方法 | |
US20150235264A1 (en) | Automatic entity detection and presentation of related content | |
CN108476336A (zh) | 识别内容频道的听众的查看特性 | |
JP2015095249A (ja) | ブランド診断方法及びそのシステム | |
US20210295186A1 (en) | Computer-implemented system and method for collecting feedback | |
Zhang et al. | Synchronous prediction of arousal and valence using LSTM network for affective video content analysis | |
TW201502999A (zh) | 一種行為辨識及追蹤系統 | |
US20240169004A1 (en) | Methods and systems for self-tuning personalization engines in near real-time | |
CN112650884B (zh) | 基于深度学习的视频推送方法 | |
Latar | Automatic newsrooms | |
CN117909542A (zh) | 一种视频推荐方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6661036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |