JP2020013381A - 情報処理プログラム、情報処理方法、端末装置及び解析装置 - Google Patents

情報処理プログラム、情報処理方法、端末装置及び解析装置 Download PDF

Info

Publication number
JP2020013381A
JP2020013381A JP2018135833A JP2018135833A JP2020013381A JP 2020013381 A JP2020013381 A JP 2020013381A JP 2018135833 A JP2018135833 A JP 2018135833A JP 2018135833 A JP2018135833 A JP 2018135833A JP 2020013381 A JP2020013381 A JP 2020013381A
Authority
JP
Japan
Prior art keywords
user
content
information
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018135833A
Other languages
English (en)
Other versions
JP6983731B2 (ja
Inventor
元 畑
Hajime Hata
元 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LY Corp
Original Assignee
Z Holdings Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Z Holdings Corp filed Critical Z Holdings Corp
Priority to JP2018135833A priority Critical patent/JP6983731B2/ja
Publication of JP2020013381A publication Critical patent/JP2020013381A/ja
Application granted granted Critical
Publication of JP6983731B2 publication Critical patent/JP6983731B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】より詳細なアクション情報を得ることができる情報処理プログラム、情報処理方法、端末装置及び解析装置を提供すること。【解決手段】本願に係る情報処理プログラムは、表示手順と、視線情報取得手順とをコンピュータに実行させる。表示手順は、所定の画面にコンテンツを表示する。視線情報取得手順は、表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する。【選択図】図1

Description

本発明は、情報処理プログラム、情報処理方法、端末装置及び解析装置に関する。
近年、様々なアプリやウェブサービスなどからユーザのアクション情報を取得し、かかるアクション情報に基づいて機械学習を行うことでサービスの改善を行う技術が知られている。かかるユーザのアクション情報は、たとえば、端末装置の画面にどのコンテンツが表示されていたか(表示の有無)や、表示されたコンテンツのうちどのコンテンツがクリックやタップなどで選択されたか(選択の有無)である。
特開2014−203442号公報
しかしながら、従来の技術では、詳細なアクション情報を取得しているとは言えない場合がある。例えば、従来の技術では、コンテンツに対する評価の指標が表示の有無および選択の有無のみであるので、コンテンツに対するユーザのリッチなアクション情報を得ることが難しいという問題がある。
本願は、上記に鑑みてなされたものであって、より詳細なアクション情報を得ることができる情報処理プログラム、情報処理方法、端末装置及び解析装置を提供することを目的とする。
本願に係る情報処理プログラムは、表示手順と、視線情報取得手順とをコンピュータに実行させる。表示手順は、所定の画面にコンテンツを表示する。視線情報取得手順は、表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する。
実施形態の一態様によれば、より詳細なアクション情報を得ることができる情報処理プログラム、情報処理方法、端末装置及び解析装置を提供することができる。
図1は、実施形態に係る情報処理方法の一例を示す説明図である。 図2は、実施形態に係る情報処理システムの構成の一例を示す説明図である。 図3は、実施形態に係る端末装置の構成の一例を示す説明図である。 図4は、実施形態に係る解析装置の構成の一例を示す説明図である。 図5は、実施形態に係る得点定義データベースの一例を示す説明図である。 図6は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。 図7は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。 図8は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。 図9は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。 図10は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。 図11は、実施形態に係る端末装置および解析装置の動作の一例を示す説明図である。 図12は、実施形態に係る端末装置の制御部が実行する処理を示すフローチャートである。 図13は、実施形態に係る解析装置の制御部が実行する処理を示すフローチャートである。 図14は、実施形態に係る解析装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理プログラム、情報処理方法、端末装置及び解析装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理プログラム、情報処理方法、端末装置及び解析装置が限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.情報処理方法〕
まず、実施形態に係る端末装置1が行う情報処理方法について説明する。図1は、実施形態に係る情報処理方法の一例を示す説明図である。ここでは、端末装置1がネットワークN(図2参照)を介してコンテンツ配信装置3(図2参照)からコンテンツCを取得して表示する場合に行う情報処理方法について説明する。
図1に示す端末装置1は、スマートフォンやタブレット等のスマートデバイスであり、3G(Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。また、端末装置1は、液晶ディスプレイ等の出力部13と、ユーザの視線情報を取得する視線センサ14とを備える。
なお、端末装置1には、タッチパネルが採用されているものとする。すなわち、端末装置1のユーザは、指や専用ペンで出力部13の表示面をタッチすることにより各種操作を行う。
コンテンツCは、たとえばニュース記事であり、記事A〜Eなどが含まれる。なお、コンテンツCはニュース記事に限られず、端末装置1で表示可能なコンテンツであればどのようなコンテンツであってもよい。
そして、端末装置1は、かかるコンテンツCを出力部13に表示する(ステップS01)。図1の(a)では、コンテンツCのうち、記事A〜Dが出力部13に表示された例について示している。
次に、端末装置1は、図1の(b)に示すように、視線センサ14を用いることにより、出力部13に表示されたコンテンツCに対するユーザの視線Eに関する情報(以下、視線情報とも呼称する。)を取得する(ステップS02)。
たとえば、端末装置1は、かかる視線情報として、表示されたコンテンツCにおいてユーザが視認する領域Rと、かかる領域Rを視認する時間とを取得する。図1の(b)では、出力部13に表示された記事A〜Dのうち、ユーザが視認する領域Rに記事Bが含まれる例、すなわちユーザが記事Bを視認する例について示している。
視線センサ14は、たとえば、ユーザの眼球に弱い赤外線を照射するとともに、かかる赤外線が照射された眼球をカメラで撮像するいわゆるアイトラッキング法により、ユーザが視認する領域Rを計測することができる。
なお、視線センサ14でユーザの視線を計測する手法はアイトラッキング法に限られず、その他の既知の手法(たとえば、眼球の焦点を利用する手法)が用いられてもよい。
次に、端末装置1は、図1の(c)に示すように、出力部13に表示されたコンテンツCに対するユーザの操作に関する情報(以下、操作情報とも呼称する。)を取得する(ステップS03)。
たとえば、端末装置1は、かかる操作情報として、表示されたコンテンツCのうちユーザが選択したコンテンツに関する情報を取得する。図1の(c)では、出力部13に表示された記事A〜Dのうち、ユーザが視認する記事Bをタップして選択した例について示している。
ここまで説明したように、実施形態では、ユーザのアクション情報として、コンテンツCの表示の有無に加えて、表示されたコンテンツCに対するユーザの視線情報を取得する。これにより、より詳細なアクション情報を得ることができる。
また、実施形態では、ユーザのアクション情報として、表示されたコンテンツCに対するユーザの操作情報を取得する。これにより、さらに詳細なアクション情報を得ることができる。なお、ユーザの視線や操作がどのような場合に、どのようなアクション情報を得ることができるかについては後述する。
〔2.情報処理システムの構成〕
次に、図2を参照して、実施形態に係る情報処理システム100の構成について説明する。図2は、実施形態に係る情報処理システム100の構成の一例を示す説明図である。図2に示すように、実施形態に係る情報処理システム100は、端末装置1、解析装置2、およびコンテンツ配信装置3を含む。
端末装置1は、コンテンツを閲覧するユーザによって利用される情報処理装置である。例えば、端末装置1は、スマートフォン等の携帯電話機や、タブレット端末や、PDA(Personal Digital Assistant)や、デスクトップ型PC(Personal Computer)や、ノート型PC等である。端末装置1は、ユーザによる操作にしたがって、コンテンツ配信装置3からコンテンツCを取得し、取得したコンテンツCを表示する。
解析装置2は、例えば、サーバであり、端末装置1に表示されたコンテンツCに関する情報(以下、表示情報とも呼称する。)と、端末装置1で取得された上述の視線情報および操作情報とを取得する。また、解析装置2は、取得された表示情報、視線情報および操作情報に基づいて、コンテンツCに対するユーザの評価について解析する。
コンテンツ配信装置3は、端末装置1にコンテンツCを配信するコンテンツサーバ等である。例えば、コンテンツ配信装置3は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関連する各種コンテンツを端末装置1に配信する。
これら端末装置1と解析装置2とコンテンツ配信装置3とは、例えば、無線LAN(Local Area Network)通信や、WAN(Wide Area Network)通信、携帯電話通信などによってネットワーク(例えば、インターネット)Nを介して接続され、双方の間で各種情報の通信が可能である。
〔3.端末装置の構成〕
次に、図3を参照して、実施形態に係る端末装置1の構成について説明する。図3は、実施形態に係る端末装置1の構成の一例を示す説明図である。図3に示すように、端末装置1は、通信部11と、入力部12と、出力部13と、視線センサ14と、制御部15とを備える。
(通信部11について)
通信部11は、例えば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、解析装置2や、コンテンツ配信装置3との間で情報の送受信を行う。
(入力部12について)
入力部12は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部12は、キーボードやマウスや操作キー等によって実現される。
(出力部13について)
出力部13は、各種情報を表示するための表示装置である。例えば、出力部13は、液晶ディスプレイ等によって実現される。なお、端末装置1にタッチパネルが採用される場合には、入力部12と出力部13とは一体化される。また、本願の説明では、出力部13を画面と記載する場合がある。
(視線センサ14について)
視線センサ14は、ユーザの視線Eに関する視線情報を取得する。たとえば、視線センサ14は、赤外線照射部と、カメラとを備える。そして、視線センサ14は、かかる赤外線照射部を用いてユーザの眼球に弱い赤外線を照射するとともに、かかる赤外線が照射された眼球をカメラで撮像することによって、ユーザの眼球の動きを検出する。これにより、視線センサ14は、ユーザが視認する領域Rを計測することができる。
また、視線センサ14は、ユーザの眼球の動きを検出することにより、ユーザが領域Rを視認する時間を計測することができる。
(制御部15について)
制御部15は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置1内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部15は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部15は、要求部151と、操作制御部152と、表示制御部153と、視線情報取得部156とを備え、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(要求部151について)
要求部151は、操作制御部152を介してユーザからコンテンツCの取得要求を受信した場合に、コンテンツ配信装置3に対してコンテンツCの取得要求を送信する。
(操作制御部152について)
操作制御部152は、入力部12を介して受け付けたユーザの操作にしたがって、各種制御を実行する。例えば、操作制御部152は、ユーザが入力部12に対してコンテンツCの表示操作を行った場合に、表示対象となるコンテンツCの情報を要求部151に出力する。
また、操作制御部152は、入力部12を介して受け付けたユーザの操作の内容を表示制御部153に出力する。さらに、操作制御部152は、表示されたコンテンツCに対するユーザの操作に関する情報(すなわち操作情報)を取得する。すなわち、操作制御部152は、操作情報取得部の一例である。
(表示制御部153について)
表示制御部153は、受信したコンテンツCを出力部13に表示する処理を実行する。例えば、表示制御部153は、制御部150が、制御情報を実行することで、図3に示すように表示部154、表示情報取得部155として動作し、各種処理を実行する。表示部154、表示情報取得部155は、例えば、CPUやMPU等によって、制御情報がRAMを作業領域として実行されることにより実現される。
(表示部154について)
表示部154は、各種情報を表示する。例えば、表示部154は、出力部13を介して各種情報を表示する。例えば、表示部154は、端末装置1において起動された各種サービスを実行するためのアプリケーションの画面を表示する。
また、表示部154は、端末装置1において各種コンテンツを閲覧するアプリケーションが起動され、かかるアプリケーションを介してユーザからコンテンツCの閲覧要求があった場合に、かかるコンテンツCを出力部13を介して表示する。
(表示情報取得部155について)
表示情報取得部155は、ユーザが表示操作を行ったコンテンツCが表示部154で表示された場合に、かかる表示されたコンテンツCに関する表示情報を取得する。たとえば、表示情報取得部155は、図1に示したように記事A〜Dが出力部13に表示された場合、かかる記事A〜Dを表示情報として取得する。
(視線情報取得部156について)
視線情報取得部156は、視線センサ14からユーザの視線Eに関する視線情報を取得する。たとえば、視線情報取得部156は、視線センサ14から、ユーザが視認する領域Rおよびユーザが領域Rを視認する時間に関する情報を取得することができる。
〔4.解析装置の構成〕
次に、図4を参照して、実施形態に係る解析装置2の構成について説明する。図4は、実施形態に係る解析装置2の構成の一例を示す説明図である。図4に示すように、解析装置2は、通信部21と、記憶部22と、制御部23とを備える。なお、解析装置2は、かかる解析装置2を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部21について)
通信部21は、例えば、NIC等によって実現される。通信部21は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、端末装置1や、コンテンツ配信装置3との間で情報の送受信を行う。
(記憶部22について)
記憶部22は、例えば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図4に示すように、記憶部22は、得点定義データベース221を有する。
(得点定義データベース221について)
得点定義データベース221は、コンテンツCに対するユーザの評価を得点化するための得点定義データが記憶される。図5は、実施形態に係る得点定義データベース221の一例を示す説明図である。
例えば、図5に示すように、得点定義データベース221には、表示情報に含まれる(すなわち、出力部13に表示された)コンテンツCにおいて、かかるコンテンツCに関する視線情報と、操作情報と、得点とが対応付けられて登録されている。
例えば、図5に示す得点定義データベース221は、視線情報として「特定のコンテンツを目視」、「特定のコンテンツを注視」、「すべてのコンテンツを目視」」といった項目を有する。また、図5に示す得点定義データベース221は、操作情報として「特定のコンテンツを選択」、「別のコンテンツを選択」といった項目を有する。
すなわち、図5の例では、表示部154に表示されたコンテンツCに対して、「特定のコンテンツを注視」が「Yes」であり、「特定のコンテンツを選択」が「Yes」であり、その他の視線情報および操作情報が「No」である場合に、「得点」が「5」点であることを示している。
また、表示部154に表示されたコンテンツCに対して、「特定のコンテンツを注視」が「Yes」であり、「別のコンテンツを選択」が「Yes」であり、その他の視線情報および操作情報が「No」である場合に、「得点」が「4」点であることを示している。
なお、図5に示す例はあくまで一例であり、視線情報の詳細な項目や操作情報の詳細な項目、得点などは様々に定義されていてもよい。
(制御部23について)
制御部23は、コントローラ(controller)であり、例えば、CPUやMPU等によって、解析装置2内部の記憶装置に記憶されている各種プログラム(解析プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部23は、例えば、コントローラであり、ASICやFPGA等の集積回路により実現される。
図4に示すように、制御部23は、取得部231と、解析部232とを備え、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部23の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
(取得部231について)
取得部231は、端末装置1から上述の表示情報、視線情報および操作情報を取得する。すなわち、取得部231は、端末装置1で表示されたコンテンツCに関する情報と、かかるコンテンツCに対するユーザの視線Eに関する情報と、表示されたコンテンツCに対するユーザの操作に関する情報とを取得する。
(解析部232について)
解析部232は、取得部231で取得した表示情報、視線情報および操作情報に基づいて、コンテンツCに対するユーザの評価について解析する処理を実行する。例えば、解析部232は、制御部230が、制御情報を実行することで、図4に示すように評価部233、学習部234として動作し、各種処理を実行する。評価部233、学習部234は、例えば、CPUやMPU等によって、制御情報がRAMを作業領域として実行されることにより実現される。
(評価部233について)
評価部233は、コンテンツCに対するユーザの評価を得点として評価する。たとえば、評価部233は、コンテンツCに関する表示情報、視線情報および操作情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する。
(学習部234について)
学習部234は、評価部233で付与されたコンテンツCに対する得点を機械学習によって学習することで、図示しない学習モデルを生成する。たとえば、学習部234は、公知の種々の手法を適用することにより、かかる学習モデルを作成することができる。そして、実施形態では、かかる学習モデルを用いることにより、ユーザに対するサービスの改善を精度よく行うことができる。
例えば、学習部234は、ユーザが視認しやすいコンテンツCの推定モデルを学習してもよく、ユーザが視認して閲覧しやすいコンテンツCの推定モデルを学習してもよい。例えば、学習部234は、後述する得点パターンに基づいて、ユーザが視認しやすいコンテンツC(すなわち、正例)とユーザが視認しにくいコンテンツC(すなわち、負例)とを特定し、特定した各コンテンツCの内容やコンテンツCの見た目を示す画像を学習データとして、モデルに学習させることで、ユーザが視認しやすいコンテンツCを推定するモデルを学習してもよい。
また、例えば、学習部234は、後述する得点パターンに基づいて、ユーザが視認して閲覧したコンテンツC(すなわち、正例)とユーザが視認したが閲覧しなかったコンテンツC(すなわち、負例)とを特定し、特定した各コンテンツCの内容やコンテンツCの見た目を示す画像を学習データとしてモデルに学習させることで、ユーザが閲覧しやすいコンテンツCを推定するモデルを学習してもよい。
〔5.端末装置および解析装置の動作〕
次に、図6〜図11を参照して、端末装置1および解析装置2の動作の一例について説明する。図6〜図11は、実施形態に係る端末装置1および解析装置2の動作の一例を示す説明図である。
〔5−1.得点パターン例1〕
図6の(a)に示す例において、ユーザは、端末装置1を用いて、コンテンツC(図1参照)のうち記事A〜Dを出力部13に表示させている。この場合、端末装置1は、表示情報取得部155を用いて、表示されたコンテンツ(ここでは記事A〜D)に関する表示情報を取得する(ステップS11)。
そして、図6の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を注視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を注視した」という視線情報を取得する(ステップS12)。
実施形態において、「注視する」(以降の図面では視線Eを太線で図示)とは、所定の時間(例えば、250ミリ秒)以上の間、同じ領域Rに視線Eが保持されることを示している。また、「目視する」(以降の図面では視線Eを破線で図示)とは、所定の時間より短い間、同じ領域Rに視線Eが保持されることを示している。
なお、「注視する」は、所定の時間以上の間、同じ領域Rに視線Eが保持される場合に限られず、たとえば、所定の時間以上の間、同じ文章を流し目で追って見ることなども含まれる。また、本願の説明において、「視認する」には、「注視する」と「目視する」とのいずれもが含まれる。
図6の説明に戻る。つぎに、図6の(b)に示すように、ユーザは、注視した特定のコンテンツ(すなわち、記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS13)。
そして、解析装置2は、端末装置1から上述の表示情報、視線情報および操作情報を取得する(ステップS14)。さらに、解析装置2は、取得された表示情報、視線情報および操作情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS15)。
たとえば、図6で示した例において、記事Bは、ユーザに注視されるとともに選択されていることから、得点定義データベース221において「特定のコンテンツを注視=Yes」および「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「5点」として評価する。
次に、解析装置2は、評価された得点に基づいて機械学習を行い(ステップS16)、学習モデルを生成する。そして、実施形態では、かかる学習モデルを用いることにより、ユーザに対するサービスの改善を精度よく行うことができる。
たとえば、図6で示した例において、記事Bに対するユーザの挙動は、表示内容を理解した上で、より深い内容を知るために選択したと推定することができる。したがって、実施形態では、かかる記事Bに対して高い得点を付与することにより、ユーザに対して記事Bに関連する多くの情報をリコメンドすることができる。
〔5−2.得点パターン例2〕
図7の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を注視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を注視した」という視線情報を取得する(ステップS21)。
つぎに、図7の(b)に示すように、ユーザは、注視した特定のコンテンツとは別のコンテンツ(図では記事C)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「別のコンテンツを選択した」という操作情報を取得する(ステップS22)。
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS23)。
たとえば、図7で示した例において、記事Bは、ユーザに注視される一方で選択はされていないことから、得点定義データベース221において「特定のコンテンツを注視=Yes」および「別のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「4点」として評価する。
すなわち、図7で示した例において、記事Bに対するユーザの挙動は、表示内容を理解し興味も持ったが、別のコンテンツ(記事C)がより気になる内容だったため後回しにしたと推定することができる。
したがって、かかる記事Bはユーザの見たい情報である可能性が高いことから、実施形態では、記事Bに対してある程度高い得点を付与することにより、ユーザに対して記事Bに関連する情報をリコメンドすることができる。
〔5−3.得点パターン例3〕
図8の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)をすべて目視している。この場合、端末装置1は、視線センサ14を用いて、「すべてのコンテンツを目視した」という視線情報を取得する(ステップS31)。
つぎに、図8の(b)に示すように、ユーザは、表示されたコンテンツの中から特定のコンテンツ(図では記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS32)。
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS33)。
たとえば、図8で示した例では、すべてのコンテンツを目視し、その中から特定のコンテンツ(ここでは記事B)を選択していることから、かかる記事Bは、得点定義データベース221において「すべてのコンテンツを目視=Yes」および「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「3点」として評価する。
すなわち、図8で示した例において、ユーザの挙動は、すべてのコンテンツを確認した上でもっとも興味のあるもの(すなわち、記事B)を選択したと推定することができる。
したがって、実施形態では、記事Bにある程度高い得点を付与して、ユーザに対して記事Bに関連するより詳細な内容をリコメンドすることにより、提供されるサービスがユーザに興味を持たれるように誘導することができる。
〔5−4.得点パターン例4〕
図9の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を目視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を目視した」という視線情報を取得する(ステップS41)。
つぎに、図9の(b)に示すように、ユーザは、目視した特定のコンテンツ(すなわち、記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS42)。
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS43)。
たとえば、図9で示した例において、記事Bは、ユーザに目視されるとともに選択されていることから、得点定義データベース221において「特定のコンテンツを目視=Yes」および「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「2点」として評価する。
すなわち、図9で示した例において、記事Bに対するユーザの挙動は、内容をあまり見ずに印象だけでより詳細な内容を見ようとしたと推定することができる。
したがって、ユーザはサービス内を回遊する可能性が高いことから、実施形態では、記事Bに対して比較的低い得点を付与することにより、ユーザに対して記事Bとは別のコンテンツをリコメンドすることができる。
〔5−5.得点パターン例5〕
図10の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)のうち、特定のコンテンツ(図では記事B)を目視している。この場合、端末装置1は、視線センサ14を用いて、「特定のコンテンツ(記事B)を目視した」という視線情報を取得する(ステップS51)。
つぎに、図10の(b)に示すように、ユーザは、目視した特定のコンテンツとは別のコンテンツ(図では記事C)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「別のコンテンツを選択した」という操作情報を取得する(ステップS52)。
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS53)。
たとえば、図10で示した例において、記事Bは、ユーザに目視される一方で選択はされていないことから、得点定義データベース221において「特定のコンテンツを目視=Yes」および「別のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「1点」として評価する。
すなわち、図10で示した例において、ユーザの挙動は、記事Bを確認したが興味は無かったと推定することができる。したがって、かかる記事Bはリコメンドする必要が無い可能性が高いことから、実施形態では、記事Bに対して低い得点を付与することにより、ユーザに対して記事Bに関連する情報をリコメンドしないようにすることができる。
〔5−6.得点パターン例6〕
図11の(a)に示す例において、ユーザは、表示されたコンテンツ(記事A〜D)を目視していない。この場合、端末装置1は、視線センサ14を用いて、「表示されたコンテンツを目視していない」という視線情報を取得する(ステップS61)。
つぎに、図11の(b)に示すように、ユーザは、表示されたコンテンツの中から特定のコンテンツ(図では記事B)をタップして選択している。この場合、端末装置1は、操作制御部152を用いて、「特定のコンテンツを選択した」という操作情報を取得する(ステップS62)。
そして、解析装置2は、端末装置1から取得された各種情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS63)。
たとえば、図11で示した例では、コンテンツを目視していないにもかかわらず特定のコンテンツ(ここでは記事B)を選択していることから、かかる記事Bは、得点定義データベース221におけるすべての目視情報が「No」であり、かつ「特定のコンテンツを選択=Yes」に該当する。したがって、解析装置2は、かかる記事Bの評価を「0点」として評価する。
すなわち、図11で示した例において、ユーザの挙動は、記事Bを誤って選択したと推定することができる。したがって、かかる記事Bに対して得点を付与するのは妥当ではないと考えられることから、解析装置2は、記事Bに対して「0点」を付与することにより、選択されたコンテンツに妥当ではない評価が付与されることを抑制することができる。
なお、得点として「0点」が付与される場合は上記の例に限られず、たとえば、まったく視認されていないコンテンツに対して「0点」を付与してもよい。なぜなら、まったく視認されていないコンテンツは、ユーザに認知すらされていないからである。
ここまで説明したように、実施形態では、ユーザのアクション情報として、表示情報および操作情報に加えて、視線情報を取得することにより、より詳細なアクション情報を得ることができる。
また、実施形態では、表示されたコンテンツCにおいてユーザが視認する領域Rおよび領域Rを視認する時間を視線情報として取得する。これにより、ユーザの視認するコンテンツCが注視されているか、あるいは目視されているかを判別することができる。
したがって、実施形態によれば、さらに詳細なアクション情報を得ることができる。
〔6.処理手順〕
次に、図12および図13を参照して、端末装置1の制御部15および解析装置2の制御部23が実行する処理について説明する。図12は、実施形態に係る端末装置1の制御部15が実行する処理を示すフローチャートである。
図12に示すように、制御部15は、まず、コンテンツCを表示する(ステップS101)。次に、制御部15は、視線センサ14を用いることにより、出力部13に表示されたコンテンツCに対するユーザの視線情報を取得する(ステップS102)。
そして、制御部15は、出力部13に表示されたコンテンツCに対するユーザの操作情報を取得し(ステップS103)、処理を終了する。
図13は、実施形態に係る解析装置2の制御部23が実行する処理を示すフローチャートである。図13に示すように、制御部23は、まず、端末装置1から表示情報、視線情報および操作情報を取得する(ステップS201)。
次に、制御部23は、取得された表示情報、視線情報および操作情報と、得点定義データベース221とに基づいて、コンテンツCに対するユーザの評価を得点として評価する(ステップS202)。
そして、制御部23は、評価された得点に基づいて機械学習を行い(ステップS203)、学習モデルを生成して処理を終了する。
〔7.ハードウェア構成〕
なお、実施形態における端末装置1および解析装置2は、例えば図14に示すような構成のコンピュータ50によって実現される。図14は、解析装置2の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ50は、CPU51、RAM52、ROM(Read Only Memory)53、HDD(Hard Disk Drive)54、通信インターフェイス(I/F)55、入出力インターフェイス(I/F)56、およびメディアインターフェイス(I/F)57を備える。
CPU51は、ROM53またはHDD54に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM53は、コンピュータ50の起動時にCPU51によって実行されるブートプログラムや、コンピュータ50のハードウェアに依存するプログラム等を記憶する。
HDD54は、CPU51によって実行されるプログラム、および当該プログラムによって使用されるデータ等を記憶する。通信インターフェイス55は、通信部21に対応し、ネットワークNを介して他の機器からデータを受信してCPU51へ送り、CPU51が生成したデータを、ネットワークNを介して他の機器へ送信する。
CPU51は、入出力インターフェイス56を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU51は、入出力インターフェイス56を介して、入力装置からデータを取得する。また、CPU51は、生成したデータを、入出力インターフェイス56を介して出力装置へ出力する。
メディアインターフェイス57は、記録媒体58に記憶されたプログラムまたはデータを読み取り、RAM52を介してCPU51に提供する。CPU51は、当該プログラムを、メディアインターフェイス57を介して記録媒体58からRAM52上にロードし、ロードしたプログラムを実行する。記録媒体58は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ50が実施形態に係る解析装置2として機能する場合、コンピュータ50のCPU51は、RAM52上にロードされたプログラムを実行することにより、制御部23の機能を実現する。また、HDD54には、記憶部22内のデータが記憶される。コンピュータ50のCPU51は、これらのプログラムを記録媒体58から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
〔8.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。たとえば、実施形態では、視線情報を用いて端末装置1に配信されるコンテンツCを評価する例について示したが、評価される対象はコンテンツに限られず、たとえば、端末装置1に配信される広告を評価してもよい。
また、実施形態では、視線情報取得部156により取得された視線情報をユーザの属性を示す属性情報(サイコグラフィック属性やデモグラフィック属性など)として活用してもよい。また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔9.効果〕
上述してきたように、実施形態に係る情報処理プログラムは、所定の画面にコンテンツCを表示する表示手順と、表示されたコンテンツCに対するユーザの視線Eに関する視線情報を取得する視線情報取得手順と、をコンピュータに実行させる。
これにより、より詳細なアクション情報を得ることができる。
また、実施形態に係る情報処理プログラムにおいて、視線情報取得手順は、表示されたコンテンツCにおいてユーザが視認する領域Rおよび領域Rを視認する時間を視線情報として取得する。
これにより、ユーザの視認するコンテンツCが注視されているか、あるいは目視されているかを判別することができる。
また、実施形態に係る情報処理プログラムは、表示されたコンテンツCに対するユーザの操作に関する操作情報を取得する操作情報取得手順をさらにコンピュータに実行させる。
これにより、さらに詳細なアクション情報を得ることができる。
また、実施形態に係る情報処理プログラムは、所定の画面に表示されたコンテンツに関する表示情報と、視線情報と、操作情報とに基づいて、コンテンツCに対するユーザの評価について解析する解析手順をさらにコンピュータに実行させる。
これにより、端末装置1から得られるより詳細なアクション情報に基づいて、ユーザに対するサービスの改善を精度よく行うための学習モデルを作成することができる。
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが特定のコンテンツCを目視した場合より、ユーザが特定のコンテンツCを注視した場合のほうが特定のコンテンツに対するユーザの評価を高くする。
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが特定のコンテンツCを目視した場合より、ユーザがすべてのコンテンツCを目視した場合のほうが特定のコンテンツに対するユーザの評価を高くする。
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが目視または注視した特定のコンテンツCとは別のコンテンツCを選択した場合より、ユーザが目視または注視した特定のコンテンツCを選択した場合のほうが特定のコンテンツCに対するユーザの評価を高くする。
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
また、実施形態に係る情報処理プログラムにおいて、解析手順は、ユーザが所定の画面を目視または注視せずに特定のコンテンツを選択した場合より、ユーザが所定の画面を目視または注視して特定のコンテンツを選択した場合のほうが特定のコンテンツに対するユーザの評価を高くする。
これにより、取得されたより詳細なアクション情報に基づいて、ユーザに対して適切な情報をリコメンドすることができる。
また、実施形態に係る解析装置2は、取得部231と、解析部232とを備える。取得部231は、端末装置1に表示されたコンテンツCに関する表示情報と、端末装置1で取得されたコンテンツCに対するユーザの視線Eに関する視線情報とを取得する。解析部232は、取得された表示情報および視線情報に基づいて、コンテンツCに対するユーザの評価について解析する。
これにより、解析装置2は、端末装置1から得られるより詳細なアクション情報に基づいて、ユーザに対するサービスの改善を精度よく行うための学習モデルを作成することができる。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 端末装置
2 解析装置
3 コンテンツ配信装置
11、21 通信部
12 入力部
13 出力部
14 視線センサ
15、23 制御部
22 記憶部
100 情報処理システム
151 要求部
152 操作制御部
153 表示制御部
154 表示部
155 表示情報取得部
156 視線情報取得部
221 得点定義データベース
231 取得部
232 解析部
233 評価部
234 学習部

Claims (11)

  1. 所定の画面にコンテンツを表示する表示手順と、
    表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得手順と、
    をコンピュータに実行させるための情報処理プログラム。
  2. 前記視線情報取得手順は、表示された前記コンテンツにおいて前記ユーザが視認する領域および前記領域を視認する時間を前記視線情報として取得する
    ことを特徴とする請求項1に記載の情報処理プログラム。
  3. 表示された前記コンテンツに対する前記ユーザの操作に関する操作情報を取得する操作情報取得手順をさらにコンピュータに実行させる
    ことを特徴とする請求項1または2に記載の情報処理プログラム。
  4. 前記所定の画面に表示されたコンテンツに関する表示情報と、前記視線情報と、前記操作情報とに基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析手順をさらにコンピュータに実行させる
    ことを特徴とする請求項3に記載の情報処理プログラム。
  5. 前記解析手順は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザが特定の前記コンテンツを注視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
    ことを特徴とする請求項4に記載の情報処理プログラム。
  6. 前記解析手順は、前記ユーザが特定の前記コンテンツを目視した場合より、前記ユーザがすべての前記コンテンツを目視した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
    ことを特徴とする請求項4または5に記載の情報処理プログラム。
  7. 前記解析手順は、前記ユーザが目視または注視した特定の前記コンテンツとは別の前記コンテンツを選択した場合より、前記ユーザが目視または注視した特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
    ことを特徴とする請求項4〜6のいずれか一つに記載の情報処理プログラム。
  8. 前記解析手順は、前記ユーザが前記所定の画面を目視または注視せずに特定の前記コンテンツを選択した場合より、前記ユーザが前記所定の画面を目視または注視して特定の前記コンテンツを選択した場合のほうが特定の前記コンテンツに対する前記ユーザの評価を高くする
    ことを特徴とする請求項4〜7のいずれか一つに記載の情報処理プログラム。
  9. コンピュータが実行する情報処理方法であって、
    所定の画面にコンテンツを表示する表示工程と、
    表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得工程と、
    を含むことを特徴とする情報処理方法。
  10. コンテンツを表示する表示部と、
    表示された前記コンテンツに対するユーザの視線に関する視線情報を取得する視線情報取得部と、
    を備えることを特徴とする端末装置。
  11. 端末装置に表示されたコンテンツに関する表示情報と、前記端末装置で取得された前記コンテンツに対するユーザの視線に関する視線情報とを取得する取得部と、
    取得された前記表示情報および前記視線情報に基づいて、前記コンテンツに対する前記ユーザの評価について解析する解析部と、
    を備える解析装置。
JP2018135833A 2018-07-19 2018-07-19 情報処理プログラム、情報処理方法、端末装置及び解析装置 Active JP6983731B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018135833A JP6983731B2 (ja) 2018-07-19 2018-07-19 情報処理プログラム、情報処理方法、端末装置及び解析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018135833A JP6983731B2 (ja) 2018-07-19 2018-07-19 情報処理プログラム、情報処理方法、端末装置及び解析装置

Publications (2)

Publication Number Publication Date
JP2020013381A true JP2020013381A (ja) 2020-01-23
JP6983731B2 JP6983731B2 (ja) 2021-12-17

Family

ID=69169877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135833A Active JP6983731B2 (ja) 2018-07-19 2018-07-19 情報処理プログラム、情報処理方法、端末装置及び解析装置

Country Status (1)

Country Link
JP (1) JP6983731B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132360A (ja) * 2020-02-21 2021-09-09 シャープ株式会社 コンテンツ作成装置及びコンテンツ作成方法
WO2023276109A1 (ja) * 2021-07-01 2023-01-05 マクセル株式会社 情報処理装置、撮影画像転送表示システム、及び撮影画像転送表示方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044560A (ja) * 2007-08-09 2009-02-26 Sharp Corp 映像表示装置及びその制御方法、プログラム、記録媒体
WO2011152149A1 (ja) * 2010-06-03 2011-12-08 日本電気株式会社 領域推薦装置、領域推薦方法、及び記録媒体
WO2013057882A1 (ja) * 2011-10-19 2013-04-25 パナソニック株式会社 表示制御装置、集積回路、表示制御方法およびプログラム
US20150309566A1 (en) * 2014-04-29 2015-10-29 Harman International Industries, Inc. Gaze tracking system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009044560A (ja) * 2007-08-09 2009-02-26 Sharp Corp 映像表示装置及びその制御方法、プログラム、記録媒体
WO2011152149A1 (ja) * 2010-06-03 2011-12-08 日本電気株式会社 領域推薦装置、領域推薦方法、及び記録媒体
WO2013057882A1 (ja) * 2011-10-19 2013-04-25 パナソニック株式会社 表示制御装置、集積回路、表示制御方法およびプログラム
US20150309566A1 (en) * 2014-04-29 2015-10-29 Harman International Industries, Inc. Gaze tracking system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132360A (ja) * 2020-02-21 2021-09-09 シャープ株式会社 コンテンツ作成装置及びコンテンツ作成方法
JP7362506B2 (ja) 2020-02-21 2023-10-17 シャープ株式会社 コンテンツ作成装置及びコンテンツ作成方法
WO2023276109A1 (ja) * 2021-07-01 2023-01-05 マクセル株式会社 情報処理装置、撮影画像転送表示システム、及び撮影画像転送表示方法

Also Published As

Publication number Publication date
JP6983731B2 (ja) 2021-12-17

Similar Documents

Publication Publication Date Title
US10114534B2 (en) System and method for dynamically displaying personalized home screens respective of user queries
US11112867B2 (en) Surfacing related content based on user interaction with currently presented content
US9912778B2 (en) Method for dynamically displaying a personalized home screen on a user device
TWI609279B (zh) 用以個人化使用者介面內容之方法、運算裝置、以及機器可讀取儲存媒體
Kim Can smartphones be specialists? Effects of specialization in mobile advertising
US20140279993A1 (en) Clarifying User Intent of Query Terms of a Search Query
Menges et al. Improving user experience of eye tracking-based interaction: Introspecting and adapting interfaces
GB2541582A (en) Hint based spot healing techniques
WO2013180751A1 (en) Method for dynamically displaying a personalized home screen on a device
Cheng et al. Smooth gaze: a framework for recovering tasks across devices using eye tracking
JP2015191551A (ja) 電子機器
JP2019191659A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
Sulikowski Evaluation of varying visual intensity and position of a recommendation in a recommending interface towards reducing habituation and improving sales
JP6983731B2 (ja) 情報処理プログラム、情報処理方法、端末装置及び解析装置
Huang et al. An empirical study of mobile application usability: A unified hierarchical approach
US20200410049A1 (en) Personalizing online feed presentation using machine learning
US9633193B2 (en) Server, user apparatus and terminal device
Lu et al. An emotional-aware mobile terminal accessibility-assisted recommendation system for the elderly based on haptic recognition
Daniel et al. Adaptive Multiple User-Device Interface Generation for Websites.
Kajan et al. PeepList: Adapting ex-post interaction with pervasive display content using eye tracking
He et al. Mobile
Nathan et al. Effect of the user input method on response time and accuracy in a binary data labeling task
Lin et al. How different presentation modes of graphical icons affect viewers’ first fixation and attention
Mamakou et al. Understanding E-Government Services Usage Continuance: The Role of Service Quality and Habit
JP2013196425A (ja) 性格表示システム、性格表示方法及び性格表示プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211124

R150 Certificate of patent or registration of utility model

Ref document number: 6983731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250