JP7478339B2 - 視線認識ベースのカスタムコンテンツを提供する装置及び方法 - Google Patents

視線認識ベースのカスタムコンテンツを提供する装置及び方法 Download PDF

Info

Publication number
JP7478339B2
JP7478339B2 JP2023002697A JP2023002697A JP7478339B2 JP 7478339 B2 JP7478339 B2 JP 7478339B2 JP 2023002697 A JP2023002697 A JP 2023002697A JP 2023002697 A JP2023002697 A JP 2023002697A JP 7478339 B2 JP7478339 B2 JP 7478339B2
Authority
JP
Japan
Prior art keywords
user
gaze
information
item
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023002697A
Other languages
English (en)
Other versions
JP2023104899A (ja
Inventor
ハ ウン アン,
ロク キュ イ,
ヒョク ジェ イ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHN Corp
Original Assignee
NHN Corp
NHN Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHN Corp, NHN Entertainment Corp filed Critical NHN Corp
Publication of JP2023104899A publication Critical patent/JP2023104899A/ja
Application granted granted Critical
Publication of JP7478339B2 publication Critical patent/JP7478339B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • G06Q30/0271Personalized advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Tourism & Hospitality (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法に関する。より詳細には、商品を凝視する機器ユーザの視線認識に基づいて、機器ユーザの関心度をリアルタイムで推定してカスタマイズ(customize)されたコンテンツを提供する装置及び方法に関する。
情報化時代における多様な方式の広告方法のうち、ディスプレイ装置による広告は、視聴者の関心度にかかわらず一方的に不特定多数の広告を提供する方式である。
視聴者の広告商品に対する関心度や個人性向などによって広告の効果は千差万別であり、広告の効果を高めるために視聴者の好み及び消費パターンなどを収集して個人別にカスタマイズされた広告を提供することもある。
しかしながら、このような情報に基づいて関心度を推測してカスタマイズされた広告を提供することは、視聴者が実際のメディア消費時に感じる関心度を反映することができないという問題がある。
また、所定の装置に広告露出が可能な場合において、当該装置を使用する者の選択を通じて関心のある商品に対する広告を提供する方法があるが、これはユーザの行動を要求するため一方的または自動的に広告を提供する方法に比べて広告の露出が低い。
したがって、ユーザがメディアを消費する際に、ユーザの関心度を即座に反映して自動的に広告を露出する方法が必要となっているのが実情である。
韓国公開特許第2002-0079236号公報
本発明の目的は、上述のような従来技術の問題を解決するために案出されたものであり、視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法を提供することにある。
また、本発明の異なる目的は、ユーザの身体的特性に応じて装置に取り付けられたカメラの視野角をリアルタイムで自動調整する視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法を提供することにある。
さらに、本発明の異なる目的は、ユーザが凝視する商品のコンテンツを出力する視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法を提供することにある。
また、本発明また他の目的は、複数のユーザの数に合わせてコンテンツ出力画面を分割する視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法を提供することを目的とする。
但し、本発明及び本発明の実施形態が達成しようとする技術的課題は、上述した技術的課題に限定されず、他の技術的課題が存在し得る。
本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する方法は、コンテンツ提供装置の少なくとも1つのプロセッサによって実行される視線認識ベースのカスタマイズされたコンテンツを提供する方法において、イメージセンサに基づいてユーザの顔認識映像を取得するステップと、取得された顔認識映像に基づいてイメージセンサを制御してユーザの顔の正面画像を取得するステップと、取得された顔の正面画像に基づいて、ユーザの視線方向及び視線固定時間情報を含む視線情報を生成するステップと、生成された視線情報に対応するディスプレイ領域を関心領域として決定するステップと、決定された関心領域にマッチングするアイテムを検出するステップと、検出されたアイテムの商品情報コンテンツを提供するステップを含む。
このとき、取得された顔認識映像に基づいてイメージセンサを制御してユーザの顔の正面画像を取得するステップは、顔認識映像を予め学習されたディープラーニングニューラルネットワークの入力データとして提供するステップと、ディープラーニングニューラルネットワークの出力データでユーザの顔ポーズ情報を取得するステップと、取得された顔ポーズ情報に基づいてイメージセンサを制御するステップを含む。
また、生成された視線情報に対応するディスプレイ領域を関心領域として決定するステップは、ユーザの視線固定時間情報が予め設定された時間以上を満たす場合、ユーザの視線方向に対応するディスプレイ領域を関心領域として決定するステップを含む。
また、決定された関心領域にマッチングするアイテムを検出するステップは、ディスプレイ領域に基づいて出力されるアイテムページを選択するユーザ入力を取得するステップと、選択されたアイテムページ内の関心領域にマッチングするアイテムを検出するステップを含む。
また、視線情報に対応するディスプレイ領域を関心領域として決定するステップは、視線情報が変更されると、変更された視線情報に対応するディスプレイ領域に関心領域をアップデートするステップを含む。
さらに、決定された関心領域にマッチングするアイテムを検出するステップは、関心領域にマッチングするディスプレイ領域内の少なくとも1つの画素(ピクセル)を検出するステップと、検出された少なくとも1つの画素に対して予め格納されたアイテムを検出するステップを含む。
さらに、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する方法は、ディスプレイ領域内の少なくとも1つの画素を選択するユーザ入力を取得するステップと、選択された少なくとも1つの画素に対して予め格納されたアイテムを検出するステップと、検出されたアイテムの商品情報コンテンツを出力するステップをさらに含む。
さらに、取得された顔の正面画像に基づいてユーザの視線方向及び視線固定時間情報を含む視線情報を生成するステップは、取得された顔認識映像において、第1ユーザの顔領域と第2ユーザの顔領域を検出するステップと、検出された複数のユーザ顔領域を含むようにイメージセンサを含むカメラアングルを制御するステップを含む。
さらに、取得された顔の正面画像に基づいてユーザの視線方向及び視線固定時間情報を含む視線情報を生成するステップは、第1ユーザの顔領域に基づいて第1ユーザの第1視線情報を生成するステップと、第2ユーザの顔領域に基づいて第2ユーザの第2視線情報を生成するステップを含む。
さらに、生成された視線情報に対応するディスプレイ領域を関心領域として決定するステップは、生成した第1視線情報に対応する第1画素面積を決定するステップと、生成した第2視線情報に対応する第2画素面積を決定するステップを含む。
さらに、決定された関心領域にマッチングするアイテムを検出するステップは、決定された第1画素面積にマッチングされた第1アイテムを検出するステップと、決定された第2画素面積にマッチングされた第2アイテムを検出するステップとを含む。
検出されたアイテムの商品情報コンテンツを提供するステップは、ディスプレイ領域を第1ユーザに対応する第1出力画面と、第2ユーザに対応する第2出力画面に分割するステップと、第1出力画面には、検出された第1アイテムに対応する第1コンテンツを出力し、第2出力画面には、第2アイテムに対応する第2コンテンツを出力するステップを含む。
ディスプレイ領域を第1ユーザに対応する第1出力画面と第2ユーザに対応する第2出力画面に分割するステップは、ディスプレイ領域に基づいて第1ユーザの第1位置と、第2ユーザの第2位置を決定するステップと、決定された第1位置に対応する第1ディスプレイ領域を第1出力画面として決定するステップと、決定された第2位置に対応する第2ディスプレイ領域を第2出力画面として決定するステップを含む。
一方、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置は、ユーザの顔認識映像を取得する少なくとも1つのイメージセンサと、取得された顔認識映像に基づいた商品情報コンテンツを出力する少なくとも1つのディスプレイと少なくとも1つのプロセッサとを含み、プロセッサは、顔認識映像に基づいてイメージセンサを制御してユーザの顔の正面画像を取得し、取得された顔の正面画像に基づいてユーザの視線方向及び視線固定時間情報を含む視線情報を生成し、生成された視線情報に対応するディスプレイ領域を関心領域として決定し、決定された関心領域にマッチングするアイテムを検出し、検出されたアイテムの商品情報コンテンツを提供するように制御する。
また、ディスプレイは、少なくとも1つ以上のアイテムの代表画像を出力するアイテムディスプレイと、商品情報コンテンツを出力するコンテンツディスプレイとを含む。
また、プロセッサは、顔認識映像に基づくディープラーニングに基づいてユーザの顔ポーズ情報を取得し、取得された顔ポーズ情報に基づいてイメージセンサを制御してユーザの顔の正面画像を取得する。
また、プロセッサは、顔認識映像を予め学習されたディープラーニングニューラルネットワークの入力データとして入力し、ディープラーニングニューラルネットワークの出力データでユーザの顔ポーズ情報を取得し、取得された顔ポーズ情報に基づいてイメージセンサを制御する。
プロセッサは、視線情報が変更されると、変更された視線情報に対応するディスプレイ領域に関心領域をアップデートするようにディスプレイを制御する。
プロセッサは、関心領域にマッチングするディスプレイ領域内の少なくとも1つの画素を検出し、検出された少なくとも1つの画素に対して格納されたアイテムを検出するように制御する。
プロセッサは、ディスプレイ領域内の少なくとも1つの画素を選択するユーザ入力を取得し、選択された少なくとも1つの画素に対して予め格納されたアイテムを検出し、検出されたアイテムの商品情報コンテンツを出力するように制御する。
本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法は、ユーザの身体的特性に応じて装置に取り付けられたカメラの視野角をリアルタイムで自動調整することによって、ユーザが変わるたびにユーザに合う初期設定の実行にかかる時間を短縮する効果がある。
さらに、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法は、ユーザが凝視する商品のコンテンツを出力することによってユーザの関心のある商品を直感的に把握してコンテンツの露出によるユーザの満足度を向上させる効果がある。
また、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法は、複数のユーザ数に合うようにコンテンツ出力画面を分割することによってコンテンツ出力画面を効率的に使用して、各ユーザに広告及び情報の伝達力を上昇させる効果がある。
ただし、本発明で得られる効果は上述した効果に限定されず、言及しないまた他の効果は以下の記載から明確に理解することができる。
本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置の内部ブロック図である。 本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置を説明するための図の一例である。 本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する方法を説明するためのフローチャートである。 本発明の実施形態に係る顔キーポイント(key point)を推定する方法を説明するための図の一例である。 本発明の実施形態に係る視線方向を追跡するための視線情報を説明するための図の一例である。 本発明の実施形態に係る視線情報に基づいて関心領域を設定する方法を説明するための図の一例である。 本発明の他の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する方法を説明するためのフローチャートである。 本発明の他の実施形態に係る複数の視線認識ベースのカスタマイズされたコンテンツが出力される様子を示す一例である。
本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置は、ユーザを撮影した映像に基づいて装置に取り付けられたカメラの角度をリアルタイムで自動調整してユーザの視線を認識し、ユーザが凝視するアイテムの商品情報を含むコンテンツである視線認識ベースのカスタマイズされたコンテンツを提供することができる。
実施形態におけるアイテムとは、視線認識ベースのカスタマイズされたコンテンツ提供装置を用いて装置を利用するユーザに販売することができる物品及びサービス等を意味する。
なお、実施形態における商品情報とは、装置を用いてユーザに販売することができるアイテムに対する広告及び付加情報等を意味する。
-視線認識ベースのカスタマイズされたコンテンツ提供装置(100:Device for providing customized contents based on gaze recognition)
図1は、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置(以下、コンテンツ提供装置100)の内部ブロック図である。
図1を参照すると、本発明の実施形態に係るコンテンツ提供装置100は、視線認識ベースのカスタマイズされたコンテンツを提供するプロセッサアセンブリ120が設置された所定のコンピューティング装置であり得る。
実施形態においてコンテンツ提供装置100は、ユーザが選択した所定のアイテムを購入することができる購入環境を提供することができる。
また、実施形態においてコンテンツ提供装置100は、ユーザが凝視するアイテムに対する広告及び付加情報を含むコンテンツを装置に含まれたディスプレイに出力するコンテンツ出力環境を提供することができる。
また、実施形態においてコンテンツ提供装置100は、ユーザの正面を撮影した映像を取得することができる。
このようなコンテンツ提供装置100は、消費者が一般的にアイテムを購入する環境で利用しやすい自動販売機(Vending machine、以下自動販売機)又はキオスク(Kiosk)で具現されることが最も好ましい実施形態であってもよく、以下の実施形態においては、コンテンツ提供装置100を自動販売機タイプに基づいて説明するが、これに限定されものではない。
例えば、コンテンツ提供装置100は、カメラを介して視線を追跡しながら商品を購入するコンテンツ出力環境を表示する様々な表示装置であり得る。例えば、コンテンツ提供装置100は、スマートフォン、携帯電話、デジタル放送用デバイス、PDA(personal digital assistants)、PMP(portable multimedia player)、タブレットPC(tablet PC)、固定型デスクトップPC、ノートブック コンピュータ(laptop computer)、ウルトラブック(ultrabook)などのパーソナルコンピュータなどを含めることができる。
実施形態においては、プロセッサアセンブリ120は、前述のコンテンツ提供装置100に設置され、コンテンツ提供装置100で実行する様々な機能動作を実行することができる。
さらに、実施形態でコンテンツ提供装置100は、コンテンツ出力環境を提供するために所定のサーバ(Server)コンピューティングデバイスをさらに含むこともできる。
一方、図1をさらに参照すると、機能的観点からコンテンツ提供装置100は、メモリ110、プロセッサアセンブリ120、通信プロセッサ130、決済部140、入力システム150、センサシステム160及びディスプレイシステム170及び排出部180を含むことができる。このような構成要素は、コンテンツ提供装置100のハウジング内に含まれるように構成することができる。
詳細には、メモリ110には商品情報データベース111が格納され、商品情報データベース111にはコンテンツ出力環境を提供するための様々なアプリケーションプログラム、データ、及び命令語のうち、いずれか1つ以上が格納されてもよい。
このとき、実施形態において商品情報データベース111は、コンテンツ提供装置100を介して販売するアイテムのそれぞれについて商品情報が予め格納されたデータ集合体を意味する。
すなわち、メモリ110は、コンテンツ出力環境を生成するために使用され得る命令及びデータを格納することができる。
また、メモリ110は、プログラム領域とデータ領域を含むことができる。
ここで、実施形態に係るプログラム領域は、コンテンツ提供装置100をブーテイングするオペレーティングシステム(OS:Operating System)及び機能要素との間に連携することができ、データ領域は、コンテンツ提供装置100の使用に従って発生するデータが格納されていてもよい。
さらに、メモリ110は、少なくとも1つ以上の非一時的コンピュータ可読記憶媒体と、一時的コンピュータ可読記憶媒体を含んでいてもよい。
例えば、メモリ110は、ROM、EPROM、フラッシュドライブ、ハードドライブなどの様々な記憶機器であってもよく、インターネット(internet)上でメモリ110の記憶機能を実行するウェブストレージ(web storage)を含むことができる。
プロセッサアセンブリ120は、購入環境及びコンテンツ出力環境を提供するための様々なタスクを実行するために、メモリ110に格納された商品情報データベース111の命令を実行することができる少なくとも1つ以上のプロセッサを含むことができる。
実施形態において、プロセッサアセンブリ120は、カスタマイズされたコンテンツを提供するためにメモリ110の商品情報データベース111を介して構成要素の全体的な動作を制御することができる。
このようなプロセッサアセンブリ120は、中央処理装置(CPU)及び/またはグラフィック処理装置(GPU)などが含まれたコンテンツ提供装置100に適合したシステムオンチップ(SOC)であってもよく、メモリ110に格納されたオペレーティングシステム(OS)及び/またはアプリケーションプログラムなどを実行することができ、コンテンツ提供装置100に搭載された各構成要素を制御することができる。
さらに、プロセッサアセンブリ120は、各構成要素と内部的にシステムバス(System Bus)によって通信を実行することができ、ローカルバス(Local Bus)を含む1つ以上の所定のバス構造を含むことができる。
さらに、プロセッサアセンブリ120は、ASIC(application specific integrated circuits),DSPs(digital signal processors),DSPDs(digital signal processing devices),PLDs(programmable logic devices),FPGAs(field programmable gate arrays),コントローラ(controllers),マイクロコントローラ(micro-controller)、マイクロプロセス(microprocessors)、他の機能を実行するための電気的ユニットのうち、少なくとも1つを含んで実現することができる。
通信プロセッサ130は、外部の装置と通信するための1つ以上の装置を含んでいてもよい。このような通信プロセッサ130は、無線ネットワークを介して通信することができる。
詳細には、通信プロセッサ130は、コンテンツ出力環境を実現するためのコンテンツソースを格納した所定のコンピューティングデバイスと通信することができ、ユーザ入力を受けたコントローラのような様々なユーザ入力コンポーネントと通信することができる。
実施形態において、通信プロセッサ130は、カスタマイズされたコンテンツに関連する様々なデータを他のコンテンツ提供装置100及び/または外部のサーバなどと送受信することができる。
詳細には、実施形態において、通信プロセッサ130は、OTT(Over The Top、オンライン動画サービス)を用いて他の外部装置及び外部サーバなどと通信することによって、ユーザが選択したアイテムのコンテンツを受信することができる。
このような通信プロセッサ130は、移動通信のための技術標準または通信方式(例えば、LTE(Long Term Evolution)、LTE-A(Long Term Evolution-Advanced)、5G NR(New Radio)、WIFI)あるいは、近距離通信方式などを行うことができる通信装置を介して構築された移動通信網上で基地局、外部のコンテンツ提供装置100、任意のサーバのうち少なくとも1つと無線でデータを送受信することができる。
センサシステム160は、イメージセンサ161及びオーディオセンサ165などの様々なセンサを含むことができる。
ここで、イメージセンサ161は、コンテンツ提供装置100の周囲の物理空間に対する画像及び/または画像をキャプチャーすることができる。
実施形態において、イメージセンサ161は、カスタマイズされたコンテンツに関連する映像(実施形態として、ユーザの顔認識映像、顔の正面画像など)を撮影して取得することができる。
また、イメージセンサ161は、コンテンツ提供装置100の前面又は/及び後面に配置されて配置された方向側を撮影して映像を取得することができ、コンテンツ提供装置100の外部に向けて配置されたカメラを介して物理的空間を撮影することができる。
このとき、実施形態において、カメラは、ユーザの顔位置を認知して角度を調整することができるように、所定の角度調整が可能な形態で実現されるカメラであってもよい。
さらに、実施形態において、カメラは、所定の角度を調整する役割を果たすためのモータをさらに含んでいてもよい。
このようなイメージセンサ161は、イメージセンサ装置と映像処理モジュールを含むことができる。詳細には、イメージセンサ161は、イメージセンサ装置(例えば、CMOSまたはCCD)によって得られる静止画または動画を処理することができる。
また、イメージセンサ161は、映像処理モジュールを用いてイメージセンサ装置を通じて取得された静止画または動画を加工して必要な情報を抽出し、抽出した情報をプロセッサに伝達することができる。
このようなイメージセンサ161は、少なくとも1つ以上のカメラを含むカメラアセンブリであってもよい。カメラアセンブリは、可視光帯域を撮影する一般カメラを含んでいてもよく、赤外線カメラ、ステレオカメラなどの特殊カメラをさらに含んでいてもよい。
また、上述したようなイメージセンサ161は、実施形態に応じてコンテンツ提供装置100に含まれて動作することもでき、外部の装置(例えば、外部のサーバなど)に含まれて前述された通信プロセッサ130等に基づく連動を通じて動作することもできる。
オーディオセンサ165は、コンテンツ提供装置100周辺の音を認識することができる。
詳細には、オーディオセンサ165は、コンテンツ提供装置100を使用するユーザの音声入力及び/またはコンテンツ提供装置100の周辺環境から検知されるオーディオ信号などを検知することができるマイクロホンを含むことができる。
決済部140は、コンテンツ提供装置100を介してユーザが選択した所定のアイテムを購入及び利用する費用に対する決済に関する行為全般を行うことができる。
決済部140は自販機であればいずれかを備えなければならないものであり、実施形態において決済部140は現金投入口、カード投入口、カードリーダ機及び投入金額認識部等を含むことができるが決済に関連する行為を行う構成であれば、いずれの構成も追加できる。
入力システム150は、カスタマイズされたコンテンツに関連するユーザの入力(例えば、ジェスチャ、音声コマンド、ボタンの作動、または他の種類の入力)を検知することができる。
詳細には、入力システム150は、所定のボタン、タッチセンサ及び/またはユーザモーション入力を受信するイメージセンサ161などを含むことができる。
入力システム150は、自動販売機であればいずれかを備えなければならないものであり、実施形態において入力システム150は、ボタン、タッチセンサ、及びタッチスクリーンとして実現することができるが、ユーザが選択するアイテムに対する入力を実行することができる構成であればいずれの構成も追加することができる。
ディスプレイシステム170は、カスタマイズされたコンテンツに関連する様々な情報をグラフィック画像に出力することができる。
実施形態において、ディスプレイシステム170は、ディスプレイを用いてユーザの顔認識映像、顔の正面画像、撮影位置フィードバック情報、フィードバックメッセージ及びアイテムコンテンツなどを表示することができる。
このようなディスプレイは、液晶ディスプレイ(liquid crystal display、LCD)、薄膜トランジスタ液晶ディスプレイ(thin film transistor-liquid crystal display、TFT LCD)、有機発光ダイオード(organic light-emitting diode、OLED)、フレキシブルディスプレイ(flexible display)、3次元ディスプレイ(3D display )、電子インクディスプレイ(e-ink display)のうち少なくとも1つを含むことができる。
このようなコンテンツ提供装置100のハウジング内には構成要素が配置されてもよく、ユーザインタフェースは、ユーザタッチ入力を受信するように構成されたディスプレイ171上にタッチセンサ173を含むことができる。
詳細には、ディスプレイシステム170は、画像を出力するディスプレイ171と、ユーザのタッチ入力を検知するタッチセンサ173を含むことができる。
例示的に、ディスプレイ171は、タッチセンサ173と相互層構造をなすか、または一体形に形成されることによって、タッチスクリーンとして実現することができる。このようなタッチスクリーンは、コンテンツ提供装置100とユーザとの間の入力インタフェースを提供するユーザ入力部として機能するとともに、コンテンツ提供装置100とユーザとの間の出力インタフェースを提供することができる。
排出部180は、コンテンツ提供装置100を用いたユーザに提供され得る所定の物品を装置外部に排出することができる。
排出部180は、自販機であればいずれかを備えなければならないものであり、実施例において排出部180は、ユーザが購入した物品、釣り銭及びレシート等を装置外部に排出することができ、排出に関連する行為を行う構成であれば、いずれの構成でも実現され得る。
一方、本発明の実施形態に係るコンテンツ提供装置100は、ディープラーニングニューラルネットワーク(Deep-learning Neural Network)と連動してカスタマイズされたコンテンツ提供に必要なディープラーニングを行うことができる。
ここで、実施形態に係るディープラーニングニューラルネットワークは、畳み込みニューラルネットワーク(CNN、Convolution Neural Network)、R-CNN(Regions with CNN features)、Fast R-CNN、Faster R-CNN及び/またはMask R-CNNなどを含むことができ、後述する実施形態を実行することができるアルゴリズムを含むディープラーニングニューラルネットワークであればいかなるものも含むことができ、本発明の実施形態においてはこのようなディープラーニングニューラルネットワーク自体を限定または制限することはない。
詳しくは、実施形態において、コンテンツ提供装置100は、前述したディープラーニングニューラルネットワークに基づくポーズエスティメーションモデル(Pose Estimation Model)及びゲイズエティメーションモデル(Gaze Estimation Model)を用いてカスタマイズされたコンテンツ提供に必要なディープラーニングを行うことができる。
このとき、Pose Estimation ModelはWhole-Body Human Pose Estimation in the Wild及びRMPE:Regional Multi-Person PoseEstimation論文を用いて設計したモデルである。
また、Gaze Estimation Modelは、Learning to Find Eye Region Landmarks for Remote Gaze Estimation in Unconstrained Settings及びGaze360:Physically Unconstrained Gaze Estimation in the Wild論文を用いて設計したモデルである。
このようなディープラーニング技術を用いて、実施形態に係るコンテンツ提供装置100は、ユーザの初期カメラ位置をリアルタイムで自動調整することができる。
また、このようなディープラーニング技術を用いて、実施形態に係るコンテンツ提供装置100は、リアルタイムで視線追跡対象となるユーザを判断し、自動にユーザの視線を追跡することができる。
図2は、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置100を説明するための図の一例である。
図2を参照すると、コンテンツ提供装置100は、一側に決済部140、イメージセンサ161、ディスプレイ171、及び排出部180を含むことができる。
イメージセンサ161は、ユーザ1の視線を認識するためにユーザ1に販売しようとするアイテムとアイテム画像が陳列された一側と同じ一側に含まれ得る。
また、ディスプレイ171は、コンテンツディスプレイ171-1及びアイテムディスプレイ171-2を含むことができる。
実施形態におけるコンテンツディスプレイ171-1とは、ユーザ1の視線を認識してユーザ1の視線が到達するアイテムの商品情報を含むコンテンツが出力されるディスプレイを意味する。
なお、実施形態においてアイテムディスプレイ171-2とは、ユーザ1に販売しようとするアイテムを代表するイメージが出力されるディスプレイを意味する。このとき、アイテムディスプレイ171-2領域内には所定のボタンが位置するか、領域の一部または全部にタッチセンサ173が内装されていてもよい。
すなわち、これによりコンテンツ提供装置100は、アイテムディスプレイ171-2に基づいてユーザ1の入力を受信することができるユーザインタフェースを提供することができる。
なお、決済部140及び排出部180は、ユーザ1が使用しやすい位置であれば、コンテンツ提供装置100上のどこでも位置することができ、図示したものに限定されるものではない。
-コンテンツ提供装置100が視線認識ベースのカスタマイズされたコンテンツを提供する方法
以下、本発明の実施形態に係る少なくとも1つ以上のプロセッサを含むプロセッサアセンブリ120によって実行されるコンテンツ提供装置100が視線認識ベースのカスタマイズされたコンテンツを提供する方法を添付した図3~図7を参照して詳細に説明する。
図3は本発明の一実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する方法を説明するためのフローチャートである。
図3を参照すると、コンテンツ提供装置100は、ユーザ1のアクセス(接近)を認識することができる(S101)。
詳しくは、実施形態において、コンテンツ提供装置100は、装置100に取り付けられたイメージセンサ161を用いてユーザ1のアクセスを認識することができる。
このとき、実施形態において、コンテンツ提供装置100は、予め設定された正常のアクセス基準情報にマッチングするようにユーザ1の状態を変動させることができる。
ここで、実施形態に係る正常アクセス基準情報は、コンテンツ提供装置100を利用しようとするユーザ1に要求される初期位置情報及び初期容貌情報を含むことができる。
このとき、初期位置情報とは、ユーザ1の配置状態(実施例として、位置や角度など)を案内する情報であってもよい。なお、初期容貌情報とは、ユーザ1の容貌状態(実施形態として、目及び顔を認識するための容貌)を案内する情報で有り得る。
詳細には、コンテンツ提供装置100は、装置管理者の設定及び予め設定されたプロセスに従って所定の初期位置情報及び初期容貌情報を予め構築することができる。
実施形態として、初期位置情報は、ユーザ1の顔を撮影することができる所定の位置を案内するように予め設定されてもよい。また、初期容貌情報は、ユーザ1がコンテンツ提供装置100を利用しながら維持するように要求される所定の容貌状態(例えば、帽子やサングラスなどを未着用の状態など)を案内するように予め設定されていてもよい。
また、実施形態ではいおいて、コンテンツ提供装置100は、上述したように予め設定された正常のアクセス基準情報に基づいてアクセスフィードバック情報を生成してディスプレイ171を介して出力してユーザ1に提供することができる。
ここで、アクセスフィードバック情報とは、ユーザ1の姿を撮影する際に撮影環境条件を満たす位置で顔認識映像を取得するようにユーザ1の状態(実施形態において、位置、角度、容貌など)の調整/変更を案内する情報を意味することができる。
このとき、撮影環境条件は、コンテンツ提供装置100を利用するユーザ1の顔領域を容易に推定するための条件として、実施形態としてはユーザ1の顔キーポイント及び視線情報を取得しやすい条件であってもよく、これに対する詳細な説明は後述する。
例えば、図2を再び参照すると、コンテンツ提供装置100は、撮影環境条件に関連する「エリア内に位置して下さい」、「イメージセンサ161を眺めて下さい」及び「帽子を脱いで下さい」などのようなアクセスフィードバック情報を、ディスプレイ171を介してテキスト化して出力することによって、ユーザ1の位置、角度及び容貌を調整することができる。
このようにして、実施形態において、コンテンツ提供装置100は、イメージセンサ161を用いてユーザ1の顔認識映像10を撮影及び取得することができる。
このとき、実施形態において顔認識映像10とは、ユーザの顔領域を判断するためにユーザがコンテンツ提供装置100と所定距離近く近づいたときにユーザの顔を認識した映像を意味する。
次に、実施形態において、コンテンツ提供装置100は、カメラアングルを調整して顔の正面画像を取得することができる(S103)。
詳細には、実施形態において、コンテンツ提供装置100は、顔認識映像10に基づいてディープラーニングモデルを介してユーザの顔領域を判断し、これに応じてカメラに含まれたモータを用いてカメラの位置及び角度を調整することで、顔の正面画像を取得することができる。
このとき、コンテンツ提供装置100は、ディープラーニングモデルのうち、Pose Estimation Modelを用いてユーザ1の顔キーポイントを検出することができる。
図4は、本発明の実施形態に係る顔キーポイント(key point)30を推定する方法を説明するための図の一例である。
図4を参照すると、コンテンツ提供装置100は、取得したユーザ1の顔認識映像10に基づいてディープラーニング分析を行い、顔認識映像10内の顔キーポイント30を検出することができる。
ここで、実施形態に係る顔キーポイント30は、ユーザ1の顔形状を特定することができる少なくとも1つ以上のキーポイント及びサブキーポイント31を含むことができる。
実施形態として、顔キーポイント30は、凝視者の目の形状を特定する目のキーポイント、鼻の形状を特定する鼻のキーポイント、口の形状を特定する口のキーポイント、及び/または耳の形状を特定する耳のキーポイントなどを含み、前述の少なくとも1つ以上のキーポイントは、サブキーポイント31に接続されてもよい。
すなわち、実施形態においてコンテンツ提供装置100は、所定のディープラーニングニューラルネットワークと連動して顔認識映像10からユーザ1の顔キーポイントを抽出する検出ディープラーニングを行うことができる。
また、コンテンツ提供装置100は、ディープラーニングニューラルネットワークの出力データとして抽出されたユーザ1の複数の顔キーポイントに基づいて、ユーザ1の顔の向き及び角度などを含む情報である顔ポーズ情報を取得することができる。
すなわち、ステップS101で前述した撮影環境条件は、ユーザ1の顔形状を特定する顔キーポイント30を全て含む条件と、顔キーポイント30に基づく画素面積が所定の基準(例えば、予め設定された画素面積以上及び顔認識映像10の全画素面積に対する予め設定された割合以上など)を満たす条件を含むことができる。
また、実施形態においてコンテンツ提供装置100は、検出されたユーザ1の顔キーポイントに基づいて、ユーザ1の顔方向及び角度等を含む情報である顔ポーズ情報を取得することができる。
また、実施形態において、コンテンツ提供装置100は、取得したユーザ1の顔ポーズ情報に基づいてイメージセンサを制御することができる。
イメージセンサの制御を実行するために、コンテンツ提供装置100は、所定の顔キーポイントに基づいた標準正面顔領域情報を設定しておくことができる。
実施形態として、コンテンツ提供装置100は、所定の顔キーポイント間の群集度(実施例として、所定の長さ(例えば、間隔0.1cm、誤差範囲±5%など)の基準間隔、所定の幅(例えば、3平方センチメートル(cm)及び誤差範囲±5%等)の基準面積等)、所定の顔キーポイントの個数及び/又は存在有無等を含む標準正面顔領域情報を予め設定しておくことができる。
すなわち、コンテンツ提供装置100は、取得したユーザ1の顔ポーズ情報及び予め設定された標準正面顔領域情報を比較し、誤差値に応じて顔ポーズ情報を取得することができる。
また、コンテンツ提供装置100は取得した顔ポーズ情報に基づいて前述したイメージセンサを制御することにより、ユーザ1の顔の正面姿を含む顔の正面画像を取得することができる。
また、撮影環境条件に応じて実施形態においてコンテンツ提供装置100は、顔認識映像10に認識されたユーザ1の顔領域FAが複数個の場合、認識された複数個の顔領域FAのうち、所定の大きさ(例えば、3平方センチメートル(cm))以下の顔領域FAを判断対象から除外することができる。
例えば、コンテンツ提供装置100を利用しようとするユーザが2人以上であり利用順番でないユーザの顔領域が認識された場合、利用順番ではないユーザの顔領域を判断対象から除外することにより、利用順番であるユーザーの顔領域(FA)だけを認識することができる。
また、コンテンツ提供装置100は、ユーザ1の顔領域FAをリアルタイムかつ自動で判断することができ、これによりカメラのアングルをリアルタイムかつ自動的に変更することができる。
すなわち、コンテンツ提供装置100は、判断されたユーザ1の顔領域FAを正常に認識するためにカメラに含まれるモータを用いてカメラの視野角を変動させることによりリアルタイム及び自動にユーザ1に合わせてカメラの角度を調整できる。
また、実施形態において、コンテンツ提供装置100は、カメラの角度を調整することによってユーザ1の顔の正面画像を取得することができる。
このとき、顔の正面画像20とは、ユーザ1の視線情報40を取得するためのものであり、顔認識映像10に基づいてユーザの目、鼻、口がよく現れるようにカメラのアングルを調整することによって取得されたユーザ1の顔の正面姿を含む画像を意味することができる。
次に、実施形態では、コンテンツ提供装置100は、ユーザ1の視線を追跡して視線情報40を生成することができる(S105)。
詳細には、実施形態においては、コンテンツ提供装置100は、ユーザ1の顔領域FAに含まれた目のキーポイント30-Eに基づいてユーザ1の視線を追跡して視線情報40を生成することができる。
ここで、視線情報40とは、ユーザ1の視線位置、視線方向及び視線固定時間(例えば、秒(second)))などを推定した情報であり、ユーザ1の視線に関する様々な情報を含むことができる。
すなわち、実施形態において、コンテンツ提供装置100は、ユーザ1の顔の正面画像20に基づいてユーザ1の視線方向を追跡することにより、ユーザ1の視線情報40を生成することができる。
図5は、本発明の実施形態に係る視線方向を追跡するための視線情報40を説明するための図の一例である。
図5を参照すると、実施形態においてコンテンツ提供装置100は、顔の正面画像20に含まれた目キーポイント30-Eに基づいてユーザ1の視線方向を追跡することができる。
詳細には、実施形態において、コンテンツ提供装置100は、顔の正面画像20が含む複数の顔キーポイント30のうち、ユーザ1の視線情報を提供する目キーポイント30-Eに基づいてユーザ1の視線方向を追跡することができる。
このとき、顔の正面画像10は、ユーザ1がコンテンツ提供装置100を利用しながら購入決定を下している間の姿を含み、目キーポイント30-Eは、ステップS103における所定のディープラーニング学習プロセス(実施形態において、Pose Estimation Modelを利用)を経て顔領域FAで目の位置を推定することによって検出することができる。
また、実施形態において、コンテンツ提供装置100は、検出された目キーポイント30-Eを介してユーザ1の視線を継続的に追跡した情報である視線情報40を生成することができる。
ここで、実施に形態においてコンテンツ提供装置100は、所定のディープラーニング学習過程(実施形態において、Gaze Estimation Modelを利用)を経てユーザ1の視線位置及び方向を推定して視線情報40を生成できる。
このとき、実施形態においてコンテンツ提供装置100は、生成された視線情報40に含まれたユーザ1の視線固定時間が所定の時間以上(例えば、0.5秒以上など)である場合、視線固定時間を関心時間に設定することができる。
ここで、実施形態においてコンテンツ提供装置100は、関心時間に設定された視線固定時間が複数の場合、そのうち最も長い時間のみを関心時間とみなして設定することができる。
また、実施形態において、コンテンツ提供装置100は、生成された視線情報40に基づいて関心領域を判断することができる(S107)。
詳細に、実施形態において、コンテンツ提供装置100は、生成された視線情報40に含まれた関心時間に基づいて関心領域を判断することができる。
図6は本発明の実施形態に係る視線情報40に基づいて関心領域を設定する方法を説明するための図の一例である。
図6を参照すると、コンテンツ提供装置100は、ユーザ1がコンテンツ提供装置100のアイテムディスプレイ171-2上に出力された少なくとも1つ以上のアイテムのうちどのアイテムを見つめたかを視線情報40に含まれた関心時間に基づいて関心領域を判断することができる。
言い換えれば、実施形態において関心領域とは、ユーザ1の視線が所定の時間以上留まる領域であり、関心時間に基づいて判断することができる。
詳細には、図6は、説明の便宜のため、コンテンツ提供装置100に取り付けられたイメージセンサの視点でない、ユーザ1の視点の視線情報40で有り得る。すなわち、図6に示された視線情報40はユーザの視線とみなすことができる。
このとき、視線情報40に含まれる(a)及び(b)は、関心時間に基づいて判断された関心領域であってもよい。(a)及び(b)の大きさは関心時間に比例し、前述したように実施形態において、コンテンツ提供装置100は、さらに大きな関心時間が設定された(b)が形成された領域を関心領域と判断することができる。
また、ここで判断される関心領域は、コンテンツ提供装置100のアイテムディスプレイ171-2上に出力された少なくとも1つ以上のアイテム画像IMG上に位置することができる。
また、コンテンツ提供装置100は、ユーザ1が少なくとも1人以上の場合、視線情報40をユーザ1の数に比例する個数で生成することができる。
再び戻って、実施形態において、コンテンツ提供装置100は、判断された関心領域と一致率が高い画素面積PAを導出することができる(S109)。
詳細には、実施形態において、コンテンツ提供装置100は、判断された関心領域及びアイテムディスプレイ171-2に含まれた画素面積PAとの一致率を比較することによって、複数の画素面積PAのうち一致率が最も高い第1画素面積PA-1を導出することができる。
ここで、画素面積PAとは、複数のアイテムが陳列されたり、アイテム画像IMGが露出したアイテムディスプレイ171-2で各アイテムが位置した所定の領域を意味する。
すなわち、このために実施形態においてコンテンツ提供装置100は、画素面積PA毎にアイテム及びアイテム画像IMGを個別にマッチングして少なくとも1つ以上の画素面積PAを予め設定することができる。
なお、アイテム画像(IMG)とは、コンテンツ提供装置100を用いて当該装置を利用するユーザに販売することができるアイテムの代表画像を意味してもよく、アイテムディスプレイ171-2上に少なくとも1つ以上出力することができる。
したがって、画素面積PA及びアイテムイメージIMGは、コンテンツ提供装置100で提供するアイテム数に対応する数だけ存在することができる。
また、実施形態においてコンテンツ提供装置100は、アイテムディスプレイ171-2を予め設定された割合で分割して(例えば、9分割)分割した各領域を画素面積PAと設定する方法及び各アイテム画像(IMG)に隣接する所定の領域(例えば、アイテム画像IMGを含む矩形領域)を画素面積PAと設定する方法などを用いて画素面積PAを予め設定することができる。
本発明の実施形態においては、コンテンツ提供装置100が後者の方法を用いて画素面積PAを予め設定する方法に基づいて図面に図示及び説明するが、画素面積PAを予め設定する方法は、これに限定されず、様々な実施形態が存在することができる。
実施形態において、コンテンツ提供装置100は、アイテムディスプレイ171-2に含まれた複数の画素面積PAと判断されたユーザ1の関心領域の一致率を比較し、一致率が最も高い第1画素面積(PA-1)を導出することができる。
再び図6を参照すると、実施形態において、コンテンツ提供装置100は、販売中のアイテムの数に対応する数だけ(例えば、図6に基づいて9つ)の画素面積PAを予め設定することができる。このとき、各々の画素面積PAには、1つのアイテム及びアイテム画像IMGを含むことができる。
また、実施形態においてコンテンツ提供装置100は、ユーザの関心領域である(b)と一致率が最も高い第1画素面積(例えば、図6においてPA-1)を導出することができる。
このとき、実施形態においてコンテンツ提供装置100は、複数の画素面積PAのうち関心領域と一致率が最も高い(例えば、一致率80%以上)第1画素面積PA-1を導出することができる。
次に、実施形態においてコンテンツ提供装置100は、導出された画素面積PAにマッチングしたアイテムを検出することができる(S111)。
このために、実施形態においてコンテンツ提供装置100は、画素面積PA毎にマッチングされたアイテムをユーザ1が凝視するアイテムであると判断することにより検出することができる。
すなわち、実施形態においてコンテンツ提供装置100は、複数の画素面積PAのうち関心領域と一致率が最も高い第1画素面積PA-1を導出し、導出された第1画素面積PA-1にマッチングされたアイテムを検出することができる。
このとき、検出されたアイテムは、該当アイテムの広告及び付加情報である商品情報を含むことができる。このために、実施形態では、コンテンツ提供装置100は、コンテンツ提供装置100を用いてユーザ1に販売されるアイテムのそれぞれに含まれた商品情報をアイテム毎に個別にマッチングして商品情報データベース111に予め格納しておくことができる。
一方、アイテムディスプレイ171-2上に一度に露出可能なアイテム画像(IMG)数の制限で複数のアイテムページが存在する場合でも、該当するアイテムページ内の所定の画素面積PAにマッチングされたアイテムを検出することができる。
このために、実施形態において、コンテンツ提供装置100は、入力システム150を用いてユーザ1のアイテムページ変更入力を検知することができる。
また、実施形態においてコンテンツ提供装置100は、ユーザ1のアイテムページ変更入力に応じて、該当するアイテムページ内の所定の画素面積PAにマッチングされたアイテム及びアイテム画像IMGを変更することができる。
これにより、コンテンツ提供装置100は、ユーザ1の入力により変更されたアイテムページ上で導出された画素面積PAにマッチングされたアイテムを検出することができる。
例えば、再び図6を参照すると、ユーザ1の入力を検知して第1アイテムページを第2アイテムページに変更した場合、コンテンツ提供装置100は第1画素面積PA-1にマッチングされた第1アイテムを第2アイテムに変更することができる。
このとき、複数のアイテムページの画素面積PAごとに露出されるアイテム画像IMGが変更され、それに応じて検出されるアイテムも異なるため、このためにコンテンツ提供装置100は、予め設定されたピクセル面積PAにアイテムページ情報を含めることができる。
すなわち、ユーザ1が同じアイテムディスプレイ171-2領域を視聴することにより、コンテンツ提供装置100が同じ画素面積PAを導出しても、画素面積PAに含まれるアイテムページ情報に応じて異なるアイテムを検出することができる。
続いて、実施形態では、コンテンツ提供装置100は、検出されたアイテムのコンテンツを出力することができる(S113)。
詳細には、実施形態において、コンテンツ提供装置100は、商品情報データベース111に基づいて検出されたアイテムの商品情報をコンテンツとしてコンテンツディスプレイ171-1に出力することができる。
また、商品情報データベース111に検出されたアイテムに関する商品情報が未存在である場合、実施形態においてコンテンツ提供装置100は、通信プロセッサ130を用いたOTTサービスで検出されたアイテムに対する広告及び付加情報を含むコンテンツを取得してコンテンツディスプレイ171-1に出力することもできる。
実施形態にしたがって、コンテンツ提供装置100は、商品情報データベース111から画素面積にマッチングするアイテムを検出し、検出されたアイテムの商品情報を開示したOTTサービス(Over-the-top media service)に基づいてインターネット経由で取得して提供することもできる。
まとめると、コンテンツ提供装置100は、アイテムディスプレイ171-2に露出された複数のアイテムのうち、ユーザ1が凝視するアイテムを判断及び検出して当該アイテムに対する広告及び付加情報をコンテンツディスプレイ171-1上に出力することにより、ユーザ1にコンテンツを提供することができる。
また、コンテンツ提供装置100は、ユーザ1の視線情報だけでなく、入力システム150を用いてユーザ1のアイテム選択入力を検知することによってユーザ1にコンテンツを提供することもできる。
このために、コンテンツ提供装置100は、アイテムディスプレイ171-2に露出された複数のアイテムのうち少なくとも1つのアイテムを含まれた画素(ピクセル)面積PAを選択するユーザ1のアイテム選択入力を検知することができる。
入力に応じて、コンテンツ提供装置100は、ユーザ1が選択した画素面積PAを導出することができ、導出された画素面積PAにマッチングされたアイテムを検出して検出されたアイテムに対する商品情報コンテンツを出力することができる。
また、実施形態においてコンテンツ提供装置100は、ステップS105で生成されたユーザ1の視線情報40に基づいてコンテンツディスプレイ171-1に露出されるコンテンツを管理(実施形態において、再生、変更、停止、終了)できる。
例えば、1)アイテムディスプレイ171-2上でユーザ1の視線情報40が未収集の場合、実施形態においてコンテンツ提供装置100は、ユーザ1がコンテンツディスプレイ171-1に再生中のコンテンツを継続的に見つめていると判断して、再生中のコンテンツをコンテンツディスプレイ171-1上に出力する状態を維持することができる。
また、例えば、2)アイテムディスプレイ171-2上でユーザ1の視線情報40が収集され、視線情報40に含まれた関心領域が変更された場合、実施形態においてコンテンツ提供装置100は、再生中のコンテンツを停止してステップS109に回帰してユーザ1が新たに凝視するアイテムに対するコンテンツに変更して再生することができる。
また、例えば、3)アイテムディスプレイ171-2上でユーザ1の視線情報40が未収集であり、イメージセンサ161を用いて取得される顔認識映像10が未存在である場合、実施形態において、コンテンツ提供装置100は、ユーザ1がアイテムの購入を望んでいないため、コンテンツ提供装置100の利用を中断したと判断して再生中のコンテンツを終了することがある。
前述した3)の場合には、コンテンツディスプレイ171-1上にユーザ1ではない一般行為者を対象に一般広告を出力することができ、これによりコンテンツ提供装置100の使用効率を増加させることができる効果がある。
一方、他の実施形態に係るコンテンツ提供装置100は、複数のユーザがコンテンツ提供装置100を利用する場合であっても、複数のユーザのそれぞれに対して視線認識ベースのカスタマイズされたコンテンツを提供することもできる。
以下の他の実施形態においては、前述した実施形態と相違がある内容についてのみ 叙述し、叙述されない内容は、前述した実施形態の方法を準用するものとみなす。
図7は本発明の他の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する方法を説明するためのフローチャートである。
図7を参照すると、他の実施形態において、コンテンツ提供装置100は、顔認識映像10に基づいて複数のユーザ顔領域FAを認識することができる(S301)。
詳しくは、他の実施形態において、コンテンツ提供装置100は、顔認識映像10に認識されたユーザ1の顔領域FAが複数あり、認識された顔領域FAが全て所定の大きさ(例えば、3平方センチメートル(cm)以上の場合、複数のユーザ顔領域FAを認識することができる。
説明の便宜のため、複数のユーザ1が2人の場合に基づいて説明するが、これに限定されず、さらに少ないかまたは多数のユーザ1が存在する様々な実施形態が可能であってもよい。
例えば、コンテンツ提供装置100を利用しようとするユーザ1が2人であり、認識された顔領域(FA)2つが全て所定の大きさ以上である場合、コンテンツ提供装置100はコンテンツ提供装置100を利用しようとするユーザ1が複数名であることを判断することができる。
次いで、他の実施形態において、コンテンツ提供装置100は、認識された顔領域FAに従ってカメラアングルを調整することができる(S303)。
詳しくは、他の実施形態において、コンテンツ提供装置100は、認識された顔領域FAが複数であるため、複数の顔領域FAの全てが正常に認識される角度を導出してカメラアングルを調整することができる。
例えば、コンテンツ提供装置100は、カメラ中心点が認識された2つの顔領域FAの正中央に位置することができるようにカメラアングルを調整することができる。
また、他の実施形態において、コンテンツ提供装置100は、複数のユーザの視線を追跡して第1視線情報及び第2視線情報を生成することができる(S305)。
このとき、他の実施形態において、コンテンツ提供装置100は、第1ユーザの視線を追跡した視線情報である第1視線情報及び第2ユーザの視線を追跡した視線情報である第2視線情報を生成することができる。
また、他の実施形態において、コンテンツ提供装置100は、生成された複数の視線情報に基づいて第1関心領域及び第2関心領域を判断することができる(S307)。
このとき、別の実施形態において、コンテンツ提供装置100は、生成された第1視線情報から第1関心領域を判断し、第2視線情報から第2関心領域を判断することができる。
すなわち、他の実施形態において、コンテンツ提供装置100は、ユーザの数に比例する数の視線情報及び関心領域を生成することができる。
また、他の実施形態において、コンテンツ提供装置100は、判断された複数の関心領域と一致率が高い第1画素面積及び第2画素面積を導出することができる(S309)。
このとき、他の実施形態においてコンテンツ提供装置100は、導出された第1画素面積と第2画素面積が同一である場合、複数のユーザが凝視するアイテムが同一であると判断してS111及びS113と同様の方法でコンテンツディスプレイ(171-1)に1つのコンテンツのみを出力することができる。
言い換えれば、他の実施形態において、コンテンツ提供装置100は、導出された第1画素面積と第2画素面積が異なる場合、複数のユーザが凝視するアイテムが異なると判断し、複数のコンテンツをコンテンツディスプレイ(171-1)に出力するためにステップS311を実行することができる。
また、他の実施形態において、コンテンツ提供装置100は、導出された複数の画素面積にマッチングされた第1アイテム及び第2アイテムを検出することができる(S311)。
次いで、他の実施形態において、コンテンツ提供装置100は、コンテンツディスプレイ171-1に出力画面を分割することができる(S313)。
このとき、コンテンツディスプレイ171-1の出力画面は、認識されたユーザの数に対応する数に分割することができる。
また、他の実施形態において、コンテンツ提供装置100は、分割された出力画面にそれぞれ第1コンテンツ及び第2コンテンツを出力することができる(S315)。
さらに、他の実施形態において、コンテンツ提供装置100は、各ユーザに近い位置の分割されたコンテンツディスプレイ171-1の出力画面にそれぞれ第1コンテンツ及び第2コンテンツを出力することができる。
図8は、本発明の他の実施形態に係る複数の視線認識ベースのカスタマイズされたコンテンツが出力される様子を示す一例である。
図8を参照すると、他の実施形態において、コンテンツ提供装置100は、第1ユーザ1-A及び第2ユーザ1-Bの視線をそれぞれ追跡してアイテムディスプレイ171-2に含まれた第1画素面積PA-A及び第2画素面積PA-Bを導出することができる。
このとき、他の実施形態において、コンテンツ提供装置100は、第1画素面積PA-A及び第2画素面積PA-Bの位置に関係なく、第1ユーザ1-A及び第2ユーザ1-Bの位置に基づいて各ユーザに近い分割出力画面にコンテンツを出力することができる。
例えば、コンテンツ提供装置100は、第1ユーザ1-Aが凝視する第1画素面積PA-Aに該当するアイテムに対するコンテンツは第1ユーザに近いA’分割出力画面に出力することができ、第2ユーザ1-Bが凝視する第2画素面積PA-Bに対応するアイテムのコンテンツは、第2ユーザに近いB’分割出力画面に出力することができる。
そして、コンテンツ提供装置100は、第2ユーザの第2視線情報がA’分割出力画面に所定時間以上固定されることを検知すると、B’分割出力画面に第2コンテンツ出力を停止し、第1コンテンツを出力することができる。このとき、コンテンツ提供装置100は、第1コンテンツの再生時点をA’分割出力画面に出力された現在時点と一致させるように制御して第1コンテンツを出力することができる。そして、コンテンツ提供装置100は、第2ユーザの第2視線情報が第1コンテンツを出力するように制御されたB’分割出力画面に対応するように変更されることを検知すると、第1コンテンツ出力を持続することができる。また、コンテンツ提供装置100は、第2ユーザの第2視線情報が第1コンテンツを出力するように制御されたB’分割出力画面に変更されず、A’分割出力画面に第1コンテンツに変更された時点から所定の時間が経過すると、A’分割出力画面とB’分割出力画面を組み合わせてディスプレイ領域全体に第1コンテンツを出力することができる。このとき、第1コンテンツの出力方向は、第1ユーザの第1視線情報とマッチングするようにコンテンツ提供装置100が制御することができる。また、コンテンツ提供装置100は、分割出力画面結合時の異質感を低減するために、A’分割出力画面の第1コンテンツが徐々に大きくなりながら、B’分割出力画面まで表示されるように制御することができる。そして、コンテンツ提供装置100は、第2ユーザに第1コンテンツに対する情報要求/購入などの追加入力可能なインタラクション画面をB’分割出力画面内の所定の領域に表示するように制御することができる。そして、コンテンツ提供装置100は、インタラクション画面を介した第2ユーザの入力を検知すると、再びB’分割出力画面とA’分割出力画面に分割した後、B’分割出力画面には第2ユーザの入力に応じてカスタマイズされたコンテンツを提供する画面を出力するように制御することができる。
一方、コンテンツ提供装置100は、第1ユーザが第2ユーザによる分割出力画面変換に不便を感じないように、第1ユーザがA’分割出力画面のサイズを固定するロック(rock)モードを提供できる。第1ユーザがA’分割出力画面をロックモードに決定する場合、追加ユーザの検知、第2ユーザの位置や視線情報に関係なく現在の大きさと位置に固定された状態で第1ユーザの第1視線情報に応じたカスタマイズされたコンテンツを持続的に提供することができる。
また、他の実施形態においてコンテンツ提供装置100は、ステップS301で認識したユーザ顔領域FAの位置に対応して分割出力画面を指定することができる。
以上本発明の一実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法は、ユーザの身体的特性に応じて装置に取り付けられたカメラの視野角をリアルタイムで自動的に調整することによってユーザが変わるたびにユーザに合う初期設定実行にかかる時間を短縮する効果がある。
さらに、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供するための装置及び方法は、ユーザが凝視する商品のコンテンツを出力することによってユーザの関心の商品を直感的に把握し、コンテンツ露出によるユーザの満足度を向上させる効果がある。
また、本発明の実施形態に係る視線認識ベースのカスタマイズされたコンテンツを提供する装置及び方法は、複数のユーザ数に合うようにコンテンツ出力画面を分割することによってコンテンツ出力画面を効率的に使用して、各ユーザに広告及び情報の伝達能力を上昇させる効果がある。
以上説明された本発明に係る実施形態は、様々なコンピュータ構成要素を介して実行することができるプログラム命令語の形態で実現され、コンピュータ可読記録媒体に記録することができる。コンピュータ可読記録媒体は、プログラム命令語、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。コンピュータ可読記録媒体に記録されるプログラム命令語は、本発明のために特別に設計及び構成されたものであるか、またはコンピュータソフトウェアの分野の当業者に公知されて使用可能なものであってもよい。コンピュータ可読記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD-ROM及びDVDなどの光記録媒体、フロプティカルディスク(floptical disk)のような磁気光媒体(magneto-optical medium)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納し実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作成されるもののような機械語コードだけでなく、インタプリタなどを使用してコンピュータによって実行することができる高級言語コードも含まれる。ハードウェア装置は、本発明に係る処理を実行するために1つ以上のソフトウェアモジュールに変更することができ、その逆も同様である。

Claims (19)

  1. コンテンツ提供装置の少なくとも1つのプロセッサによって実行される視線認識ベースのカスタマイズされたコンテンツを提供する方法において、
    イメージセンサに基づいてユーザの顔認識映像を取得するステップと、
    前記取得された顔認識映像に基づいて前記イメージセンサを制御して前記ユーザの顔の正面画像を取得するステップと、
    前記取得された顔の正面画像に基づいて、前記ユーザの視線方向及び視線固定時間情報を含む視線情報を生成するステップと、
    前記生成された視線情報に対応するディスプレイ領域を関心領域として決定するステップと、
    前記決定された関心領域にマッチングするアイテムを検出するステップと、
    前記検出されたアイテムの商品情報コンテンツを提供するステップを含む、
    視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  2. 前記取得された顔認識映像に基づいて前記イメージセンサを制御して前記ユーザの顔の正面画像を取得するステップは、
    前記顔認識映像を予め学習されたディープラーニングニューラルネットワークの入力データとして提供するステップと、前記ディープラーニングニューラルネットワークの出力データで前記ユーザの顔ポーズ情報を取得するステップと、前記取得された顔ポーズ情報に基づく前記イメージセンサを制御するステップを含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  3. 前記生成された視線情報に対応するディスプレイ領域を関心領域として決定するステップは、
    前記ユーザの視線固定時間情報が予め設定された時間以上を満たす場合、前記ユーザの視線方向に対応するディスプレイ領域を前記関心領域として決定するステップを含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  4. 前記決定された関心領域にマッチングするアイテムを検出するステップは、
    前記ディスプレイ領域に基づいて出力されるアイテムページを選択するユーザ入力を取得するステップと、
    前記選択されたアイテムページ内の前記関心領域にマッチングするアイテムを検出するステップを含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  5. 前記視線情報に対応するディスプレイ領域を関心領域として決定するステップは、
    前記視線情報が変更されると、前記変更された視線情報に対応するディスプレイ領域に前記関心領域をアップデートするステップを含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  6. 前記決定された関心領域にマッチングするアイテムを検出するステップは、
    前記関心領域にマッチングするディスプレイ領域内の少なくとも1つの画素を検出するステップと、
    前記検出された少なくとも1つの画素に対して予め格納されたアイテムを検出するステップを含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  7. 前記ディスプレイ領域内の少なくとも1つの画素を選択するユーザ入力を取得するステップと、前記選択された少なくとも1つの画素について予め格納されたアイテムを検出す
    るステップと、前記検出されたアイテムの商品情報コンテンツを出力するステップをさらに含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  8. 前記取得された顔の正面画像に基づいて前記ユーザの視線方向及び視線固定時間情報を含む視線情報を生成するステップは、
    前記取得された顔認識映像において、第1ユーザの顔領域と第2ユーザの顔領域を検出するステップと、
    前記検出された複数のユーザ顔領域を含むように前記イメージセンサを含むカメラアングルを制御するステップを含む、
    請求項1に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  9. 前記取得された顔の正面画像に基づいて前記ユーザの視線方向及び視線固定時間情報を含む視線情報を生成するステップは、
    前記第1ユーザの顔領域に基づいて前記第1ユーザの第1視線情報を生成するステップと、前記第2ユーザの顔領域に基づいて前記第2ユーザの第2視線情報を生成するステップを含む、
    請求項8に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  10. 前記生成された視線情報に対応するディスプレイ領域を関心領域として決定するステップは、
    前記生成した第1視線情報に対応する第1画素面積を決定するステップと、前記生成した第2視線情報に対応する第2画素面積を決定するステップを含む、
    請求項9に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  11. 前記決定された関心領域にマッチングするアイテムを検出するステップは、
    前記決定された第1画素面積にマッチングされた第1アイテムを検出するステップと、前記決定された第2画素面積にマッチングされた第2アイテムを検出するステップとを含む、
    請求項10に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  12. 前記検出されたアイテムの商品情報コンテンツを提供するステップは、
    前記ディスプレイ領域を前記第1ユーザに対応する第1出力画面と、前記第2ユーザに対応する第2出力画面に分割するステップと、前記第1出力画面には、前記検出された第1アイテムに対応する第1コンテンツを出力し、前記第2出力画面には、前記第2アイテムに対応する第2コンテンツを出力するステップを含む、
    請求項11に記載の視線認識ベースのカスタマイズされたコンテンツを提供する方法。
  13. ユーザの顔認識映像を取得する少なくとも1つのイメージセンサと、
    前記取得された顔認識映像に基づいた商品情報コンテンツを出力する少なくとも1つのディスプレイと、
    少なくとも1つのプロセッサとを含み、
    前記プロセッサは、
    前記顔認識映像に基づいて前記イメージセンサを制御して前記ユーザの顔の正面画像を取得し、前記取得された顔の正面画像に基づいて前記ユーザの視線方向及び視線固定時間情報を含む視線情報を生成し、前記生成された視線情報に対応するディスプレイ領域を関心領域として決定し、前記決定された関心領域にマッチングするアイテムを検出し、前記検出されたアイテムの商品情報コンテンツを提供するように制御する、視線認識ベースのカスタマイズされたコンテンツを提供する装置。
  14. 前記ディスプレイは、
    少なくとも1つ以上の前記アイテムの代表画像を出力するアイテムディスプレイと、前記商品情報コンテンツを出力するコンテンツディスプレイを含む、請求項13に記載の視線認識ベースのカスタマイズされたコンテンツを提供する装置。
  15. 前記プロセッサは、
    前記顔認識映像に基づくディープラーニングに基づいて前記ユーザの顔ポーズ情報を取得し、
    前記取得された顔ポーズ情報に基づいて前記イメージセンサを制御して前記ユーザの顔の正面画像を取得する、
    請求項13に記載の視線認識ベースのカスタマイズされたコンテンツを提供する装置。
  16. 前記プロセッサは、
    前記顔認識映像を予め学習されたディープラーニングニューラルネットワークの入力データとして入力し、
    前記ディープラーニングニューラルネットワークの出力データで前記ユーザの顔ポーズ情報を取得し、
    前記取得された顔ポーズ情報に基づいてイメージセンサを制御する、
    請求項13に記載の視線認識ベースのカスタマイズされたコンテンツを提供する装置。
  17. 前記プロセッサは、
    前記視線情報が変更されると、前記変更された視線情報に対応するディスプレイ領域に前記関心領域をアップデートするように前記ディスプレイを制御する、
    請求項13に記載の視線認識ベースのカスタマイズされたコンテンツを提供する装置。
  18. 前記プロセッサは、
    前記関心領域にマッチングするディスプレイ領域内の少なくとも1つの画素を検出し、前記検出された少なくとも1つの画素に対して格納されたアイテムを検出するように制御する、
    請求項13に記載の視線認識ベースのカスタマイズされたコンテンツを提供する装置。
  19. 前記プロセッサは、
    前記ディスプレイ領域内の少なくとも1つの画素を選択するユーザ入力を取得し、前記選択された少なくとも1つの画素に対して予め格納されたアイテムを検出し、前記検出されたアイテムの商品情報コンテンツを出力するように制御する、
    請求項13に記載の視線認識ベースのカスタマイズされたコンテンツを提供する装置。
JP2023002697A 2022-01-17 2023-01-11 視線認識ベースのカスタムコンテンツを提供する装置及び方法 Active JP7478339B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220006674A KR102665453B1 (ko) 2022-01-17 2022-01-17 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법
KR10-2022-0006674 2022-01-17

Publications (2)

Publication Number Publication Date
JP2023104899A JP2023104899A (ja) 2023-07-28
JP7478339B2 true JP7478339B2 (ja) 2024-05-07

Family

ID=87379138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023002697A Active JP7478339B2 (ja) 2022-01-17 2023-01-11 視線認識ベースのカスタムコンテンツを提供する装置及び方法

Country Status (3)

Country Link
US (1) US20230244309A1 (ja)
JP (1) JP7478339B2 (ja)
KR (1) KR102665453B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243466A (ja) 2000-03-02 2001-09-07 Honda Motor Co Ltd 顔認識装置およびその方法
JP2013069106A (ja) 2011-09-22 2013-04-18 Yappa Corp 電子コンテンツ提供システム、電子コンテンツ提供サーバ、電子コンテンツ閲覧端末装置、及びプログラム
JP2014067401A (ja) 2012-09-24 2014-04-17 Nhn Business Platform Corp ユーザの視線に基づいて広告を提供する方法およびシステム
JP2019039988A (ja) 2017-08-23 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
JP2020201868A (ja) 2019-06-13 2020-12-17 コニカミノルタ株式会社 表示装置、表示制御方法および表示制御プログラム
JP2021145198A (ja) 2020-03-10 2021-09-24 佐々木 雄司 アイコンタクトによる機器操作システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101978299B1 (ko) * 2012-10-24 2019-05-14 에스케이플래닛 주식회사 콘텐츠 서비스 시스템에서의 콘텐츠 서비스를 위한 장치
KR102213865B1 (ko) * 2014-03-18 2021-02-08 에스케이플래닛 주식회사 주시 영역 기반 객체 식별 장치 및 방법, 컴퓨터 프로그램이 기록된 기록매체
KR101647969B1 (ko) * 2014-09-12 2016-08-12 재단법인대구디지털산업진흥원 사용자 시선을 검출하기 위한 사용자 시선 검출 장치 및 그 방법과, 그 방법을 실행하기 위한 컴퓨터 프로그램
KR101772181B1 (ko) * 2016-01-14 2017-08-28 최선영 사용자의 시선 분석을 이용한 웹 디스플레이 상에서의 다중 창 멀티태스킹 시청 행위 분석 시스템 및 방법
KR102565977B1 (ko) * 2018-02-08 2023-08-11 삼성전자주식회사 시선에 기반한 관심 영역 검출 방법 및 이를 위한 전자 장치
KR102233481B1 (ko) * 2018-10-18 2021-03-29 주식회사 토비스 화면 제어 방법 및 표시 장치
KR102249666B1 (ko) * 2019-06-13 2021-05-10 주식회사 비주얼캠프 시선 추적 기술을 이용한 쇼핑몰 서비스 시스템 및 이를 수행하기 위한 컴퓨팅 장치
KR102352794B1 (ko) * 2019-06-24 2022-01-17 건국대학교 글로컬산학협력단 개인 맞춤형 조절이 가능한 키오스크 및 그 제어 시스템
KR102299103B1 (ko) * 2019-10-23 2021-09-07 주식회사 비주얼캠프 시선 분석 장치 및 이를 이용한 시선 분석 시스템 및 방법
KR102198360B1 (ko) * 2019-10-24 2021-01-04 광운대학교 산학협력단 얼굴 영상 기반의 시선 추적 시스템 및 방법
KR102305880B1 (ko) * 2020-06-26 2021-09-28 이종우 사용자의 시선 추적 방법 및 사용자의 시선 추적 방법을 실행시키는 프로그램이 기록된 기록 매체

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243466A (ja) 2000-03-02 2001-09-07 Honda Motor Co Ltd 顔認識装置およびその方法
JP2013069106A (ja) 2011-09-22 2013-04-18 Yappa Corp 電子コンテンツ提供システム、電子コンテンツ提供サーバ、電子コンテンツ閲覧端末装置、及びプログラム
JP2014067401A (ja) 2012-09-24 2014-04-17 Nhn Business Platform Corp ユーザの視線に基づいて広告を提供する方法およびシステム
JP2019039988A (ja) 2017-08-23 2019-03-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像表示方法
US20200201048A1 (en) 2017-08-23 2020-06-25 Sony Interactive Entertainment Inc. Information processing apparatus and image display method
JP2020201868A (ja) 2019-06-13 2020-12-17 コニカミノルタ株式会社 表示装置、表示制御方法および表示制御プログラム
JP2021145198A (ja) 2020-03-10 2021-09-24 佐々木 雄司 アイコンタクトによる機器操作システム

Also Published As

Publication number Publication date
KR102665453B1 (ko) 2024-05-10
US20230244309A1 (en) 2023-08-03
JP2023104899A (ja) 2023-07-28
KR20230111005A (ko) 2023-07-25

Similar Documents

Publication Publication Date Title
US11609607B2 (en) Evolving docking based on detected keyboard positions
US20210349543A1 (en) Data and user interaction based on device proximity
US11231777B2 (en) Method for controlling device on the basis of eyeball motion, and device therefor
JP6966443B2 (ja) 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
US10120454B2 (en) Gesture recognition control device
US9342610B2 (en) Portals: registered objects as virtualized, personalized displays
US9262780B2 (en) Method and apparatus for enabling real-time product and vendor identification
US8725567B2 (en) Targeted advertising in brick-and-mortar establishments
CN104731316B (zh) 基于眼睛跟踪在设备上呈现信息的系统及方法
US9087056B2 (en) System and method for providing augmented content
CN103703438A (zh) 基于注视的内容显示器
US20180350148A1 (en) Augmented reality display system for overlaying apparel and fitness information
US20080004951A1 (en) Web-based targeted advertising in a brick-and-mortar retail establishment using online customer information
KR20210153151A (ko) 생체 인증 정보를 교환하도록 구성된 머리 장착 디스플레이 시스템
KR20110076458A (ko) 디스플레이 장치 및 그 제어방법
KR20170121720A (ko) Vr 공간에서 컨텐트를 제공하는 방법, 디바이스 및 기록매체
US20200142495A1 (en) Gesture recognition control device
WO2022170221A1 (en) Extended reality for productivity
KR20200037426A (ko) 소비자 인구 통계학적 신원 확인 시스템을 갖는 음료 지급기
US20210166271A1 (en) Method for providing text-reading based reward-type advertisement service and user terminal for executing same
JP7478339B2 (ja) 視線認識ベースのカスタムコンテンツを提供する装置及び方法
US11250242B2 (en) Eye tracking method and user terminal performing same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20240327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240402

R150 Certificate of patent or registration of utility model

Ref document number: 7478339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150