JP6916955B2 - 端末使用パターン情報の収集管理方法及びシステム - Google Patents

端末使用パターン情報の収集管理方法及びシステム Download PDF

Info

Publication number
JP6916955B2
JP6916955B2 JP2020505868A JP2020505868A JP6916955B2 JP 6916955 B2 JP6916955 B2 JP 6916955B2 JP 2020505868 A JP2020505868 A JP 2020505868A JP 2020505868 A JP2020505868 A JP 2020505868A JP 6916955 B2 JP6916955 B2 JP 6916955B2
Authority
JP
Japan
Prior art keywords
information
video
user
distance
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020505868A
Other languages
English (en)
Other versions
JP2020530131A (ja
Inventor
キム,ミン
ラク チェ,ウン
ラク チェ,ウン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academic Cooperation Foundation of Yonsei University
Original Assignee
Industry Academic Cooperation Foundation of Yonsei University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industry Academic Cooperation Foundation of Yonsei University filed Critical Industry Academic Cooperation Foundation of Yonsei University
Publication of JP2020530131A publication Critical patent/JP2020530131A/ja
Application granted granted Critical
Publication of JP6916955B2 publication Critical patent/JP6916955B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3041Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is an input/output interface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3438Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment monitoring of user actions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Quality & Reliability (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mathematical Physics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)

Description

本発明は、端末使用パターン情報の収集管理方法及びシステムに関し、さらに詳しくは、ユーザの視力保護及び管理のために、ユーザ端末の画面表示を制御する過程で生成する端末使用パターン情報を収集管理する方法及びシステムに関する。
最近、情報通信技術が発達するにつれて移動通信端末機の普及が急激になされている。移動通信端末機は、電話機能だけでなく、多様なアプリケーション(application)を利用してユーザが所望の多様なサービスを提供することができる。
ところで、移動通信端末機から提供するサービスを利用する時、ユーザ本人も知らないうちに、無意識的に近距離で画面を長時間凝視する状態が持続かつ繰り返して起こり、瞬きが急激に減るようになる。
このような過度な目の使用により、目の疲労度が増加するだけでなく、目が乾燥する可能性がある。そして、目の乾燥さが増加すれば、視野がぼやけて視力が大きく低下するという問題点があった。また、長時間の近距離作業が持続的に繰り返される場合、近眼が進行する確率が高くなる。最近、東アジア地域では、高い近眼有病率の統計が持続的に発表されており、特に、高度近眼の場合は、網膜剥離、網膜裂孔、近視性黄斑変性などの眼科的疾病が発生する危険が増加するようになる。
最近、移動通信端末機を使用する年令層が次第に低くなり、自己統制力の弱い乳児または子供たちまで視力低下が発生しているので、乳児または子供たちが移動通信端末機を一定時間以上連続して使用すると自動で動作を中止し制限するようにする技術開発が要求されている。
しかし、従来のように移動通信端末機の使用時間に応じて動作を単純に中止し制限するようにする方法は、視力低下を減少させるのに大して役に立たなかった。
そこで、本発明が解決しようとする技術的課題は、ユーザの視力保護及び管理のために、ユーザ端末の画面表示を制御する過程で生成する端末使用パターン情報を収集管理し、収集された端末使用パターン情報に基づいてユーザの目の健康状態を判断して管理する方法及びシステムを提供することにある。
また、本発明は、明示的に言及された目的以外にも、後述する本発明の構成から達成されることができる他の目的も含む。
上記技術的課題を解決するための本発明の一実施例による端末使用パターン情報の収集管理方法は、ユーザ端末とユーザとの間の距離を検出する段階と、前記ユーザ端末の使用時間を検出する段階と、前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理する段階と、前記ユーザから予め定められた反応が感知されれば、映像変換処理情報、前記距離及び前記使用時間のうち少なくとも一つを含む端末使用パターン情報を収集する段階とを含む。
前記予め定められた条件は、前記距離が基準距離未満であり、前記使用時間が基準時間以上と設定できる。
前記予め定められた映像処理方法は、時間経過につれて段階的に前記映像情報を元のサイズより拡大または縮小することであり、前記映像変換処理情報は、前記反応が感知された時点の前記映像情報の拡大の割合または縮小の割合を含むことができる。
前記予め定められた映像処理方法は、時間経過につれて前記映像情報のぼやけ程度を段階的に高くなるようにすることであり、前記映像変換処理情報は、前記反応が感知された時点の前記映像情報のぼやけ程度を含むことができる。
前記予め定められた映像処理方法は、時間経過につれて前記映像情報を縁部からぼやけさせるか暗くする範囲を段階的に拡大させることであり、前記映像変換処理情報は、前記反応が感知された時点の前記映像情報におけるぼやけさせるか暗くした範囲の情報を含むことができる。
前記予め定められた映像処理方法は、前記映像情報を予め設定された色相で処理することであり、前記映像変換処理情報は、前記予め設定された色相情報を含むことができる。
前記方法は、前記ユーザ端末とユーザとの間の距離が基準距離以上になれば、前記映像情報を元の状態で表示する段階をさらに含むことができる。
前記反応は、前記距離が基準距離以上になるか、前記変換処理と反対のユーザ操作が入力されることができる。
前記方法は、前記収集された端末使用パターン情報に基づいてユーザの目の健康状態を判断する段階をさらに含むことができる。
上記技術的課題を解決するための本発明の一実施例による端末使用パターン情報の収集管理システムは、ユーザ端末とユーザとの間の距離とユーザ端末の使用時間のうち少なくとも一つが予め定められた条件を満たせば、画面に表示される映像情報を予め定められた映像処理方法により変換処理するユーザ端末で収集された端末使用パターン情報の提供を受けるサービスサーバを含む。
上記技術的課題を解決するための本発明の他の実施例によるユーザ端末は、ユーザ端末とユーザとの間の距離を検出するための情報をセンシングする距離センサー部と、前記ユーザ端末の使用時間を検出し、前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理し、前記ユーザから予め定められた反応が感知されれば、映像変換処理情報、前記距離及び前記使用時間のうち少なくとも一つを含む端末使用パターン情報を収集する制御部とを含む。
本発明によると、ユーザの視力保護及び管理のために、ユーザ端末の画面表示を制御する過程で生成する端末使用パターン情報を収集管理し、収集された端末使用パターン情報に基づいてユーザの目の健康状態を判断して管理することができる。
また、ユーザがユーザ端末を長時間近距離で利用する場合、画面に表示される情報を元のサイズより段階的に拡大または縮小させて表示することで、ユーザが見ていた情報を連続的に提供しつつ自発的にユーザ端末から離れるようにすることができる。
さらに、ユーザ端末を長時間近距離で利用する場合、ユーザ端末の画面に表示される情報を近眼進行者から見える焦点離脱形態により表示することで、ユーザに警戒心を与えて警告することができる。即ち、ユーザ自身に起こりうる実際の近眼の症状を現わす写真を見せることで、ユーザに近眼に対するより正確な情報と警戒心を与えることができる。
一方、本発明の効果は、上述したものに限らず、後述する本発明の構成から導出されることができる他の効果も本発明の効果に含まれる。
本発明の一実施例による端末使用パターン情報の収集管理システムの構成図である。 図1のユーザ端末の細部構成を示した図面である。 本発明の一実施例による端末使用パターン情報の収集管理システムの動作を説明するために提供されるフローチャートである。 本発明の一実施例による画面に表示される映像情報が段階的に拡大することを例示したものである。 本発明の一実施例による画面に表示される映像情報が段階的にぼやけることを例示したものである。 本発明の一実施例による画面に表示される映像情報が縁部から段階的に暗くなることを例示したものである。
それでは、添付の図面を参考して本発明の実施例について本発明が属する技術分野で通常の知識を持った者が容易に実施できるように詳しく説明する。
図1は、本発明の一実施例による端末使用パターン情報の収集管理システムの構成図である。
図1を参考すると、本発明によるシステム1は、多数のユーザ端末100及びサービスサーバ200を含むことができる。
ユーザ端末100とサービスサーバ200は、ネットワーク10を通じて各種の情報及びデータを交換することができる。
ネットワーク10は、構内情報ネットワーク(Local Area Network、LAN)、都市圏ネットワーク(Metropolitan Area Network、MAN)、広域ネットワーク(Wide Area Network、WAN)、インターネット(internet)、3G(generation)、4G(generation)移動ネットワーク、ワイファイ(Wi−Fi)、WIBRO(Wireless Broadband Internet)またはLTE(Long Term Evolution)などを含む各種のデータネットワークを含むことができ、有線と無線に関係なく如何なる通信方式を使用しても構わない。
ユーザ端末100は、スマートフォン、タブレットPC(Personal Computer)、個人携帯情報端末機(Personal Digital Assistant、PDA)、ウェブパッドなどのようにメモリー手段を具備し、マイクロプロセッサー(microprocessor)を搭載して演算能力を備えた端末機からなることができる。ユーザ端末100は、多様なアプリケーションが設置されてユーザに多様なサービスを提供することができる。
ユーザ端末100は、ユーザ端末とユーザとの間の距離とユーザ端末の使用時間のうち少なくとも一つが予め定められた条件を満たせば、画面に表示される映像情報を予め定められた映像処理方法により変換して処理することができる。
ユーザ端末100は、端末使用パターン情報を収集して、サービスサーバ200に提供することができる。ここで端末使用パターン情報は、映像変換処理情報、ユーザ端末とユーザとの間の距離及びユーザ端末の使用時間などに対する情報を含むことができる。映像変換処理情報は、ユーザ端末100が画面に表示される映像情報を予め定められた映像処理方法により変換した内容に対する情報を含むことができる。端末使用パターン情報と映像変換処理情報については、下記でさらに詳しく説明する。
サービスサーバ200は、複数のユーザ端末100から転送された端末使用パターン情報を収集し、収集された端末使用パターン情報を分析してユーザの目の状態を管理するための情報を生成することができる。例えば、サービスサーバ200は、一日に総何時間以下を使用すれば近眼が予防されるかを予測するために、ユーザの総使用時間を分析し、近眼進行程度を測定して数人のデータを集めて基準点を設定することができる。
サービスサーバ200は、ユーザ端末100から転送された端末使用パターン情報を格納して予め定められたグループの端末使用パターン情報を収集することもできる。例えば、父、母、子1、子2にユーザ端末がそれぞれあった場合、家族グループを生成することができる。すると、各家族構成員に対応する端末使用パターン情報がサービスサーバ200に伝達されて家族グループの使用パターン情報を分析し、分析された結果に基づいて家族グループの目の管理方法をコーチングすることができる。
図2は、図1のユーザ端末の細部構成を示した図面である。
図1を参考すると、ユーザ端末100は、距離センサー部110、入力部120、表示部130、制御部140、格納部150及び通信部160を含むことができる。
距離センサー部110は、ユーザ端末100とユーザとの間の距離を検出するための情報をセンシングする機能を行う。例えば、距離センサー部110は、カメラであり、ユーザの顔イメージを獲得することができる。カメラを通じて撮影されたユーザの顔イメージから目、鼻または口などを認識して、ユーザ端末100とユーザ間の距離を検出することができる。ユーザの顔映像を利用してカメラとユーザとの間の距離を求める方法は、既に知られた多様な方法の中から選択できる。一方、距離センサー部110は、超音波センサーまたは光センサー(赤外線)などであってもよい。ここで説明したものの他にも、距離センサー部110は、ユーザ端末100とユーザとの間の距離を検出することができる多様な装置とできる。
入力部120は、ユーザ端末100の動作と関連した命令をユーザから入力を受ける機能を行うことができる。入力部120は、タッチパッド、タッチスクリーン、各種の物理的ボタン、マイクロフォン、慣性センサーなどとできる。
表示部130は、ユーザ端末100の動作と関連した情報を画面に表示する機能を行う。表示部130は、LCDパネル、OLEDパネルなどのディスプレイモジュールとできる。
制御部140は、中央処理装置(CPU、central processing unit)とオペレーティングシステムで実現でき、ユーザ端末100の各種の動作を制御する機能を行う。例えば、CPUとアンドロイド(登録商標)プラットフォームで制御部140を実現できる。特に、本発明による制御部140は、ユーザ端末100とユーザとの間の距離が基準距離未満であり、ユーザ端末100の使用時間が基準時間以上であれば、ユーザの目を保護するための目の保護モードで動作することができる。
例えば、制御部140は、ユーザがユーザ端末100を長時間近距離で利用すると判断されれば、ユーザ端末100の画面に表示される情報を元のサイズより拡大または縮小して表示することで、ユーザが見ていた情報を連続的に提供しつつ自発的にユーザ端末100から離れることができるようにする。もちろん、画面の拡大または縮小だけでなく、制御部140は、ユーザが予め定められた距離未満で予め定められた時間以上ユーザ端末100を利用すると判断されれば、目の保護モードで動作して画面に出力される映像情報に対して予め定められた方法でイメージプロセッシングを行って出力することで、ユーザが自発的にユーザ端末100から離れるようにすることができる。
そして、ユーザ端末とユーザとの間の距離が基準距離以上になれば、制御部140は、映像情報を元の形態で再び表示することができる。制御部140は、ユーザがユーザ端末100との間の距離を一定距離以上に再び維持する場合、画面の情報を元の形態に再び調整して出力することで、ユーザとユーザ端末100との間の距離が一定に維持されるようにする。
一方、制御部140は、端末使用時間が基準時間以上である場合、画面に動きイメージが表示されるようにすることができる。または、制御部140は、ユーザから連続使用時間の設定を受けて定められた周期毎に使用時間を表示することもできる。例えば、連続使用時間を50分と設定した場合、タイマーを作動させてユーザが連続でどれほどユーザ端末を使用したかを表示して認識させ、連続使用時間が近付くと「連続使用時間10分前です。」などのメッセージが表示されるようにできる。
そして、制御部140は、連続使用時間が過ぎると、自動で画面自体が緑色に変わるか、動くイメージが表示されて、ユーザに瞬きと休息を誘導することができる。例えば、ユーザが瞬きや目の運動ができるように目の運動動画が提供されて、目の運動動画が終われば再び正常画面が表示されるようにすることができる。
格納部150は、ユーザ端末100の動作に必要な各種のデータ及びプログラムを格納し、制御部140の要請に応じて提供する機能を行う。格納部150は、ハードディスク、ラム(RAM)、ロム(ROM)、フラッシュメモリー、SSD(Solid State Drive)などのメモリーモジュールとできる。
通信部160は、ユーザ端末100が外部装置と各種の情報及びデータを交換できるように支援する機能を行い、そのため有無線通信モジュールを含むことができる。
図3は、本発明の一実施例による端末使用パターン情報の収集管理システムの動作を説明するために提供されるフローチャートである。
図1〜図3を参考すると、制御部140は、距離センサー部110を通じてセンシングされた情報に基づいてユーザ端末100とユーザとの間の距離を検出する(S310)。
以後、ユーザ端末とユーザとの間の距離が予め定められた基準距離未満であれば(S320−Y)、制御部140は、基準距離未満になった時点からユーザ端末の使用時間を検出することができる(S330)。
次に、基準距離未満になった時点からユーザ端末の使用時間が基準時間以上であれば(S340−Y)、制御部140は、ユーザ端末100の画面に表示される映像情報を予め定められた映像処理方法により変換処理することができる(S350)。
段階(S350)において、下記の図4〜図6で例示したように、多様な映像処理方法が適用されることができる。
図4は、本発明の一実施例による画面に表示される映像情報が段階的に拡大することを例示したものである。
図4を参照すると、ユーザ端末100を使用し始めたか使用して間もない初期には、図4(a)のように、元のサイズを持つ情報をユーザ端末100の画面に表示できる。元のサイズは、ユーザ端末100自体の中で設定された文字、イメージまたは写真などのような情報のサイズであるか、ユーザによって予め調整されて設定されたサイズであり、ユーザが通常、ユーザ端末100を使用する時に画面に出力される情報のサイズを言う。
しかし、ユーザ端末100を長時間近距離で利用する場合、目の疲労度が増加するだけでなく、目が乾燥して視野がぼやけるため、ユーザはよりよく見るために画面に顔をさらに近づけるようになる。
ユーザが長時間近距離でユーザ端末100を使用すると判断されれば、制御部140は、目の保護モードで動作してユーザがユーザ端末100から自然と離れるように画面に表示される情報を元のサイズより拡大して表示することができる。画面に表示される情報が元のサイズより拡大して表示されれば、情報が画面で充分に見えなくなるため、ユーザは画面の情報を見るためにユーザ端末100と十分な距離を確保するしかなくなる。
この時、画面の情報を元のサイズより拡大する割合は、時間の経過につれて段階的に高くなることができる。例えば、目の保護モードで動作した時点が初期の場合は、図4(b)のように、画面に表示される情報を少し拡大して表示することができるが、時間が経過してもユーザがユーザ端末100に近く接近した状態で画面を凝視し続ける場合、画面に表示される情報を図4(b)の情報より段階的にさらに拡大して表示することができる。そして、ユーザがユーザ端末100に近く接近し過ぎた状態で長時間利用すると、画面に表示される情報が図4(c)のように、非常に大きく拡大して情報を画面で充分に見えないように表示させることができる。
もちろん、状況によって画面の情報を短時間で元のサイズより急激に拡大したサイズで表示することも可能であるが、ユーザが認識できないように図4(b)及び図4(c)に例示したものよりもさらに細分して情報のサイズを段階的に拡大させることで、ユーザが拒否感なくユーザ端末100を使用しながら自然と目を保護できるようにすることもできる。この時、ユーザが認識できないように段階的に拡大させるための情報の拡大割合は、学習や実験を通じて獲得できる。
このように、ユーザ端末100を長時間近距離で利用する場合、時間の経過につれて画面の情報を元のサイズより段階的に拡大させることで、ユーザが見ていた情報を連続的に提供しつつ自発的にユーザ端末100から離れるようにすることができる。
そして、制御部140は、ユーザの視線方向に対応する位置を中心として拡大することができる。例えば、ユーザがネイバー(登録商標)でリアルタイム上昇順位に対する情報を見ている場合、制御部140は、リアルタイム上昇順位を中心として情報の拡大が行われることができる。このように、制御部140は、ユーザの視線が向かう位置を中心として拡大が行われるようにすることで、ユーザが見ていた情報を逃さないようにすることもできる。
一方、実施例によって、制御部140は、目の保護モードで動作して画面に表示される情報を元のサイズより縮小して表示することもできる。この時、画面の情報を元のサイズより縮小する割合は、時間の経過につれて段階的に高くなることができる。そして、ユーザが認識できないように段階的に縮小させるための情報の縮小の割合は、学習や実験を通じて獲得できる。
図5は、本発明の一実施例による画面に表示される映像情報が段階的にぼやけることを例示したものである。
図5を参照すると、制御部140は、画面に表示される情報を段階的に拡大させる代わりに、時間経過につれて映像情報のぼやけ程度を段階的に高くなるようにすることもできる。ここで、ぼやけは、近眼が進行している人が事物の焦点がぼやけて見える時のように、映像が焦点から離脱した形態で見えるように処理することを言う。
図5(a)は、正常な形態の情報を示す画面であり、図5(b)及び図5(c)は、段階的にぼやけ程度が高くなる情報を示す画面である。実施例によって図5(b)及び図5(c)に示したものよりもさらに細分して情報のぼやけ程度が高くなるように処理することもできる。
ユーザ端末100を使用し始めたか使用して間もない初期には、図5(a)のように、ユーザ端末100の画面に焦点が正確である正常な情報を表示できる。それから、ユーザとユーザ端末100との間の距離が基準距離未満であり、ユーザ端末100の使用時間が基準時間以上であれば、画面に表示される情報を図5(b)及び図5(c)のように、近眼進行者に現われる焦点が離脱した形態で表示されるように段階的にぼやけ程度を高めることで、ユーザに警戒心を与えながら警告することができる。このように、制御部140は、ユーザに起こりうる実際の近眼の症状を現わす写真を見せることで、ユーザに近眼に対するより正確な情報と警戒心を与えることができる。
図6は、本発明の一実施例による画面に表示される映像情報が縁部から段階的に暗くなることを例示したものである。
図6を参照すると、制御部140は、画面に表示される情報を段階的に拡大させるかぼやけ程度を高める代わりに、時間経過につれて映像情報の縁部から段階的に暗くなるようにすることもできる。実施例によって図6(b)及び図6(c)に示したものよりもさらに細分して情報の縁部から暗くなる範囲を拡大した処理をすることもできる。
近眼の進行時に緑内障性の視野減少現象が現れることもある。図6(a)は、映像情報を正常形態で表示した場合であり、図6(b)及び図6(c)は、映像情報の縁部から段階的に暗くなるように処理することで、ユーザの視野が減少する効果を表現したものである。
一方、実施例によって図6で映像情報を映像情報の縁部から段階的に暗くなるように処理する代わりに、映像情報の縁部から段階的にぼやけるように処理することも可能である。
このようにユーザに起こりうる実際の近眼の症状を現わす写真を見せることで、ユーザに近眼に対するより正確な情報と警戒心を与えることができる。
一方、上述した方法の他にも、多様な映像処理方法を選択できる。
例えば、制御部140は、情報が画面に出力されないようにするか、画面に出力される情報を白黒で表示するようにできる。また、制御部140は、ユーザから予め設定された色相で映像情報を処理して出力することもできる。例えば、ユーザが最も嫌いな赤色を予め設定しておけば、制御部140は、映像情報を赤色だけで表示するようにできる。ユーザが嫌いな色相で映像情報を処理することで、ユーザがユーザ端末100から離れるようにする効果をもたらすこともできる。
一方、制御部140は、ユーザがユーザ端末から離れるようにするための警告メッセージを出力することもできる。そして、単純に警告メッセージを出力するものではなく、例えば「持続的に近くで見ると近眼が進行し、次のように見えるようになります。」というメッセージと共に画面の情報が近眼を持った人が見える情報で表示されるようにすることもできる。
再び図3を参照すると、段階(S350)で映像情報を予め定められた方法で処理してから、ユーザから予め定められた反応が感知されれば(S360−Y)、制御部140は、映像変換処理情報、ユーザ端末とユーザとの間の距離及びユーザ端末の使用時間などを含む端末使用パターン情報を収集することができる(S370)。段階(S370)で収集される映像変換処理情報は、上述した段階(S350)で行われた映像処理内容とできる。そして、映像変換処理情報は、ユーザから予め定められた反応が感知された時点の映像情報の拡大の割合、縮小の割合、ぼやけ程度、映像情報におけるぼやけさせるか暗くなった範囲の情報などを含むことができる。
もちろん、端末使用パターン情報は、ユーザから予め定められた反応が感知された時点前後の一定期間の映像変換処理情報、ユーザ端末とユーザとの間の距離及びユーザ端末の使用時間などを含むこともできる。例えば、情報拡大割合がいくらの時にユーザが反応を示したか、ユーザがユーザ端末100にどれほど接近してから離れたか、またはユーザ端末100を使用した時間がどれほど経過してから基準距離以上に近くなったり離れたりしたかに対する情報を収集すると、収集された端末使用パターン情報を分析してユーザの目の状態を把握することができるようになる。そして、端末使用パターン情報は、ユーザ端末100を使用し始めた時点における初期距離または視聴パターン情報などをさらに含んでユーザの目の状態を正確に把握するのに利用可能にすることもできる。
段階(S360)で予め定められた反応は、元の映像情報が予め定められた方法に変換されて表示された後、ユーザが不便を感じてユーザ端末100から基準距離以上に離れることであることもできる。または段階(S350)で変換処理と反対のユーザ操作が入力されることであることもできる。例えば、拡大した映像を縮小させるための操作などであることができる。
一方、段階(S350)で映像情報を予め定められた方法で処理してから、ユーザ端末とユーザとの間の距離が基準距離以上になれば(S380−Y)、制御部140は、段階(S350)で変換された映像情報を元の状態で表示することができる(S390)。
一方、制御部140は、収集された端末使用パターン情報に基づいてユーザの目の健康状態を判断することができる。制御部140は、収集された端末使用パターン情報を分析してユーザの目の健康状態を把握することができるが、制御部140で予め備えられたプログラムを通じて直接ユーザの目の健康状態を判断するように具現化することができる。
また、制御部140は、サービスサーバ200に端末使用パターン情報を転送し、サービスサーバ200で分析されたユーザの目の健康状態を受信してユーザに提供できるようにする。即ち、医者が医学的に直接分析したユーザの目の健康状態に対する情報の提供を受けることもできる。
サービスサーバ200は、ユーザ端末100から収集されて転送された端末使用パターン情報で構築されたビックデータを利用して、ユーザの端末使用パターンによる目の健康状態予測モデルを学習することもできる。そして、サービスサーバ200は、目の健康状態予測モデルに基づいてユーザの目の健康状態を予測した結果をユーザ端末100に提供することもできる。
本発明の実施例は、多様なコンピューターで実現される動作を行うためのプログラム命令を含むコンピューターで読み取れる媒体を含む。この媒体は、上述した方法を実行させるためのプログラムを記録する。この媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含むことができる。このような媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD及びDVDのような光記録媒体、フロプティカルディスク(floptical disk)と磁気−光媒体、ロム、ラム、フラッシュメモリーなどのようなプログラム命令を格納して行うように構成されたハードウェア装置などがある。プログラム命令の例には、コンパイラーによって作られるような機械語コードだけでなく、インタプリターなどを使用してコンピューターによって実行可能な高級言語コードを含む。
以上で本発明の好ましい実施例について詳しく説明したが、本発明の権利範囲はこれに限定されるものではなく、次の請求の範囲で定義している本発明の基本概念を利用した当業者の様々な変形及び改良形態も本発明の権利範囲に属する。

Claims (16)

  1. ユーザ端末とユーザとの間の距離を検出する段階と、
    前記ユーザ端末の使用時間を検出する段階と、
    前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理する段階と、
    前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含む端末使用パターン情報を収集する段階と、
    を含み、
    前記予め定められた映像処理方法が、時間経過につれて段階的に前記映像情報を元のサイズより拡大または縮小することであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報の拡大の割合または縮小の割合を含む、
    端末使用パターン情報の収集管理方法。
  2. ユーザ端末とユーザとの間の距離を検出する段階と、
    前記ユーザ端末の使用時間を検出する段階と、
    前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理する段階と、
    前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含む端末使用パターン情報を収集する段階と、
    を含み、
    前記予め定められた映像処理方法が、時間経過につれて前記映像情報のぼやけ程度を段階的に高くなるようにすることであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報のぼやけ程度を含む、
    端末使用パターン情報の収集管理方法。
  3. ユーザ端末とユーザとの間の距離を検出する段階と、
    前記ユーザ端末の使用時間を検出する段階と、
    前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理する段階と、
    前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含む端末使用パターン情報を収集する段階と、
    を含み、
    前記予め定められた映像処理方法は、時間経過につれて前記映像情報を縁部からぼやけさせるか暗くする範囲を段階的に拡大させることであり、
    前記映像変換処理情報は、前記反応が感知された時点の前記映像情報におけるぼやけさせるか暗くした範囲の情報を含む
    端末使用パターン情報の収集管理方法
  4. 前記予め定められた条件は、前記距離が基準距離未満であり、前記使用時間が基準時間以上と設定される請求項1〜3のいずれかに記載の端末使用パターン情報の収集管理方法。
  5. 前記ユーザ端末とユーザとの間の距離が基準距離以上になれば、前記映像情報を元の状態で表示する段階をさらに含む請求項1〜3のいずれかに記載の端末使用パターン情報の収集管理方法。
  6. 前記収集された端末使用パターン情報に基づいてユーザの目の健康状態を判断する段階をさらに含む請求項1〜3のいずれかに記載の端末使用パターン情報の収集管理方法。
  7. ユーザ端末とユーザとの間の距離とユーザ端末の使用時間のうち少なくとも一つが予め定められた条件を満たせば、画面に表示される映像情報を予め定められた映像処理方法により変換処理するユーザ端末で収集された端末使用パターン情報の提供を受けるサービスサーバを含み、
    前記端末使用パターン情報は、前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば収集され、
    前記端末使用パターン情報は、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含み、
    前記予め定められた映像処理方法が、時間経過につれて段階的に前記映像情報を元のサイズより拡大または縮小することであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報の拡大の割合または縮小の割合を含む、
    端末使用パターン情報の収集管理システム。
  8. ユーザ端末とユーザとの間の距離とユーザ端末の使用時間のうち少なくとも一つが予め定められた条件を満たせば、画面に表示される映像情報を予め定められた映像処理方法により変換処理するユーザ端末で収集された端末使用パターン情報の提供を受けるサービスサーバを含み、
    前記端末使用パターン情報は、前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば収集され、
    前記端末使用パターン情報は、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含み、
    前記予め定められた映像処理方法が、時間経過につれて前記映像情報のぼやけ程度を段階的に高くなるようにすることであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報のぼやけ程度を含む、
    端末使用パターン情報の収集管理システム。
  9. ユーザ端末とユーザとの間の距離とユーザ端末の使用時間のうち少なくとも一つが予め定められた条件を満たせば、画面に表示される映像情報を予め定められた映像処理方法により変換処理するユーザ端末で収集された端末使用パターン情報の提供を受けるサービスサーバを含み、
    前記端末使用パターン情報は、前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば収集され、
    前記端末使用パターン情報は、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含み、
    前記予め定められた映像処理方法が、時間経過につれて前記映像情報を縁部からぼやけさせるか暗くする範囲を段階的に拡大させることであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報におけるぼやけさせるか暗くした範囲の情報を含む、
    端末使用パターン情報の収集管理システム。
  10. 前記予め定められた条件は、前記距離が基準距離未満であり、前記使用時間が基準時間以上と設定される請求項7〜9のいずれかに記載の端末使用パターン情報の収集管理システム。
  11. 前記ユーザ端末とユーザとの間の距離が基準距離以上になれば、前記ユーザ端末は、前記映像情報を元の状態で表示する請求項7〜9のいずれかに記載の端末使用パターン情報の収集管理システム。
  12. 前記サービスサーバは、
    前記収集された端末使用パターン情報に基づいてユーザの目の健康状態を判断する請求項7〜9のいずれかに記載の端末使用パターン情報の収集管理システム。
  13. ユーザ端末とユーザとの間の距離を検出するための情報をセンシングする距離センサー部と、
    前記ユーザ端末の使用時間を検出し、前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理し、前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含む端末使用パターン情報を収集する制御部と、
    を含み、
    前記予め定められた映像処理方法が、時間経過につれて段階的に前記映像情報を元のサイズより拡大または縮小することであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報の拡大の割合または縮小の割合を含む、
    ユーザ端末。
  14. ユーザ端末とユーザとの間の距離を検出するための情報をセンシングする距離センサー部と、
    前記ユーザ端末の使用時間を検出し、前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理し、前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含む端末使用パターン情報を収集する制御部と、
    を含み、
    前記予め定められた映像処理方法が、時間経過につれて前記映像情報のぼやけ程度を段階的に高くなるようにすることであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報のぼやけ程度を含む、
    ユーザ端末。
  15. ユーザ端末とユーザとの間の距離を検出するための情報をセンシングする距離センサー部と、
    前記ユーザ端末の使用時間を検出し、前記距離と前記使用時間のうち少なくとも一つが予め定められた条件を満たせば、前記ユーザ端末の画面に表示される映像情報を予め定められた映像処理方法により変換処理し、前記映像情報が前記予め定められた映像処理方法により変換処理されたことに対して前記ユーザから予め定められた反応が感知されれば、映像変換処理情報と、前記距離と、前記使用時間とを少なくとも含む端末使用パターン情報を収集する制御部と、
    を含み、
    前記予め定められた映像処理方法が、時間経過につれて前記映像情報を縁部からぼやけさせるか暗くする範囲を段階的に拡大させることであり、
    前記映像変換処理情報が、前記反応が感知された時点の前記映像情報におけるぼやけさせるか暗くした範囲の情報を含む、
    ユーザ端末。
  16. 前記予め定められた条件は、前記距離が基準距離未満であり、前記使用時間が基準時間以上と設定される請求項13〜15のいずれかに記載のユーザ端末。
JP2020505868A 2017-08-03 2018-07-27 端末使用パターン情報の収集管理方法及びシステム Active JP6916955B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0098621 2017-08-03
KR1020170098621A KR101889463B1 (ko) 2017-08-03 2017-08-03 사용자 단말의 화면 표시 제어 방법 및 이를 이용한 사용자 단말
PCT/KR2018/008526 WO2019027184A1 (ko) 2017-08-03 2018-07-27 단말 사용 패턴 정보 수집 관리 방법 및 시스템

Publications (2)

Publication Number Publication Date
JP2020530131A JP2020530131A (ja) 2020-10-15
JP6916955B2 true JP6916955B2 (ja) 2021-08-11

Family

ID=63408145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505868A Active JP6916955B2 (ja) 2017-08-03 2018-07-27 端末使用パターン情報の収集管理方法及びシステム

Country Status (5)

Country Link
US (1) US11571121B2 (ja)
JP (1) JP6916955B2 (ja)
KR (1) KR101889463B1 (ja)
CN (1) CN110998490A (ja)
WO (1) WO2019027184A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024058405A1 (ko) * 2022-09-15 2024-03-21 삼성전자 주식회사 전자 장치 및 전자 장치의 제어 방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007097695A (ja) 2005-09-30 2007-04-19 Funai Electric Co Ltd テレビジョンおよび受像機
KR20090111131A (ko) 2008-04-21 2009-10-26 주식회사 케이티테크 단말기에서 수행되는 어플리케이션의 동작을 제어하는 방법및 이를 위한 단말기
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
KR101544371B1 (ko) * 2009-08-07 2015-08-17 삼성전자주식회사 사용자 상황을 반영하는 휴대 단말기 및 이의 운용 방법
CN101964883A (zh) * 2010-09-21 2011-02-02 冠捷显示科技(厦门)有限公司 显示装置健康观看距离提醒及节能方法
JP5236721B2 (ja) * 2010-12-28 2013-07-17 ソニーモバイルコミュニケーションズ株式会社 表示装置、表示制御方法および表示制御プログラム
CN102542739A (zh) * 2012-02-09 2012-07-04 苏州大学 一种视力保护方法及系统
CN103024163A (zh) * 2012-12-03 2013-04-03 广东欧珀移动通信有限公司 一种保护视力的处理方法、系统及移动终端
KR102055898B1 (ko) 2012-12-12 2019-12-13 엘지전자 주식회사 영상 출력 장치 및 그 구동 방법
CN103294910A (zh) * 2013-05-23 2013-09-11 西北工业大学 一种视屏显示终端前的护眼方法
KR102121592B1 (ko) 2013-05-31 2020-06-10 삼성전자주식회사 시력 보호 방법 및 장치
KR101383870B1 (ko) 2013-06-19 2014-04-10 (주) 라이트플러스 유아용 티브이 시청습관 개선시스템 및 그 개선시스템을 이용한 티브이 시청습관 개선방법
JP2015082729A (ja) * 2013-10-22 2015-04-27 株式会社ニコン 携帯端末
CN103793052B (zh) * 2013-11-21 2017-01-11 广州视源电子科技股份有限公司 一种移动终端的视力保护控制方法
CN105022981B (zh) * 2014-04-18 2019-08-16 中兴通讯股份有限公司 一种检测人眼健康状态的方法、装置及移动终端
CN104052871A (zh) * 2014-05-27 2014-09-17 上海电力学院 移动终端护眼装置及方法
KR20150139745A (ko) * 2014-06-04 2015-12-14 윤재웅 스마트폰 근접 이용에 대한 화면처리방법
EP3035656B1 (en) * 2014-12-18 2021-08-04 Samsung Electronics Co., Ltd. Method and apparatus for controlling an electronic device
KR102362042B1 (ko) * 2014-12-18 2022-02-11 삼성전자주식회사 전자 장치의 제어 방법 및 장치
CN104699250B (zh) * 2015-03-31 2018-10-19 小米科技有限责任公司 显示控制方法及装置、电子设备
US9942532B2 (en) 2015-11-03 2018-04-10 International Business Machines Corporation Eye-fatigue reduction system for head-mounted displays
CN105468147B (zh) * 2015-11-19 2018-07-27 宁波力芯科信息科技有限公司 一种预防近视的智能设备、系统及方法
KR20170085835A (ko) * 2016-01-15 2017-07-25 백석문화대학교 산학협력단 사용자 단말기의 시력보호모드 제공방법 및 그 기록매체
CN105575365A (zh) * 2016-02-04 2016-05-11 广东小天才科技有限公司 一种保护用户视力的方法及装置
CN105677042A (zh) * 2016-02-24 2016-06-15 广东欧珀移动通信有限公司 一种终端的显示模式的控制方法及装置

Also Published As

Publication number Publication date
CN110998490A (zh) 2020-04-10
US20200337549A1 (en) 2020-10-29
KR101889463B1 (ko) 2018-08-17
WO2019027184A1 (ko) 2019-02-07
US11571121B2 (en) 2023-02-07
JP2020530131A (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
US11727695B2 (en) Language element vision augmentation methods and devices
TWI740974B (zh) 用於監控裝置的使用的設備與方法
US20200026920A1 (en) Information processing apparatus, information processing method, eyewear terminal, and authentication system
EP3293620B1 (en) Multi-screen control method and system for display screen based on eyeball tracing technology
JP6946649B2 (ja) 電子機器、情報処理方法およびプログラム
US9700200B2 (en) Detecting visual impairment through normal use of a mobile device
JP2017208638A (ja) 虹彩認証装置、虹彩認証方法、及びプログラム
JP2016035365A (ja) 環境制御装置、プログラム
CN106980448A (zh) 一种显示方法及移动终端
JP6916955B2 (ja) 端末使用パターン情報の収集管理方法及びシステム
KR101945459B1 (ko) 안구 건조 위험도를 측정하는 장치, 방법 및 그 방법을 실행하기 위한 컴퓨터 프로그램
JP6720339B2 (ja) バーチャルリアリティデバイスのロック解除方法及びそれを実行するバーチャルリアリティデバイス
KR102121510B1 (ko) 단말 사용 패턴 정보 수집 관리 방법 및 시스템
CN105867608A (zh) 虚拟现实头盔的功能菜单翻页方法、装置及头盔
CN105718036A (zh) 可穿戴式设备的信息交互方法和系统
US20240078846A1 (en) Grid-Based Enrollment for Face Authentication
US11409102B2 (en) Head mounted system and information processing apparatus
TWI547909B (zh) 眼球動態追蹤裝置
TW201640277A (zh) 穿戴設備控制系統及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210716

R150 Certificate of patent or registration of utility model

Ref document number: 6916955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150