KR20230031952A - 타깃 사용자의 거동을 결정하기 위한 디바이스 및 컴퓨터-구현 방법 - Google Patents

타깃 사용자의 거동을 결정하기 위한 디바이스 및 컴퓨터-구현 방법 Download PDF

Info

Publication number
KR20230031952A
KR20230031952A KR1020237003959A KR20237003959A KR20230031952A KR 20230031952 A KR20230031952 A KR 20230031952A KR 1020237003959 A KR1020237003959 A KR 1020237003959A KR 20237003959 A KR20237003959 A KR 20237003959A KR 20230031952 A KR20230031952 A KR 20230031952A
Authority
KR
South Korea
Prior art keywords
user
behavior
target user
machine learning
target
Prior art date
Application number
KR1020237003959A
Other languages
English (en)
Inventor
스테판느 뻬로
마티아스 귀용
Original Assignee
에씰로 앙터나시오날
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에씰로 앙터나시오날 filed Critical 에씰로 앙터나시오날
Publication of KR20230031952A publication Critical patent/KR20230031952A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Fuzzy Systems (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Developmental Disabilities (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

본 발명은 타깃 사용자의 거동을 결정하기 위한 디바이스(10)에 관한 것으로, 디바이스(10)는,
- 타깃 사용자의 적어도 하나의 눈 영역(44)을 향하도록 구성된 감지 유닛(20)으로서, 감지 유닛(20)은 상기 타깃 사용자의 상기 적어도 하나의 눈 영역(44)의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득하도록 구성되고,
감지 유닛은 적어도 하나의 센서를 포함하고,
적어도 하나의 센서는 상기 눈 영역(44)을 향하여 배향되는, 감지 유닛(20); 및
제어기를 포함하고, 제어기는,
- 기계 학습 알고리즘을 제공하고,
- 상기 기계 학습 알고리즘에 대한 입력으로서 획득된 타깃 신호들과 관련된 복수의 객관적인 타깃 데이터를 제공하고,
- 기계 학습 알고리즘의 출력으로서 상기 타깃 사용자의 거동을 결정하도록 구성된다.

Description

타깃 사용자의 거동을 결정하기 위한 디바이스 및 컴퓨터-구현 방법
본 발명은 특히 사용자의 적어도 하나의 눈 영역을 고려함으로써 사용자의 거동을 결정하는 분야에 관한 것이다. 특히, 본 발명은 타깃 사용자의 거동을 결정하기 위한 디바이스에 관한 것이다. 본 발명은 추가로 타깃 사용자의 거동을 결정하기 위한 컴퓨터-구현 방법에 관한 것이다.
눈 영역은 특히 눈, 눈꺼풀 및 눈을 둘러싼 근육으로 구성된다. 사용자가 직면한 조건이나 사용자가 수행하고자 하는 행동에 따라, 사용자는 눈 영역의 이러한 구성 요소 중 하나 이상의 변화를 유도하는 거동을 가질 수 있다. 이러한 거동은 글레어(glare), 눈의 움직임 또는 동공 치수의 변화 또는 눈꺼풀 움직임 또는 근육 긴장과 같은 시각적 편안함의 변화일 수 있다. 사용자의 거동은 일반적으로 외부 자극(예를 들어, 광 자극)에 대한 반응, 사용자가 수행한 자발적인 행동(예를 들어, 객체에 대한 사용자 시선의 집중) 또는 사용자의 심리적 반응(예를 들어, 사용자가 경험한 감정)이다. 눈 영역의 변화와 사용자의 거동 사이의 연관성을 결정하는 것은 눈 영역이 많은 근육을 포함하고 다양한 상태를 가질 수 있기 때문에 매우 복잡하다.
이러한 특정의 생리학적 특성의 변화를 거동과 상관시키기 위해 사용자의 눈 영역의 특정의 생리학적 특성을 측정하기 위해 센서를 사용하는 것이 본 기술 분야에 알려져 있다. 이러한 방법의 예는 EP19306731호에 제공된다. 이러한 알려진 방법은 센서에 의해 측정되는 눈 영역의 구성 요소 또는 부분이 사전 결정되고 거동이 해당 특정 측정치에 따라 결정됨을 의미한다. 이러한 방법은 먼저 눈 영역의 생리학적 특성 변화와 사용자의 거동 사이의 상관 관계를 결정할 필요가 있다. 예를 들어, 먼저 눈을 감음 또는 눈꺼풀의 위치 변화와 글레어 사이의 상관 관계를 결정해야 한다. 그러나, 눈 주위 특정 근육의 활동 변화와 사용자의 거동을 상관시키는 것은 매우 어렵다. 따라서 눈 영역에 의해 직면된 다양한 변화를 사용자의 거동과 상관시키는 것은 훨씬 더 어렵다. 또한, 두 명의 상이한 사용자에 대한 눈 영역의 동일한 변화가 반드시 사용자에 대한 동일한 거동으로 해석될 수는 없다. 실제로, 글레어는 어떤 사용자에게는 눈을 감는 것을 의미할 수 있고 다른 사용자에게는 눈 주위 근육의 활동 변화만을 의미할 수 있다. 따라서, 기본적인 거동을 눈 영역의 신체적 변화와 상관시키는 것은 어려울 수 있다.
따라서, 눈 영역의 제한된 변화 또는 복합적으로 결합된 변화를 포함하는 복잡한 거동을 분석 결정을 사용하여 결정하는 것은 훨씬 더 어려울 수 있다.
추가로, 눈 영역의 많은 변화를 유도하는 복잡한 거동을 결정하는 것은 많은 센서와 강력한 계산 시스템의 사용을 의미할 수 있다. 그러나, 강력한 계산 시스템으로도, 이러한 분석 방법을 사용하여 사용자의 복잡한 거동을 정확하게 결정하는 것은 너무 어렵다.
따라서, 사용자의 눈 영역의 변화를 이러한 사용자의 거동과 보다 정확한 방식으로 상관시킬 수 있는 디바이스가 필요하다.
이를 위해, 본 발명은 타깃 사용자의 거동을 결정하기 위한 디바이스를 제공하며, 디바이스는,
- 타깃 사용자의 적어도 하나의 눈 영역을 향하도록 구성된 감지 유닛으로서, 감지 유닛은 상기 타깃 사용자의 상기 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득하도록 구성되고,
감지 유닛은 적어도 하나의 센서를 포함하고,
적어도 하나의 센서는 눈 영역을 향하여 배향되는, 감지 유닛; 및
제어기를 포함하고, 제어기는,
- 기계 학습 알고리즘을 제공하고,
- 상기 기계 학습 알고리즘에 대한 입력으로서 획득된 타깃 신호와 관련된 복수의 객관적인 타깃 데이터를 제공하고,
- 기계 학습 알고리즘의 출력으로서 상기 타깃 사용자의 거동을 결정하도록 구성된다.
상기 디바이스는 기계 학습 알고리즘을 사용하여 획득한 타깃 신호와 관련된 객관적인 타깃 데이터를 거동과 상관시킨다. 기계 학습 알고리즘은 매우 복잡한 신호를 프로세싱한 다음 상기 복잡한 신호를 특정 거동과 상관시킬 수 있다. 따라서, 거동의 객관적인 결정을 얻을 수 있다.
그렇게 함으로써, 눈 영역이 있을 것으로 생각되는 상태에 대한 어떠한 가정도 없이 거동이 결정된다. 이는 예를 들어, 눈 주위 근육의 미묘하고 다양한 변화와 같은 이러한 특성의 변화의 매우 정밀하고 까다로운 분석 신호 프로세싱을 사용하는 것을 회피할 수 있게 한다. 특히, 이는 거동을 결정하기 위해 타깃 사용자로부터 오는 주관적인 타깃 데이터의 사용을 회피할 수 있으며, 이는 알려진 방법과 관련하여 중요한 이점이다. 다시 말하면, 거동의 결정은 자동으로 수행될 수 있으며, 즉, 본 방법이 시작된 후에 타깃 사용자로부터의 어떠한 액션이나 데이터 없이도 수행될 수 있다.
또한, 일부 데이터는 너무 복잡하거나 전통적인 분석 방법을 사용하여 검출되기에는 너무 많기 때문에 획득된 타깃 신호가 더욱 철저하게 활용된다.
적어도 하나의 센서는 논-이미징(non-imaging) 센서일 수 있다.
또 다른 이점은 기계 학습 알고리즘을 사용한 이러한 거동 결정은 타깃 사용자의 거동을 결정하기 위해 이미지와 비디오와 같은 복잡한 신호를 필요로 하지 않는다는 점이다. 이러한 복잡한 신호는 중요한 전원을 필요로 하고, 큰 계산 용량을 필요로 하는 많은 데이터 흐름을 제공한다. 따라서, 감지 유닛으로 획득된 기본 신호로 복잡한 거동을 결정할 수 있다. 감지 유닛의 센서는 논-이미징 센서, 라디오미터(radiometer), 고유 포토다이오드와 같은 단순한 픽셀일 수 있다. 따라서, 논-이미징 센서로 이미징 시스템 또는 복잡한 신호 시스템을 얻을 수 있다. 기본 신호의 사용은 이러한 단점을 회피할 수 있게 한다.
논 이미징 센서는 단일 픽셀을 출력으로 제공하는 유형의 센서를 지칭한다. 이러한 유형의 센서는 라디오미터와 포토다이오드를 포함하지만 이에 제한되지는 않는다.
또한, 논-이미징 센서의 사용은 전력 공급 측면에서 그리고 매우 작은 하드웨어로 매우 가벼운 시스템을 구축할 수 있게 한다.
논-이미징 센서는 이미지를 형성하는 복수의 픽셀 또는 복수의 이미지를 포함하는 출력을 비디오로서 제공하는 이미징 센서와 대조될 수 있다.
적어도 하나의 센서 중 적어도 하나의 센서는 적외선 광, 가시광, UV 광에 민감할 수 있다. 즉, 센서는 적외선 광, 가시광, UV 광으로부터 신호를 획득할 수 있다. 적외선에 민감한 센서의 사용은 타깃 사용자를 방해하지 않고 신호대 잡음비를 높이는 이점을 제시한다. 각각의 센서는 적외선 광과 같은 동일한 범위의 광에 민감할 수 있다. 대안적으로, 각각의 센서는 가시광에서 하나와 적외선 광에서 다른 하나와 같이 상이한 범위의 광에 민감할 수 있다.
이러한 디바이스는 사용자에 의해 착용되도록 구성될 수 있다. 특히, 이러한 디바이스는 바람직하게는 타깃 사용자의 적어도 하나의 눈 영역을 향할 수 있도록 사용자의 머리 상에 위치 및 지지되도록 구성된다.
상기 디바이스는 안정 피로(eye strain)를 나타내는 파라미터를 결정하는 데 사용될 수 있다.
상기 디바이스는 전기 변색(electrochromic) 렌즈, 특히 전기 변색 렌즈의 투과를 결정하는 데 사용될 수 있다.
상기 디바이스는 포롭터(phoropter)에 사용되거나 전기 변색 렌즈를 결정하는 데 사용될 수 있다.
단독으로 또는 조합하여 고려될 수 있는 디바이스의 실시예에 따르면, 감지 유닛은 적어도 2개의 논-이미징 센서를 포함한다.
단독으로 또는 조합하여 고려될 수 있는 디바이스의 실시예에 따르면, 적어도 하나의 논-이미징 센서는 적어도 하나의 광원에 연관된다.
단독으로 또는 조합하여 고려될 수 있는 디바이스의 실시예에 따르면, 감지 유닛은 적어도 하나의 광원을 포함한다.
"연관된"이라는 것은 센서와 광원이 주파수/시간적으로 동기화되고 및/또는 광원이 눈 영역을 향하여 배향됨을 의미한다.
본 실시예는 잡음 하에서 비율 신호를 감소시키는 이점을 제시한다.
상기 적어도 하나의 광원은 사용자의 적어도 하나의 눈을 향해 광 신호를 방출하도록 구성된다. 즉, 상기 광원은 광 신호의 전송기로서의 역할을 한다. 광 신호는 눈 영역에 의해 반사된 후 프로세싱될 상기 적어도 2개의 센서에 의해 수신된다. 따라서 센서는 광 신호의 수신기로서의 역할을 한다. 디바이스는 복수의 센서와 연관된 광원을 포함할 수 있다. 대안적으로, 광원은 한 쌍의 전송기/수신기를 형성하기 위해 단지 하나의 센서와 연관될 수 있다. 후자의 경우, 동일한 하우징 내에 광원과 센서가 함께 제공되어 광 신호의 전송 및 수신을 위해 구성된 감지 셀을 형성할 수 있다.
전송된 광 신호와 수신된 광 신호 사이의 비교는 제어기가 상기 적어도 하나의 신호의 변화를 결정할 수 있게 한다. 이렇게 함으로써, 눈 영역의 신체적 특성의 변화를 결정할 수 있다. 예를 들어, 광 신호가 눈꺼풀을 향해 방출되고 눈꺼풀이 움직이는 경우, 광 신호는 더 이상 눈꺼풀의 피부에 의해 반사되지 않고 눈에 의해 반사될 수 있다. 광 신호의 반사는 광 신호를 반사하는 표면에 따라 상이하다. 따라서, 눈꺼풀의 위치가 언제 변경되었는지 결정할 수 있다.
상기 적어도 하나의 광원은 가시광, 적외선 또는 UV 광을 방출하도록 구성될 수 있다. 바람직하게는 적어도 하나의 광원은 비가시광 신호, 예를 들어, 적외선 광 신호를 방출하도록 구성된다.
상기 적어도 하나의 광원 및 상기 적어도 하나의 센서는 각각 원격으로 광 신호를 방출하고 수신하도록 구성되는 것이 바람직하다. 즉, 감지 유닛은 상기 타깃 사용자의 상기 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 원격으로 획득하도록 구성될 수 있다.
디바이스의 실시예에 따르면, 적어도 하나의 광원은 눈 영역을 향하여 배향된다.
디바이스의 실시예에 따르면, 적어도 하나의 광원은 타깃 사용자를 방해하지 않도록 눈 영역 주위에 배치될 수 있다.
감지 유닛은 센서와 광원이 눈 영역을 향하여 배향되게 한 채 타깃 사용자의 눈 영역 앞에 위치되도록 의도된다. 센서와 광원은 눈 영역 앞과 눈 영역 주변에 위치된다. 즉, 센서 및/또는 광원은 눈 영역 위 및/또는 아래에서 타깃 사용자의 얼굴로부터 떨어져 위치될 수 있다.
디바이스의 실시예에 따르면, 이는 적어도 하나의 눈을 자극하기 위한 적어도 하나의 광 자극원을 추가로 포함한다.
디바이스의 실시예에 따르면, 광 자극원은 광원일 수 있다.
본 발명은 또한 타깃 사용자의 거동을 결정하기 위한 컴퓨터-구현 방법을 제공하며, 본 방법은,
- 기계 학습 알고리즘을 제공하는 단계,
- 타깃 사용자의 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득하는 단계,
- 상기 기계 학습 알고리즘에 대한 입력으로서 획득된 타깃 신호와 관련된 복수의 객관적인 타깃 데이터를 제공하는 단계,
- 기계 학습 알고리즘의 출력으로서 상기 타깃 사용자의 거동을 결정하는 단계를 포함한다.
컴퓨터-구현 방법은 디바이스에 대해 상술한 바와 동일한 이점 및 기술적 효과로부터 이점을 얻을 수 있게 한다.
방법의 실시예에 따르면, 상기 기계 학습 알고리즘은 초기 사용자의 세트와 관련된 복수의 초기 데이터에 기초하고, 상기 초기 데이터는 세트의 각각의 초기 사용자에 대한 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 획득된 학습 신호를 포함한다.
방법의 실시예에 따르면, 초기 사용자의 세트와 관련된 상기 복수의 초기 데이터는 주관적인 데이터와 객관적인 데이터를 포함하고, 상기 주관적인 데이터는 세트의 각각의 초기 사용자에 대한 적어도 하나의 눈 영역의 상기 적어도 하나의 특성의 변화에 의해 야기된 거동에 대한 세트의 초기 사용자의 인지를 포함한다.
본 방법의 실시예에 따르면, 본 방법은,
- 초기 사용자의 세트와 관련된 상기 복수의 초기 데이터를 기계 학습 알고리즘에 제공하는 단계,
- 상기 복수의 초기 데이터와 관련하여 상기 기계 학습 알고리즘을 훈련시키는 단계를 추가로 포함한다.
본 방법의 실시예에 따르면, 본 방법은,
- 상기 타깃 사용자와 관련된 주관적인 데이터를 결정하는 단계로서, 상기 주관적인 데이터는 상기 거동에 대한 타깃 사용자의 인지를 포함하는, 주관적인 데이터를 결정하는 단계,
- 상기 기계 학습 알고리즘의 입력으로서 상기 타깃 사용자와 관련된 상기 주관적인 데이터를 제공하는 단계를 추가로 포함한다.
본 방법의 실시예에 따르면, 상기 거동은 타깃 사용자의 시각적 편안함의 변화이고, 상기 적어도 하나의 특성의 상기 변화는 상기 적어도 하나의 눈 영역에 제공된 광 자극에 의해 야기된다.
본 방법의 실시예에 따르면, 사용자의 시각적 편안함의 상기 변화는 글레어(glare)이다.
본 방법의 실시예에 따르면, 광 감도에 대해 초기 사용자를 분류하기 위해 복수의 글레어 클래스를 결정하는 단계를 추가로 포함하고, 상기 거동을 결정하는 단계는 상기 타깃 사용자의 거동에 대응하는 복수의 글레어 클래스 중에서 글레어 클래스를 결정하는 단계를 포함한다.
본 방법의 실시예에 따르면, 상기 거동은 타깃 사용자의 적어도 하나의 눈의 움직임 또는 타깃 사용자의 적어도 하나의 동공의 치수 또는 눈 주변의 근육 피로 또는 눈꺼풀의 움직임이다.
본 방법의 실시예에 따르면, 상기 적어도 하나의 특성은 적어도 하나의 눈꺼풀의 위치, 동공의 위치, 동공의 크기 및 상기 적어도 하나의 눈 영역의 근육 수축 중 적어도 하나를 포함한다.
본 방법의 실시예에 따르면, 상기 거동에 기초하여 상기 타깃 사용자의 시각적 편안함 및/또는 시각적 성능을 개선하거나 유지할 수 있는 투명 지지체에 대한 적어도 하나의 필터를 결정하는 단계를 추가로 포함한다.
실시예에 따르면, 상기 결정 방법은 컴퓨터-구현 방법이다.
본원에 제공된 설명 및 그 이점의 보다 완전한 이해를 위해, 첨부된 도면 및 상세한 설명과 관련하여 이하의 간략한 설명을 참조하며, 여기서 동일한 참조 번호는 동일한 부분을 나타낸다.
도 1은 양안 광전자 디바이스의 일 측면의 사시도를 개략적으로 도시한다.
도 2는 도 1의 양안 광전자 디바이스의 다른 측면의 사시도를 개략적으로 도시한다.
도 3은 도 1의 양안 광전자 디바이스의 정면도를 개략적으로 도시한다.
도 4는 사용자에 의해 착용된 도 1의 양안 광전자 디바이스의 측면도를 개략적으로 도시한다.
도 5는 적외선 센서로부터 사용자의 눈 영역을 향하여 방출되는 제1 적외선 신호와 눈 영역에 의해 적외선 센서를 향해 반사되는 제2 적외선 신호를 개략적으로 도시한다.
도 6은 광 자극을 받았을 때 사용자의 불편의 레벨을 정량화하는 척도를 개략적으로 도시한다.
도 7은 도 1의 양안 광전자 디바이스의 정면도를 개략적으로 도시하며, 여기서 감지 셀에는 번호가 매겨진다.
도 8은 프레임 축에 대해, 도 7에서 번호가 매겨진 감지 셀에 의해 획득된 신호를 나타내는 데이터를 나타내는 그래프이다.
이어지는 설명에서, 도면은 반드시 축척에 따른 것은 아니며 특정 특징은 명확성과 간결성을 위해 또는 정보의 목적으로 일반화되거나 개략적인 형태로 도시될 수 있다. 또한, 다양한 실시예를 만들고 사용하는 것이 아래에서 상세히 논의되지만, 본원에 설명된 바와 같이 광범위하게 다양한 상황에서 구현될 수 있는 많은 발명적 개념이 제공된다는 것을 이해해야 한다. 본원에서 논의된 실시예는 단지 대표적인 것이며 본 발명의 범위를 한정하지 않는다. 또한, 프로세스와 관련하여 정의된 모든 기술적 특징이 개별적으로 또는 조합하여 디바이스로 전환될 수 있고 역으로 디바이스와 관련하여 모든 기술적 특징이 개별적으로 또는 조합하여 프로세스로 전환될 수 있음이 본 기술 분야의 통상의 기술자에게 자명할 것이다.
용어 "포함하다(comprise)"(그리고 "포함하다(comprises)" 및 "포함하는(comprising)"과 같은 임의의 문법적 변형), "갖다(have)"(그리고 "갖다(has)" 및 "갖는(having)"과 같은 임의의 문법적 변형), "포함하다(contain)"(그리고 "포함하다(contains)" 및 "포함하는(containing)"과 같은 임의의 문법적 변형) 및 "포함하다(include)"(그리고 "포함하다(includes)" 및 "포함하는(including)"과 같은 임의의 문법적 변형)는 개방형 연결 동사이다. 이는 언급된 특징, 정수, 단계 또는 구성 요소 또는 이들의 그룹의 존재를 특정하는 데 사용되지만, 하나 이상의 다른 특징, 정수, 단계 또는 구성 요소 또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다. 결과적으로, 하나 이상의 단계 또는 요소를 "포함하는(comprises)", "갖는(has)", "포함하는(contains)" 또는 "포함하는(includes)" 방법 또는 방법의 단계는 이러한 하나 이상의 단계 또는 요소를 보유하지만 이러한 하나 이상의 단계 또는 요소들만을 보유하는 것으로 한정되지는 않는다.
본 발명은 사용자의 거동을 결정하기 위한 디바이스를 제공한다. 이러한 디바이스는 안경류 디바이스, 예를 들어 머리 장착형 디스플레이일 수 있다.
디바이스는 사용 중인 사용자의 각각의 눈 영역을 향하도록 구성된 양안 디바이스일 수 있다. 대안적으로, 디바이스는 단안용일 수 있고 사용자의 한쪽 눈 영역만을 향하도록 구성될 수 있다.
디바이스는 사용자에 의해 착용되도록 구성될 수 있다. 바람직하게는, 디바이스는 사용자의 적어도 하나의 눈 영역을 향할 수 있도록 사용자의 머리 상에 위치되고 지지되도록 구성된다. 즉, 디바이스의 치수와 중량은 사용자가 지지 수단을 사용하여 눈 앞에서 이를 다룰 수 있도록 구성된다. 상기 지지 수단은 사용자가 디바이스를 쌍안경으로 다루도록 손일 수 있다. 대안적으로, 지지 수단은 사용자의 머리를 둘러쌀 수 있는 스트랩 또는 사용자에 귀에 위치된 안경 아암과 같이 디바이스를 사용자의 머리에 고정하기 위한 수단일 수 있다. 대안적으로, 지지 수단은 테이블 또는 지면에 안착하도록 구성된 지지 다리일 수 있다. 또한, 디바이스는 에너지를 자체 충족할 수 있도록 축전지를 포함할 수 있다.
사용자의 "거동"이란 사용자가 경험하는 신체적 또는 생리적 또는 심리적 감각을 의미한다. 이러한 거동은 사용자의 신체적 특성, 특히 눈 영역의 신체적 특성의 변화를 유도한다. 예를 들어, 사용자가 글레어를 경험하는 경우, 동공 치수의 변화뿐만 아니라 눈 영역의 근육 활동이 발생할 수 있다. 디바이스는 이러한 눈 영역 특성의 신체적 변화에 따라 사용자의 거동을 결정하도록 구성된다.
눈 영역은 아래쪽 및 위쪽 눈꺼풀, 눈썹, 속눈썹, 눈, 눈 주위 피부뿐만 아니라 눈 주위 근육 중 적어도 하나를 포함한다.
이러한 거동은 글레어, 눈의 움직임 또는 동공 치수의 변화와 같은 시각적 편안함의 변화일 수 있다.
사용자의 "시각적 편안함의 변화"란 시각적 불편함 또는 시각적 성능의 수정의 형태로 사용자가 경험하는 시각적 편안함의 변화를 의미한다.
시각적 편안함은 사용자의 광 감도와 연관될 수 있다. 따라서, 디바이스는 주어진 광 환경에 노출될 때 사용자 눈 영역의 반응을 모니터링하여 사용자의 광 감도 임계값을 결정하도록 구성될 수 있다.
사용자의 "광에 대한 감도"란 일시적 또는 연속적인 광속 또는 자극과 관련하여 임의의 상대적으로 강렬하고 지속적인 반응 또는 편안함 또는 시각적 성능의 수정을 의미한다. 상기 특성 광속에 대한 사용자 눈의 감도를 나타내는 양은 광 감도 임계값이다. 이는 사용자가 경험한 신체적 반응이나 불편함 또는 시각적 인지를 나타내는 사용자의 임의의 액션을 측정하여 결정될 수 있다. 이는 사용자가 경험한 시각적 성능 및/또는 시각적 불편함이 객관적으로 결정될 수 있게 한다.
눈의 움직임을 결정하는 것은 눈의 위치를 추적할 수 있게 하며, 이는 예를 들어, 인지 과학 실험과 같은 다양한 분야에서 유용할 수 있다.
상기 디바이스는 사용자의 적어도 하나의 눈 영역을 향하도록 구성된 감지 유닛을 포함한다. 즉, 감지 유닛은 사용자 얼굴 앞에 배치되도록 의도된다. 감지 유닛은 또한 상기 사용자의 상기 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득하도록 구성된다. 상기 특성은 적어도 하나의 눈꺼풀의 위치, 동공의 위치, 동공의 크기 및 상기 적어도 하나의 눈 영역에서의 근육 수축 중 적어도 하나를 포함할 수 있다.
감지 유닛은 사용자와의 접촉 없이 상기 사용자의 상기 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 상기 복수의 타깃 신호를 획득하도록 구성된다. "사용자와의 접촉 없이" 획득한다는 것은 전극이나 측정 요소를 사용자의 눈 영역이나 피부 상에 위치시키지 않고 신호가 획득된다는 것을 의미한다. 즉, 신호의 획득은 눈 영역과 감지 유닛 사이에서 비접촉식이다. 특히, 상기 적어도 하나의 신호의 획득은 1 cm 이상의 거리에서 수행될 수 있다. 바람직한 실시예에서, 감지 유닛을 수용하는 케이싱만이 디바이스를 사용자의 머리 상에 위치시키고 지지하기 위해 사용자와 접촉한다.
감지 유닛의 센서는 단순한 픽셀 또는 복수의 픽셀, 바람직하게는 하나의 픽셀일 수 있다. 실제로, 기계 학습 알고리즘의 사용은 픽셀과 같은 단순한 검출기의 사용 허용에 의해 디바이스를 상당히 단순화할 수 있게 한다.
적어도 하나의 센서는 적외선 광, 가시광, UV 광에 민감할 수 있다. 즉, 센서는 적외선 광, 가시광, UV 광으로부터 신호를 획득할 수 있다. 적외선에 민감한 센서의 사용은 사용자 방해를 회피하는 이점을 제시한다. 또한, 비가시광은 일반적으로 타깃 사용자를 방해하지 않고 결정 프로세스 동안 눈을 자극하고 신호대 잡음비를 증가시키는 데 사용된다.
각각의 센서는 적외선 광과 같은 동일한 범위의 광에 민감할 수 있다. 대안적으로, 각각의 센서는 가시광에서 하나와 적외선 광에서 다른 하나와 같이 상이한 범위의 광에 민감할 수 있다.
명료성을 위해, 디바이스는 이제 도 1 내지 도 4에 도시된 이러한 디바이스의 실시예를 참조하여 설명된다. 도 1 내지 도 4의 이러한 실시예와 관련하여 설명된 각각의 특징은 독립적으로 본 발명의 잠재적인 특징으로서 간주될 수 있다.
디바이스(10)는 디바이스(10)의 외부 엔벨로프를 형성하는 케이싱(31)을 포함할 수 있다. 케이싱(31)은 사용자의 얼굴 앞에 위치하도록 의도된 캐비티(cavity)(16)를 형성한다. 바람직하게는, 캐비티(16)를 형성하는 케이싱(31)의 측면은 사용자의 눈 앞에 감지 유닛을 위치시키기 위해 사용자의 얼굴과 협력하도록 구성된 프로파일을 추가로 포함할 수 있다. 이러한 프로파일은 예를 들어, 사용자의 코 및/또는 이마에 접촉하도록 구성될 수 있다.
도 2 및 도 3에 도시된 바와 같이, 디바이스(10)는 또한 복수의 감지 셀(21)을 갖는 감지 유닛(20)을 포함할 수 있다.
각각의 감지 셀(21)은 광 신호를 수신하는 센서를 포함한다.
대안적으로, 각각의 감지 셀(21)은 광 신호를 수신하는 센서와 광 신호를 방출하는 광원 및 광 신호를 수신하는 센서를 포함한다.
각각의 감지 셀(21)은 사용자의 눈을 향하여 배향된다. 이를 위해, 디바이스(10)의 케이싱(31)은 사용자의 눈을 사전 결정된 위치에 위치시키도록 구성된다. 감지 셀(21)은 이러한 사전 결정된 위치에 대해 사용자의 눈 영역을 향하도록 위치된다.
예를 들어, 도 2 및 도 3에 예시된 바와 같이, 디바이스(10)는 2개의 감지 유닛을 포함할 수 있으며, 각각의 감지 유닛은 사용자의 각각의 눈에 대해 3개의 감지 셀(21)을 포함한다. 이는 사용자의 각각의 눈에 대해 타깃 사용자의 거동을 결정할 수 있게 한다.
대안적으로, 예를 들어, 디바이스(10)는 하나의 감지 유닛을 포함할 수 있고, 감지 유닛은 6개의 감지 셀(21)을 포함한다. 이는 특별히 한쪽 눈에 대해서는 결정할 수 없지만 타깃 사용자의 거동을 결정할 수 있게 한다. 이는 제어기의 작업을 단순화할 수 있는 이점을 갖는다.
감지 셀(21)은 상보적이고 중복적인 데이터를 제공하기 위해 상이한 시점과 상이한 각도로 눈 주위에 위치되는 것이 바람직하다. 이는 획득된 신호와 사용자의 거동 간의 상관 관계를 찾기 위해 사용자의 거동을 결정하는 데 도움이 된다. 하나가 아닌 복수의 감지 셀(21)을 갖는 것은 디바이스(10)가 사용자의 다양한 형태와 관련되는 더 많은 기회를 제공한다.
도 4에 도시된 바와 같이, 감지 유닛(20)은 센서 및 광원이 눈 영역을 향하여 배향되게 한 채 타깃 사용자의 눈 영역 앞에 위치되도록 의도된다. 각각의 감지 셀(21)은 눈꺼풀, 눈 또는 눈 영역의 특정 부분을 향하여 배향될 수 있다. 센서는 또한 사용자의 눈 영역의 상이한 부분을 향해 지향될 수 있다. 즉, 제1 센서는 사용자의 눈 영역의 제1 부분, 예를 들어, 눈 자체를 향해 배향될 수 있고, 제2 센서는 동일한 눈 영역의 제2 부분, 예를 들어, 눈꺼풀을 향해 배향될 수 있다. 센서와 광원은 바람직하게는 눈 영역 주변에 위치된다. 즉, 센서와 광원은 눈 영역의 위와 아래에 위치될 수 있다. 이러한 방식으로, 사용자의 시선이 선명하여 사용자가 감지 셀(21)에 의한 방해를 덜 받는다.
센서 및/또는 광원은 바람직하게는 사용자를 방해하지 않도록 비가시광 신호를 각각 방출하고 수신하도록 구성된다. 그렇게 함으로써, 측정은 더 정확하고 사용자의 거동을 더 잘 반영한다. 보다 바람직하게는, 센서 및 광원은 각각 적외선 광 신호를 방출하고 수신하도록 구성된다. 적외선 감지 셀(21)은 단순히 사용자의 눈 영역의 특성을 측정하기 위해 사용되는 거리 센서이다. 이러한 적외선 반사 측정은 매우 빠르며(1 내지 100 khz) 눈의 움직임, 동공 직경의 변화 또는 눈꺼풀 깜박임과 같은 높은 모션 움직임의 검출을 허용한다.
도 5에 도시된 바와 같이, 광원은 상기 적어도 하나의 눈 영역(44)을 향해 제1 신호(42)를 전송하고 센서는 상기 적어도 하나의 눈 영역(44)에 의해 반사된 제1 신호(42)에 대응하는 제2 신호(46)를 수신한다. 따라서, 제1 신호(42)의 적외선이 적외선 셀(21) 앞의 물체에 의해 얼마나 많이 반사되는지 계산할 수 있다. 상이한 재료는 상이한 반사율을 가지므로 제1 신호(42)와 제2 신호(46) 사이의 차이를 비교함으로써 적외선 셀(21) 앞에 상이한 재료가 위치되어 있음을 알 수 있다. 예를 들어, 눈(48)의 반사율과 눈꺼풀(50)의 반사율은 상이하다. 따라서, 2개의 연속적인 제2 신호(46) 사이의 변화는 적외선이 먼저 눈(48)에 의해 반사된 다음 눈꺼풀(50)에 의해 반사될 때 발생한다. 동일한 변화는 적외선이 상이한 재료에 의해 반사될 때 발생한다. 따라서 하나의 눈꺼풀(50) 또는 동공(52)의 위치의 변화뿐만 아니라 동공(52)의 크기 변화를 결정할 수 있다. 이러한 특성의 변화는 예를 들어, 사용자의 시각적 불편함을 나타낼 수 있다. 따라서, 이러한 특성 중 적어도 하나의 변화를 사용자의 시각적 편안함의 변화와 상관시킬 수 있다.
디바이스(10)는 또한 사용자의 적어도 하나의 눈을 자극하기 위한 적어도 하나의 자극원을 포함할 수 있다. 상기 자극원은 눈 영역의 적어도 하나의 특성의 변화를 유도하는 것을 목적으로 한다. 예를 들어, 높은 휘도에서 착용자의 눈을 향해 광을 방출하는 것은 눈꺼풀 감기, 근육 수축 및 동공 수축을 유도할 수 있다. 이러한 자극원은 결정되는 거동이 글레어와 같은 시각적 편안함 또는 성능의 변화일 때 특히 유용하다.
단독으로 또는 조합하여 고려될 수 있는 일 실시예에 따르면, 광 자극원은 광원일 수 있다. 이와 같이, 광 자극원은 눈 영역 상에서 반사된 후 자극하고 감지 유닛에 의해 획득되는 데 모두 사용된다. 상기 자극원은 바람직하게는 디바이스(10)의 케이싱(31)에 의해 형성된 캐비티(16)에 박혀 있다. 상기 자극원은 사용자의 눈 앞에서 캐비티(16) 내에 배치된 확산기(12)와 결합되어 확산된 광을 제공할 수 있다. 이 경우, 자극원은 확산기(12)를 향하여 광을 방출한다. 대안적으로 또는 조합하여, 자극원은 사용자의 한쪽 또는 양쪽 눈을 향해 직접 광을 방출하도록 위치될 수 있다. 따라서, 디바이스(10)는 사용자를 균일한 광 또는 점(punctual) 광 또는 둘 모두에 동시에 노출시키도록 구성될 수 있다.
자극원은 바람직하게는 RGB LED(적색-녹색-청색 발광 다이오드) 또는 RGB-W LED(적색-녹색-청색-백색 발광 다이오드)와 같이 가변 광 스펙트럼을 가질 수 있는 적어도 하나의 발광 다이오드(LED: light-emitting diode)를 포함한다. 대안적으로, 상기 자극원은 사전 결정된 단일 백색광 스펙트럼 또는 대안적으로 피크를 갖는 스펙트럼과 대조적으로 실질적으로 동일한 강도를 갖는 모든 가시 방사선을 갖는 스펙트럼을 제공하도록 구성될 수 있다. 상기 적어도 하나의 자극원은 바람직하게는 상기 적어도 하나의 자극원에서 나오는 일정한 광속을 얻기 위해 일정한 전류로 제어된다. 사용자에게 일정한 광속을 제공하는 것은 펄스 폭 변조(PWM: Pulse Width Modulation)로 제어되는 자극원에 비해 생물학적 영향 교란을 줄이거나 피할 수 있게 한다.
센서에 의해 수신된 광 신호는 감지 셀에 포함된 광원일 수도 있거나, 감지 셀에 포함되지 않은 광원일 수 있거나, 광 자극원일 수 있거나, 주변 광이나 방의 광과 같은 외부 광일 수 있다.
단독으로 또는 조합하여 고려될 수 있는 디바이스의 실시예에 따르면, 적어도 하나의 센서는 적어도 하나의 광원과 연관된다.
단독으로 또는 조합하여 고려될 수 있는 디바이스의 실시예에 따르면, 감지 유닛은 적어도 하나의 광원을 포함한다.
"연관된"이라는 것은 센서와 광원이 주파수/시간적으로 동기화되고 및/또는 광원이 눈 영역을 향하여 배향됨을 의미한다.
본 실시예는 잡음 하에서 비율 신호를 감소시키는 이점을 제시한다.
획득된 신호가 적어도 하나의 눈꺼풀의 위치와 관련될 때, 감지 유닛(20)은 그에 따라 눈의 감은/뜬 상태를 나타내는 신호를 획득할 수 있다. 또한, 하나 또는 2개의 눈꺼풀의 위치는 깜박임의 빈도, 깜박임의 진폭, 깜박임의 지속 시간 및 깜박임의 상이한 패턴을 결정할 수 있게 한다.
획득된 신호가 동공의 위치와 관련될 때, 감지 유닛(20)은 눈 자체의 위치를 나타내는 신호를 획득할 수 있다. 그리고, 획득된 신호가 동공의 크기와 관련될 때, 감지 유닛(20)은 동공의 확장/수축 레벨을 나타내는 신호를 획득할 수 있다.
적어도 하나의 눈꺼풀의 위치, 동공의 위치 및 동공의 크기 중 하나 이상의 변화는 상이한 거동을 나타낼 수 있다. 그 후, 변화가 발생할 때 경험된 광 조건을 사용자의 거동과 상관시킬 수 있다.
디바이스(10)는 감지 유닛(20)으로부터 획득된 신호를 수신하기 위해 감지 유닛(20)에 연결된 제어기를 추가로 포함한다. 제어기는 전체적으로 또는 부분적으로 케이싱(31) 내에 내장될 수 있다. 제어기는 부분적으로 외부 단말 내에 배치될 수 있다. 제어기는 멀리 떨어져 있을 수 있다.
제어기는 기계 학습 알고리즘을 제공하도록 구성된다. 따라서, 디바이스(10)는 사용자의 거동을 결정하기 위한 기계 학습 기반 장비이다.
기계 학습 알고리즘은 관찰된 데이터 포인트의 훈련 세트를 입력으로 받아서 식, 규칙 세트 또는 일부 다른 데이터 구조를 "학습"한다. 이러한 학습된 구조 또는 통계 모델은 그 후 훈련 세트에 대한 일반화 또는 새로운 데이터에 대한 예측을 만드는 데 사용될 수 있다. 본원에서 사용되는 바와 같이, "통계 모델"은 2개 이상의 데이터 파라미터(예를 들어, 입력 및 출력) 사이의 관계를 확립하거나 예측하는 임의의 학습된 및/또는 통계적 데이터 구조를 지칭한다. 본 발명이 아래에서 신경망을 참조하여 설명되지만, 다른 유형의 통계 모델이 본 발명에 따라 채용될 수 있다.
예를 들어, 훈련 데이터 세트의 각각의 데이터 포인트는 데이터 포인트의 다른 값과 상관되거나 이를 예측하는 값의 세트를 포함할 수 있다. 본 발명에서, 기계 학습 알고리즘은 사용자 거동에 대한 입력으로서 기계 학습 알고리즘에 제공되는 획득된 타깃 신호와 관련된 객관적인 데이터를 상관시키도록 구성된다.
제어기의 상기 기계 학습 알고리즘은 장단기 메모리(LSTM: Long short-term memory) 기술 또는 컨벌루션 신경망(CNN: convolutive neural network)에 기초할 수 있다.
LSTM 기술은 순환 신경망(RNN: recurrent neural network)의 일부이다. 고전적인 RNN 기술은 연속적인 계층으로 구성된 신경 노드의 망으로 구성된다. 주어진 계층의 각각의 노드(뉴런)는 다음 계층의 각각의 노드에 단방향으로 연결된다. 이러한 구조는 이전 순간 t-1 동안 첫 번째 계층이 순간 t 동안 두 번째 계층에 연결되기 때문에 신경망에서 이전 순간을 고려할 수 있게 한다. 이러한 두 번째 계층은 또한 후속 순간 t+1 동안 세 번째 계층에 연결되며, 이러한 방식으로 복수의 계층이 계속된다. 따라서, 입력으로 제공된 각각의 신호는 이전 순간에 제공된 신호를 고려하여 시간적인 방식으로 프로세싱된다.
CNN 기술은 신호를 시간적 방식이 아닌 이미지로서 사용한다. 복수의 획득된 신호는 테스트 지속 시간 동안 획득된 모든 데이터로 한 번에 프로세싱된다.
기계 학습 알고리즘은 기계 학습 알고리즘의 예측을 안내하도록 구성된 결정 규칙을 정의하는 안내 모델을 포함할 수 있다. 이러한 규칙은 타깃 데이터와 다양한 거동 간의 하위-상관 관계를 포함할 수 있다. 예를 들어, 이러한 안내 모델은 특성의 주어진 변화가 특정 거동과 상관되어야 한다는 것을 제공할 수 있다. 다른 예에서, 안내 모델은 특성의 변화의 사전 결정된 조합이 특정 거동 또는 잠재적인 거동의 목록을 의미함을 제공할 수 있다. 이러한 안내 모델은 상관 관계를 기계 학습에 의해 쉽게 할 수 있으므로, 상관 관계에 걸리는 시간을 줄이고 정확도를 개선한다.
제어기는 이미 훈련된 기계 학습 알고리즘을 사용할 수 있으며, 즉, 기계 학습 알고리즘의 신경망은 이미 사용자의 눈 영역의 신체적 특성의 변화와 상기 사용자의 거동 사이의 상관 관계를 제공하도록 구성된 식 또는 규칙 세트를 포함한다. 대안적으로, 제어기는 기계 알고리즘을 훈련시켜 상관 관계를 결정하도록 구성된다.
기계 학습 알고리즘의 훈련은 초기 사용자의 세트와 관련된 복수의 초기 데이터를 알고리즘에 제공함으로써 수행되는 것이 바람직하다. "초기 사용자"는 기계 학습 알고리즘의 학습에 참여하는 사용자를 의미한다. 즉, 초기 사용자는 기계 학습 알고리즘이 눈 영역의 신체적 변화를 상이한 거동과 상관시킬 수 있게 하는 객관적 및/또는 주관적인 데이터를 제공한다. 반대로, "타깃 사용자"는 기계 학습 알고리즘에 기초하여 거동 결정이 수행되는 사용자, 즉, 사용자의 거동의 예측이 수행될 수 있는 사용자를 지칭한다.
상기 초기 데이터는 세트의 각각의 초기 사용자에 대한 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 획득된 학습 신호를 포함한다. 상기 초기 데이터는 주관적 및/또는 객관적인 데이터를 포함할 수 있다. 상기 주관적인 데이터는 적어도 하나의 눈 영역의 적어도 하나의 특성의 상기 변화에 의해 야기된 거동에 대한 초기 사용자의 인지를 포함할 수 있다.
이러한 훈련은 알고리즘을 더 정확하게 만들기 위해 여러 번 반복된다. 예를 들어, 알고리즘 훈련은 적어도 100명의 초기 사용자를 의미할 수 있다.
타깃 사용자의 거동을 결정하기 위한 프로세스는 그 후 타깃 사용자의 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득함으로써 수행된다. 타깃 신호는 타깃 사용자의 눈 영역을 나타내는 신호를 지칭한다. 유사한 방식으로, 초기 신호는 초기 사용자의 눈 영역을 나타내는 신호를 지칭한다.
상기 타깃 데이터는 주관적 및/또는 객관적인 데이터를 포함할 수 있다.
객관적인 데이터는 광학 및/또는 측광(photometric) 측정을 통해 구조 및 안구 기능 또는 관련 구조의 상태의 적어도 하나의 파라미터 특성의 측정과 관련된 임의의 값을 지칭한다. 이러한 대표적인 양의 선택은 글레어 프로세스와 관련하여 하나 이상의 안구 또는 관련 구조의 용량 및 성능을 신체적 측정을 통해 정량화할 수 있게 한다.
주관적인 데이터는 사용자가 표현한 구두 반응 또는 불편함이나 시각적 인지를 나타내는 사용자의 임의의 액션을 지칭한다. 주관적인 데이터는 거동, 특히 적어도 하나의 눈 영역의 적어도 하나의 특성의 상기 변화에 의해 야기된 거동에 대한 타깃 사용자의 인지를 포함할 수 있다. 이러한 주관적인 데이터는 전용 인터페이스를 통해 디바이스(10)에 대한 타깃 사용자의 액션으로 얻어질 수 있다. 주관적인 데이터는 또한 타깃 사용자에 의해 제공된 사용자의 감정 정보로 얻어질 수 있다. 이러한 주관적인 데이터는 거동 결정의 정확성을 개선할 수 있다. 객관적인 데이터는 타깃 사용자의 적어도 하나의 눈 영역의 적어도 하나의 특성의 변화를 나타내는 타깃 신호를 지칭한다.
제어기의 기계 학습 알고리즘은 그 후 상기 복수의 타깃 신호를 제공받고 기계 학습 알고리즘의 출력으로서 상기 타깃 사용자의 거동을 결정한다.
거동 결정의 예는 도 6 내지 도 8을 참조하여 아래에서 설명된다. 이 예에서, 결정되는 거동은 글레어이다. 이러한 결정을 위해, 타깃 사용자의 글레어를 유도하는 자극원을 사용한 광 감도 테스트가 수행된다.
사용 시, 디바이스(10)는 감지 유닛(20)이 타깃 사용자의 적어도 하나의 눈 영역을 향하도록 타깃 사용자의 머리 상에 위치된다. 상이한 레벨의 광 강도가 타깃 사용자의 눈에 제공된다. 테스트의 시작에서, 광 강도는 매우 낮으며, 환자의 감도 임계값을 측정하기 위해 점진적으로 증가된다.
광 자극의 바람직한 시퀀스가 아래에 설명되어 있다.
조도를 단계적으로 증가시키는 최소값에서 최대값까지, 예를 들어, 25 Lux로부터 10211 Lux로 조도를 유도하기 위해 연속적인 광 방출이 제공될 수 있다. 예를 들어, 광 방출은 5초 동안 25 Lux의 조도에서 시작하여 눈을 빛 조건에 적응시키고 측정 전에 이전의 모든 광 노출을 취소한 다음 매초마다 20%의 조도 증가로 최대 조도까지 계속할 수 있다. 보다 일반적인 방식으로, 광은 25 Lux로부터 10000 Lux까지 변하는 조도를 유도하도록 방출될 수 있다. 이러한 연속 광 방출은 따뜻한 광으로 수행될 수 있다. 또 다른 연속적인 광 방출은 차가운 광으로 수행될 수 있다.
그런 다음 조도를 단계적으로 증가시키는 최소값으로부터 최대값까지, 예를 들어, 25 Lux로부터 8509 Lux까지 조도를 유도하기 위해 섬광 방출이 수행된다. 섬광 방출의 조도는 바람직하게는 적어도 30%, 바람직하게는 40%, 가장 바람직하게는 적어도 44% 증가된다. 각각의 섬광 방출 전과 그 사이에서, 사용자는 섬광 방출의 조도의 최소값보다 낮은 광 방출, 예를 들어, 10 Lux를 겪는다. 각각의 섬광 방출의 시간은 바람직하게는 0.5초이고 각각의 섬광 방출 사이의 시간은 바람직하게는 2초이다.
이러한 광 자극 동안, 감지 유닛(20)은 타깃 사용자의 눈 영역의 특성 변화를 나타내는 타깃 신호를 획득한다. 타깃 신호는 지속적으로 또는 간헐적으로 획득되어 제어기로 전송될 수 있다.
타깃 데이터는 이러한 타깃 신호에 따라 결정된다. 그 후 상기 타깃 데이터는 타깃 사용자의 잠재적 글레어를 결정하기 위해 제어기의 기계 학습 알고리즘에 제공된다. 특히, 타깃 사용자가 글레어를 경험할 때 제어기는 글레어를 야기한 광 조건을 결정할 수 있다. 그 후 타깃 사용자로부터의 주관적인 데이터를 반드시 수반하지는 않는 자동화된 프로세스로 타깃 사용자의 광 감도를 결정할 수 있다.
도 6을 참조하면, 타깃 사용자와 관련된 주관적인 데이터를 얻을 수 있다. 타깃 사용자는 광 자극의 사용자 인지를 나타내기 위해 디바이스(10) 상의 스위치를 누르도록 요청받을 수 있다. 예를 들어, 타깃 사용자는 광에 의해 야기된 불편함이 "단지 인지 가능"할 때 스위치를 한 번 누르고(도 6 참조) 불편함이 "정말 방해될" 때 두 번째로 스위치를 누를 수 있다. 광 자극은 타깃 사용자가 스위치를 두 번째로 누른 이후에 꺼지는 것이 바람직하다.
광 감도 테스트 중에 기록된 타깃 신호는 복잡하다. 매초 각각의 감지 셀(21)에 대해 약 200,000개의 데이터가 획득된다. 감지 셀(21)에 의해 획득된 타깃 신호의 예가 도 8에 도시되어 있다. 각각의 감지 셀(21)은 도 7에 도시된 바와 같이 1에서 6까지 번호가 매겨져 있다.
도 8을 참조하면, 약 40초의 데이터가 도시된다. 실제로, 감지 셀(21)은 약 200 Hz에서 데이터를 획득하므로 8500 프레임은 약 40초의 측정에 대응한다. 광의 강도는 프레임 0으로부터 프레임 8000으로 상승한다. 제1 기준(30)은 타깃 사용자가 스위치를 처음 누른 순간에 대응하고, 제2 기준(32)은 타깃 사용자가 스위치를 두 번째 누른 순간에 대응한다. 동일한 종류의 데이터가 기계 학습 알고리즘을 훈련하는 데 사용된다.
결과에 따라, 타깃 사용자는 복수의 글레어 클래스로 분할된다. 이러한 글레어 클래스는 빛 감도와 관련하여 사용자를 분류할 수 있게 한다. 따라서, 이러한 글레어 클래스는 예를 들어, 타깃 사용자에 대한 필터, 특히 상기 타깃 사용자의 시각적 편안함 및/또는 시각적 성능을 개선하거나 유지할 수 있는 투명 지지체용 필터를 결정하는 데 사용될 수 있다.
글레어 클래스 중 타깃 사용자를 분류하는 것은 간접 분류 또는 직접 분류에 의해 수행될 수 있다.
간접 분류에서, 기계 학습 알고리즘은 초기 사용자가 스위치를 누를 때를 검출하도록 훈련된다. 그 후, 알고리즘은 스위치의 예측된 클릭과 실제 클릭 사이의 시간 간격을 줄여 글레어 클래스를 결정한다. 이러한 방식으로, 알고리즘은 초기 사용자가 스위치를 누를 것이라고 알고리즘이 예측하는 프레임 수를 출력으로 제공한다. 이러한 프레임으로, 제어기는 예측된 시간에 광 자극의 조도를 결정한 후 그에 따라 타깃 사용자를 분류할 수 있다.
직접 분류에서, 알고리즘은 타깃 사용자의 글레어 클래스를 직접 결정하도록 훈련된다.
첫 번째 분류가 고려될 수 있다. 사람들은 매우 민감한 사람, 민감한 사람 및 민감하지 않은 사람의 세 부분으로 분할될 수 있다. 첫 번째 부분에 있는 사람들은 일반적으로 1000 lux 미만의 광 감도 임계값을 가지며 전체 인구의 약 25%에 대응한다. 그 후, 두 번째 부분의 사람들은 일반적으로 1000 lux와 5000 lux 사이의 광 감도 임계값을 가지며 전체 인구의 약 50%에 대응한다. 마지막으로, 세 번째 부분의 사람들은 일반적으로 5000 lux 초과의 광 감도 임계값을 가지며 전체 인구의 약 25%에 대응한다.
그 후, 500명의 초기 사용자를 포함하는 첫 번째 시도로 두 번째 분류가 결정되었다. 이러한 두 번째 분류에 따르면, 사람들은 600 lux 미만의 광 감도 임계값을 갖는 첫 번째 클래스(전체 패널의 약 25%), 600 lux 내지 2000 lux의 광 감도 임계값을 갖는 두 번째 클래스(전체 패널의 약 25%), 2000 lux 내지 4000 lux 사이의 광 감도 임계값을 갖는 세 번째 등급(전체 패널의 약 25%) 및 4000 lux 초과의 광 감도 임계값을 갖는 네 번째 클래스(전체 패널의 약 25%)의 4개의 클래스로 분할될 수 있다.
그 후, 200명의 초기 사용자를 포함하는 두 번째 시도가 수행되어 두 번째 시도의 각각의 초기 사용자에 대해 첫 번째 및 두 번째 분류에 따라 관련 글레어 클래스를 식별했다. 이러한 두 번째 시도의 결과가 아래 표에 나와 있다.
Figure pct00001
기준 라인은 "랜덤", "평균" 및 "지배 클래스"를 참조하는 3개의 첫 번째 라인에 의해 제공된다. 이러한 퍼센티지는 초기 사용자에 대한 글레어 클래스의 정확도에 대한 기준 값을 나타낸다. 이러한 기준 라인은 기계 학습 알고리즘을 사용하여 얻어지지 않는 랜덤 분류 또는 평균 클래스의 분류의 예측에 대응한다.
순환 신경망과 융합 계층 기술로 얻은 값은 간접 분류에 속한다. 컨벌루션 네트워크 기술로 얻은 값은 직접 분류에 속한다.
순환 신경망, 융합 계층 및 컨벌루션 네트워크 기술을 사용하여 기계 학습 알고리즘으로 얻은 값이 기준 라인과 비교된다. 기계 학습 알고리즘으로 얻은 결과가 기준 라인보다 더 정확함을 알 수 있다. 특히, 융합 계층 기술은 더욱 정확한 결과를 얻을 수 있게 한다.
본 발명에 따르고 디바이스(10)의 제어기에 의해 수행되는 방법은 컴퓨터로 구현된다. 즉, 컴퓨터 프로그램 제품은 프로세서에 액세스할 수 있고 프로세서에 의해 실행될 때 프로세서로 하여금 상기 사용자의 적어도 하나의 눈의 안구 매체의 스펙트럼 투과율 결정뿐만 아니라 상술한 바와 같은 적어도 하나의 필터를 결정하기 위한 방법의 단계를 수행하게 하는 명령의 하나 이상의 시퀀스를 포함한다.
명령의 시퀀스(들)는 클라우드의 사전 결정된 위치를 포함하여 하나 또는 몇몇 컴퓨터 판독 가능 저장 매체/매체들에 저장될 수 있다.
대표적인 방법 및 디바이스가 본원에 상세히 설명되었지만, 본 기술 분야의 통상의 기술자는 첨부된 청구항에 의해 설명되고 정의된 범위를 벗어나지 않고 다양한 치환 및 수정이 이루어질 수 있음을 인식할 것이다.

Claims (15)

  1. 타깃 사용자의 거동을 결정하기 위한 디바이스(10)로서,
    - 타깃 사용자의 적어도 하나의 눈 영역(44)을 향하도록 구성된 감지 유닛(20)으로서, 상기 감지 유닛(20)은 상기 타깃 사용자의 상기 적어도 하나의 눈 영역(44)의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득하도록 구성되고,
    상기 감지 유닛은 적어도 하나의 센서를 포함하고,
    상기 적어도 하나의 센서는 상기 눈 영역(44)을 향하여 배향되는, 감지 유닛(20); 및
    제어기를 포함하고, 상기 제어기는,
    - 기계 학습 알고리즘을 제공하고,
    - 상기 기계 학습 알고리즘에 대한 입력으로서 상기 획득된 타깃 신호들과 관련된 복수의 객관적인 타깃 데이터를 제공하고,
    - 상기 기계 학습 알고리즘의 출력으로서 상기 타깃 사용자의 거동을 결정하도록 구성되는, 디바이스(10).
  2. 제1항에 있어서,
    상기 적어도 하나의 센서는 상기 눈 영역(44) 주위에 배치되는, 디바이스(10).
  3. 제1항 또는 제2항에 있어서,
    적어도 하나의 눈을 자극하기 위한 적어도 하나의 광 자극원을 더 포함하는, 디바이스(10).
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 적어도 하나의 센서는 적어도 하나의 광원과 연관되는, 디바이스(10).
  5. 타깃 사용자의 거동을 결정하기 위한 컴퓨터-구현 방법으로서,
    - 기계 학습 알고리즘을 제공하는 단계,
    - 타깃 사용자의 적어도 하나의 눈 영역(44)의 적어도 하나의 특성의 변화를 나타내는 복수의 타깃 신호를 획득하는 단계,
    - 상기 기계 학습 알고리즘에 대한 입력으로서 상기 획득된 타깃 신호들과 관련된 복수의 객관적인 타깃 데이터를 제공하는 단계,
    - 상기 기계 학습 알고리즘의 출력으로서 상기 타깃 사용자의 거동을 결정하는 단계를 포함하는, 컴퓨터-구현 방법.
  6. 제5항에 있어서,
    상기 기계 학습 알고리즘은 초기 사용자들의 세트와 관련된 복수의 초기 데이터에 기초하고, 상기 초기 데이터는 상기 세트의 각각의 초기 사용자에 대한 적어도 하나의 눈 영역(44)의 적어도 하나의 특성의 변화를 나타내는 복수의 획득된 학습 신호를 포함하는, 컴퓨터-구현 방법.
  7. 제6항에 있어서,
    초기 사용자들의 세트와 관련된 상기 복수의 초기 데이터는 주관적인 데이터와 객관적인 데이터를 포함하고, 상기 주관적인 데이터는 상기 세트의 각각의 초기 사용자에 대한 적어도 하나의 눈 영역(44)의 상기 적어도 하나의 특성의 변화에 의해 야기된 거동에 대한 상기 세트의 상기 초기 사용자들의 인지를 포함하는, 컴퓨터-구현 방법.
  8. 제6항 또는 제7항에 있어서,
    - 초기 사용자들의 세트와 관련된 상기 복수의 초기 데이터를 상기 기계 학습 알고리즘에 제공하는 단계,
    - 상기 복수의 초기 데이터와 관련하여 상기 기계 학습 알고리즘을 훈련시키는 단계를 더 포함하는, 컴퓨터-구현 방법.
  9. 제5항 내지 제8항 중 어느 한 항에 있어서,
    - 상기 타깃 사용자와 관련된 주관적인 데이터를 결정하는 단계로서, 상기 주관적인 데이터는 상기 거동에 대한 상기 타깃 사용자의 인지를 포함하는, 주관적인 데이터를 결정하는 단계,
    - 상기 기계 학습 알고리즘의 입력으로서 상기 타깃 사용자와 관련된 상기 주관적인 데이터를 제공하는 단계를 더 포함하는, 컴퓨터-구현 방법.
  10. 제5항 내지 제9항 중 어느 한 항에 있어서,
    상기 거동은 상기 타깃 사용자의 시각적 편안함의 변화이고, 상기 적어도 하나의 특성의 상기 변화는 상기 적어도 하나의 눈 영역(44)에 제공된 광 자극에 의해 야기되는, 컴퓨터-구현 방법.
  11. 제10항에 있어서,
    상기 사용자의 상기 시각적 편안함의 상기 변화는 글레어(glare)인, 컴퓨터-구현 방법.
  12. 제11항에 있어서,
    광 감도에 대해 초기 사용자들을 분류하기 위해 복수의 글레어 클래스를 결정하는 단계를 더 포함하고, 상기 거동을 결정하는 단계는 상기 타깃 사용자의 상기 거동에 대응하는 상기 복수의 글레어 클래스 중에서 글레어 클래스를 결정하는 단계를 포함하는, 컴퓨터-구현 방법.
  13. 제5항 내지 제9항 중 어느 한 항에 있어서,
    상기 거동은 상기 타깃 사용자의 적어도 하나의 눈의 움직임 또는 상기 타깃 사용자의 적어도 하나의 동공의 치수인, 컴퓨터-구현 방법.
  14. 제5항 내지 제13항 중 어느 한 항에 있어서,
    상기 적어도 하나의 특성은 적어도 하나의 눈꺼풀의 위치, 상기 동공의 위치, 상기 동공의 크기 및 상기 적어도 하나의 눈 영역(44)의 근육 수축 중 적어도 하나를 포함하는, 방법.
  15. 제5항 내지 제14항 중 어느 한 항에 있어서,
    상기 거동에 기초하여 상기 타깃 사용자의 상기 시각적 편안함 및/또는 시각적 성능을 개선하거나 유지할 수 있는 투명 지지체에 대한 적어도 하나의 필터를 결정하는 단계를 더 포함하는, 방법.
KR1020237003959A 2020-09-17 2021-09-15 타깃 사용자의 거동을 결정하기 위한 디바이스 및 컴퓨터-구현 방법 KR20230031952A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20306042 2020-09-17
EP20306042.1 2020-09-17
PCT/EP2021/075278 WO2022058326A1 (en) 2020-09-17 2021-09-15 A device and a computer-implemented method for determining a behavior of a target user

Publications (1)

Publication Number Publication Date
KR20230031952A true KR20230031952A (ko) 2023-03-07

Family

ID=72709249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237003959A KR20230031952A (ko) 2020-09-17 2021-09-15 타깃 사용자의 거동을 결정하기 위한 디바이스 및 컴퓨터-구현 방법

Country Status (8)

Country Link
US (1) US20230355149A1 (ko)
EP (1) EP4213704A1 (ko)
KR (1) KR20230031952A (ko)
CN (1) CN116194031A (ko)
AU (1) AU2021343859A1 (ko)
BR (1) BR112023004711A2 (ko)
CA (1) CA3186540A1 (ko)
WO (1) WO2022058326A1 (ko)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9820643B2 (en) * 2013-08-13 2017-11-21 Jasper Ridge Inc. Illumination evaluation or recommendation using visual function
US11382545B2 (en) * 2015-10-09 2022-07-12 Senseye, Inc. Cognitive and emotional intelligence engine via the eye
EP3547896A4 (en) * 2016-12-01 2020-08-19 Oculeve, Inc. EXTRANASAL STIMULATION DEVICES AND METHODS
WO2018222897A1 (en) * 2017-06-01 2018-12-06 University Of Washington Smartphone-based digital pupillometer
CN108229376B (zh) * 2017-12-29 2022-06-03 百度在线网络技术(北京)有限公司 用于检测眨眼的方法及装置
US11861062B2 (en) * 2018-02-03 2024-01-02 The Johns Hopkins University Blink-based calibration of an optical see-through head-mounted display
KR102225002B1 (ko) * 2018-07-25 2021-03-10 홍익대학교 산학협력단 심층신경망 기반 객체 검출 장치 및 방법

Also Published As

Publication number Publication date
BR112023004711A2 (pt) 2023-04-18
EP4213704A1 (en) 2023-07-26
AU2021343859A1 (en) 2023-02-23
WO2022058326A1 (en) 2022-03-24
CA3186540A1 (en) 2022-03-24
US20230355149A1 (en) 2023-11-09
CN116194031A (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
US10845620B2 (en) Smart contact lens
CN106455973B (zh) 与用户眼睛接触放置的检测装置
AU2014259786B2 (en) Monitoring neurological functional status
EP3607872A1 (en) Vision screening device and methods
CN110621212A (zh) 用于评估用户健康状况的系统
CN108154866B (zh) 一种亮度实时调整显示屏系统及其亮度实时调节方法
US10909164B2 (en) Method for updating an index of a person
CN107341335B (zh) 监测成员群组的行为的方法
JP4179968B2 (ja) リラックス感評価用瞳孔対光反応計測具
US10163014B2 (en) Method for monitoring the visual behavior of a person
KR20230031952A (ko) 타깃 사용자의 거동을 결정하기 위한 디바이스 및 컴퓨터-구현 방법
JP2001309890A (ja) 脳機能検査方法及びその装置
CN113143299A (zh) 一种视力监测方法、系统、眼镜及头戴智能设备
US20230371879A1 (en) Device and method for assessing discomfort and/or disability glare of a subject
US20230037143A1 (en) A device for determining a change in the visual comfort of a user
Lazar et al. DEVELOPMENT OF EYE TRACKING PROCEDURES USED FOR THE ANALYSIS OF VISUAL BEHAVIOR-STATE OF ART
KR20190088102A (ko) 감각자극장치
JP2002355238A (ja) 瞬き検出装置