KR20160095430A - 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법 - Google Patents

아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법 Download PDF

Info

Publication number
KR20160095430A
KR20160095430A KR1020150016671A KR20150016671A KR20160095430A KR 20160095430 A KR20160095430 A KR 20160095430A KR 1020150016671 A KR1020150016671 A KR 1020150016671A KR 20150016671 A KR20150016671 A KR 20150016671A KR 20160095430 A KR20160095430 A KR 20160095430A
Authority
KR
South Korea
Prior art keywords
user
information
reading
eye tracking
tracking sensor
Prior art date
Application number
KR1020150016671A
Other languages
English (en)
Inventor
서영애
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020150016671A priority Critical patent/KR20160095430A/ko
Publication of KR20160095430A publication Critical patent/KR20160095430A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법을 제공한다. 상기 아이 트래킹 센서를 이용한 독해 지원 장치는 컨텐츠를 독해하는 사용자의 시선을 추적하는 아이 트래킹 센서(Eye Tracking Sensor) 및 상기 아이 트래킹 센서의 추적 정보에 대응되는 기 저장된 상기 사용자의 독해 관련 프로파일링 정보를 이용하여 상기 사용자에게 추가적인 정보 제공이 필요한 상황임을 판단하고, 상기 판단된 결과에 따라 상기 컨텐츠 독해에 필요한 부가 정보 및 부가 기능을 제공하는 제어부를 포함한다.

Description

아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법 {APPARATUS AND METHOD FOR HELPING READING BY USING EYE TRACKING SENSOR}
본 발명은 사용자의 컨텐츠 독해를 지원하는 기술에 관한 것으로서, 보다 상세하게는 사용자 단말을 통해 컨텐츠를 독해하는 사용자에게 독해 과정에서 필요한 부가 정보 및 부가 기능을 제공함으로써 사용자의 독해를 지원하는 장치 및 그 방법에 관한 것이다.
사용자 단말을 통해 컨텐츠를 독해하는 경우, 사용자는 다양한 입력 수단을 통해 독해 과정에서 발생하는 의문점을 해결한다.
예컨대, 외국어로 이루어진 문장을 읽는 중 번역이 필요한 문장이 있는 경우, 사용자는 해당 문장을 직접 타이핑하여 입력하거나, 마우스를 이용해 복사하여 붙여 넣기 함으로써 해당 문장에 대한 번역 정보를 검색할 수 있다.
다른 예로, 모국어로 이루어진 문장을 읽는 중, 의미를 모르는 단어가 있는 경우, 사용자는 해당 단어를 발성함으로써 해당 단어에 대한 사전 정보를 획득할 수 있다.
그러나, 종래의 키보드, 마우스, 음성 인식, 터치 스크린 등의 입력 수단을 통해 독해에 필요한 정보를 획득하는 방법은 사용자의 독해 흐름을 방해하는 문제점이 존재한다.
구체적으로, 키보드 및 마우스의 경우 휴대가 불편한 문제가 있고, 터치 스크린의 경우 스크린의 크기가 작기 때문에 발생하는 정확도 문제가 있으며, 음성 인식의 경우 외부 소음, 불확실한 발성에 의한 빈번한 인식 실패 문제가 있다.
따라서, 별도의 입력 수단을 거치지 않고 컨텐츠 독해 과정에 필요한 정보를 제공하는 기술이 필요하다.
본 발명은 전술한 문제점을 해결하기 위하여, 아이 트래킹 센서(Eye Tracking Sensor)를 이용하여 컨텐츠를 독해하는 사용자의 시선을 추적하고, 아이 트래킹 센서의 추적 정보를 해석하여 사용자의 독해를 지원하는 장치 및 그 방법을 제공하는 것을 목적으로 한다.
상술한 목적을 달성하기 위한 본 발명의 일면에 따른 아이 트래킹 센서를 이용한 독해 지원 장치는 컨텐츠를 독해하는 사용자의 시선을 추적하는 아이 트래킹 센서(Eye Tracking Sensor) 및 상기 아이 트래킹 센서의 추적 정보에 대응되는 기 저장된 상기 사용자의 독해 관련 프로파일링 정보를 이용하여 상기 사용자에게 추가적인 정보 제공이 필요한 상황임을 판단하고, 상기 판단된 결과에 따라 상기 컨텐츠 독해에 필요한 부가 정보 및 부가 기능을 제공하는 제어부를 포함한다.
본 발명에 따르면, 아이 트래킹 센서를 통해 컨텐츠를 읽는 사용자의 시선을 추적하고, 이를 해석하여 사용자에게 필요한 부가 정보 및 부가 기능을 제공함으로써 기존 사용자의 독해 흐름을 방해하지 않으면서 별도의 입력 수단을 거치지 않고 사용자에게 필요한 부가 정보 및 부가 기능을 제공할 수 있는 이점이 있다.
도 1은 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 장치의 구성을 나타낸 블록도.
도 2a 및 도 2b는 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 장치가 독해 지원 정보를 제공하는 예시를 나타낸 도면.
도 3은 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 방법의 과정을 나타낸 흐름도.
본 발명의 전술한 목적 및 그 이외의 목적과 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 목적, 구성 및 효과를 용이하게 알려주기 위해 제공되는 것일 뿐으로서 본 발명의 권리범위는 청구항의 기재에 의해 정하여진다.
한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 본 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자에 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가됨을 배제하지 않는다.
본 발명에서 설명하는 사용자 단말은 카메라 또는 아이 트래킹 센서가 구비된 사용자 단말에 구현될 수 있으며, 상기 사용자 단말은 스마트 폰, 노트북 컴퓨터, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션(Navigation) 등과 같은 이동형 단말이거나, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정형 단말일 수 있다.
이하, 본 발명의 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명하도록 한다.
도 1은 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 장치의 구성을 나타낸 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 장치(100)는 모드 선택부(110), 아이 트래킹 센서(120), 제어부(130), 프로파일링 정보 저장부(140) 및 표시부(150)를 포함한다.
모드 선택부(110)는 사용자로부터 아이 트래킹 모드의 동작을 명령하는 신호를 입력 받는다.
아이 트래킹 센서(120)는 표시부(150)를 통해 출력되는 컨텐츠를 읽는 사용자의 시선을 추적한다.
제어부(130)는 아이 트래킹 센서(120)에 의해 추적된 정보에 대응되는 사용자의 프로파일링 정보를 이용하여 사용자에게 부가 정보 및 부가 기능이 필요한 이벤트 상황임을 판단하고, 해당 부가 정보를 제공하거나 해당 부가 기능을 수행하며, 이를 위해 추적 정보 분석부(131), 부가 정보 제공부(132) 및 부가 기능 처리부(133)를 포함한다.
프로파일링 정보 저장부(140)는 지속적인 학습을 통해 수집된 사용자의 독해 관련 정보를 저장한다.
표시부(150)는 컨텐츠와 함께 제어부(130)에 의해 생성된 컨텐츠 지원 정보를 표시한다.
이하, 본 발명의 일실시예에 따른 독해 지원 장치의 동작 과정을 구체적으로 설명한다.
사용자에 의해 아이 트래킹 모드가 선택되면, 아이 트래킹 센서(120)는 사용자가 표시부(150)에 출력된 컨텐츠를 읽는 동안 사용자의 시선(눈동자의 움직임)을 지속적으로 추적한다.
상기 아이 트래킹 센서(120)는 내장된 카메라를 통해 사용자의 눈을 포함한 영역을 촬영하고, 촬영된 이미지 분석을 통해 눈동자를 검출하는 센서일 수 있다.
추적 정보 분석부(131)는 아이 트래킹 센서(120)에 의해 추적된 사용자의 시선을 분석하고, 분석된 결과와 프로파일링 정보 저장부(140)에 저장된 사용자의 독해 관련 프로파일링 정보를 비교하여 현재 사용자에게 추가적인 정보가 필요한 상황인지를 판단한다.
예컨대, 추적 정보 분석부(131)는 컨텐츠를 읽고 있는 사용자의 시선이 기설정된 시간 이상 고정된 위치에 유지되거나, 사용자의 시선이 특정 문장을 반복하여 읽거나, 눈동자의 동공이 평균보다 많이 확장되면 현재 사용자에게 추가적인 정보가 필요한 상황이라고 판단한다.
상기 프로파일링 정보는 사전에 지속적인 학습을 통해 수집된 사용자의 독해 특성과 관련된 정보로서, 컨텐츠 독해 시 사용자의 평균 눈동자 확장 정도, 평균 컨텐츠 응시 시간, 눈동자 이동 경로, 눈동자 이동 방향, 사용자의 연령대, 사용자의 모국어, 평소 사용자가 읽는 컨텐츠의 언어, 사용자의 관심 분야, 사전 이용 빈도, 검색되는 단어의 난이도 정도, 독해 성향, 독해 실력 등의 정보를 포함한다.
한편, 추적 정보 분석부(131)에 의해 사용자에게 추가적인 정보가 필요한 상황이라고 판단되면, 부가 정보 제공부(132)는 사용자의 시선이 위치하는 영역의 컨텐츠를 분석하여 사용자가 필요로 하는 정보의 단위를 구분한다. 여기서, 상기 사용자가 필요로 하는 정보의 단위는 '단어', '문장', '구절' 등으로 구분되는 단위일 수 있다.
예컨대, 부가 정보 제공부(132)는 사용자의 시선이 기설정된 시간 이상 고정된 위치에 유지되면 사용자가 필요로 하는 정보의 단위를 '단어'로 구분하고, 사용자의 시선이 특정 영역을 반복하여 이동하면 해당 영역의 길이 정보에 따라 사용자가 필요로 하는 정보의 단위를 '문장' 또는 '구절' 단위로 구분한다.
사용자가 필요로 하는 정보의 단위가 구분되면, 부가 정보 제공부(132)는 구분된 결과와 컨텐츠에 사용된 언어 정보 및 전술한 형태의 프로파일링 정보를 이용하여 사용자에게 필요한 정보를 생성하고, 해당 정보가 표시될 위치 및 크기를 선정하여 표시부(150)를 통해 표시한다.
상기 사용자에게 필요한 정보는 '번역 정보', '사전 정보', 하이라이트 기능 또는 저장 기능을 선택할 수 있는 '메뉴 정보' 등일 수 있고, 상기 사전 정보 및 번역 정보는 부가 정보 제공부(132)가 사용자 단말의 사전 모듈 및 번역 모듈을 이용하여 검색한 정보일 수 있다.
사용자 단말 내 사전 모듈 및 번역 모듈을 이용하는 기술은 공지된 기술이기 때문에 도면에 도시하지 않았으며, 상세한 설명 또한 생략한다.
구체적으로, 부가 정보 제공부(132)는 사용자가 응시하는 대상이 '모국어로된 단어'이고 해당 단어가 기존 사용자의 독해 수준보다 높은 수준의 단어이면, 사용자에게 해당 단어에 대한 '사전 정보'를 제공한다.
상기 '사전 정보'는 사전에서 검색한 뜻(의미) 정보를 의미한다.
반면에, 부가 정보 제공부(132)는 사용자가 응시하는 대상이 '외국어로된 단어'이면, 사용자에게 해당 단어에 대한 '번역 정보', '사전 정보' 또는 '번역된 사전 정보'를 제공한다.
다른 예로, 부가 정보 제공부(132)는 해당 단어의 검색 빈도를 카운팅하여 그 빈도가 2회 이상인 경우, 컨텐츠 내 해당 단어가 나타났던 '문장 정보'를 사용자에게 제공하거나, 해당 단어가 나타났던 페이지로의 이동을 선택할 수 있는 '메뉴 정보'를 표시한다.
또 다른 예로, 부가 정보 제공부(132)는 사용자가 응시하는 대상이 '모국어로된 문장 또는 구절'이면, 해당 문장 또는 구절을 하이라이팅(Highlighting)하거나 저장하도록 선택할 수 있는 '메뉴 정보'를 표시한다.
반면에, 부가 정보 제공부(132)는 사용자가 응시하는 대상이 '외국어로된 문장 또는 구절'이면, 해당 문장 또는 구절에 대한 '번역 정보'를 사용자에게 제공하거나, 해당 문장 또는 구절을 하이라이팅하거나 저장하도록 선택할 수 있는 '메뉴 정보'를 표시한다.
더불어, 부가 정보 제공부(132)는 표시부(150)를 통해 표시되는 정보의 위치를 현재 사용자가 읽고 있는 부분을 제외한 위치로 선정하거나, 표시되는 정보의 크기를 사용자가 현재 읽고 있는 부분을 가리지 않는 위치로 선정함으로써 사용자의 컨텐츠 독해를 방해하지 않도록 제어할 수 있다.
만약, 제공된 '메뉴 정보' 중, 사용자가 특정 메뉴를 선택하면, 부가 기능 처리부(133)는 사용자가 선택한 메뉴에 해당하는 작업을 수행하고, 수행된 결과를 표시부(150)를 통해 표시한다.
예컨대, 부가 기능 처리부(133)는 사용자가 하이라이트 기능을 선택하면 해당 단어, 문장 또는 구절을 하이라이팅하여 표시하고, 저장 기능을 선택하면 해당 단어, 문장 또는 구절을 프로파일링 정보 저장부(140)에 저장하거나 별도의 저장부에 저장한다.
여기서, 사용자가 메뉴를 선택하는 방법은 통해 눈동자의 움직임을 이용하는 선택하는 아이 트래킹 방식이거나, 사용자 단말의 터치 스크린을 펜 또는 손으로 터치하여 선택하는 방식이거나 사용자 단말과 연결된 마우스를 이용한 선택 방식일 수 있다.
이하, 도 2a 및 도 2b를 참조하여 표시부(140)를 통해 제공되는 정보의 예시를 구체적으로 설명한다.
도 2a 및 도 2b는 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 장치가 독해 지원 정보를 제공하는 예시를 나타낸 도면이다.
도 2a에 도시된 바와 같이, 사용자의 시선이 'Tripitaka'라는 단어에 기설정된 시간 이상 고정되면, 도 1에 도시된 독해 지원 장치는 'Tripitaka'를 '대장경' 으로 번역하고, 번역된 단어를 'Tripitaka'와 근접하며 사용자의 독해를 방해하지 않는 위치에 팝업하여 표시함으로써 사용자의 컨텐츠 독해를 지원할 수 있다.
도 2b에 도시된 바와 같이, 사용자의 눈동자가 'As an outstanding example of a type of building, architectural or technological ensemble or landscape which illustrates significant stages on human history'를 반복하여 응시하는 경우, 도 1에 도시된 독해 지원 장치는 해당 문장을 '인류 역사의 중요 단계를 보여주는 건물, 건축, 기술의 총체, 경관의 탁월한 사례로서'로 번역하여 표시하고, 해당 문장을 하이라이팅하거나 저장할 수 있는 메뉴를 별도로 표시함으로써 사용자의 컨텐츠 독해를 지원할 수 있다.
도 3은 본 발명의 일실시예에 따른 아이 트래킹 센서를 이용한 독해 지원 방법의 과정을 나타낸 흐름도이다.
도 3에 도시된 바와 같이, 아이 트래킹 모드로의 진입을 판단하고(S300), 아이 트래킹 모드이면 컨텐츠를 읽는 동안 사용자의 시선(눈동자의 움직임)을 지속적으로 추적한다(S310).
사용자의 시선을 추적한 정보와 기 저장된 사용자의 독해 관련 프로파일링 정보를 비교하여(S320), 현재 사용자에게 추가적인 정보가 필요한 상황인지를 판단한다(S330).
상기 프로파일링 정보는 사전에 지속적인 학습을 통해 수집된 사용자의 독해 특성과 관련된 정보로서, 컨텐츠 독해 시 사용자의 평균 눈동자 확장 정도, 평균 컨텐츠 응시 시간, 눈동자 이동 경로, 눈동자 이동 방향, 사용자의 연령대, 사용자의 모국어, 평소 사용자가 읽는 컨텐츠의 언어, 사용자의 관심 분야, 사전 이용 빈도, 검색되는 단어의 난이도 정도, 독해 성향, 독해 실력 등의 정보를 포함한다.
예컨대, 컨텐츠를 읽고 있는 사용자의 시선이 기설정된 시간 이상 고정된 위치에 유지되거나, 사용자의 시선이 특정 문장을 반복하여 읽거나, 눈동자의 동공이 평균보다 많이 확장되면 현재 사용자에게 추가적인 정보가 필요한 상황이라고 판단한다.
사용자에게 추가적인 정보가 필요한 상황이라고 판단되면, 사용자의 시선이 위치하는 영역의 컨텐츠를 분석하여 사용자가 필요로 하는 정보의 단위를 구분한다(S340).
예컨대, 사용자의 시선이 기설정된 시간 이상 고정된 위치에 유지되면 사용자가 필요로 하는 정보의 단위를 '단어'로 구분하고, 사용자의 시선이 특정 영역을 반복하여 이동하면 해당 영역의 길이 정보에 따라 사용자가 필요로 하는 정보의 단위를 '문장' 또는 '구절' 단위로 구분한다.
사용자가 필요로 하는 정보의 단위가 구분되면, 구분된 결과와 컨텐츠에 사용된 언어 정보 및 전술한 형태의 프로파일링 정보를 이용하여 사용자에게 필요한 정보를 생성하고(S350), 해당 정보가 표시될 위치 및 크기를 선정하여(S360) 이를 사용자 단말의 화면을 통해 표시한다(S370).
예컨대, 사용자가 응시하는 대상이 '모국어로된 단어'이고 해당 단어가 기존 사용자의 독해 수준보다 높은 수준의 단어이면, 사용자에게 해당 단어에 대한 '사전 정보'를 제공한다.
상기 '사전 정보'는 사전에서 검색한 뜻(의미) 정보를 의미한다.
반면에, 사용자가 응시하는 대상이 '외국어로된 단어'이면, 사용자에게 해당 단어에 대한 '번역 정보', '사전 정보' 또는 '번역된 사전 정보'를 제공한다.
다른 예로, 해당 단어의 검색 빈도를 카운팅하여 그 빈도가 2회 이상인 경우, 컨텐츠 내 해당 단어가 나타났던 '문장 정보'를 사용자에게 제공하거나, 해당 단어가 나타났던 페이지로의 이동을 선택할 수 있는 '메뉴 정보'를 표시한다.
또 다른 예로, 사용자가 응시하는 대상이 '모국어로된 문장 또는 구절'이면, 해당 문장 또는 구절을 하이라이팅하거나 저장하도록 선택할 수 있는 '메뉴 정보'를 표시한다.
반면에, 사용자가 응시하는 대상이 '외국어로된 문장 또는 구절'이면, 해당 문장 또는 구절에 대한 '번역 정보'를 사용자에게 제공하거나, 해당 문장 또는 구절을 하이라이팅하거나 저장하도록 선택할 수 있는 '메뉴 정보'를 표시한다.
만약, 제공된 '메뉴 정보' 중, 사용자가 특정 메뉴를 선택하면(S380), 사용자가 선택한 메뉴에 해당하는 작업을 수행하고 수행된 결과를 표시한다(390).
예컨대, 사용자가 하이라이트 기능을 선택하면 해당 단어, 문장 또는 구절을 하이라이팅하여 표시하고, 저장 기능을 선택하면 해당 단어, 문장 또는 구절을 저장한다.
이상의 설명은 본 발명의 기술적 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적 특성을 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능하다.
따라서 본 발명에 표현된 실시예들은 본 발명의 기술적 사상을 한정하는 것이 아니라, 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 권리범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 특허청구범위에 의하여 해석되어야 하고 그와 동등하거나 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (1)

  1. 컨텐츠를 독해하는 사용자의 시선을 추적하는 아이 트래킹 센서(Eye Tracking Sensor); 및
    상기 아이 트래킹 센서의 추적 정보에 대응되는 기 저장된 상기 사용자의 독해 관련 프로파일링 정보를 이용하여 상기 사용자에게 추가적인 정보 제공이 필요한 상황임을 판단하고, 상기 판단된 결과에 따라 상기 컨텐츠 독해에 필요한 부가 정보 및 부가 기능을 제공하는 제어부
    를 포함하는 아이 트래킹 센서를 이용한 독해 지원 장치.
KR1020150016671A 2015-02-03 2015-02-03 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법 KR20160095430A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150016671A KR20160095430A (ko) 2015-02-03 2015-02-03 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150016671A KR20160095430A (ko) 2015-02-03 2015-02-03 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법

Publications (1)

Publication Number Publication Date
KR20160095430A true KR20160095430A (ko) 2016-08-11

Family

ID=56714116

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150016671A KR20160095430A (ko) 2015-02-03 2015-02-03 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR20160095430A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102493600B1 (ko) * 2021-12-21 2023-01-31 (주)웅진씽크빅 아이 트래킹을 이용한 독서 토론 지원 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102493600B1 (ko) * 2021-12-21 2023-01-31 (주)웅진씽크빅 아이 트래킹을 이용한 독서 토론 지원 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11848000B2 (en) Transcription revision interface for speech recognition system
US20170031652A1 (en) Voice-based screen navigation apparatus and method
US10614265B2 (en) Apparatus, method, and computer program product for correcting speech recognition error
ES2269449T3 (es) Seguimiento de la mirada para el reconocimiento de voz contextual.
CN106463119B (zh) 用于支持改进语音识别的对视觉内容的修改
JP7116088B2 (ja) 音声情報処理方法、装置、プログラム及び記録媒体
CN108399914B (zh) 一种语音识别的方法和装置
JP6983118B2 (ja) 対話システムの制御方法、対話システム及びプログラム
US20170068316A1 (en) Input device using eye-tracking
US9028255B2 (en) Method and system for acquisition of literacy
JP2006107048A (ja) 視線対応制御装置および視線対応制御方法
US20080094496A1 (en) Mobile communication terminal
CN116127062A (zh) 预训练语言模型的训练方法、文本情感分类方法及装置
CN111079494A (zh) 一种学习内容推送方法及电子设备
US9641740B2 (en) Apparatus and method for auto-focusing in device having camera
US9055161B2 (en) Text processing method for a digital camera
KR20160095430A (ko) 아이 트래킹 센서를 이용한 독해 지원 장치 및 그 방법
KR20210050484A (ko) 정보 처리 방법, 장치 및 저장 매체
CN113016031A (zh) 信息处理装置、信息处理方法和程序
CN112433622B (zh) 基于考试的词条处理方法、装置和介质
CN110245358A (zh) 一种机器翻译方法及相关装置
CN112214692B (zh) 基于输入法的数据处理方法、装置和机器可读介质
CN111090738A (zh) 一种基于双屏的拍照搜题方法及电子设备
JP5244460B2 (ja) 情報自動編成提示装置および情報自動編成提示処理プログラム
US20230196001A1 (en) Sentence conversion techniques

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination