KR101313796B1 - 눈동자 인식 프레임워크 장치 및 그 구현 방법 - Google Patents

눈동자 인식 프레임워크 장치 및 그 구현 방법 Download PDF

Info

Publication number
KR101313796B1
KR101313796B1 KR1020130055675A KR20130055675A KR101313796B1 KR 101313796 B1 KR101313796 B1 KR 101313796B1 KR 1020130055675 A KR1020130055675 A KR 1020130055675A KR 20130055675 A KR20130055675 A KR 20130055675A KR 101313796 B1 KR101313796 B1 KR 101313796B1
Authority
KR
South Korea
Prior art keywords
eye
module
unit
recognition
pupil
Prior art date
Application number
KR1020130055675A
Other languages
English (en)
Inventor
고태우
장재훈
정세린
정동욱
Original Assignee
(주) 와이즈스톤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 와이즈스톤 filed Critical (주) 와이즈스톤
Priority to KR1020130055675A priority Critical patent/KR101313796B1/ko
Application granted granted Critical
Publication of KR101313796B1 publication Critical patent/KR101313796B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 눈동자 인식 프레임워크 장치 및 그 구현 방법에 관한 것으로, 눈동자 인식과 관련된 알고리즘 또는 API를 포함하는 OpenCV 유닛, 상기 OpenCV 유닛에 포함된 알고리즘 또는 API를 이용하여 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈 및 이벤트 처리모듈를 생성하고 저장하는 라이브러리 유닛, 및상기 라이브러리 유닛에 저장된 모듈을 자바 메소드로 제공하는 메소드 유닛을 포함한다. 본 발명에 따르면, 간편하게 눈동자 인식 어플리케이션을 개발할 수 있다.

Description

눈동자 인식 프레임워크 장치 및 그 구현 방법{Framework device for eye recognition and implementing method thereof}
본 발명은 눈동자 인식 프레임워크에 관한 것으로, 보다 상세하게는 OpenCV에서 제공되는 알고리즘 또는 API를 이용하여 눈동자 인식과 관련된 프레임워크 장치 및 그 구현 방법에 관한 것이다.
OpenCV란, C 언어로 개발된 알고리즘 및 API(application programming interface)를 포함하고 있는 오픈 소스이다. OpenCV를 통해 어플리케이션 개발자는 기본적인 이미지 효과, 대상인식, 제스쳐 인식, 증강현실, 모션추적과 같은 다양한 영상처리와 관련된 알고리즘 또는 API를 제공받을 수 있다.
그러나, 자바(Java)를 주로 이용하여 어플리케이션을 개발하는 추세와 달리, OpenCV는 C 언어에 대한 이해를 기본적으로 요구하고 있으며, 너무 많은 알고리즘과 API로 인해 필요한 정보를 선별하기 쉽지 않으며, 알고리즘/API를 조합한 경우 이에 대한 수많은 테스트가 필요하므로, 조합한 알고리즘/API를 이용하여 개발자가 원하는 정확한 어플리케이션을 개발하는 것 또한 용이하지 않다는 문제점이 있다.
특히, 눈동자 인식과 관련하여 다양한 아이디어가 개발되고 있음에도 불구하고, OpenCV에서 제공하는 알고리즘/API를 이용하여 어플리케이션을 개발하기가 쉽지 않다는 문제점이 있다.
본 발명은 눈동자 인식과 관련된 알고리즘 및 API를 선별하고, 눈동자 인식과 관련된 기본적인 모듈을 생성하여 제공함으로써, 보다 간편하게 눈동자 인식 어플리케이션을 개발할 수 있는 프레임워크 장치 및 그 구현 방법을 제공하는데 그 목적이 있다.
상기 목적을 달성하기 위한 본 발명은 프레임워크 장치에 관한 것으로서, 눈동자 인식과 관련된 알고리즘 또는 API를 포함하는 OpenCV 유닛, 상기 OpenCV 유닛에 포함된 알고리즘 또는 API를 이용하여 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈 및 이벤트 처리모듈를 생성하고 저장하는 라이브러리 유닛, 및 상기 라이브러리 유닛에 저장된 모듈을 자바 메소드로 제공하는 메소드 유닛을 포함하는 것을 특징으로 한다.
바람직하게는, 상기 안면/눈동자 인식모듈은 이미지에서 얼굴 또는 눈동자를 인식할 수 있다.
또한 바람직하게는, 상기 눈동자 추적모듈은 눈동자의 현재 위치, 이동 방향 및 이동 속도 중 적어도 하나를 확인할 수 있다.
또한 바람직하게는, 상기 눈 움직임 인식모듈은 눈 깜빡임을 판별하기 위해 소정의 간격으로 이미지를 저장할 수 있다.
또한 바람직하게는, 상기 이벤트 처리모듈은 눈동자 이동 이벤트 또는 눈 깜빡임 이벤트에 대해 액션을 설정할 수 있다.
또한 바람직하게는, 상기 프레임워크 장치는 상기 메소드 유닛을 이용하여 눈동자 인식 시나리오에 대응하는 어플리케이션을 생성하는 개발 유닛을 더 포함할 수 있다.
또한 바람직하게는, 상기 개발 유닛은 생성된 어플리케이션을 검증하기 위한 샘플 어플리케이션을 제공할 수 있다.
또한 바람직하게는, 상기 개발 유닛은 상기 라이브러리에 저장된 모듈에 대한 초기 설정을 변경할 수 있다.
상기 목적을 달성하기 위한 본 발명은 프레임워크 장치 구현 방법에 관한 것으로서, OpenCV 유닛을 통해 눈동자 인식과 관련된 알고리즘 또는 API를 저장하는 제1단계, 라이브러리 유닛을 통해 상기 알고리즘 또는 API를 이용하여 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈 및 이벤트 처리모듈을 생성하고 저장하는 제2단계, 및 메소드 유닛을 통해 저장된 모듈을 자바 메소드로 제공하는 제3단계를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 프레임워크 장치 구현 방법은 개발 유닛을 통해 상기 자바 메소드를 이용하여 눈동자 인식 시나리오에 대응하는 어플리케이션을 생성하는 제4단계를 더 포함할 수 있다.
상기 목적을 달성하기 위한 본 발명은 상기 프레임워크 장치 구현 방법을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체에 의해 구현될 수 있다.
본 발명에 따르면, OpenCV에 포함된 알고리즘/API를 선별하여 필요한 모듈을 생성하고 자바 메소드로 제공하는 프레임워크 운용장치 및 그 방법을 제공함으로써, 개발자는 C 언어를 상세하게 이해할 필요 없이 보다 간편하게 눈동자 인식 어플리케이션을 개발할 수 있다.
또한, 휴대 단말기, 차량, 의료, 엔터테인먼트 등과 같이 다양한 아이디어를 반영한 눈동자 인식 어플리케이션을 간편하게 개발할 수 있으므로, 눈동자 인식 어플리케이션의 창의성 및 다양성이 증대되고, 개인 또는 중소기업의 개발자도 눈동자 인식 어플리케이션을 쉽게 개발할 수 있다는 장점이 있다.
도 1은 본 발명의 일실시예에 따른 프레임워크 장치를 나타내는 도면이다.
도 2는 본 발명의 프레임워크 장치를 구현하여 어플리케이션을 개발하는 방법을 나타내는 흐름도이다.
도 1은 본 발명의 일실시예에 따른 프레임워크 장치를 나타내는 도면이다.
도 1에 도시된 바와 같이, 본 발명에 따른 프레임워크 장치는 OpenCV 유닛(10), 라이브러리 유닛(20), 메소드 유닛(30)을 포함한다.
OpenCV 유닛(10)은 눈동자 인식과 관련된 코드를 저장한다. 여기서, OpenCV 유닛(10)에 저장된 코드는 C 언어로 개발된 모든 타입의 이미지 프로세싱 알고리즘 또는 API를 포함하며, 특히, 얼굴 인식, 눈동자 인식, 얼굴/눈동자 인식에 따른 이벤트 처리 등과 관련된 알고리즘 또는 API를 포함한다. OpenCV 유닛(10)은 이미 구축된 OpenCV 일 수도 있고, 본 발명에 따른 프레임워크 장치를 구현하기 위해 새롭게 생성된 OpenCV일 수도 있으며 주기적/비주기적으로 업데이트될 수 있다.
라이브러리 유닛(20)은 OpenCV 유닛(10)에 포함된 알고리즘 또는 API를 이용하여 안면/눈동자 인식모듈(21), 눈동자 추적모듈(22), 눈 움직임 인식모듈(23) 및 이벤트 처리모듈(24)를 생성한다. 라이브러리 유닛(20)은 생성하고자 모듈에 따라 OpenCV 유닛(10)에 포함된 알고리즘 또는 API를 선별할 수 있다.
상기 안면/눈동자 인식모듈(21)은 카메라를 통해 입력된 이미지에서 얼굴 또는 눈동자를 인식하기 위한 모듈로서, 입력된 이미지에서 적어도 하나의 얼굴 영역을 검출하고, 얼굴 영역에서 눈동자 영역을 인식할 수 있다. 일실시예로서, 안면/눈동자 인식모듈(21)은 물체인식 알고리즘인 Haar-like Feature를 이용하는 Haar 분류기를 이용하여 구현될 수 있다.
상기 눈동자 추적모듈(22)은 눈동자의 현재 위치, 이동 방향, 이동 속도 등을 확인하는 모듈로서, 상기 안면/눈동자 인식모듈(21)에 의해 인식된 눈동자 영역을 템플릿으로 실시간 저장하고 카메라를 통해 입력된 다음 프레임과 비교함으로써, 눈동자 영역을 추적할 수 있다.
눈 움직임 인식모듈(23)은 눈 깜빡임을 판별하기 위해 이미지를 저장하는 모듈로서, 눈동자 추적모듈(22)에 의해 실시간으로 저장된 템플릿을 기초로 하여, 눈 깜빡임을 판별할 수 있는 간격으로 이미지를 저장한다. 일실시예로서, 10 프레임 간격으로 이미지를 저장할 수 있다. 실시간으로 이미지를 저장하므로, 미리 저장된 이미지를 이용하는 경우보다 인식률이 높으며, 사용자 별로 이미지를 저장할 수도 있다.
이벤트 처리모듈(24)은 눈동자 이동 이벤트 또는 눈 깜빡임 이벤트를 처리하기 위한 모듈이다. 일실시예로, 이벤트 처리모듈(24)은 사용자 별로 눈동자 이동을 확인하여 눈동자 이동속도에 따라 인식률 기준을 설정하고, 인식률 기준보다 빠른 속도로 눈동자가 이동하는 이벤트가 발생하는 경우, 이를 무시하거나, 인식률 기준보다 느린 속도로 눈동자가 이동하는 이벤트가 발생하는 경우, 알림 메시지를 출력할 수 있다. 또 다른 실시예로, 이벤트 처리모듈(24)은 한쪽 눈 깜빡임, 양쪽 눈 깜빡임, 짧은 깜빡임(1 내지 2초), 긴 깜빡임(3초 이상), 깜빡임 횟수 등을 각각 이벤트로 등록하고, 각 이벤트의 조합에 따라 선택, 실행, 취소 등의 액션을 설정할 수 있다.
본 발명에서 라이브러리 유닛(20)에 저장되는 안면/눈동자 인식모듈(21), 눈동자 추적모듈(22), 눈 움직임 인식모듈(23) 및 이벤트 처리모듈(24)이란 각 기능에 따른 분류이므로, 라이브러리 유닛(20)에 저장되는 모듈의 개수는 제한되지 않으며, 안면/눈동자 인식모듈(21), 눈동자 추적모듈(22), 눈 움직임 인식모듈(23) 및 이벤트 처리모듈(24) 각각에는 다양한 알고리즘 또는 API로 구현된 모듈들이 하나 이상 포함될 수 있다.
메소드 유닛(30)은 상기 라이브러리 유닛(20)에 저장된 모듈을 자바 메소드로 제공한다. 즉, 라이브러리 유닛(20)에 의해 생성된 안면/눈동자 인식모듈(21), 눈동자 추적모듈(22), 눈 움직임 인식모듈(23) 및 이벤트 처리모듈(24)이 단말기에서 이용 가능한 형태로 제공될 수 있도록 추상 계층을 통해 전달할 수 있다. 따라서, 단말기에서 이용 가능한 어플리케이션을 생성하고자 하는 개발자는 C 언어에 대한 상세한 이해 없이 자바 스크립트에 관한 배경지식만으로도 충분히 라이브러리 유닛(20)에 저장된 다양한 모듈을 이용할 수 있다.
본 발명은 상기 메소드 유닛(30)을 이용하여 눈동자 인식 시나리오에 대응하는 어플리케이션을 생성하는 개발 유닛(40)을 더 포함할 수 있다. 눈동자 인식 시나리오란 개발자가 원하는 눈동자 인식 이벤트 및 그에 따른 단말기의 하드웨어/소프트웨어 선택, 실행, 취소 등의 액션을 의미하며, 예를 들어, 눈 깜빡임이 2회 입력되는 경우, 사진 어플리케이션을 실행하는 것을 의미한다. 따라서, 개발자는 개발 유닛(40)을 통해, 눈동자 인식 시나리오에 따라 상기 메소드 유닛(30)으로부터 제공되는 자바 메소드를 이용하여 어플리케이션을 손쉽게 개발할 수 있다.
또한, 개발 유닛(40)은 라이브러리 유닛(20)에 의해 생성된 안면/눈동자 인식모듈(21), 눈동자 추적모듈(22), 눈 움직임 인식모듈(23) 또는 이벤트 처리모듈(24)의 초기 설정을 변경할 수도 있다. 예를 들어, 안면/눈동자 인식모듈(21)에서 둘 이상의 얼굴 영역이 인식되도록 설정할 수 있고, 눈동자 추적모듈(22)에서 눈동자 이동 속도에 대한 설정을 변경할 수 있고, 눈 움직임 인식모듈(23)에서 눈 깜빡임을 판별할 수 있는 간격이 되는 프레임 수를 조정할 수도 있으며, 이벤트 처리모듈(24)에서 각 이벤트에 대응하는 액션을 변경할 수 있다.
또한, 개발 유닛(40)은 생성된 어플리케이션을 검증하기 위한 샘플 어플리케이션을 제공할 수도 있다. 예를 들어, 안면/눈동자 인식이 실행된 경우, 이에 대한 알림 메시지를 출력할 수 있고, 눈동자 추적이 실행된 경우, 눈동자 이동 방향, 이동 속도 등을 포함하는 알림 메시지를 출력할 수 있고, 눈 움직임 인식이 실행된 경우, 눈 깜빡임 횟수, 눈 깜빡임 시간 등을 포함하는 알림 메시지를 출력할 수 있다. 또한, 샘플 어플리케이션을 보정하는 기능을 제공할 수 있다. 따라서, 개발자는 본 발명의 프레임워크 장치에 의해 눈동자 인식 시나리오에 맞는 어플리케이션이 생성되었는지 용이하게 검증할 수 있다.
또한, 개발 유닛(40)은 개발자가 본 발명에 따른 프레임워크 장치를 최적으로 이용할 수 있도록 가이드라인을 제공할 수도 있다. 가이드라인은 알고리즘 또는 API의 포괄적 정보를 모두 포함하는 클래스 레퍼런스(Class Reference), 알고리즘 또는 API의 버전별 업데이트 내역을 포함하는 변경 내역(Revision History) 또는 예제 코드 (Sample Code) 등을 포함하며, 개발자는 가이드라인을 통해 보다 정확하게 본 발명에 따른 프레임워크 장치를 이용할 수 있을 것이다.
한편, 본 발명에서 프레임워크 장치란, 상기 OpenCV 유닛(10), 라이브러리 유닛(20), 메소드 유닛(30)을 생성/구현하는 장치뿐 아니라, OpenCV 유닛(10), 라이브러리 유닛(20), 메소드 유닛(30)로서 구현되는 알고리즘, API, 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈, 이벤트 처리모듈 및 자바 메소드를 저장하는 저장 장치도 포함할 수 있다. 따라서, 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈 및 이벤트 처리모듈 또한 각 기능을 수행하기 위한 알고리즘 또는 API가 저장된 장치로도 구현될 수 있다.
도 2는 본 발명의 프레임워크 장치를 구현하여 어플리케이션을 개발하는 방법을 나타내는 흐름도이다.
도 2에 도시된 바와 같이, OpenCV 유닛(10)을 통해 눈동자 인식과 관련된 이미지 프로세싱 알고리즘 또는 API가 저장된다(S200). 눈동자 인식 알고리즘 또는 API는 계속 업데이트되어 OpenCV 유닛(10)에 저장될 수 있으며, 본 발명에 따른 프레임워크 장치를 이용하여 어플리케이션을 개발하는 경우, 최신 알고리즘 또는 API가 이용될 수 있다.
다음, 라이브러리 유닛(20)을 통해 안면/눈동자 인식모듈(21), 눈동자 추적모듈(22), 눈 움직임 인식모듈(23) 및 이벤트 처리모듈(24)이 생성되고 저장된다(S210).
다음, 개발자가 눈동자 인식 시나리오를 구성하고, 본 발명에 따른 프레임워크 장치에 접근하면, 메소드 유닛(30)을 통해 상기 라이브러리 유닛(20)에 저장된 모듈들이 자바 메소드로 제공된다(S220).
다음, 개발 유닛(40)을 통해 눈동자 인식 시나리오에 따른 어플리케이션이 생성된다(S230). 생성된 어플리케이션은 샘플 어플리케이션으로 제공될 수도 있으며, 샘플 어플리케이션은 개발 유닛(40)을 통해 보정될 수도 있으며, 라이브러리 유닛(20)에 저장된 모듈들에 대한 초기 설정이 변경될 수도 있다.
본 발명은 유/무선 단말기에 구비된 프로세서가 읽을 수 있는 기록매체에, 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 개량이 가능하며, 상기 실시 예 및 첨부된 도면에 의해 한정되는 것은 아니다.

Claims (11)

  1. 눈동자 인식과 관련된 알고리즘 또는 API를 포함하는 OpenCV 유닛;
    상기 OpenCV 유닛에 포함된 알고리즘 또는 API를 이용하여 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈 및 이벤트 처리모듈를 생성하고 저장하는 라이브러리 유닛; 및
    상기 라이브러리 유닛에 저장된 모듈을 자바 메소드로 제공하는 메소드 유닛을 포함하는 것을 특징으로 하는 프레임워크 장치.
  2. 제1항에 있어서,
    상기 안면/눈동자 인식모듈은 이미지에서 얼굴 또는 눈동자를 인식하는 것을 특징으로 하는 프레임워크 장치.
  3. 제1항에 있어서,
    상기 눈동자 추적모듈은 눈동자의 현재 위치, 이동 방향 및 이동 속도 중 적어도 하나를 확인하는 것을 특징으로 하는 프레임워크 장치.
  4. 제1항에 있어서,
    상기 눈 움직임 인식모듈은 눈 깜빡임을 판별하기 위해 소정의 간격으로 이미지를 저장하는 것을 특징으로 하는 프레임워크 장치.
  5. 제1항에 있어서,
    상기 이벤트 처리모듈은 눈동자 이동 이벤트 또는 눈 깜빡임 이벤트에 대해 액션을 설정하는 것을 특징으로 하는 프레임워크 장치.
  6. 제1항에 있어서,
    상기 메소드 유닛을 이용하여 눈동자 인식 시나리오에 대응하는 어플리케이션을 생성하는 개발 유닛을 더 포함하는 것을 특징으로 하는 프레임워크 장치.
  7. 제6항에 있어서,
    상기 개발 유닛은 생성된 어플리케이션을 검증하기 위한 샘플 어플리케이션을 제공하는 것을 특징으로 하는 프레임워크 장치.
  8. 제6항에 있어서,
    상기 개발 유닛은 상기 라이브러리에 저장된 모듈에 대한 초기 설정을 변경하는 것을 특징으로 하는 프레임워크 장치.
  9. OpenCV 유닛을 통해 눈동자 인식과 관련된 알고리즘 또는 API를 저장하는 제1단계;
    라이브러리 유닛을 통해 상기 알고리즘 또는 API를 이용하여 안면/눈동자 인식모듈, 눈동자 추적모듈, 눈 움직임 인식모듈 및 이벤트 처리모듈을 생성하고 저장하는 제2단계; 및
    메소드 유닛을 통해 저장된 모듈을 자바 메소드로 제공하는 제3단계를 포함하는 것을 특징으로 하는 프레임워크 장치 구현 방법.
  10. 제9항에 있어서,
    개발 유닛을 통해 상기 자바 메소드를 이용하여 눈동자 인식 시나리오에 대응하는 어플리케이션을 생성하는 제4단계를 더 포함하는 것을 특징으로 하는 프레임워크 장치 구현 방법.
  11. 제9항 내지 제10항 중 어느 한 항에 기재된 프레임워크 장치 구현 방법을 수행하는 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.
KR1020130055675A 2013-05-16 2013-05-16 눈동자 인식 프레임워크 장치 및 그 구현 방법 KR101313796B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130055675A KR101313796B1 (ko) 2013-05-16 2013-05-16 눈동자 인식 프레임워크 장치 및 그 구현 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130055675A KR101313796B1 (ko) 2013-05-16 2013-05-16 눈동자 인식 프레임워크 장치 및 그 구현 방법

Publications (1)

Publication Number Publication Date
KR101313796B1 true KR101313796B1 (ko) 2013-10-01

Family

ID=49637500

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130055675A KR101313796B1 (ko) 2013-05-16 2013-05-16 눈동자 인식 프레임워크 장치 및 그 구현 방법

Country Status (1)

Country Link
KR (1) KR101313796B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160075040A (ko) * 2014-12-19 2016-06-29 주식회사 컴퍼니원헌드레드 웹브라우저의 오픈씨브이 구현 방법
US10798281B2 (en) 2015-04-09 2020-10-06 Bendix Commercial Vehicle System Llc Apparatus and method for disabling a driver facing camera in a driver monitoring system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110118965A (ko) * 2010-04-26 2011-11-02 대구대학교 산학협력단 시선 인식을 이용한 자율주행 휠체어 시스템
KR20110128059A (ko) * 2010-05-20 2011-11-28 수원대학교산학협력단 운전자 눈동자 검출을 이용한 졸음 운전 방지 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110118965A (ko) * 2010-04-26 2011-11-02 대구대학교 산학협력단 시선 인식을 이용한 자율주행 휠체어 시스템
KR20110128059A (ko) * 2010-05-20 2011-11-28 수원대학교산학협력단 운전자 눈동자 검출을 이용한 졸음 운전 방지 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160075040A (ko) * 2014-12-19 2016-06-29 주식회사 컴퍼니원헌드레드 웹브라우저의 오픈씨브이 구현 방법
KR101649121B1 (ko) * 2014-12-19 2016-08-18 주식회사 컴퍼니원헌드레드 웹브라우저의 오픈씨브이 구현 방법
US10798281B2 (en) 2015-04-09 2020-10-06 Bendix Commercial Vehicle System Llc Apparatus and method for disabling a driver facing camera in a driver monitoring system

Similar Documents

Publication Publication Date Title
US10503996B2 (en) Context-aware display of objects in mixed environments
US10922152B2 (en) Event handler nodes for visual scripting
RU2714096C1 (ru) Способ, оборудование и электронное устройство для обнаружения витальности лица
US10949057B2 (en) Position-dependent modification of descriptive content in a virtual reality environment
US11259091B2 (en) Video playing control method and apparatus, and video playing system
JP6324388B2 (ja) コンピューティング・デバイスについてのセキュアな識別およびセキュアな識別方法
JP6368796B2 (ja) ロボットの動作監視
US10747859B2 (en) System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation
US10649520B2 (en) Method and device for inputting password in virtual reality scene
JP2020502628A (ja) 仮想現実環境における情報入力のためのユーザインターフェース
US20170249067A1 (en) User interface feature recommendation
US11403081B2 (en) Automatic software performance optimization
KR101313796B1 (ko) 눈동자 인식 프레임워크 장치 및 그 구현 방법
US20220222034A1 (en) Dynamically managing sounds in a chatbot environment
US11579691B2 (en) Mid-air volumetric visualization movement compensation
EP3706023A1 (en) Runtime validation of internet of things devices
US11475873B2 (en) Translating inputs for voice communication
JP2020510936A (ja) 補正パターン分析による映像補正方法およびシステム
Ayala et al. Analysing Requirements Specification Languages for Self-adaptive AAL Systems
Abate et al. Integrating Gaze Tracking with Augmented Reality on Mobile Devices: A Framework for Enhanced User Interaction
KR20190103570A (ko) 시선 추적 방법 및 이를 수행하기 위한 단말
Matos Prototype and proof of concept for a display system in retail stores
OA19067A (en) Face liveness detection method and apparatus, and electronic device.

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170725

Year of fee payment: 5