KR101191640B1 - 사용자에게 정보를 전달하는 정보전달장치 및 그 방법 - Google Patents

사용자에게 정보를 전달하는 정보전달장치 및 그 방법 Download PDF

Info

Publication number
KR101191640B1
KR101191640B1 KR1020110016008A KR20110016008A KR101191640B1 KR 101191640 B1 KR101191640 B1 KR 101191640B1 KR 1020110016008 A KR1020110016008 A KR 1020110016008A KR 20110016008 A KR20110016008 A KR 20110016008A KR 101191640 B1 KR101191640 B1 KR 101191640B1
Authority
KR
South Korea
Prior art keywords
user
information
unit
command
voice
Prior art date
Application number
KR1020110016008A
Other languages
English (en)
Other versions
KR20120096737A (ko
Inventor
엄기환
이종익
김민철
이승준
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020110016008A priority Critical patent/KR101191640B1/ko
Publication of KR20120096737A publication Critical patent/KR20120096737A/ko
Application granted granted Critical
Publication of KR101191640B1 publication Critical patent/KR101191640B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 위치자동조절장치와 포인팅 시스템을 포함하는 정보전달장치에 관한 것으로, 본 발명에 따른 정보전달장치는 사용자의 접근 여부 및 신장 정보를 감지하는 사용자정보감지부, 사용자정보감지부에서 감지한 정보를 이용하여 정보전달장치의 디스플레이부의 위치를 조절하는 위치조절부, 사용자의 동작을 인식하여 정보전달장치의 디스플레이 화면 상의 소정의 위치를 포인팅하는 명령을 해석하는 동작인식부, 사용자의 음성을 인식하여 해당음성에 해당하는 명령을 해석하는 음성인식부를 포함한다.

Description

사용자에게 정보를 전달하는 정보전달장치 및 그 방법{Apparatus and method for providing information to user}
본 발명은 사용자에게 정보를 전달하는 정보전달 장치 및 그 방법에 관한 것으로, 보다 구체적으로는 사용자의 위치와 키의 정보를 감지하여 디스플레이부의 위치를 조절하고, 사용자의 동작과 음성을 인식하여 포인팅을 구현할 수 있는 정보전달장치, 방법 및 이를 기록한 기록매체에 관한 것이다.
정보전달장치는 사용자에게 정보를 전달하기 위한 장치로 오늘날 공공기관이나 도서관 또는 역 등에 키오스크(KIOSK) 등으로 설치되어 사용자에게 여러 가지 각종 유용한 정보를 제공하고 있다. 이러한 정보전달장치는 고정된 높이와 위치를 가지며 제공하는 정보의 출력은 프린터와 같은 인쇄장치를 통해 이루어진다. 하지만 고정된 높이와 위치를 가지는 경우 디스플레이부의 높이 보다 키가 작은 어린이, 노약자, 디스플레이 화면상의 선택이 어려운 손의 사용이 불편한 장애우 등 다양한 사람이 정보전달장치를 사용하는데 어려움이 있고, 이용자료의 출력에 있어서도 출력자료의 한계와 시간지연 등의 문제점이 있다.
본 발명이 해결하고자 하는 기술적 과제는 고정된 정보전달장치의 디스플레이부의 한계를 극복하고, 사용자의 편의를 위하여 상하좌우의 위치 조정을 통해 사용자의 편의를 향상시키는데 있다. 나아가 본 발명은 사용자가 손으로 디스플레이 화면을 가압할 수 없어 정보전달장치를 이용할 수 없는 경우의 문제점을 해결하고자 한다. 또한, 프린터를 통한 자료출력의 한계점을 해결하고자 한다.
상기 기술적 과제를 해결하기 위하여, 본 발명에 따른 정보전달장치는 사용자의 접근여부 및 신장 정보를 감지하는 사용자정보감지부 및; 상기 사용자정보감지부에서 감지한 정보를 이용하여 상기 정보전달장치의 디스플레이부의 위치를 조절하는 위치조절부를 포함한다.
상기 기술적 과제를 해결하기 위하여, 본 발명에 따른 정보전달장치는 상기 사용자정보감지부는 적어도 3개의 센서를 포함하고, 상기 센서 중 하나는 정보전달장치의 상부에 부착되어 상기 사용자의 신장을 감지하고,다른 2개의 센서는 상기 정보전달장치의 좌우에 부착되어 사용자의 접근 및 위치를 감지하는 것이 바람직하다.
상기 기술적 과제를 해결하기 위하여, 본 발명에 따른 정보전달장치는 사용자의 동작을 인식하여 상기 정보전달장치에 구비된 디스플레이 화면 상의 소정의 위치를 포인팅하는 명령을 해석하는 동작인식부; 상기 사용자의 음성을 인식하여 해당음성에 해당하는 명령을 해석하는 음성인식부 및; 상기 해석한 포인팅 명령과 음성 명령에 대응하는 작업을 수행하는 명령제어부를 포함한다.
상기 기술적 과제를 해결하기 위하여, 본 발명에 따른 정보전달장치는 상기 동작인식부는 사용자의 머리에 부착되어 상기 사용자의 머리의 움직임을 감지하는 센서 및; 상기 감지된 움직임으로부터 상기 정보전달장치에 구비된 디스플레이 화면 상의 소정의 위치를 포인팅하는 명령을 해석하는 명령해석부를 포함하거나 상기 동작인식부의 센서는 얼굴인식센서를 포함하고, 상기 얼굴인식센서는 얼굴영역추출을 통해, 얼굴의 특정 부분의 방향 또는 안구의 움직임 중 적어도 어느 하나를 감지하는 것이 바람직하다.
나아가, 사용자가 선택한 정보를 상기 사용자가 제공받고자 하는 장치로 상기 정보를 제공하는 자료출력부를 포함하는 것이 바람직하다.
상기 기술적 과제를 해결하기 위하여, 본 발명에 따른 정보전달방법에 있어서, 사용자의 접근 여부 및 신장 정보를 감지하는 단계; 상기 감지된 정보를 이용하여 정보전달장치의 디스플레이부의 위치를 조절하는 단계를 포함한다.
상기 기술적 과제를 해결하기 위하여, 본 발명에 따른 정보전달방법에 있어서, 사용자의 동작을 감지하여 상기 정보전달장치에 구비된 디스플레이 화면 상의 소정의 위치를 포인팅하는 명령을 해석하는 단계; 상기 사용자의 음성을 인식하여 해당음성에 해당하는 명령을 해석하는 음성인식 단계 및; 상기 해석된 포인팅 명령과 음성 명령에 기초하여 이에 대응하는 작업을 수행하는 단계를 더 포함하는 것이 바람직하다.
나아가 사용자로부터 원하는 정보전송요청을 받아 상기 사용자의 개인 인증번호를 생성 및 표시하는 단계; 출력받을 장치와 통신을 연결하는 단계; 통신이 연결된 장치에 요청된 정보를 전송하는 단계를 더 포함하는 것이 바람직하다.
또한, 이하에서는 상기 기재된 정보전달방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
본 발명은 사용자의 접근 및 키의 정보를 감지하여 정보전달장치의 디스플레이부를 사용자에게 적합한 위치로 조절할 수 있으며, 또한 포인팅 시스템을 이용하여 디스플레이 화면상의 선택을 위한 가압이 어려운 사용자에게 가압 없이 정보전달장치를 이용할 수 있게 하는 것이 가능하다.
도 1은 본 발명의 일 실시예에 따른 사용자정보감지부(100) 및 위치조절부(200)을 포함하는 정보전달장치에서 각각의 처리 과정을 수행하는 구성들과 이들 구성을 전기적으로 연결한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 동작인식부(310), 음성인식부(330) 및 명령제어부(350)을 포함하는 정보전달장치에서 각각의 처리 과정을 수행하는 구성들과 이들 구성을 전기적으로 연결한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 키오스크 장치를 도시한 도면으로 사용자정보감지부, 위치조절부, 동작인식부, 음성인식부 및 명령제어부 등을 포함한다.
도 4는 얼굴인식 본 발명의 일 실시예로써 얼굴인식부에서 얼굴영역을 추출하는 영상을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 정보전달 방법에 있어서 정보전달장치의 디스플레이부의위치를 조절하는 방법을 도시한 흐름도이다.
도 6는 본 발명의 일 실시예에 따른 정보전달 방법에 있어서 손의 가압 없이 포인팅 할 수 있는 방법을 도시한 흐름도이다.
도 7은 본 발명의 일 실시예에 따른 정보전달 방법에 있어서 사용자가 원하는 정보를 개인단말장치에 전송하는 방법을 도시한 흐름도이다.
본 발명의 실시예들을 설명하기에 앞서, 본 발명이 속하는 기술분야의 정보전달장치의 문제점을 보다 구체적으로 고찰하고, 이에 대한 본 발명의 기본 아이디어에 대해 개괄적으로 소개하고자 한다.
정보전달장치는 정보전달장치를 이용하는 사용자에게 여러 가지 각종 유용한 정보를 제공하는데 그 기능이 있다. 하지만 앞서 언급한 바와 같이 기존의 정보전달장치는 디스플레이부가 고정된 상태에서 정보를 제공하고 있다. 고정된 상태에서 정보를 전달하고 있는 바, 사용자의 접근이 용이하지 아니하며, 몸이 불편하여 휠체어를 이용하거나 키가 작은 사용자에게는 정보전달장치의 디스플레이 화면에 접근이 어려운 문제점이 있다.
또한 기존의 정보전달장치의 경우 디스플레이 화면상에 나타나는 선택사항을 선택하기 위해 화면을 손으로 가압하여 원하는 정보를 선택해야 한다. 손으로 가압을 하여야 사용이 가능한 바, 손의 사용이 자유롭지 아니한 사용자에게는 정보전달장치의 사용에 제한이 있는 문제점이 있다.
또 다른 문제점으로 기존의 정보전달장치는 사용자가 원하는 정보를 화면상으로 확인할 수 있거나, 단순히 프린터를 이용하여 인쇄된 정보를 제공하고 있다. 하지만 오늘날 종이보다는 외부저장장치나 개인용통신단말기를 이용하여 자료를 지니고 있는 것이 일반적인바, 이러한 오늘날의 정보저장 흐름에 맞지 않은 문제점이 있다.
본 발명은 위에서 언급한 기존의 정보전달장치의 문제점을 극복하기 위해 이하에서 기술될 본 발명의 다양한 실시예들은 사용자에게 보다 나은 편의를 제공하고 더 많은 사용자가 정보전달장치를 이용할 수 있도록 다양한 기능을 제공하고자 한다.
우선 사용자의 접근이 있는 경우 이를 감지하여 사용자의 접근 방향과 사용자가 위치한 방향으로 디스플레이부를 회전시키고 사용자의 신장을 감지하여 디스플레이부의 높낮이를 조절하게 된다. 이를 통하여 사용자에게 접근의 용이성과 정보전달장치의 이용의 편의성을 제공한다.
또한 손이 불편한 사용자의 경우 디스플레이부의 화면을 손으로 가압하여 원하는 정보를 선택할 수 없으므로 다른 방법으로 화면상에 포인팅 할 수 있도록 포인팅 시스템을 제공한다. 이를 위하여 헤드셋을 이용하여 헤드셋의 방향을 감지하고 이를 통하여 포인팅이 가능하도록 하거나, 사용자의 얼굴을 촬영하여 촬영된 화면으로부터 얼굴영역추출을 통하여 포인팅을 제공한다. 그리고 선택을 위하여 음성인식을 통해 선택의 작업을 수행한다.
나아가 사용자가 전달받기 위한 자료를 외부저장장치 또는 개인통신단말장치로 제공할 수 있도록 한다. 이 경우 사용자의 정보보안을 위하여 자신의 개인통신단말장치와의 접속 시 인증번호를 제공하고 이를 이용하여 해당 장치에 정보를 제공할 수 있도록 한다.
정보전달장치는 현재 키오스크(KIOSK)의 형태로 설치되는 것이 일반적이며 다른 형태로 정보를 전달할 수도 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 사용자정보감지부(100) 및 위치조절부(200)을 포함하는 정보전달장치에서 각각의 처리 과정을 수행하는 구성들과 이들 구성을 전기적으로 연결한 블록도이다.
정보전달장치는 키오스크 등이 해당할 수 있다. 사용자정보감지부는 사용자의 접근여부 및 위치 신장정보 등을 감지한다. 사용자 정보의 감지는 센서를 이용할 수 있다. 이때 센서는 적어도 세 개의 센서를 이용할 수 있다. 접근 및 위치 감지센서(110)은 정보전달장치의 좌우에 부착되어 사용자의 접근여부 및 위치의 정보를 인식하는 센서이고, 신장정보감지센서(130)은 사용자의 키 정보를 인식할 수 있는 센서이다. 이러한 센서는 초음파와 같은 음파 또는 레이져와 같은 빛을 이용할 수 있다. 센서에서 감지된 정보는 이를 입력으로 받아 내부적으로 신호를 처리하고 출력할 수 있는 마이크로 제어 장치(MCU)에 전달되고 마이크로 제어 장치(MCU)에서 처리된 출력신호는 위치조절부(200)에서 사용자의 위치를 향하여 좌우회전(210)하고 신장정보를 이용하여 높낮이(230)를 조절한다. 여기서 위치조절부는 모터컨트롤러를 거쳐 모터로 전달되어 작업으로 수행할 수 있다. 또한 이에 사용되는 모터는 AC모터, 스텝모터 등을 활용할 수 있다.
센서를 이용하여 위치를 조절하는 것을 예를 들어 구체적으로 언급하도록 한다. 사용자정보감지부에 이용되는 센서는 적어도 3개의 센서가 필요하며, 보다 안정적인 사용자 정보를 감지하기 위해서 정보전달장치인 키오스크 등에 초음파 센서 네 개를 장착할 수 있다. 접근인식 초음파 센서는 사용자의 접근여부를 판단한다. 사용자가 초음파 센서에서 1m이내의 값이 2초 이상 감지되면 시스템은 사용자가 접근했음을 인지한다. 따라서 높이 조절을 위한 높낮이조절 인식 초음파 센서를 동작 시킨다. 해당 센서는 사용자의 키 높이를 측정한다. 센서가 초기에 무한대의 값을 감지할 경우 사용자의 키가 키오스크보다 높은 것으로 판단하고 아래로 키오스크의 높이를 조절한다. 키오스크는 센서가 1m이내의 값을 가질 때까지 그 높이를 내린다. 센서가 초기에 1m이내의 값을 가질 경우 키오스크는 사용자의 키가 키오스크 보다 큰 것으로 판단하고 키오스크의 높이를 위로 조절한다. 이 경우 키오스크는 센서가 무한대 값을 가질 때까지 그 높이를 위로 조절한다. 좌우 조절은 하단 좌우에 부착된 접근방향 인식 초음파센서를 통해 이루어지며 최대 회전범위는 좌우 각각 60도로 한다.
도 2는 본 발명의 일 실시예에 따른 동작인식부(310), 음성인식부(330) 및 명령제어부(350)을 포함하는 정보전달장치에서 각각의 처리 과정을 수행하는 구성들과 이들 구성을 전기적으로 연결한 블록도이다.
동작인식부(310)에서 사용자의 동작을 인식하여 정보전달장치의 디스플레이 화면상의 소정의 위치를 포인팅하고, 음성인식부(330)에서 사용자의 음성을 인식하여 해당음성에 해당하는 명령을 해석한다. 명령제어부(350)에서 동작인식부와 음성인식부에서 해석한 포인팅 명령과 음성 명령에 기초하여 이에 대응하는 작업을 수행한다.
보다 구체적으로 동작인식부(310)은 손을 사용하기 불편한 사용자를 위하여 손을 이용하지 아니하고 머리의 움직임과 목소리만을 이용하여 포인팅을 할 수 있는 헤드셋 마우스를 사용할 수 있다. 헤드셋 마우스는 3축 가속도 센서로 이루어진 동작인식부(310), 음성인식부(320), 정보전달장치와 통신을 위한 마이크로 제어 장치(MCU)로 구성될 수 있다. 물론 가속도 센서는 기울기 센서로 이용할 수 있음은 당연하다. 헤드셋 마우스의 상부에 가속도 센서 또는 기울기 센서를 부착하여 머리의 움직임을 감지하고 머리가 향하는 방향을 해석한다. 음성인식부(320)에서는 음성인식모듈을 이용하여 마우스의 클릭에 해당하는 작업을 수행한다. 예를 들어 '좌', '우', '좌좌'와 같이 훈련되어 있는 음성인식 모듈을 이용하여 위의 단어가 입력으로 들어왔을 때, 이진수 값을 시리얼로 출력하여 마이크로 제어 장치(MCU)로 보낸다. 마이크로 제어 장치(MCU)는 그 값을 읽어 특정 십진수 값으로 변환하여 시리얼 통신을 통하여 정보전달장치에 연동된 컴퓨터(PC)에 전달된다. 이를 수신한 컴퓨터(PC)는 해당 마우스의 클릭 이벤트를 발생시킨다. 음성이 아닌 음압을 이용하여 클릭 이벤트를 발생시킬 수 있음은 당연하다.
도 4는 얼굴인식 본 발명의 일 실시예로써 얼굴인식부에서 얼굴영역을 추출하는 영상을 도시한 도면이다.
포인팅 시스템은 위와 같이 헤드셋 마우스를 이용하지 않고 얼굴인식을 통해 실현할 수 있다. 이 경우 얼굴인식을 위해 사용자의 얼굴을 촬영할 수 있는 카메라가 구비되며, 음성인식을 위하여 정보전달장치 정면에 마이크가 구비될 수 있다.
앞서 본 바와 같이 디스플레이부가 자동으로 사용자의 위치로 조절되므로 디스플레이부에 카메라와 마이크를 부착하여 보다 정확한 정보를 얻을 수 있다. 카메라를 통해 촬영된 사용자의 얼굴 이미지와 마이크를 통해 입력된 사용자의 음성은 정보전달장치내의 별도의 프로그램을 통하여 처리될 수 있다.
카메라를 통하여 촬영된 사용자의 얼굴영상으로부터 얼굴의 정보를 얻어내는 방법을 이용하여 얼굴의 특징점을 오픈 소스 컴퓨터 비전 C라이브러리(Open CV)의 페이스 디텍트(face detect) 알고리즘 등 일반적인 얼굴영역 추출 알고리즘을 통하여 사용자의 얼굴영역을 추출한다. 이후 얼굴의 특징점을 추출하는 알고리즘을 통하여 사용자의 얼굴내의 특정 부위(410)를 검출한다. 특정 부위는 눈, 코, 입 등이 될 수 있다. 이러한 특정 부위의 위치를 기준으로 사용자가 머리를 상하좌우로 움직일 때 특정 부위의 위치가 화면상에서 변화하는 정도를 계산하여 화면상의 커서를 움직인다.
또한, 얼굴영역 추출 시 그 대상을 안구(430)로 하여 머리의 움직임이 아닌 안구(430)의 움직임을 이용하여 머리의 움직임 없이 안구(430)의 움직임을 추적하여 화면상의 커서를 포인팅 할 수 있다.
안구의 구조와 카메라를 이용하여 안구의 방향을 인식하는 방법에는, 카메라를 이용하여 안구를 촬영한 화면에서 안구인식정보를 추출할 수 있다. 안구가 향하는 방향을 찾아내기 위하여 안구의 특징점을 찾고 그 특징점의 변화를 이용하여 안구의 방향을 알아낼 수 있다.
구체적으로는 다음에서 설명하는 방법을 이용할 수 있다. 적외선 등을 이용하여 사용자의 눈에 빛을 입사시키고 이의 반사되는 빛의 상대적인 위치를 이용하여 안구의 방향을 추적한다. 안구의 구조에 따라 안구로 입사된 빛은 안구의 각막과 홍체 수정체를 지나면서 복수 번의 반사를 하는데 반사되는 위치에 따라 반사되는 빛의 방향이 달라지게 된다. 이러한 다양한 반사된 빛의 영상 중 적어도 2개 이상의 영상을 이용하여 그 상대적인 위치를 이용하여 안구의 방향을 분석하여 안구의 방향을 알 수 있다. 이 방향을 X-Y평면상의 원점으로 보고, 사용자가 안구를 움직여 안구의 방향이 변화하면 그에 따른 방향을 X-Y평면상의 움직임으로 사상시켜 평면상의 움직임 정도를 추적할 수 있다. 디스플레이 화면을 X-Y 평면으로 사상시켜 앞에서 추적한 안구의 방향에 따라 커서를 포인팅 한다.
보다 정확한 위치 추적을 위하여 처음 커서를 실행시킬 때, 안구추적의 기준점을 정하기 전 사용자가 화면의 정중앙에 안구의 방향을 일치시킬 수 있도록 정중앙에 특정한 표시를 할 수 있다 사용자가 정중앙의 특정한 표시를 보는 동안 안구추적의 기준점을 정하고 그 이후 사용자의 안구 움직임을 추적하여 화면상의 커서를 움직일 수 있다.
나아가 안구 움직임에 따라 포인팅하는 오차를 줄이기 위하여 사용자의 안구의 움직임을 추적할 때, 머리 움직임을 오차에 고려하여 추적할 수 있다. 사용자가 안구로 화면상에 포인팅 할 때, 안구만을 움직이지 않고 머리의 움직임이 수반될 수 있기 때문이다. 머리의 방향이 바뀌게 되면 안구의 방향을 추적하는 기준에 오차가 생길 수 있다. 따라서 이러한 오차를 보정하기 위하여 머리의 움직임이 있을 때 그에 따른 오차를 고려하여 정확성을 높일 수 있다.
안구의 움직임을 추적하기 위한 카메라는 정보전달장치의 몸체에 부착할 수도 있고, 보다 정확한 안구의 움직임을 추적하기 위해서는 안구추적을 하기 위한 카메라가 부착된 안경을 이용할 수도 있다.
다른 안구추적 방법으로 얼굴을 촬영한 화면상에서 안구의 동공과 얼굴의 다른 부분의 특징점 간의 상대적인 위치를 파악하고 동공의 움직임에 따른 특징점 간의 상대적인 거리의 변화를 추적하여 그 거리의 변화를 분석하여 화면상의 커서를 포인팅 할 수 있다.
또 다른 안구추적 방법에는 앞에서 살펴본 방법 이외에 다른 방법으로 동공 추적 기법(Pupil tracking), 홍채 윤곽선 추적기법(Iris limbus tracking), 각막과 동공의 관계(Cornea/pupil relationship)를 이용하는 기법, 인공 신경망 이용 기법(Artificial neuralnetwork)을 사용할 수 있다.
음성인식의 경우 앞서 헤드셋 마우스의 음성인식과 동일한 방법으로 이루어진다.
본 발명의 일 실시예로써 자료출력부를 통하여 기존의 정보전달장치와 같이 프린터로 사용자가 원하는 자료를 인쇄하거나 외부저장장치로 전송시킬 수 있으며, 나아가 개인통신단말기와의 통신을 통해 자료를 개인통신단말기로 전송할 수 있다.
이 경우 전송된 자료의 형식은 PDF 등의 e-book 파일형태이며 개인통신단말기 내에서 자유롭게 그 정보를 이용할 수 있다.
도 5는 본 발명의 일 실시예에 따른 정보전달 방법에 있어서 정보전달장치의 디스플레이부의위치를 조절하는 방법을 도시한 흐름도이다.
510단계는 사용자의 접근여부를 감지한다. 접근여부에 의해 다른 센서나 장치들이 절전모드에서 활성모드로 변환할 수 있다. 530단계는 사용자의 위치 및 신장 정보를 감지하는 단계로 사용자의 위치와 신장의 정보를 센서를 이용해 감지할 수 있다. 감지한 사용자의 정보는 550 및 570단계에서 사용자의 위치로 정보전달장치의 디스플레이부의 화면을 사용자를 향하여 회전(550)시키고, 사용자의 신장 정보를 이용하여 디스플레이부의 높낮이(570)를 사용자가 사용하기 편리한 위치로 조절한다.
도 6는 본 발명의 일 실시예에 따른 정보전달 방법에 있어서 손의 가압 없이 포인팅 할 수 있는 방법을 도시한 흐름도이다.
610단계는 사용자 동작을 인식하는 단계로 인식방법은 일 실시예로 헤드셋 마우스를 통해 머리의 움직임을 인식하거나 카메라를 통해 촬영된 화면상의 얼굴영역을 추출하여 특정 부분의 움직임을 추적하여 사용자의 동작을 인식한다. 앞서 본 바와 같이 또 다른 실시예로 안구의 움직임을 추적할 수도 있다. 630단계는 인식된 사용자의 움직임을 통해 정보전달장치의 디스플레이 화면의 소정의 위치로의 포인팅 명령을 해석하는 단계이다. 구체적으로 그 실시예를 보자면 헤드셋 마우스에 부착된 마이크를 통해 음성을 입력으로 받아 해석하거나 정보전달장치 본체에 부착된 마이크를 통해 음성을 입력으로 받을 수 있다. 650단계는 사용자의 음성을 인식하는 단계로 앞서 본 바와 같이 실시예로 음성 또는 음압을 인식할 수 있다. 670단계는 음성인식모듈을 통해 인식한 사용자의 음성을 저장된 명령에 해당하는 음성여부를 해석하는 단계이다. 690단계는 앞서 해석된 포인팅 명령과 음성명령을 디스플레이부 화면상에 포인팅하고 클릭이벤트를 수행하는 단계이다.
도 7은 본 발명의 일 실시예에 따른 정보전달 방법에 있어서 사용자가 원하는 정보를 개인단말장치에 전송하는 방법을 도시한 흐름도이다.
710단계는 사용자로부터 정보전송요청을 받는 단계이다. 730단계는 개인인증번호를 생성하고 표시하는 단계로써 사용자의 고유 정보를 개인인증번호를 이용해서 사용자에게만 제공할 수 있다. 750단계는 위의 개인 인증번호를 통해 정보전달장치와 개인단말장치간에 통신을 연결시키는 단계이다. 770단계는 통신연결된 개인단말장치로 자료를 전송하는 단계이다. 프린터를 이용하여 종이로 인쇄하는 형식으로 정보를 제공할 수도 있으나 휴대성과 사용자의 편의성을 위하여 개인통신단말장치로의 정보전달을 할 수 있다.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100 : 사용자정보감지부
110, 111, 113 : 접근여부 및 위치감지 센서
130, 131 : 신장정보감지 센서
210 : 좌우회전부
230 : 높낮이 조절부
310 : 동작인식부
330 : 음성인식부
350 : 명령제어부

Claims (13)

  1. 사용자에게 정보를 전달하는 정보전달장치에 있어서
    사용자의 접근 여부 및 신장 정보를 감지하는 사용자정보감지부;
    상기 감지된 정보를 이용하여 상기 정보전달장치의 디스플레이부의 위치를 조절하는 위치조절부;
    상기 사용자의 동작을 인식하여 상기 정보전달장치에 구비된 디스플레이 화면 상의 소정 위치를 포인팅하는 명령을 해석하는 동작인식부; 및
    상기 해석된 포인팅 명령에 기초하여 이에 대응하는 작업을 수행하는 명령제어부를 포함하고,
    상기 동작인식부는,
    얼굴인식센서를 이용하여 상기 사용자 얼굴의 특정 부위를 검출하고, 상기 검출된 얼굴의 특정 부위의 이동을 감지하고,
    상기 얼굴의 특정 부위는 눈, 코, 또는 입 중 적어도 하나인 것을 특징으로 하는 것을 특징으로 하는 장치.
  2. 제 1 항에 있어서,
    상기 사용자정보감지부는 적어도 3개의 센서를 포함하고,
    상기 센서 중 하나는 상기 정보전달장치의 상부에 부착되어 상기 사용자의 신장을 감지하고,
    다른 2개의 센서는 상기 정보전달장치의 좌측부 및 우측부에 부착되어 사용자의 접근 및 위치를 감지하는 것을 특징으로 하는 장치.
  3. 제 2 항에 있어서,
    상기 위치조절부는 상기 사용자정보감지부에서 감지한 사용자의 신장 정보를 이용하여 상기 디스플레이부의 높낮이를 조절하는 것을 특징으로 하는 장치.
  4. 제 2 항에 있어서,
    상기 위치조절부는 상기 사용자정보감지부에서 감지한 사용자의 위치 정보를 이용하여 상기 디스플레이부로 하여금 상기 사용자의 위치를 지향하도록 회전시키는 것을 특징으로 하는 장치.
  5. 제 1 항에 있어서,
    상기 사용자의 음성을 인식하여 해당 음성에 대응하는 명령을 해석하는 음성인식부를 더 포함하고,
    상기 명령제어부는 상기 음성 명령에 기초하여 이에 대응하는 작업을 수행하는 것을 특징으로 하는 장치.
  6. 제 1 항에 있어서,
    상기 동작인식부는,
    상기 사용자의 머리에 부착되어 상기 사용자의 머리의 움직임을 감지하는 센서; 및
    상기 감지된 움직임으로부터 상기 정보전달장치에 구비된 디스플레이 화면 상의 소정 위치를 포인팅하는 명령을 해석하는 명령해석부를 포함하는 장치.
  7. 제 6 항에 있어서,
    상기 센서는 적어도 가속도 센서 또는 기울기 센서 중 어느 하나인 것을 특징으로 하는 장치.
  8. 제 1 항에 있어서,
    상기 얼굴인식센서는 얼굴영역추출을 이용하여 안구의 움직임을 감지하는 것을 특징으로 하는 장치.
  9. 제 1 항에 있어서,
    상기 정보전달장치는 상기 사용자가 선택한 정보를 상기 사용자가 제공받고자 하는 장치로 상기 정보를 제공하는 자료출력부를 포함하는 장치.
  10. 사용자에게 정보를 전달하는 정보전달방법에 있어서,
    사용자의 접근 여부 및 신장 정보를 감지하는 단계;
    상기 감지된 정보를 이용하여 정보전달장치의 디스플레이부의 위치를 조절하는 단계;
    상기 사용자의 동작을 인식하여 상기 정보전달장치에 구비된 디스플레이 화면 상의 소정 위치를 포인팅하는 명령을 해석하는 단계; 및
    상기 해석된 포인팅 명령에 기초하여 이에 대응하는 작업을 수행하는 단계를 포함하고,
    상기 사용자의 동작은 얼굴인식센서를 이용하여 상기 사용자 얼굴의 특정 부위를 검출하고, 상기 검출된 얼굴의 특정 부위의 이동을 감지함으로써 인식되고,
    상기 얼굴의 특정 부위는 눈, 코, 또는 입 중 적어도 하나인 것을 특징으로 하는 것을 특징으로 하는 것을 특징으로 하는 방법.
  11. 제 10 항에 있어서,
    상기 사용자의 음성을 인식하여 해당 음성에 대응하는 명령을 해석하는 음성인식 단계; 및
    상기 음성 명령에 기초하여 이에 대응하는 작업을 수행하는 단계를 더 포함하는 방법.
  12. 제 10 항에 있어서,
    상기 사용자로부터 정보전송요청을 입력받아 상기 사용자에 대한 개인 인증번호를 생성하여 표시하는 단계;
    상기 정보전달장치와 출력 대상 장치를 통신 네트워크를 통해 연결하는 단계; 및
    상기 연결된 출력 대상 장치에 상기 정보전송요청에 해당하는 정보를 전송하는 단계를 더 포함하는 방법.
  13. 제 10 항 내지 제 12 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020110016008A 2011-02-23 2011-02-23 사용자에게 정보를 전달하는 정보전달장치 및 그 방법 KR101191640B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110016008A KR101191640B1 (ko) 2011-02-23 2011-02-23 사용자에게 정보를 전달하는 정보전달장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110016008A KR101191640B1 (ko) 2011-02-23 2011-02-23 사용자에게 정보를 전달하는 정보전달장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20120096737A KR20120096737A (ko) 2012-08-31
KR101191640B1 true KR101191640B1 (ko) 2012-10-17

Family

ID=46886571

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110016008A KR101191640B1 (ko) 2011-02-23 2011-02-23 사용자에게 정보를 전달하는 정보전달장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101191640B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061916A1 (en) * 2012-10-19 2014-04-24 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
KR20230062085A (ko) * 2021-10-29 2023-05-09 동의대학교 산학협력단 소외계층을 위한 차세대 디지털 키오스크
KR102655761B1 (ko) * 2023-08-29 2024-04-08 주식회사 넥스트페이먼츠 사람의 특성을 인식하고 제품을 추천하는 전자 장치 및 전자 장치의 동작 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101461026B1 (ko) * 2013-09-23 2014-11-13 피에스케이 주식회사 기판 처리 장치
KR102063298B1 (ko) * 2019-04-30 2020-01-07 남혜경 전시부스정보 제공장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949743B1 (ko) * 2009-03-20 2010-03-25 동국대학교 산학협력단 고글 형태를 갖는 착용형 시선 추적 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100949743B1 (ko) * 2009-03-20 2010-03-25 동국대학교 산학협력단 고글 형태를 갖는 착용형 시선 추적 장치 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061916A1 (en) * 2012-10-19 2014-04-24 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US9524023B2 (en) 2012-10-19 2016-12-20 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
KR20230062085A (ko) * 2021-10-29 2023-05-09 동의대학교 산학협력단 소외계층을 위한 차세대 디지털 키오스크
KR102573965B1 (ko) 2021-10-29 2023-09-01 동의대학교 산학협력단 소외계층을 위한 차세대 디지털 키오스크
KR102655761B1 (ko) * 2023-08-29 2024-04-08 주식회사 넥스트페이먼츠 사람의 특성을 인식하고 제품을 추천하는 전자 장치 및 전자 장치의 동작 방법

Also Published As

Publication number Publication date
KR20120096737A (ko) 2012-08-31

Similar Documents

Publication Publication Date Title
KR102329765B1 (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
US11087637B2 (en) Finger reading method and device based on visual gestures
KR101191640B1 (ko) 사용자에게 정보를 전달하는 정보전달장치 및 그 방법
US8966613B2 (en) Multi-frame depth image information identification
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
US11397320B2 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
KR102168975B1 (ko) 웨어러블 기기를 이용하여 객체의 이벤트를 자동으로 감지하는 방법 및 이를 운용하는 관리 서버
CN110084192B (zh) 基于目标检测的快速动态手势识别系统及方法
WO2015195623A1 (en) Dynamic template selection for object detection and tracking
CN111524339B (zh) 无人飞行器对频的方法、系统、无人飞行器及遥控器
CN114220130A (zh) 非接触式手势与掌纹、掌静脉融合的身份识别系统及方法
KR102391656B1 (ko) 카메라 모듈 및 무선통신 장치를 활용하여 이벤트감지를 수행하는 웨어러블 기기
CN110546596A (zh) 一种视线跟踪方法及用于执行所述方法的终端
KR20160007341A (ko) 글라스형 웨어러블 디바이스의 버스도착 알림방법 및 이를 이용한 글라스형 웨어러블 디바이스용 프로그램
JP5964603B2 (ja) データ入力装置、及び表示装置
KR101728707B1 (ko) 글라스형 웨어러블 디바이스를 이용한 실내 전자기기 제어방법 및 제어프로그램
KR101961266B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
WO2020244401A1 (zh) 基于靠近嘴部检测的语音输入唤醒装置、方法和介质
TWI470565B (zh) 非接觸式醫療導覽系統及其控制方法
JP2011243141A (ja) 操作情報処理装置、方法及びプログラム
KR102251076B1 (ko) 실내 이미지를 사용하여 설계도면을 추정하는 방법
KR20190040797A (ko) 사용자의 시선 추적 장치 및 방법
KR102083372B1 (ko) 아이트래킹 및 음성인식을 활용한 컴퓨터 대체접근 시스템 및 동작 방법
KR102349452B1 (ko) 사용자 인증 방법 및 이를 지원하는 머리 착용형 장치
JP2022008717A (ja) 音声と動作認識に基づいたスマートボードを制御する方法およびその方法を使用した仮想レーザーポインター

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151002

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160929

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee