KR101787508B1 - 스마트 작업모 및 그 제어방법 - Google Patents

스마트 작업모 및 그 제어방법 Download PDF

Info

Publication number
KR101787508B1
KR101787508B1 KR1020160051611A KR20160051611A KR101787508B1 KR 101787508 B1 KR101787508 B1 KR 101787508B1 KR 1020160051611 A KR1020160051611 A KR 1020160051611A KR 20160051611 A KR20160051611 A KR 20160051611A KR 101787508 B1 KR101787508 B1 KR 101787508B1
Authority
KR
South Korea
Prior art keywords
user
information
smart
module
work
Prior art date
Application number
KR1020160051611A
Other languages
English (en)
Inventor
신상섭
남국현
Original Assignee
(주)그린광학
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)그린광학 filed Critical (주)그린광학
Priority to KR1020160051611A priority Critical patent/KR101787508B1/ko
Application granted granted Critical
Publication of KR101787508B1 publication Critical patent/KR101787508B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A42HEADWEAR
    • A42BHATS; HEAD COVERINGS
    • A42B3/00Helmets; Helmet covers ; Other protective head coverings
    • A42B3/04Parts, details or accessories of helmets
    • A42B3/30Mounting radio sets or communication systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0272System arrangements wherein the object is to detect exact location of child or item using triangulation other than GPS
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • G08B5/222Personal calling arrangements or devices, i.e. paging systems
    • G08B5/223Personal calling arrangements or devices, i.e. paging systems using wireless transmission
    • G08B5/224Paging receivers with visible signalling details
    • G08B5/225Display details
    • G08B5/226Display details with alphanumeric or graphic display means
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Abstract

본 발명은 스마트 작업모 및 그 제어방법에 관한 것이다. 구체적으로 본 발명은 작업과 관련된 정보를 증강 현실로 표현하여 사용자의 업무효율을 높일 뿐만 아니라 사용자 생체 정보와 사용자 주변에 대한 정보를 수집하여 미리 설정된 이벤트가 발생된 경우에는 실내 측위 알고리즘에 따라 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 스마트 작업모 및 그 제어방법에 관한 것이다. 본 발명의 일예와 관련된 사용자가 작업을 위해 착용하는 스마트 작업모에 있어서, 상기 작업과 관련된 정보를 증강 현실(Augmented Reality, AR)의 형태로 표시하는 디스플레이부; 상기 사용자의 인체와 관련된 제 1 정보 및 상기 사용자 주변과 관련된 제 2 정보를 수집하는 센서부; 상기 제 1 정보 및 제 2 정보를 이용하여 상기 사용자에게 미리 설정된 이벤트가 발생하였는지 여부를 판단하는 제어부; 및 상기 미리 설정된 이벤트가 발생된 경우, 상기 제어부의 제어에 따라 상기 제 1 정보 및 제 2 정보를 미리 설정된 외부로 전송하는 무선통신부;를 포함할 수 있다.

Description

스마트 작업모 및 그 제어방법 {SMART WORK CAP AND METHOD THEREOF}
본 발명은 스마트 작업모 및 그 제어방법에 관한 것이다. 구체적으로 본 발명은 작업과 관련된 정보를 증강 현실로 표현하여 사용자의 업무효율을 높일 뿐만 아니라 사용자 생체 정보와 사용자 주변에 대한 정보를 수집하여 미리 설정된 이벤트가 발생된 경우에는 실내 측위 알고리즘에 따라 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 스마트 작업모 및 그 제어방법에 관한 것이다.
작업모 또는 안전모는 작업자가 작업할 때, 비래(flying)하는 물건, 낙하하는 물건에 의한 위험성을 방지하거나 하역작업에서 추락했을 때, 머리부위에 상해를 받는 것을 방지하거나 머리부위에 감전될 우려가 있는 전기공사 작업에서 산업재해를 방지하기 위해 머리를 보호하는 모자를 말한다.
작업모는 물체의 낙하 및 비래에 의한 위험을 방지 또는 경감시키기 위한 용도, 물체의 낙하 또는 비래 및 추락에 의한 위험을 방지 또는 경감시키기 위한 용도, 물체의 낙하 및 비래에 의한 위험을 방지 또는 경감하고, 머리부위 감전에 의한 위험을 방지하기 의한 용도, 물체의 낙하 또는 비래 및 추락에 의한 위험을 방지 또는 경감하고, 머리부위 감전에 의한 위험을 방지하기 위한 용도 등으로 이용될 수 있다.
그러나 현재 작업모는 작업모를 착용한 사용자의 안전을 보호하는 기능 이외에 사용자의 작업을 지원하기 위한 기능을 별도로 구비하고 있지는 못하다.
더 나아가 작업모를 착용한 사용자에게 특정 이벤트가 발생한 경우(추락, 감전 등), 이러한 사용자의 상태를 즉각적으로 파악하여 대응책을 수립하는 것이 매우 어렵고, 특히, 사용자의 위치를 신속하게 파악할 수 없다는 문제점 등이 존재하고 있어 이에 대한 해결방안이 요구되고 있는 실정이다.
대한민국 특허청 공개번호 제10-2014-0135409호
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 스마트 작업모 및 그 제어방법을 제안하고자 한다.
구체적으로 본 발명은 작업과 관련된 정보를 증강 현실로 표현하여 사용자의 업무효율을 높일 뿐만 아니라 사용자 생체 정보와 사용자 주변에 대한 정보를 수집하여 미리 설정된 이벤트가 발생된 경우에는 실내 측위 알고리즘에 따라 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 스마트 작업모 및 그 제어방법을 제안하고자 한다.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 사용자가 작업을 위해 착용하는 스마트 작업모에 있어서, 상기 작업과 관련된 정보를 증강 현실(Augmented Reality, AR)의 형태로 표시하는 디스플레이부; 상기 사용자의 인체와 관련된 제 1 정보 및 상기 사용자 주변과 관련된 제 2 정보를 수집하는 센서부; 상기 제 1 정보 및 제 2 정보를 이용하여 상기 사용자에게 미리 설정된 이벤트가 발생하였는지 여부를 판단하는 제어부; 및 상기 미리 설정된 이벤트가 발생된 경우, 상기 제어부의 제어에 따라 상기 제 1 정보 및 제 2 정보를 미리 설정된 외부로 전송하는 무선통신부;를 포함할 수 있다.
또한, 상기 디스플레이부는, 적어도 하나의 디스플레이와 상기 적어도 하나의 디스플레이에서 발산되는 영상광을 상기 사용자의 안구에 전달하는 광학 모듈로 이루어진 헤드마운트 디스플레이 고글 모듈; 상기 안구의 중심점을 회전축으로 하여 상하 회전할 수 있는 가이드 수단을 가지고 있는 힌지 모듈; 상기 힌지 모듈에 연결되고, 영상신호를 생성하여 상기 적어도 하나의 디스플레이에 상기 영상신호를 전송하는 컨트롤러 모듈; 및 상기 컨트롤러 모듈에 연결되고, 상기 헤드마운트 디스플레이가 상기 사용자의 얼굴에 부착되도록 지지하는 프레임;을 포함하며, 상기 힌지 모듈의 가이드 수단을 이용하여 상기 영상광은 상기 안구의 동공 중심의 접선 면에 수직으로 입사되고, 상기 가이드 수단은 상기 안구의 중심점을 회전축으로 하여 원형으로 상하 회전하고, 상기 영상광은 상기 안구의 동공 중심의 접선 면에 항상 수직으로 입사될 수 있다.
또한, 상기 무선통신부는 근거리 통신 및 원거리 통신 중 적어도 하나를 이용하여 통신하고, 상기 근거리 통신은, ANT, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 기술을 포함하며, 상기 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access)을 포함할 수 있다.
또한, 상기 제 1 정보는 상기 사용자의 건강상태를 판단할 수 있는 생체 정보이고, 상기 제 2 정보는 상기 작업을 수행하는 환경을 모니터링 하기 위한 정보이며, 상기 미리 설정된 이벤트는 전도, 추락, 충돌, 협착, 창자, 염전, 격돌, 이물, 압중, 역차, 진동, 감전, 독극물 접촉, 질식, 익수, 고온 또는 저온접촉, 이상기압상태, 복사선, 방사선 흡수 및 음향 흡수를 포함할 수 있다.
한편, 상술한 과제를 실현하기 위한 본 발명의 다른 일예와 관련된 상기 스마트 작업모; 위치측위서버; 및 상기 위치측위서버와 통신하는 복수의 AP(Access Point)를 포함하는 시스템에 있어서, 상기 스마트 작업모는 삼변 측량법을 기초로 상기 복수의 AP 로부터 수신된 신호의 세기를 이용하여 상기 스마트 작업트 작업모의 위치를 추정하고, 상기 스마트 작업모가 이용하는 상기 복수의 AP로부터 수신된 신호의 세기는 3개 이상일 수 있다.
한편, 상술한 과제를 실현하기 위한 본 발명의 또 다른 일예와 관련된 스마트 작업모의 이용방법은, 사용자가 작업을 위해 착용하는 스마트 작업모를 착용하는 단계; 상기 작업모가 상기 작업과 관련된 정보를 증강 현실(Augmented Reality, AR)의 형태로 디스플레이하는 단계; 상기 사용자의 인체와 관련된 제 1 정보 및 상기 사용자 주변과 관련된 제 2 정보를 센서부가 수집하는 단계; 제어부가 상기 제 1 정보 및 제 2 정보를 이용하여 상기 사용자에게 미리 설정된 이벤트가 발생하였는지 여부를 판단하는 단계; 및 상기 미리 설정된 이벤트가 발생된 경우, 무선통신부가 상기 제 1 정보 및 제 2 정보를 미리 설정된 외부로 전송하는 단계;를 포함하되, 상기 무선통신부는 근거리 통신 및 원거리 통신 중 적어도 하나를 이용하여 통신하고, 상기 근거리 통신은, ANT, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 기술을 포함하며, 상기 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access)을 포함할 수 있다.
또한, 상기 스마트 작업모가 위치측위서버와 통신하는 복수의 AP(Access Point)로부터 신호를 수신하는 단계; 및 상기 스마트 작업모가 삼변 측량법을 기초로 상기 복수의 AP 로부터 수신된 신호의 세기를 이용하여 상기 스마트 작업트 작업모의 위치를 추정하는 단계;를 더 포함하고, 상기 스마트 작업모가 이용하는 상기 복수의 AP로부터 수신된 신호의 세기는 3개 이상일 수 있다.
본 발명은 작업과 관련된 정보를 증강 현실로 표현하여 사용자의 업무효율을 높일 뿐만 아니라 사용자 생체 정보와 사용자 주변에 대한 정보를 수집하여 미리 설정된 이벤트가 발생된 경우에는 실내 측위 알고리즘에 따라 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 스마트 작업모 및 그 제어방법을 사용자에게 제공할 수 있다.
또한, 사물인터넷(IoT) 기반 ICT기술과의 융합을 통한 전통 제조, 물류산업의 경쟁력 강화의 필요성이 대두되고 있고, ICT를 기반으로 모든 사물이 인터넷으로 연결되어 사람과 사물, 사물과 사물간의 정보를 교환하고 상호 소통하는 사물인터넷이 신성장 동력으로 부상 중이다. 따라서 제조업과 ICT 융합이 생산 및 물류의 혁명을 일으키며 전통산업 위기의 돌파구로 주목 받고 있으며 이에 따라 4차 산업 혁명기에는 ICT와 제조업의 융합으로 생산, 물류의 모든 과정이 모두 네트워크로 연결되고, 상호 소통하면서 보다 유연하게 전사적 최적화를 달성할 수 있는 스마트 팩토리(Smart Factory)로 전환될 것으로 기대되며, 여기서 본 발명이 제안하는 스마트 작업모가 중요한 역할을 담당할 것으로 예측된다.
또한, 본 발명에 따른 스마트 작업모 기술은 1차적으로는 웨어러블 디바이스 기술, 생체 인식 센서 기술, 증강현실 기술 및 무선통신 기반 실내 측위 기술의 발전을 가져 올 것으로 예상되고, 2차적으로는 U-Health Care 기술과 컴퓨터 비전 기술 및 위치 기반 서비스 기술의 향상이 예상되며, 미래형 공장 관련 다양한 분야의 원천 기술에 기여할 것으로 예상된다.
또한, 본 발명에 따른 스마트 작업모 기술은 공장자동화 기술, 제조 기술, 정보통신 기술, 그리고 차세대 인터넷의 중요한 방향성을 제시하고, 제조 산업의 신시대를 선도할 것으로 기대된다.
또한, 본 발명에 따른 스마트 작업모 기술은 생산의 모든 주체가 하나의 공통된 접근 방식을 통해 CPS에 접근하고, 제조 과정, 장치, 환경 등에 적합한 소프트웨어 등을 원활하게 사용할 수 있는 방향의 Industry 4.0 플랫폼 구축을 위한 표준화에 기여할 것으로 예상된다.
또한, 본 발명에 따른 스마트 작업모를 통해 맞춤형 소량 생산 등 미래 생산 방식에 대비하고, 빅 데이터 등을 활용한 신사업 기회 창출 등으로 새로운 시장 창출이 가능하고, 자동화를 통한 비용 절감 등으로 제조업의 경쟁력 제고가 기대된다.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명과 관련하여, 스마트 작업모를 이용한 전체 시스템의 블록 구성도의 일례를 도시한 것이다.
도 2는 본 발명이 제안하는 스마트 작업모 및 기능을 도시한 것이다.
도 3은 본 발명이 제안하는 스마트 작업모의 구체적인 내용을 블록구성도로 도시한 것이다.
도 4a 내지 도 4f는 본 발명에 따른 스마트 작업모를 통해 사용자에게 제공될 수 있는 가상현실의 구체적인 일례를 도시한 것이다.
도 5는 본 발명에 따른 스마트 작업모에 적용될 수 있는 고글부 회전 구조를 가진 헤드마운트 디스플레이의 개념을 개략적으로 도시한 측면도를 도시한 것이다.
도 6은 본 발명에 따른 스마트 작업모에 적용될 수 있는 고글부 회전 구조를 가진 헤드마운트 디스플레이의 작동원리를 설명하기 위한 측면도를 도시한 것이다.
도 7은 본 발명에 따른 3개의 앵커노드를 이용한 3차원 위치 추정 방법의 기본 개념을 도식적으로 나타낸 것이다.
도 8은 본 발명에 따른 3차원 위치 추정 방법을 실시하기 위한 장치의 구성을 도시한 것이다.
도 9는 본 발명이 제안하는 미리 설정된 이벤트가 발생된 경우, 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 과정을 순서도로 도시한 것이다.
작업모 또는 안전모는 작업자가 작업할 때, 비래(flying)하는 물건, 낙하하는 물건에 의한 위험성을 방지하거나 하역작업에서 추락했을 때, 머리부위에 상해를 받는 것을 방지하거나 머리부위에 감전될 우려가 있는 전기공사 작업에서 산업재해를 방지하기 위해 머리를 보호하는 모자를 말한다.
현재 작업모는 작업모를 착용한 사용자의 안전을 보호하는 기능 이외에 사용자의 작업을 지원하기 위한 기능을 별도로 구비하고 있지는 못하다.
더 나아가 작업모를 착용한 사용자에게 특정 이벤트가 발생한 경우(추락, 감전 등), 이러한 사용자의 상태를 즉각적으로 파악하여 대응책을 수립하는 것이 매우 어렵고, 특히, 사용자의 위치를 신속하게 파악할 수 없다는 문제점 등이 존재한다.
따라서 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 스마트 작업모 및 그 제어방법을 제안하고자 한다.
구체적으로 본 발명은 작업과 관련된 정보를 증강 현실로 표현하여 사용자의 업무효율을 높일 뿐만 아니라 사용자 생체 정보와 사용자 주변에 대한 정보를 수집하여 미리 설정된 이벤트가 발생된 경우에는 실내 측위 알고리즘에 따라 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 스마트 작업모 및 그 제어방법을 제안하고자 한다.
도 1은 본 발명과 관련하여, 스마트 작업모를 이용한 전체 시스템의 블록 구성도의 일례를 도시한 것이다.
도 1을 참조하면 본 발명이 제안하는 스마트 작업모(100)를 포함하는 구체적인 시스템이 도시되어 있다.
도 1에서는 송수신 겸용 BLE 게이트웨이(10b), 환경센서 및 비콘장치(10a), 스마트 작업모(100), 스마트 작업모 서버(20), 어플리케이션 및 디스플레이부(30) 및 CSF 플랫폼 및 테스트베드(40)를 포함하는 전체 시스템(1)이 도시되어 있다.
도 1을 참조하면, 본 발명의 목적은 CSF 플랫폼 연계를 통한 작업자중심 증강현실 스마트 작업모 개발에 있다는 것을 알 수 있다.
즉, 작업자 위치 및 생체 정보 인식 기능의 융합 센서 모듈과 증강현실 운용 장치를 탑재한 스마트 작업모 H/W 기술과 작업 능률 향상을 위한 작업자 생체정보 인식과 작업장 환경 정보 수집 및 모니터링 기능의 센싱 기술을 개발하고, 작업자 작업 정보 제공과 생산설비 유지보수 기능의 AR 기술 및 작업자 안전 지원을 위한 위치 정보 제공 기능의 실내 측위 기술을 융합하여 생산성 및 품질 향상과 산업 재해 예방 및 대응이 가능한 스마트 작업모 시스템을 제안하고자 한다.
도 1과 같은 시스템이 적용되는 경우, 융합 센서 모듈 및 AR 운용 장치 탑재 스마트 작업모 H/W가 제공될 수 있다.
즉, 편리성 및 착용성을 고려한 스마트 작업모가 제공되고, 작업자 위치 및 생체 정보 인식이 가능한 스마트 작업모 내장형 융합 센서 모듈이 이용되며, 센싱 정보 및 AR 기반 정보 제공을 위한 스마트 작업모 탑재형 웨어러블 디스플레이 모듈이 이용된다.
또한, 센싱정보 처리 및 AR 운용 기술이 적용되는데, 구체적으로 센싱 정보 처리 및 스마트 작업모 연동 인터페이스 기술, 증강현실 운용 기술 및 실시간 건강상태 모니터링 기술이 적용된다.
또한, CSF 플랫폼 연계 및 서비스 컨텐츠가 적용되는데, 구체적으로 CSF 플랫폼 연계 기술 개발, 스마트 작업모 기반 생산성, 품질 향상 및 안전도 향상 모니터링 기술, 성능 검증을 위한 CSF 테스트베드 연계 기술, CSF 플랫폼 연계 응용서비스 컨텐츠 등이 이에 해당될 수 있다.
한편, 도 2는 본 발명이 제안하는 스마트 작업모 및 기능을 도시한 것이다.
도 2를 참조하면, 본 발명의 시스템(1)을 통해 생체/환경 센싱 기능(3)으로서 작업자 생체 정보 및 작업장 유해 환경 정보 수집 및 모니터링 서비스가 사용자에게 제공될 수 있다.
또한, 증강현실기능(2)으로서, 위치 기반 기술 및 증강현실 기술을 이용한 스마트 작업모 기반 작업자 작업 정보 제공 서비스, 카메라 영상 기반 원격 작업 관리를 통한 작업자 작업 오류 방지 서비스, Vision 기반 증강현실 기술을 이용한 생산 설비 유지 보수 서비스, 증강현실 기반 작업 매뉴얼 제공 등을 통한 비숙련공 교육 서비스 등이 사용자에게 제공될 수 있다.
또한, 실내측위기능(4)으로서, 작업자 위치 기반 재난 예방 및 대응 서비스가 사용자에게 제공될 수 있다.
이하에서는 본 발명이 제안하는 스마트 작업모(10)의 구체적인 구성과 스마트 작업모(10)를 이용하여 미리 설정된 이벤트가 발생된 경우, 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 과정 등에 대해 설명한다.
선결적으로 본 발명에 적용될 수 있는 스마트 작업모(10)의 구체적인 구성에 대해 설명한다.
도 3은 본 발명이 제안하는 스마트 작업모의 구체적인 내용을 블록구성도로 도시한 것이다.
도 3을 참조하면, 스마트 작업모(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다.
단, 도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 스마트 작업모가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 스마트 작업모와 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 스마트 작업모에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다.
문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 스마트 작업모에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi) 등이 이용될 수 있다.
특히, 근거리 통신으로 저전력 블루투스 비컨 기술이 적용될 수 있다.
이러한 저전력 블루투스 비컨 기술은 블루투스 신호를 활용하여 근거리에 위치한 스마트 디바이스가 비컨을 인식하도록 하고, 비컨이 설치된 장소에서 각종 정보를 해당 스마트 디바이스에게 제공 또는 스마트 디바이스로부터 정보를 수신할 수 있도록 한 저전력, 저비용 무선 통신 기술에 일종이다. 구체적으로, 애플사가 공개한 아이비컨(iBeacon) 기능은 블루투스 비콘의 신호가 정의된 신호체계에 부합하는 경우, 애플사의 스마트기기가 이를 확인할 수 있도록 한 기능으로 파악될 수도 있다.
이때, 비컨 주변으로 접근한 스마트 디바이스와의 통신은 제공되는 정보의 형태 또는 스마트 디바이스로부터 수신되는 정보의 형태에 따라 다양한 비즈니스 모델이 발현될 수 있는 기술플랫폼이라 할 수 있으므로, 크게 각광받고 있는 기술이다.
다음으로, 위치정보 모듈(115)은 스마트 작업모의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.
도 3을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자가 스마트 작업모의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
센싱부(140)는 스마트 작업모의 개폐 상태, 스마트 작업모의 위치, 사용자 접촉 유무, 스마트 작업모의 방위, 스마트 작업모의 가속/감속 등과 같이 스마트 작업모의 현 상태를 감지하여 스마트 작업모의 동작을 제어하기 위한 센싱 신호를 발생시킨다.
센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다.
한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.
또한, 센싱부(140)는 초음파 센서(142)를 더 포함할 수 있다.
초음파 센서(142)는 사람의 귀에 들리지 않을 정도로 높은 주파수(약 20 KHz 이상)의 소리인 초음파가 가지고 있는 특성을 이용한 센서를 말한다.
초음파는 공기나 액체, 고체에 사용할 수 있다. 주파수가 높고 파장이 짧기 때문에 높은 분해력을 계측할 수 있는 특징이 있다.
초음파 센서(142)에 이용되는 파장은 매체의 음속과 음파의 주파수에 따라 결정되고, 바다 속의 어군탐지기나 소나에서는 1㎜~100㎜, 금속 탐상 등에서는 0.5㎜~15㎜, 기체 속에서는 5~35㎜ 정도이다.
초음파 센서(142)는 초음파의 발신소자와 수신소자가 동일하고, 센서 재료로는 자기변형 재료(페라이트 등)나 전압, 전기 변형재료(로셸염, 티탄산 바륨 등)가 이용되고 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.
디스플레이부(151)는 스마트 작업모에서 처리되는 정보를 표시(출력)한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 스마트 작업모 바디의 디스플레이부(151)가 차지하는 영역을 통해 스마트 작업모 바디의 후방에 위치한 사물을 볼 수 있다.
스마트 작업모의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 스마트 작업모에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 스마트 작업모의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 스마트 작업모에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(153)는 스마트 작업모의 이벤트 발생을 알리기 위한 신호를 출력한다.
알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다.
상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다.
예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 스마트 작업모의 구성 태양에 따라 2개 이상이 구비될 수 있다.
프로젝터 모듈(155)은, 스마트 작업모를 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.
구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.
프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.
바람직하게, 프로젝터 모듈(155)은, 스마트 작업모의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 스마트 작업모의 어느 위치에라도 구비될 수 있음은 당연하다.
메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 스마트 작업모는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(170)는 스마트 작업모에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 작업모 내부의 각 구성 요소에 전달하거나, 스마트 작업모 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.
식별 모듈은 스마트 작업모의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 스마트 작업모와 연결될 수 있다.
상기 인터페이스부는 스마트 작업모가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 스마트 작업모에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.
제어부(controller, 180)는 통상적으로 스마트 작업모의 전반적인 동작을 제어한다.
제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
전술한 본 발명에 따른 디스플레이부(151)를 통해 사용자에게 증강현실(Augmented Reality, AR) 또는 가상현실(VirtualReality, VR)이 제공될 수 있다.
가상현실은 자신(객체)과 배경, 환경 모두 현실이 아닌 가상의 이미지를 사용하는데 반해, 증강현실(Augmented Reality, AR)은 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다.
또한, 증강현실은 혼합현실(Mixed Reality, MR)이라고도 하는데, 비행기 제조사인 보잉사에서 1990경 비행기 조립 과정에 가상의 이미지를 첨가하면서 증강현실이 처음으로 세상에 소개됐다.
증강현실과 가상현실은 서로 비슷한 듯 하지만 그 주체가 허상이냐 실상이냐에 따라 명확히 구분된다.
컴퓨터 게임으로 예를 들면, 가상현실 격투 게임은 나를 대신하는 캐릭터가 가상의 공간에서 가상의 적과 대결하지만, 증강현실 격투 게임은 현실의 내가 현실의 공간에서 가상의 적과 대결을 벌이는 형태가 된다.
따라서 증강현실이 가상현실에 비해 현실감이 뛰어나다는 특징이 있다.
이 밖에 가상현실은 일반적으로 영화나 영상 분야 등 특수 환경에서만 사용되지만 증강현실은 현재 일반인들에게도 널리 활용될 만큼 대중화된 상태다.
예를 들어, 인터넷을 통한 지도 검색, 위치 검색 등도 넓은 의미에서는 증강현실에 포함된다.
증강현실(augmented reality)은 실세계에 3차원 가상물체를 겹쳐 보여주는 기술이다. 즉, 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다.
현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다.
현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국·일본을 중심으로 연구, 개발이 진행되고 있다.
현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다.
여기서 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다.
사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다.
가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다.
하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다.
예를 들어 스마트 작업모(100) 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다.
도 4a 내지 도 4f는 본 발명에 따른 스마트 작업모를 통해 사용자에게 제공될 수 있는 가상현실의 구체적인 일례를 도시한 것이다.
도 4a 는 본 발명과 관련하여 전투기 FA-18의 조종석에 적용된 증강현실의 일례를 도시한 것이고, 도 4b는 게임에 적용된 증강현실의 일례를 도시한 것이다.
또한, 증강현실의 기본 원리에 대해 설명한다.
증강현실은 내부적으로 대단히 복잡하고 어려운 영상 기술이지만, 기본적으로는 다음과 같은 원리와 순서로 작동한다.
증강현실 기술을 적용하기 위해서는 몇 가지 필요한 요소가 있는데, 지리/위치 정보를 송수신하는 GPS장치 및 중력(기울기+전자나침반) 센서(또는 자이로스코프 센서), 이 정보에 따른 상세 정보가 저장된 위치정보시스템(인터넷 연결 필요), 그 상세 정보를 수신하여 현실 배경에 표시하는 증강현실 애플리케이션, 마지막으로 이를 디스플레이로 출력할 IT 기기(스마트 작업모(100), 태블릿 PC) 등을 들 수 있다.
다만, 본 발명의 내용이 이에 한정되는 것은 아니고, 더 많은 구성 요소 또는 더 적은 구성요소를 가지고 증강현실 기술을 적용하는 것도 가능하다.
우선 사용자는 증강현실 애플리케이션 실행 후, 스마트 작업모(100) 등의 내장 카메라(캠)로 특정 거리나 건물을 비추면 GPS 수신기를 통해 현재 위치의 위도/경도 정보, 기울기/중력 정보 등이 스마트 작업모(100)에 임시 기록된다.
그런 다음 이 GPS 정보를 인터넷을 통해 특정 위치정보 시스템에 전송한다. 이는 해당 위치 반경의 지역이나 건물의 상세 정보를 모두 스마트 작업모(100)에 저장하기가 현실적으로 불가능하기 때문이다.
또한, 사용자로부터 위치, 기울기 등의 GPS 정보를 수신한 위치정보시스템은 해당 지역 또는 사물의 상세 정보를 자신의 데이터베이스에서 검색한 후 그 결과를 다시 스마트 작업모(100)으로 전송한다.
여기에는 물론 특정 건물의 상호, 전화번호 등이 들어 있다.
이 데이터를 수신한 스마트 작업모(100)은 증강현실 애플리케이션을 통해 현 지도 정보와 매칭시킨 후 실시간 화면으로 보여줄 수 있다.
여기서 데이터 송수신 단계는 지속적으로 유지 및 수행되므로, 스마트 작업모(100)을 들고 거리를 지나면 해당 지역 및 주변에 대한 상세 정보가 순차적으로 화면에 나타나게 된다.
스마트 작업모(100) 사용자라면 증가현실 기능을 활용해 색다른 경험을 할 수 있다.
예를 들어, 친구가 보고 있는 책의 자세한 정보가 궁금하다면 스마트 작업모(100) 내 증강현실 애플리케이션을 실행한 다음, 카메라 화면으로 책 표지를 비추거나 셔터로 찍으면 된다.
그러면 해당 애플리케이션이 이 화면 정보를 읽어 들여 인터넷 데이터베이스 등에서 책 제목과 저자, 출판사, 서평 평점, 가격 등을 화면에 보여준다.
따라서 당연히 3G/4G 이동통신 또는 와이파이로 인터넷 접속이 가능한 상태여야 한다. 희귀서가 아닌 이상 대부분의 책 정보를 볼 수 있다.
위와 같이 책 정보를 알았고 구매하기로 마음 먹은 경우, 인터넷으로 주문할 수도 있지만 인근 서점을 찾아 직접 훑어 보고 구매하는 것을 더 선호할 수 있다.
이때는 증강현실을 이용한 지도 검색 애플리케이션을 활용하면 된다.
즉, 스마트 작업모(100) 또는 태블릿 PC의 GPS 정보를 수신하여 현재 자신의 위치를 파악한 후 가장 가까운 거리에 있는 서점을 찾아 주기 때문이다. 
아울러 인근 서점까지 가는 방법도 증강현실 애플리케이션을 통해 자세히 안내 받을 수 있다.
자동차 이동 경로나 대중교통 탑승, 환승 정보는 물론, 도보 이동 시 가상 네비게이션 기능도 제공까지 제공될 수 있다.
즉, 스마트 작업모(100) 카메라를 길거리를 비추면 증강현실 애플리케이션이 가는 방향을 가상의 화살표 등으로 표시해 준다.
 또한, 인근 서점에서 책을 구매한 이후에 조용한 카페에 들러 책을 천천히 읽고자 하는 경우, 주변에 괜찮은 카페가 있는지 여부도 증강현실 애플리케이션을 통해 확인할 수 있다.
마찬가지로 스마트 작업모(100) 카메라로 거리를 비추면 건물 및 상호 정보가 화면 위에 자동으로 표시된다.
역시, 원하는 카페까지 걸어가는 경로도 화살표 등으로 표시되므로, 따라가면 손쉽게 찾을 수 있게 된다.
도 4c는 증강현실 애플리케이션을 이용하여 책의 정보를 확인하는 일례를 도시한 것이고, 도 4d는 증강현실을 이용한 지도 검색 애플리케이션을 활용하는 일례를 도시한 것이다.
또한, 도 4e 및 도4f는 증강현실 애플리케이션을 통해 길거리를 비추면 증강현실 애플리케이션이 목적지까지 가는 방향을 알려주는 구체적인 일례를 도시한 것이다.
도 4a 내지 도4f 및 전술한 사례는 스마트 작업모(100) 사용자라면 체험할 수 있는 증강현실의 가장 일반적인 형태다.
이 같은 실생활뿐 아니라 증강현실 기술이 적용되는 분야는 매우 다양하다.
요즘에는 광고, 홍보 분야에서도 각광을 받고 있다. 즉, 자사의 제품에 가상의 이미지를 씌워 독특한 분위기를 연출할 수 있기 때문이다.
또한, TV 방송 분야에도 적극 활용되고 있다.
기상 캐스터 뒤로 보이는 가상 기상도, 정보 그래프 등이 대표적인 예다.
이후 가상 디스플레이 기술, 3D 입체 영상 기술 등이 더욱 발전하면 증강현실이 적용될 수 있는 사례는 대단히 넓어지게 될 것으로 예상된다.
또한, 증강현실(Augmented Reality, AR) 또는 가상현실(VirtualReality, VR)을 제공하는 디스플레이부(151)는 고글의 형태로 스마트 작업모(100)에 결합될 수 있다.
도 5는 본 발명에 따른 스마트 작업모에 적용될 수 있는 고글부 회전 구조를 가진 헤드마운트 디스플레이의 개념을 개략적으로 도시한 측면도를 도시한 것이고, 도 6은 본 발명에 따른 스마트 작업모에 적용될 수 있는 고글부 회전 구조를 가진 헤드마운트 디스플레이의 작동원리를 설명하기 위한 측면도를 도시한 것이다.
도 5 및 도 6을 참조하면, 본 발명에서는 가상화면과 외부 시야를 정합하는 증강현실뿐 아니라 외부시야를 온전히 확보하면서도 안구의 상하 이동만으로 가상화면 시청이 가능하도록 힌지 구조를 가진 헤드마운트 디스플레이 장치를 제안할 수 있고, 이러한 헤드마운트 디스플레이장치는 스마트 작업모(100)의 전면에 구비될 수 있다.
더욱 상세하게는 본 발명은 사용자가 증강현실을 원할 경우 헤드 마운트 디스플레이 고글을 안구의 전방에 수직으로 배치할 수 있도록 하여 씨-스루 방식 증강현실 목적을 달성할 수 있을 뿐 아니라, 전방 시야에 방해를 받지 않으면서도 정보습득을 원할 경우에는 상기 헤드마운트 디스플레이 고글 모듈을 간단히 상부로 움직여 회전시킴으로써 사용자가 눈동자만을 상부로 움직여 편리하게 정보를 획득할 수 있는 장치를 제안할 수 있다.
또한, 본 발명에서는 헤드마운트 디스플레이를 사용치 않을 경우에는 고글 모듈을 상부로 회전시켜 시야방해를 최소화 할 수 있는 수단을 보유함으로써 가상화면과 외부이미지의 초점 불일치로 인해 발생하는 눈의 피로를 최소화 할 수 있고, 고글 모듈을 상부로 회전시켰을 경우 고글 모듈 전방에 투과되는 외부이미지를 차단하는 필터를 추가로 배치하여 가상화면을 보다 선명하고 빠르게 인지할 수 있어 밀폐형 헤드마운트 디스플레이에서와 같이 몰입감을 향상시킬 수 있는 헤드마운트 디스플레이 장치를 제안할 수 있다.
구체적으로 본 발명은 사용자가 증강현실을 원할 경우 헤드 마운트 디스플레이 고글을 안구의 전방에 수직으로 배치할 수 있도록 하여 씨-스루 방식 증강현실 목적을 달성할 수 있을 뿐 아니라, 전방 시야에 방해를 받지 않으면서도 정보습득을 원할 경우에는 상기 헤드마운트 디스플레이 고글 모듈을 간단히 상부로 움직여 회전시킴으로써 사용자가 눈동자만을 상부로 움직여 편리하게 정보를 획득할 수 있는 헤드마운트 디스플레이 장치가 될 수 있다.
또한, 본 발명은 헤드마운트 디스플레이를 사용치 않을 경우에는 상기 고글 모듈을 상부로 회전시켜 시야방해를 최소화 할 수 있는 수단을 보유함으로써 가상화면과 외부이미지의 초점 불일치로 인해 발생하는 눈의 피로를 최소화 할 수 있도록 하는 헤드마운트 디스플레이 장치를 제공할 수 있다.
또한, 본 발명은 고글 모듈을 상부로 회전시켰을 경우, 고글 모듈 전방에 투과되는 외부이미지를 차단하는 필터를 추가로 배치하면 가상화면을 보다 선명하고 빠르게 인지할 수 있어 밀폐형 헤드마운트 디스플레이에서와 같이 몰입감을 향상시킬 수 있도록 하는 헤드마운트 디스플레이 장치를 제공할 수 있다.
또한, 본 발명에 따른 고글부 회전 구조를 갖는 헤드마운트 디스플레이 장치는 하나 이상의 디스플레이 및 상기 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어진 헤드마운트 디스플레이 고글 모듈과, 상기 헤드마운트 디스플레이 고글 모듈에서 표출되는 영상광이 사용자 동공 중심의 접선 면에 항상 수직으로 입사하도록 사용자의 안구 중심점을 회전축으로 하여 원형으로 상하 회전할 수 있도록 가이드 수단을 가지고 있는 힌지 모듈과, 상기 힌지 모듈에 연결되어 있고 상기 헤드마운트 디스플레이 고글 모듈에 내장된 디스플레이에 영상신호를 보낼 수 있도록 신호를 변화하여 전송하는 컨트롤러가 내장된 컨트롤러 모듈과, 상기 컨트롤러 모듈에 연결되어 자체 탄성을 제공하여 상기 헤드마운트 디스플레이가 사용자의 얼굴에 부착되어 흘러내리지 않도록 사용자 코의 양 측면을 무게 지지점으로 하는 프레임을 포함하여 이루어질 수 있다.
또한, 본 발명에 따른 고글부 회전 구조를 갖는 헤드마운트 디스플레이 장치에서 상기 힌지모듈의 가이드는 반드시 안구의 중심을 회전축으로 하는 동심원 선상의 일부인 원호일 수 있다.
또한, 본 발명에 따른 고글부 회전 구조를 갖는 헤드마운트 디스플레이 장치에서 상기 힌지모듈은 슬라이딩 방식으로서, 하나의 가이드 부재와, 하나의 판스프링과, 하나의 가이드 홈과, 하나의 고정부재로 이루어지는 것을 특징으로 하는 고글부 회전 구조를 가질 수 있다.
이하에서는, 도면을 이용하여 본 발명의 구체적인 형태에 대해 설명한다.
본 발명의 바람직한 실시 예에 따른 고글부 회전 구조를 갖는 헤드마운트 디스플레이 장치를 첨부 도면에 의거하여 상세히 설명하면 다음과 같다.
도 5에서 고글부 회전 구조를 갖는 헤드마운트 디스플레이 장치는 하나의 고글 모듈(30)과, 하나의 힌지 모듈(31)과, 하나의 컨트롤러 모듈(32)과, 하나의 프레임(33)으로 이루어진다.
도 5를 참고하면, 스마트 작업모(100)에 결합되어 사용자에게 가상화면(A)을 제공하기 위한 상기 고글 모듈(30)은 사용자의 안구(34)의 중심 수평 방향에 수직으로 위치하며 상기 컨트롤러 모듈(32)과는 분리된 부재이고 부착된 상기 힌지 모듈(31)에 의해 상기 컨트롤러 모듈(32)과 상호 연결되어 있으며 상기 컨트롤러 모듈(32)은 상기 프레임(33)과 움직일 수 없도록 단단히 부착되어 있다.
이때, 상기 고글 모듈(30)은 증강현실용 투과형(See-through) 광학모듈이거나 가상화면만을 제공하는 밀폐형(See-closed) 광학모듈 중 하나로서 어떤 방식이라도 사용될 수 있고 본 발명에서는 증강현실용 투과형(See-through) 광학모듈이 일례로서 제시되었으며, 사용자는 상기 광학 모듈(30)의 광 가이드 방식을 통하여 출사면(301)을 통해 제공되는 가상화면(A)과 상기 광학모듈(31) 의 상기 출사면(301)을 투과하여 사용자에게 전달되는 외부이미지(B)를 동시에 시청할 수 있게 된다.
이러한 구조에서 사용자가 상기 가상화면(A)을 없애고 상기 외부이미지(B)만을 확인하고자 할 때에는 상기 고글 모듈(30)을 위로 젖히면 상기 힌지 모듈(31)에 내장된 판스프링 장치와 가이드에 의해 상기 광학모듈(30)은 가이드의 회전 반경에 따라 상부로 회전하듯이 움직이게 되고 사용자는 시선의 정면에 장애물이 사라져 보다 선명하게 외부이미지를 확인할 수 있다.
또한, 이 상태에서 사용자가 눈을 위로 치켜뜨면 상부로 회전한 상기 광학 모듈(30)에서 제공하는 상기 가상이미지(A)도 선명하게 확인이 가능한데 이 원리는 도 6 에 제시되었다.
도 6를 참고하면, 사람의 안구는 렌즈 역할을 하는 동공과 수정체의 이완과 수축 작용에 의해 안구 후면의 망막에 상이 맺히게 되는데 안구는 상하로 회전하듯이 움직일 수 있으며 이 회전의 중심축은 안구의 중심이다.
이와 같은 원리에 의하여 상기 고글모듈(30)의 출사면(301)를 통해 제공되는 상기 가상화면(A)의 이미지가 선명하게 사용자에게 전달되기 위해서는 상기 출사면(301)과 사용자의 시선의 방향은 항상 수직을 유지해야 하므로 상기 출사면(301)의 회전반경의 중심축은 안구의 중심이 되어야 한다.
한편, 기 설정된 이벤트(작업모를 착용한 사용자의 추락, 충돌, 감전 등)가 사용자에게 발생된 경우, 외부 기관, 서버 등에서는 사고를 당한 사용자의 정확한 위치를 신속하게 판단하는 것이 필요하다.
따라서 제어부(180)가 3차원 위치 추정 방법을 통해 상기 사용자의 위치를 파악하는 것이 필요하고, 이에 대해 구체적으로 설명한다.
도 7은 본 발명에 따른 3개의 앵커노드를 이용한 3차원 위치 추정 방법의 기본 개념을 도식적으로 나타낸 것이다.
도 7을 참조하면, 본 발명은 3개의 앵커 노드를 이용하여 3차원 위치 추정을 하는 알고리즘에 근거할 수 있다.
이 알고리즘은 기존의 3차원 위치 추정 알고리즘에 비해 적은 노드를 이용하며 정확도, 계산량, 시스템 구축 시 용이한 장점이 있다.
본 발명은 사면체의 부피를 구하기 위한 코사인 법칙, 좌표계 회전(coordinate rotation), 삼변 측량법 등을 이용하여 타겟노드의 3차원 위치 추정을 할 수 있다.
도 8은 본 발명에 따른 3차원 위치 추정 방법을 실시하기 위한 장치의 구성을 도시한 것이다.
도 8을 참조하면, 본 발명에 따른 시스템(1)은 위치를 알고 있는 3개 이상의 무선통신기기(이하, '앵커노드(anchor node)'라 함)와 위치를 알고자 하는 무선통신 단말기(이하, '타겟노드(target node)'라 함)를 포함하는 무선 센서 네트워크(10)와, 측위 애플리케이션(30)을 실행하여 타겟노드(TN)의 위치 정보를 산출하는 측위서버(20)를 포함할 수 있다.
도 8에 따른 무선 센서 네트워크(10)는 매우 단순화시켜 도시하였지만, 실제로는 이 보다 훨씬 복잡한 구성으로 되어 있을 수 있다.
무선 센서 네트워크(10)는 예컨대 다수의 말단 무선단말기들과, 이들을 중계하는 다수의 라우터들, 그리고 일정 지역의 무선단말기들과 라우터에 대한 거점의 역할을 하는 다수의 코디네이터들로 구성될 수 있다.
측위 애플리케이션(30)은 측위 알고리즘을 구현한 애플리케이션 프로그램이다. 이 측위 애플리케이션 프로그램(30)은 CD, DVD, 하드디스크, 비휘발성 메모리 등과 같은 컴퓨터 가독형 기록매체에 기록되고, CPU에 의해 실행된다. 따라서 타겟노드(TN)의 측위에 필요한 기초정보를 획득할 수 있고, 측위 애플리케이션(30)을 읽어 와서 그것을 실행할 수 있는 컴퓨팅 기능을 갖는 수단이라면 어느 것이든 측위서버(20)로서 기능할 수 있다. 여기서, 타겟노드 측위에 필요한 기초정보는 타겟노드의 측위에 관여하는 3개의 앵커노드의 위치 정보와 그 3개의 앵커노드에서 타겟노드까지의 거리를 추정할 수 있는 정보 즉, 추정거리 정보를 포함한다.
상기 추정거리 정보로는 예컨대 각 앵커노드에서 타겟노드로부터 수신한 신호의 세기 즉, 수신신호세기(Received Signal Strength: RSS) 또는 타겟노드로부터 전송된 신호가 각 앵커노드까지 도달하는 데 걸린 시간 즉, 도래시간(Time of Arrival: ToA) 등이 될 수 있다.
예컨대 이 측위 애플리케이션(30)은 도시된 것과 같이 측위서버(20)와 같은 무선 네트워크(10) 외부의 별도의 컴퓨팅 장치에서 실행될 수 있다. 하지만, 측위 애플리케이션 프로그램(30)을 실행하는 수단이 반드시 그런 측위서버(20)로 한정되지는 않는다. 무선 네트워크(10)를 구성하는 자원들도 측위서버로서 기능할 수 있다.
예컨대, 무선 통신망(10)의 구성요소인 앵커노드들이나 또는 타겟노드도 데이터 기록매체로부터 측위 애플리케이션 프로그램(30)을 실행할 수 있는 충분한 컴퓨팅 능력을 갖추고 있다면, 측위 애플리케이션 프로그램(30)의 실행수단이 될 수 있다. 만약 측위서버(20)에서 측위 애플리케이션 프로그램(30)을 실행하여 측위를 하는 경우, 도 8에 도시된 것처럼 3개의 앵커노드에서 타겟노드까지의 거리 추정을 할 수 있는 추정거리 정보와 3개의 앵커노드의 위치정보가 측위서버(20)에 제공되어야 하고, 앵커노드나 타겟노드가 측위서버로서 기능하는 경우라면 해당 노드로 상기 정보가 제공되도록 해야 할 것이다.
이하에서는 전술한 스마트 작업모(100)의 구성을 기초로 미리 설정된 이벤트가 발생된 경우, 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 과정에 대해 설명한다.
도 9는 본 발명이 제안하는 미리 설정된 이벤트가 발생된 경우, 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 과정을 순서도로 도시한 것이다.
도 9를 참조하면, 가장 먼저, 스마트 작업모(110)의 디스플레이부(151)를 통해, 작업과 관련된 정보를 증강 현실로 표현하는 단계(S10)가 수행된다.
이를 통해, 현재 작업모는 작업모를 착용한 사용자의 안전을 보호하는 기능 이외에 사용자의 작업을 지원하기 위한 기능을 별도로 구비하고 있지는 못하다는 문제점의 해소가 가능하다.
이후, 센서부(140)를 통해 작업모(100)의 사용자 생체 정보 및 사용자 주변에 대한 정보를 수집하는 단계(S20)가 진행된다.
제어부(180)를 통해, 생체 정보 및 주변 정보 중 적어도 하나를 이용하여 기 설정된 이벤트에 해당한다고 판단되는 경우, 사용자에게 알람 신호를 전송하는 단계(S30)가 수행될 수 있따.
또한, 제어부(180)는 도 7 및 도 8을 이용하여 설명한 실내 측위 알고리즘에 따라 사용자의 위치를 판별하는 단계(S40)를 수행한다.
이후, 사용자의 생체 정보, 주변 정보 및 위치 정보를 기 설정된 외부 서버로 전송하는 단계(S50)를 수행함으로써, 작업모를 착용한 사용자에게 특정 이벤트가 발생한 경우(추락, 감전 등), 이러한 사용자의 상태를 즉각적으로 파악하여 대응책을 수립하는 것이 매우 어렵고, 특히, 사용자의 위치를 신속하게 파악할 수 없다는 문제점 등을 해소할 수 있게 된다.
전술한 본 발명의 구성이 적용되는 경우, 작업과 관련된 정보를 증강 현실로 표현하여 사용자의 업무효율을 높일 뿐만 아니라 사용자 생체 정보와 사용자 주변에 대한 정보를 수집하여 미리 설정된 이벤트가 발생된 경우에는 실내 측위 알고리즘에 따라 사용자의 위치를 판별하여 사용자 및 주변에 위험 정보를 공유하는 스마트 작업모 및 그 제어방법을 사용자에게 제공할 수 있다.
또한, 사물인터넷(IoT) 기반 ICT기술과의 융합을 통한 전통 제조, 물류산업의 경쟁력 강화의 필요성이 대두되고 있고, ICT를 기반으로 모든 사물이 인터넷으로 연결되어 사람과 사물, 사물과 사물간의 정보를 교환하고 상호 소통하는 사물인터넷이 신성장 동력으로 부상 중이다. 따라서 제조업과 ICT 융합이 생산 및 물류의 혁명을 일으키며 전통산업 위기의 돌파구로 주목 받고 있으며 이에 따라 4차 산업 혁명기에는 ICT와 제조업의 융합으로 생산, 물류의 모든 과정이 모두 네트워크로 연결되고, 상호 소통하면서 보다 유연하게 전사적 최적화를 달성할 수 있는 스마트 팩토리(Smart Factory)로 전환될 것으로 기대되며, 여기서 본 발명이 제안하는 스마트 작업모가 중요한 역할을 담당할 것으로 예측된다.
또한, 본 발명에 따른 스마트 작업모 기술은 1차적으로는 웨어러블 디바이스 기술, 생체 인식 센서 기술, 증강현실 기술 및 무선통신 기반 실내 측위 기술의 발전을 가져 올 것으로 예상되고, 2차적으로는 U-Health Care 기술과 컴퓨터 비전 기술 및 위치 기반 서비스 기술의 향상이 예상되며, 미래형 공장 관련 다양한 분야의 원천 기술에 기여할 것으로 예상된다.
또한, 본 발명에 따른 스마트 작업모 기술은 공장자동화 기술, 제조 기술, 정보통신 기술, 그리고 차세대 인터넷의 중요한 방향성을 제시하고, 제조 산업의 신시대를 선도할 것으로 기대된다.
또한, 본 발명에 따른 스마트 작업모 기술은 생산의 모든 주체가 하나의 공통된 접근 방식을 통해 CPS에 접근하고, 제조 과정, 장치, 환경 등에 적합한 소프트웨어 등을 원활하게 사용할 수 있는 방향의 Industry 4.0 플랫폼 구축을 위한 표준화에 기여할 것으로 예상된다.
또한, 본 발명에 따른 스마트 작업모를 통해 맞춤형 소량 생산 등 미래 생산 방식에 대비하고, 빅 데이터 등을 활용한 신사업 기회 창출 등으로 새로운 시장 창출이 가능하고, 자동화를 통한 비용 절감 등으로 제조업의 경쟁력 제고가 기대된다.
한편, 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (7)

  1. 사용자가 작업을 위해 착용하는 스마트 작업모와, 무선통신시스템을 통하여 상기 스마트 작업모와 데이터를 송수신하는 스마트작업모서버, 상기 스마트 작업모의 위치를 측정하는 위치측위서버 및 상기 위치측위서버와 통신하는 복수의 AP(Access Point)를 구비하는 스마트 작업모 시스템에서 사용되는 스마트 작업모에 있어서,
    상기 스마트 작업모는,
    상기 작업과 관련된 정보를 증강 현실(Augmented Reality, AR)의 형태로 표시하는 디스플레이부; 상기 사용자의 인체와 관련된 제 1 정보 및 상기 사용자 주변과 관련된 제 2 정보를 수집하는 센서부; 상기 제 1 정보 및 제 2 정보를 이용하여 상기 사용자에게 미리 설정된 이벤트가 발생하였는지 여부를 판단하는 제어부; 상기 미리 설정된 이벤트가 발생된 경우, 상기 제어부의 제어에 따라 상기 사용자에게 알람신호를 전달하는 출력부; 및 상기 미리 설정된 이벤트가 발생된 경우, 상기 제어부의 제어에 따라 상기 제 1 정보 및 제 2 정보를 상기 스마트작업모서버로 전송하는 무선통신부;를 포함하고,
    상기 센서부에서 수집하는 상기 제 1 정보는 상기 사용자의 건강상태를 판단할 수 있는 생체 정보이고, 상기 제 2 정보는 상기 작업을 수행하는 환경을 모니터링 하기 위한 정보이며,
    상기 제어부에서 판단하는 상기 미리 설정된 이벤트는 전도, 추락, 충돌, 협착, 창자, 염전, 격돌, 이물, 압중, 역차, 진동, 감전, 독극물 접촉, 질식, 익수, 고온 또는 저온접촉, 이상기압상태, 복사선, 방사선 흡수 및 음향 흡수를 포함하며,
    상기 무선통신부는;
    상기 복수의 AP로부터 수신된 신호의 세기 중 3개 이상을 이용하여 삼변 측량법을 기초로 상기 스마트 작업모의 위치를 추정하는 위치정보모듈을 더 구비하며,
    상기 디스플레이부는;
    적어도 하나의 디스플레이와 상기 적어도 하나의 디스플레이에서 발산되는 가상화면 및 외부이미지를 상기 사용자의 안구에 전달하는 투과형(See-through type) 광학모듈로 이루어진 헤드마운트 디스플레이 고글모듈과,
    상기 가상화면에 대한 영상신호를 생성하여 상기 적어도 하나의 디스플레이에 전송하는 컨트롤러 모듈과,
    상기 스마트 작업모의 전면 하단부에 장착되어 상기 컨트롤러 모듈을 지지하며, 상기 고글모듈이 상기 사용자의 얼굴에 부착되도록 지지하는 프레임 및
    상기 고글모듈을 상기 사용자의 안구의 중심점을 회전축으로 하여 상하 회전할 수 있도록 상기 컨트롤러 모듈의 단부에 연결되는 고정부재, 상기 고정부재와 연결되는 가이드 홈, 상기 가이드 홈에 끼워져 상기 고글모듈을 슬라이딩시키는 가이드 부재 및 판스프링으로 구성되어, 상기 사용자의 안구의 중심점을 회전축으로 하여 상기 고글모듈을 상부로 슬라이딩시켜 고정시키는 힌지모듈로 구성되어,
    상기 가상화면 및 상기 외부이미지를 상기 사용자의 안구의 동공중심의 접선 면에 수직으로 입사되도록 하되, 상기 힌지모듈이 슬라이딩되어 상부에 고정되면, 상기 사용자가 눈을 위로 치켜뜰 시 상기 가상화면에 대한 영상광이 상기 사용자의 안구의 동공 중심의 접선 면에 수직으로 입사되도록 하고,
    상기 힌지모듈이 슬라이딩되어 상부에 고정될 시 상기 외부이미지를 차단하는 필터를 더 구비하며,
    상기 제어부는;
    상기 위치정보모듈을 제어하여, 실내측위알고리즘에 따라 상기 복수의 AP로부터 상기 사용자의 위치를 판별하고, 이를 상기 스마트작업모서버로 전송하도록 상기 무선통신부를 제어하는 것을 특징으로 하는 스마트 작업모.
  2. 삭제
  3. 제 1항에 있어서,
    상기 무선통신부는 근거리 통신 및 원거리 통신 중 적어도 하나를 이용하여 통신하고,
    상기 근거리 통신은, ANT, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 기술을 포함하며,
    상기 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access)을 포함하는 것을 특징으로 하는 스마트 작업모.
  4. 삭제
  5. 삭제
  6. 제 1항의 스마트 작업모를 제어하는 방법에 있어서,
    사용자가 작업을 위해 착용한 스마트 작업모의 디스플레이부를 통해 상기 사용자에게 상기 작업과 관련된 정보를 증강 현실(Augmented Reality, AR)의 형태로 디스플레이하는 단계;
    상기 사용자의 인체와 관련된 제 1 정보 및 상기 사용자 주변과 관련된 제 2 정보를 센서부가 수집하는 단계;
    상기 제 1 정보 및 제 2 정보를 이용하여 상기 사용자에게 미리 설정된 이벤트인 전도, 추락, 충돌, 협착, 창자, 염전, 격돌, 이물, 압중, 역차, 진동, 감전, 독극물 접촉, 질식, 익수, 고온 또는 저온접촉, 이상기압상태, 복사선, 방사선 흡수 및 음향 흡수 중 적어도 어느 하나가 발생하였는지 여부를 판단하는 단계; 및
    상기 미리 설정된 이벤트 중 적어도 어느 하나가 발생된 경우, 상기 제 1 정보 및 제 2 정보를 상기 사용자에게 알리는 단계;
    위치정보모듈을 제어하여, 복수의 AP로부터 수신된 신호의 세기 중 3개 이상을 이용하여 삼변 측량법을 기초로 상기 스마트 작업트 작업모의 위치를 추정하는 단계; 및
    무선통신부를 제어하여, 상기 상기 제 1 정보 및 제 2 정보와 상기 스마트 작업모의 위치 정보를 외부의 스마트작업모서버로 전송하는 단계;로 이루어지는 것을 특징으로 하는 스마트 작업모의 제어방법.
  7. 삭제
KR1020160051611A 2016-04-27 2016-04-27 스마트 작업모 및 그 제어방법 KR101787508B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160051611A KR101787508B1 (ko) 2016-04-27 2016-04-27 스마트 작업모 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160051611A KR101787508B1 (ko) 2016-04-27 2016-04-27 스마트 작업모 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR101787508B1 true KR101787508B1 (ko) 2017-11-16

Family

ID=60806793

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160051611A KR101787508B1 (ko) 2016-04-27 2016-04-27 스마트 작업모 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR101787508B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101973612B1 (ko) * 2018-10-29 2019-04-29 (주)뉴클리어엔지니어링 위치추적 기능을 갖는 개인선량계 및 이를 이용한 실시간 해체작업자 안전관리 시스템
US10869517B1 (en) 2017-05-28 2020-12-22 Nexus House LLC Folding hat with integrated display system
KR20210031153A (ko) * 2019-09-11 2021-03-19 주식회사 피앤씨솔루션 초근접 위치 검출을 위한 uwb를 활용한 증강현실 시뮬레이터 시스템
CN112598892A (zh) * 2020-12-11 2021-04-02 国网河南省电力公司检修公司 一种测试仪器的遥控遥显器及控制方法
CN113367429A (zh) * 2021-04-30 2021-09-10 宁波科源迪讯科技有限公司 一种铁路巡检安全帽和安全监控方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046903A (ja) * 2001-07-31 2003-02-14 Sanyo Electric Co Ltd 表示装置
KR101581353B1 (ko) * 2015-05-22 2016-01-11 전상보 안전 헬멧

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003046903A (ja) * 2001-07-31 2003-02-14 Sanyo Electric Co Ltd 表示装置
KR101581353B1 (ko) * 2015-05-22 2016-01-11 전상보 안전 헬멧

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10869517B1 (en) 2017-05-28 2020-12-22 Nexus House LLC Folding hat with integrated display system
KR101973612B1 (ko) * 2018-10-29 2019-04-29 (주)뉴클리어엔지니어링 위치추적 기능을 갖는 개인선량계 및 이를 이용한 실시간 해체작업자 안전관리 시스템
WO2020091218A1 (ko) * 2018-10-29 2020-05-07 (주)뉴클리어엔지니어링 위치추적 기능을 갖는 개인선량계 및 이를 이용한 실시간 해체작업자 안전관리 시스템
KR20210031153A (ko) * 2019-09-11 2021-03-19 주식회사 피앤씨솔루션 초근접 위치 검출을 위한 uwb를 활용한 증강현실 시뮬레이터 시스템
KR102235902B1 (ko) 2019-09-11 2021-04-05 주식회사 피앤씨솔루션 초근접 위치 검출을 위한 uwb를 활용한 증강현실 시뮬레이터 시스템
CN112598892A (zh) * 2020-12-11 2021-04-02 国网河南省电力公司检修公司 一种测试仪器的遥控遥显器及控制方法
CN113367429A (zh) * 2021-04-30 2021-09-10 宁波科源迪讯科技有限公司 一种铁路巡检安全帽和安全监控方法

Similar Documents

Publication Publication Date Title
KR101787508B1 (ko) 스마트 작업모 및 그 제어방법
CN104919398B (zh) 可佩戴的基于行为的视觉系统
US10132633B2 (en) User controlled real object disappearance in a mixed reality display
US20180288391A1 (en) Method for capturing virtual space and electronic device using the same
EP3011418B1 (en) Virtual object orientation and visualization
US20170103440A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US9122053B2 (en) Realistic occlusion for a head mounted augmented reality display
CN117356116A (zh) 用于定位可穿戴设备和向可穿戴设备递送内容的信标
CN107771342A (zh) 一种增强现实显示方法及头戴式显示设备
CN105009039A (zh) 使用imu的直接全息图操纵
CN107209572A (zh) 用于显示画面的方法和电子设备
WO2013155217A1 (en) Realistic occlusion for a head mounted augmented reality display
CN105103082A (zh) 由人触发的全息提醒
KR102243903B1 (ko) 복합재난 사고대응 지원용 지휘통제시스템
KR20130000401A (ko) 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
CN110478901A (zh) 基于增强现实设备的交互方法及系统
CN105393284A (zh) 基于人类身体数据的空间雕刻
KR102218210B1 (ko) 가상 오브젝트의 처리가 가능한 스마트 안경
KR20200082109A (ko) 비주얼 데이터와 3D LiDAR 데이터 융합 기반 계층형 특징정보 추출 및 응용 시스템
CN105116544A (zh) 头操作的电子眼镜
CN204695230U (zh) 头操作的电子眼镜
US11960783B2 (en) Method and apparatus for extended reality head mounted display device
JP6816909B1 (ja) 避難誘導システム、避難誘導方法、および、眼鏡型ディスプレイ
KR20130053296A (ko) 이동 단말기 및 이동 단말기의 제어 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant