KR102601757B1 - 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법 - Google Patents

휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법 Download PDF

Info

Publication number
KR102601757B1
KR102601757B1 KR1020230023722A KR20230023722A KR102601757B1 KR 102601757 B1 KR102601757 B1 KR 102601757B1 KR 1020230023722 A KR1020230023722 A KR 1020230023722A KR 20230023722 A KR20230023722 A KR 20230023722A KR 102601757 B1 KR102601757 B1 KR 102601757B1
Authority
KR
South Korea
Prior art keywords
wearable
image data
electronic device
user
augmented reality
Prior art date
Application number
KR1020230023722A
Other languages
English (en)
Inventor
문성준
김정연
Original Assignee
주식회사 셀리코
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 셀리코 filed Critical 주식회사 셀리코
Priority to KR1020230023722A priority Critical patent/KR102601757B1/ko
Application granted granted Critical
Publication of KR102601757B1 publication Critical patent/KR102601757B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1095Replication or mirroring of data, e.g. scheduling or transport for data synchronisation between network nodes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H37/00Accessories for massage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Human Computer Interaction (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 다양한 실시예에 따른 휴식 가전과 연결되어 사용자의 시야에 따라 증강 현실 영상을 제공하는 AR 장치 시스템은 무선 미러캐스팅으로 영상 데이터 송신이 가능한 제1 통신부를 포함하는 외부 장치, 무선 커넥팅을 통해 영상 데이터 수신이 가능한 제2 통신부를 포함하는 전자 장치, 및 웨어러블 AR 장치를 포함하고, 상기 웨어러블 AR 장치는 상기 전자 장치와 유선 연결 가능한 인터페이스부, 수신한 영상 데이터를 증강 현실 영상 데이터로 컨버팅하는 컨버팅부, 및 상기 인터페이스부 및 상기 컨버팅부와 전기적으로 연결되는 프로세서를 포함할 수 있다.

Description

휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 AR 장치 시스템 및 이를 이용한 방법{AR DEVICE SYSTEM PROVIDING AUGMENTED REALITY IMAGE IN RESPONSE TO CHANGING FIELD OF VIEW OF USER ACCORDING TO STRUCTURAL CHANGE OF HOME RESTING APPLIANCE, AND METHOD USING THE SAME}
본 개시는 외부 장치를 통해 제공되는 영상을 웨어러블 AR 장치를 통해 증강 현실 영상으로 휴식 가전에서 착용한 채로 제공하는 시스템 및 방법에 관한 것이다. 보다 상세하게, 본 개시는 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 AR 장치 시스템 및 이를 이용한 방법에 관한 것이다.
AR 글래스는 증강 현실(augmented reality, AR)을 구현하는 웨어러블 디바이스로 1968년 가상 영상과 주변의 환경을 함께 볼 수 있는 AR 구현을 시작으로 연구가 진행되어 왔다. AR 글래스는 스마트폰, 태블릿 등과 연결되고, 옵틱 모듈(optic module)을 통해 사용자의 시야 범위에 화면을 증강 현실로 구현한다. AR 글래스는 사용자가 어떠한 자세에서도 영상 시청이 가능하고 손이 자유로울 수 있는 장점이 있다.
안마 의자는 기계적 장치를 이용해 안마 기능 및 휴식 기능을 수행하는 장치로, 최근 건강에 대한 관심으로 수요가 늘고 있는 휴식 가전의 일종이다. 안마 의자는 사용자의 편의를 위해 상부와 하부의 위치를 조절하여 사용자가 누울 수 있는 자세를 갖추는 형태로 변화하고 있다. 이로 인해, 사용자의 상체는 뒤로 젖혀지고 시야 범위는 위쪽을 향하게 되며, 이러한 시야 범위의 변화는 평소 사용자의 시야 범위에서 수직으로 존재하던 TV나 다른 디스플레이 장치를 통한 영상 시청에 문제를 야기할 수 있게 된다. 즉, 안마 의자나 척추 의료 가전 등은 사용자의 사용에 따라 시야 범위가 위쪽으로 향하게 되는 문제가 있어 영상 시청의 연속적인 경험 제공이 어려워질 수 있다.
이와 관련하여, 대한민국공개특허 제10-2021-0030800호가 있다.
본 개시에 개시된 실시예는 상술한 문제점을 해결하기 위하여 제안된 것으로, 휴식 가전을 사용하는 사용자의 자세 변경에도 불구하고 영상 제공 장치에서 제공되는 영상을 변경되는 시야 범위에서 지속적으로 볼 수 있도록 무선 미러캐스팅 기술과 AR 글래스를 이용하는 것에 그 목적이 있다.
본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 달성하기 위한 본 개시의 일 측면에 따른 휴식 가전과 연결되어 사용자의 시야에 따라 증강 현실 영상을 제공하는 AR 장치 시스템은 무선 미러캐스팅으로 영상 데이터 송신이 가능한 제1 통신부를 포함하는 외부 장치, 무선 커넥팅을 통해 영상 데이터 수신이 가능한 제2 통신부를 포함하는 전자 장치, 및 웨어러블 AR 장치를 포함하고, 상기 웨어러블 AR 장치는 상기 전자 장치와 유선 연결 가능한 인터페이스부, 수신한 영상 데이터를 증강 현실 영상 데이터로 컨버팅하는 컨버팅부, 및 상기 인터페이스부 및 상기 컨버팅부와 전기적으로 연결되는 프로세서를 포함할 수 있다.
이 외에도, 사용자의 무선 미러캐스팅 입력을 외부 장치의 제1 통신부를 통해 수신하는 단계, 상기 무선 미러캐스팅 입력을 기초로 상기 외부 장치와 커넥팅 가능한 전자 장치를 확인하는 단계, 상기 외부 장치의 제1 통신부를 통해 상기 커넥팅 가능한 전자 장치 중 선택된 전자 장치로 영상 데이터를 송신하는 단계, 및 상기 제공된 영상 데이터를 상기 전자 장치와 커넥팅된 웨어러블 AR 장치를 통해 제공하는 단계를 포함하는 증강 현실 영상 제공 방법이 더 제공될 수 있다.
본 개시의 전술한 과제 해결 수단에 의하면, 휴식 가전을 사용하는 사용자의 시야 범위가 위쪽을 향하게 되어 TV 및 디스플레이 장치에 대한 시청이 어려운 점을 휴식 가전과 연결 또는 페어링되는 웨어러블 AR 장치를 통해 해결하여 사용자의 편의를 증대시킬 수 있다.
또한, 본 개시의 다양한 실시예에 따르면 무선 미러캐스팅 송신부를 포함하는 TV와 무선 미러캐스팅 수신부를 포함하는 휴식 가전이 커넥팅되어 영상 데이터를 미러캐스팅을 통해 송수신할 수 있다.
본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 개략적인 블록도이다.
도 2는 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 구성요소에 관한 블록도이다.
도 3은 본 개시의 다양한 실시예에 따른 증강 현실 영상 제공 방법에 관한 개략적인 흐름도이다.
도 4a 및 도 4b는 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 예시도이다.
도 5는 본 개시의 다양한 실시예에 따른 AR 장치 시스템에서의 영상 데이터 제어 프로세스에 관한 개략적인 블록도이다.
도 6a 및 도 6b는 본 개시의 다양한 실시예에 따른 AR 장치 시스템에서의 영상 데이터 제어에 관한 예시도이다.
도 7은 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 영상 데이터 송출 프로세스에 관한 흐름도이다.
도 8은 본 개시의 다양한 실시예에 따른 증강 현실 영상 제공의 예시도이다.
본 개시 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 개시가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 개시가 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 개시의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 '본 개시에 따른 장치'는 연산처리를 수행하여 사용자에게 결과를 제공할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 본 개시에 따른 장치는, 컴퓨터, 서버 장치 및 휴대용 단말기를 모두 포함하거나, 또는 어느 하나의 형태가 될 수 있다.
여기에서, 상기 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함할 수 있다.
상기 서버 장치는 외부 장치와 통신을 수행하여 정보를 처리하는 서버로써, 애플리케이션 서버, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 게임 서버, 메일 서버, 프록시 서버 및 웹 서버 등을 포함할 수 있다.
상기 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치를 포함할 수 있다.
본 개시의 다양한 실시예에 따른 전자 장치는 가정에서 흔히 사용하는 안마 의자, 리클라이너 기능을 구비한 소파, 척추 마사지 장치 등의 휴식 가전을 포함한다. 전자 장치의 본래 용도는 사용자에게 휴식을 제공하는 것이다. 즉, 전자 장치는 형태를 변형하거나, 모터 등을 통해 안마 기능을 제공하거나, 온열 기능을 제공하는 등으로 사용자의 휴식을 돕는 장치를 포함할 수 있다.
본 개시의 다양한 실시예에 따른 전자 장치는, 특정 모드에 따라 위치를 변화시켜 사용자에게 안마 기능을 제공할 수 있다. 다른 실시예에 따른 전자 장치는, 사용자가 천장을 보고 누운 상태에서 마사지 기능을 제공할 수 있다. 또 다른 실시예에 따른 전자 장치는, 사용자가 앉은 상태 또는 틸팅(tilting) 상태로 그 상태에 대한 변형을 제공할 수 있다. 이와 같이, 전자 장치는 공통적으로 사용자의 시야가 정면이 아닌 천장을 향하는 상태를 만들 수 있다.
본 개시의 다양한 실시예에 따른 외부 장치는 스마트 TV, 태블릿, 휴대용 단말기 등을 포함한다. 외부 장치는 영상 데이터를 송출할 수 있는 장치면 어느 것이든 가능하다. 본 개시의 다양한 실시예에 따른 웨어러블 AR 장치는 AR 글래스, AR 제공 장치, 증강 현실 영상 데이터 제공 장치 등을 포함한다. 웨어러블 AR 장치는 사용자가 착용할 수 있으며 AR 영상 데이터를 제공할 수 있는 장치면 어느 것이든 가능하다.
도 1은 본 개시의 다양한 실시예에 따른 AR 장치 시스템(10)의 개략적인 블록도이다.
도1을 참고하면, AR 장치 시스템(10)은 외부 장치(100), 전자 장치(200), 및 웨어러블 AR 장치(300)를 포함한다. 각각의 노드는 서로 다른 노드와 데이터를 주고받을 수 있다. 각 노드들은 네트워크를 통해 연결될 수 있다.
본 개시의 다양한 실시예에 따른 외부 장치(100)는 영상 데이터를 제공할 수 있는 장치이다. 외부 장치(100)는 유선 및/또는 무선 연결을 통해 연결된 장치로 영상 데이터를 송신하거나 수신할 수 있다. 외부 장치(100)는 AR 장치 시스템(10) 내에서의 각종 데이터를 수신할 수 있으며, 어플리케이션 또는 웹 서비스를 통해 영상 데이터를 제공한다.
본 개시의 다양한 실시예에 따른 전자 장치(200)는 사용자에게 휴식을 제공하기 위한 가전 제품 중 하나일 수 있다. 예를 들어, 전자 장치(200)는 안마 의자일 수 있다. 안마 의자는 본체에 제어부를 중심으로 메모리와 사용자의 신체 정보를 센싱할 수 있는 센싱부, 구동부, 디스플레이부 등을 포함할 수 있다. 전자 장치(200)는 사용자의 스트레스를 해소하고 심신의 안정을 회복할 수 있도록 돕는다.
전자 장치(200)의 센싱부는 전자 장치(200) 내 정보, 전자 장치(200)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 전자 장치(200)의 제어부는 이러한 센싱 신호에 기초하여, 전자 장치(200)의 구동 또는 동작을 제어하거나, 전자 장치(200)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다.
상기와 같은, 센싱부는 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰, 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 중 적어도 하나를 포함함), 화학 센서(예를 들어, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 전자 장치(200)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
본 개시의 다양한 실시예에 다른 웨어러블 AR 장치(300)는 안경과 동일한 방식으로 사용자가 착용할 수 있는 장치일 수 있다. 웨어러블 AR 장치(300)는 디스플레이부를 통해 사용자에게 시각적 정보를 전달할 수 있다. 예를 들어, 시각적 정보는 증강 현실 영상 데이터를 포함한다. 웨어러블 AR 장치(300)는, 예를 들어, 디스플레이부를 통해 웨어러블 AR 장치(300)의 제어를 위한 사용자 인터페이스, 웨어러블 AR 장치(300)의 상태 표시를 위한 사용자 인터페이스 등을 표시할 수 있다.
본 개시의 웨어러블 AR 장치(300)의 디스플레이부는, 예를 들어, 광학적 투시가 가능한 반 반사 곡면 거울(curved mirror) 방식, 도광(light guide) 방식, 광도파로(optical waveguide), 광학 프리즘, 버드바스(bird-bath) 방식 중 적어도 하나의 방식을 사용할 수 있다. 웨어러블 AR 장치(300)는 광학적 투시가 가능한 디스플레이부를 통해 입체적 이미지(영상)에 관한 정보를 전달함으로써, 사용자에게 증강 현실의 경험을 제공할 수 있다.
도 2는 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 구성요소에 관한 블록도이다.
도 2를 참고하면, AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))은 외부 장치(100), 전자 장치(200), 및 웨어러블 AR 장치(300)를 포함할 수 있다. 본 개시의 AR 장치 시스템은 도시된 장치들 외에도 다른 장치들을 제한없이 포함할 수 있다.
도 2를 참고하면, 외부 장치(100)는 내부 구성요소로 제1 통신부(110) 및 디스플레이부(120) 등을 포함할 수 있으며, 이에 한정되는 것은 아니다. 본 개시의 외부 장치(100)는 프로세서를 포함할 수 있으며, 주로 영상 데이터를 제공하는 장치일 수 있다.
본 개시의 다양한 실시예에 따른 제1 통신부(110)는 사용자의 무선 미러캐스팅 입력을 수신할 수 있다. 미러캐스팅은 무선으로 디스플레이를 연결하는 기술을 포함한다. 예를 들어, 미러캐스팅은 wifi를 활용하여 스마트폰이나 노트북, 태블릿 등과 디스플레이를 연결하는 기술을 의미할 수 있다. 미러캐스팅은 영상 데이터뿐만 아니라 음성 데이터를 송신할 수 있다. 본 개시의 외부 장치(100)는 제1 통신부(110)를 통해 적어도 하나의 다른 장치(예: 전자 장치(200))로 영상 데이터를 무선 미러캐스팅할 수 있다.
본 개시의 제1 통신부(110)는 미러캐스팅 송신 모듈(미도시)을 포함한다. 미러캐스팅 송신 모듈은 사용자의 미러캐스팅 입력, 다른 장치와의 연결 프로세스로 인해 다른 장치로 영상 데이터를 송신할 수 있도록 설정된다. 즉, 제1 통신부(110)의 미러캐스팅 송신 모듈은 외부 장치(100)의 영상 데이터를 미러캐스팅을 위해 무선 커넥팅된 다른 장치로 송신할 수 있다. 일반적인 스마트 tv의 경우, 무선 미러캐스팅을 수행하기 위한 별도의 통신 모듈이 구비되지 않으나, 본 개시의 외부 장치(100)는 제1 통신부(110)를 통해 미러캐스팅을 수행할 수 있다.
본 개시의 제1 통신부(110)는 명령 송신 모듈(미도시), 명령 수신 모듈(미도시) 등을 포함할 수 있으며, 이를 통해 전자 장치(200) 및/또는 웨어러블 AR 장치(300)와 상호 간 영상 데이터에 관한 제어 명령을 송신 및/또는 수신할 수 있다.
본 개시의 다양한 실시예에 따른 디스플레이부(120)는 영상 데이터 송출이 가능한 디스플레이를 포함할 수 있다. 디스플레이부(120)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 위 외부 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 외부 장치(100)와 사용자 간에 출력 인터페이스를 제공할 수 있다.
디스플레이부(120)는 외부 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(120)는 외부 장치(100)에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
도 2를 참고하면, 전자 장치(200)는 내부 구성요소로 제2 통신부(210) 및 인터페이스부(220) 등을 포함할 수 있으며, 이에 한정되지 않는다. 본 개시의 전자 장치(200)는 프로세서와 컨트롤 패널 등을 포함할 수 있으며, 주로 사용자에게 휴식과 관련된 기능을 제공하는 장치일 수 있다.
본 개시의 다양한 실시예에 따른 제2 통신부(210)는 제1 통신부(110)로부터 무선 커넥팅 명령을 수신할 수 있다. 무선 커넥팅 명령은 무선 미러캐스팅을 통해 외부 장치(100)로부터 다른 장치로 영상 데이터를 송신하기 이전에 장치 간 커넥팅을 수행하기 위한 접근 권한 설정의 명령일 수 있다. 본 개시의 제2 통신부(210)는 커넥팅 명령에 대응하여 외부 장치(100)와의 커넥팅 이후 미러캐스팅을 통해 영상 데이터를 수신하도록 설정될 수 있다.
본 개시의 제2 통신부(210)는 미러캐스팅 수신 모듈(미도시) 및 명령 송신 모듈(미도시)을 포함할 수 있다. 미러캐스팅 수신 모듈은 전자 장치(200)가 외부 장치(100)와 무선 커넥팅된 이후, 외부 장치(100)로부터 영상 데이터를 미러캐스팅을 통해 수신하는 프로세스를 수행하도록 설정될 수 있다. 명령 송신 모듈은 전자 장치(200) 및/또는 웨어러블 AR 장치(300)의 영상 데이터에 관한 제어 명령을 송신하도록 설정될 수 있다. 또한, 제2 통신부(210)는 명령 수신 모듈(미도시)을 포함하여, 외부 장치(100)로부터 영상 데이터에 관한 제어 명령을 수신할 수 있다.
일반적인 휴식 가전의 경우, 무선 미러캐스팅을 수행하기 위한 별도의 통신 모듈이 구비되지 않으나, 본 개시의 전자 장치(200)는 제2 통신부(210)를 통해 무선 커넥팅 및 미러캐스팅을 통한 영상 데이터 수신 프로세스를 수행할 수 있다.
본 개시의 인터페이스부(220)는 전자 장치(200)에 연결되는 다양한 종류의 외부 기기(예: 웨어러블 AR 장치(300))와의 통로 역할을 수행한다. 이러한 인터페이스부(220)는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈(SIM)이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 전자 장치(200)에서는, 인터페이스부(220)에 연결된 웨어러블 AR 장치(300)와 관련된 적절한 제어를 수행할 수 있다.
본 개시의 전자 장치(200)는 컨트롤 패널을 포함할 수 있다. 컨트롤 패널은 전자 장치(200)의 동작에 대한 전반적인 제어 및 전자 장치(200)에 미러캐스팅되는 영상 데이터에 관련된 각종 제어를 수행하도록 설정될 수 있다.
도 2를 참고하면, 웨어러블 AR 장치(300)는 내부 구성요소로 프로세서(310), 인터페이스부(320), 컨버팅부(330), 및 디스플레이부(340) 등을 포함할 수 있으며, 이에 한정되는 것은 아니다. 본 개시의 웨어러블 AR 장치(300)는 사용자의 신체 일부에 착용이 가능한 장치이며, 주로 영상 데이터를 수신하여 증강 현실로 제공하는 장치일 수 있다.
본 개시의 다양한 실시예에 따른 프로세서(310)는 웨어러블 AR 장치(300) 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시) 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 기능 블록으로 구현될 수 있다. 이 때, 프로세서(310)와 메모리는 각각 별개의 칩으로 구현될 수 있다. 또는, 프로세서(310)와 메모리는 단일의 칩으로 구현될 수도 있다.
프로세서(310)는 이하의 도 3, 도 5, 및 도 7에서 설명되는 본 개시에 따른 다양한 실시예들을 웨어러블 AR 장치(300)에서 구현하기 위해 위에서 살펴본 구성요소들 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
본 개시의 프로세서(310)는 컨트롤부를 통한 입력을 기초로 외부 장치(100)로부터 전자 장치(200)로 수신되는 영상 데이터에 관한 제어 명령을 인터페이스부(320) 또는 통신부(미도시)를 통해 전자 장치(200)로 제공할 수 있다. 컨트롤부는 인터페이스부(320)를 통해 전자 장치(200)에 미러캐스팅되는 영상 데이터에 관한 각종 제어 명령이 입력 가능할 수 있다.
본 개시의 다양한 실시예에 따른 인터페이스부(320)는 웨어러블 AR 장치(300)에 연결되는 다양한 종류의 외부 기기(예: 전자 장치(200))와의 통로 역할을 수행한다. 이러한 인터페이스부(320)는 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈(SIM)이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 웨어러블 AR 장치(300)에서는, 인터페이스부(320)에 연결된 전자 장치(200)와 관련된 적절한 제어를 수행할 수 있다. 특히, 전자 장치(200)의 인터페이스부(220)과 웨어러블 AR 장치(300)의 인터페이스부(320)는 usb c 타입의 커넥터를 포함할 수 있다.
일 예를 들어, 웨어러블 AR 장치(300)는 전자 장치(200)와 분리형으로 구성될 수 있다. 분리형인 경우, 웨어러블 AR 장치(300)의 인터페이스부(320)는 전자 장치(200)의 적어도 일부와 전기적으로 연결되는 경우 웨어러블 AR 장치(300)가 동작 가능한 상태로 기능할 수 있다. 이 경우, 전자 장치(200)의 적어도 일부는 인터페이스부(220)일 수 있다. 다른 예를 들어, 웨어러블 AR 장치(300)는 전자 장치(200)와 일체형으로 구성될 수 있다. 일체형인 경우, 웨어러블 AR 장치(300)의 인터페이스부(320)는 전자 장치(200)와 일체를 이루어 동작 가능한 상태로 기능할 수 있다. 이 경우, 전자 장치(200)의 인터페이스부(220)와 웨어러블 AR 장치(300)의 인터페이스부(320)는 전기적으로 연결된 상태를 항시 유지하고 있을 수 있다. 또 다른 예를 들어, 웨어러블 AR 장치(300)는 전자 장치(200)와 분리형으로 구성되면서 무선 연결될 수 있다. 이 경우, 웨어러블 AR 장치(300)는 무선 통신 가능한 통신부를 구비하여 전자 장치(200)와 무선 연결되어 본 개시의 AR 장치 시스템에서의 각종 동작을 수행한다. 또한, 이 경우, 웨어러블 AR 장치(300)는 물리적 연결 기능을 제공하는 인터페이스부(320)를 구비하지 않을 수 있다.
본 개시의 다양한 실시예에 따른 컨버팅부(330)는 2D로 수신되는 영상 데이터를 3D의 증강 현실 영상 데이터로 컨버팅할 수 있다. 예를 들어, 컨버팅부(330)는 언리얼 엔진 등을 통해 전자 장치(200)로 수신된 영상 데이터를 가공하여 3D의 영상 데이터로 변환하고, 이를 사용자에게 증강 현실로 제공하도록 컨버팅할 수 있다.
본 개시의 다양한 실시예에 따른 디스플레이부(340)는 사용자에게 증강 현실(augmented reality, AR) 영상 데이터를 제공하기 위한 광을 투사할 수 있다. 본 개시의 AR 장치 시스템은 외부 장치(100)의 디스플레이부(120)를 통해 영상 데이터를 송출하는 동시에 웨어러블 AR 장치(300)의 디스플레이부(340)를 통해 동시에 동일한 영상 데이터를 컨버팅한 증강 현실 영상 데이터를 송출할 수 있다. 또한, AR 장치 시스템은 전자 장치(200)의 사용자의 영상 데이터에 관한 제어 명령 및/또는 웨어러블 AR 장치(300)를 통한 사용자의 영상 데이터에 관한 제어 명령에 대응하여 웨어러블 AR 장치(300)의 디스플레이부(340) 및/또는 외부 장치(100)의 디스플레이부(120)를 통해 송출되는 영상 데이터에 관한 동시 제어를 수행할 수 있다.
실시예에 따른 웨어러블 AR 장치(300)는 디스플레이부(340)에서 생성된 이미지를 사용자의 눈에 초점이 맞도록 하는 방식으로 반 반사 곡면 거울(curved mirror) 방식, 도광(light guide) 방식, 광도파로(optical waveguide), 광학 프리즘, 버드바스(bird-bath) 방식, 반거울 방식 등을 활용할 수 있다. 예를 들어, 반거울 방식은 디스플레이부(340)의 영상은 반사시키고, 사용자의 외부 현실 시야는 투과시켜 현실과 가상의 시야를 합성하는 방식일 수 있다. 다른 예를 들어, 광도파로 방식은 웨어러블 AR 장치(300)의 렌즈 내에 형성된 빛이 지나가 수 있는 통로를 거쳐 회절, 복제되어 최종적으로 렌즈의 특정 부분(예: eye box 부분)에 영상이 송출될 수 있다. 즉, 웨어러블 AR 장치(300)의 디스플레이부(340)는 사용자에게 증강 현실 영상을 제공하기 위한 광을 투사시킨다.
실시예에 따른 웨어러블 AR 장치(300)는 각종 렌즈를 구비할 수 있다. 예를 들어, 렌즈는 알바레즈 렌즈, 볼록 렌즈, 오목 렌즈 등을 포함하며 각종 가변 렌즈를 포함할 수 있다. 웨어러블 AR 장치(300)는 사용자의 시선을 추적할 수 있다. 이는 시선 추적 기능을 갖는 모듈에 의할 수 있다. 이에 따라, 웨어러블 AR 장치(300)는 사용자의 시야 범위에서 외부 장치(100)에서 송출되는 영상 데이터를 컨버팅한 증강 현실 영상 데이터를 제공할 수 있다. 즉, 사용자가 전자 장치(200)를 이용함에 따라 자세가 변경되더라도, 웨어러블 AR 장치(300)는 사용자가 착용한 상태이기 때문에 사용자의 시야 범위에서 증강 현실 영상을 디스플레이부(340)를 통해 불편함 없이 송출할 수 있게 된다.
실시예에 따른 AR 장치 시스템은 전자 장치(200)를 이용하는 사용자가 유선 또는 무선으로 전자 장치(200)와 연결되는 웨어러블 AR 장치(300)를 착용하여, 사용자의 자세 변경에 따른 시야 범위 변경이 있더라도 외부 장치(100)를 통해 송출되는 영상과 동일한 영상을 증강 현실 영상으로 가공하여 바로 눈 앞에서 제공할 수 있도록 한다. 즉, 사용자가 웨어러블 AR 장치(300)를 착용함으로써, AR 장치 시스템은 전자 장치(200)를 이용하는 사용자에게 자세 변경에도 불구하고 지속적으로 증강 현실 영상을 시야 범위 내에서 제공할 수 있다.
본 개시의 다양한 실시예에 따른 AR 장치 시스템의 장치들은 각각 메모리(미도시)를 포함할 수 있다. 메모리는 AR 장치 시스템의 다양한 기능을 지원하는 데이터와, 개별 장치들의 제어부(예: 프로세서(310))의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 음악 파일, 정지영상, 동영상 등)을 저장할 있고, AR 장치 시스템에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), AR 장치 시스템의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.
이러한, 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리는 AR 장치 시스템의 개별 장치들과는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.
도 2에 도시된 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 장치의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
한편, 도 2에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.
도 3은 본 개시의 다양한 실시예에 따른 증강 현실 영상 제공 방법에 관한 개략적인 흐름도이다.
단계 S310에서, AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))의 외부 장치(예: 도 1의 외부 장치(100))는 무선 미러캐스팅 입력을 수신할 수 있다. 여기서, 무선 미러캐스팅 입력은 외부 장치와 다른 장치(예: 도 1의 전자 장치(200)) 간 무선 미러캐스팅 수행을 위한 무선 커넥팅 요청 입력을 포함한다. 구체적으로, AR 장치 시스템의 사용자가 외부 장치를 통해 무선 미러캐스팅으로 영상 데이터를 제공받고자 하는 경우, 사용자는 외부 장치에 무선 미러캐스팅 입력을 하여 외부 장치와 무선 커넥팅 가능한 다른 장치를 서치할 수 있다. 이에 대응하여, 외부 장치의 디스플레이부(예: 도 2의 디스플레이부(120))에는 외부 장치와 무선 커넥팅 가능한 다른 장치의 리스트를 표시할 수 있다. 사용자는 표시된 리스트에서 어느 하나의 장치를 선택하고, 선택된 장치를 통해 외부 장치에서 제공되는 영상 데이터를 동시에 제공받을 수 있게 된다.
단계 S320에서, 휴식 단계 S310에서, AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))의 외부 장치(예: 도 1의 외부 장치(100))는 무선 미러캐스팅 입력을 수신할 수 있다. 여기서, 무선 미러캐스팅 입력은 외부 장치와 다른 장치(예: 도 1의 전자 장치(200)) 간 무선 미러캐스팅 수행을 위한 무선 커넥팅 요청 입력을 포함한다. 구체적으로, AR 장치 시스템의 사용자가 외부 장치를 통해 무선 미러캐스팅으로 영상 데이터를 제공받고자 하는 경우, 사용자는 외부 장치에 무선 미러캐스팅 입력을 하여 외부 장치와 무선 커넥팅 가능한 다른 장치를 서치할 수 있다. 이에 대응하여, 외부 장치의 디스플레이부(예: 도 2의 디스플레이부(120))에는 외부 장치와 무선 커넥팅 가능한 다른 장치의 리스트를 표시할 수 있다. 사용자는 표시된 리스트에서 어느 하나의 장치를 선택하고, 선택된 장치를 통해 외부 장치에서 제공되는 영상 데이터를 동시에 제공받을 수 있게 된다.
단계 S320에서, AR 장치 시스템은 사용자가 선택한 전자 장치와 외부 장치를 무선 커넥팅하는 프로세스를 수행할 수 있다. 이는 사용자의 무선 커넥팅 입력에 대응한 것일 수 있다. 이 때, 제1 통신부(예: 도 2의 제1 통신부(110))는 사용자의 무선 미러캐스팅 입력을 수신할 수 있다. 또한, 제1 통신부는 사용자의 커넥팅 입력에 대응하여 무선 미러캐스팅으로 영상 데이터를 송신할 수 있다. 제2 통신부(예: 도 2의 제2 통신부(210))는 제1 통신부로부터 커넥팅 명령을 수신할 수 있다. 제2 통신부는 커넥팅 명령에 대응하여 영상 데이터를 수신할 수 있다.
단계 S330에서, AR 장치 시스템은 외부 장치로부터 전자 장치로 영상 데이터를 송신하는 프로세스를 수행할 수 있다. 이 경우, 사용자가 미러캐스팅 수행의 입력 및/또는 무선 커넥팅과 동시에 미러캐스팅 수행을 요청하는 입력에 대응하여, 외부 장치는 전자 장치로 영상 데이터를 송신할 수 있다.
단계 S340에서, AR 장치 시스템의 웨어러블 AR 장치(예: 도 1의 웨어러블 AR 장치(300))는 증강 현실 영상 데이터를 사용자에게 제공할 수 있다. 증강 현실 영상 데이터는 외부 장치에서 제공되고 있는 영상 데이터를 전자 장치가 수신하여 컨버팅부(예: 도 2의 컨버팅부(330))를 통해 증강 현실 영상 데이터로 컨버팅한 것일 수 있다.
도 4a 및 도 4b는 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 예시도이다.
도 4a를 참조하면, 전자 장치(200)의 사용자는 외부 장치(100)의 디스플레이부(예: 도 2의 디스플레이부(120))를 통해 영상 데이터를 제공받을 수 있다. 다만, 사용자의 평균적인 상하 시야각은 최대 120도 정도이며, 눈동자의 움직임은 최대 55도 정도로 제한된다. 일반적으로 대부분의 외부 장치(100)는 일상 생활에서 도 4a와 같이 사용자의 시선과 수직으로 배치된다.
본 개시의 AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))에서는, 사용자가 전자 장치(200)에 신체를 의탁한 채로 다양한 각도로 휴식 기능을 제공받을 수 있다. 이 경우, 사용자의 시야는 외부 장치(100)의 디스플레이부와 수직으로 배치되지 않는다.
도 4b를 참조하면, 사용자는 전자 장치(200)를 통해 자세가 변경될 수 있다. 특히, 사용자의 시선이 위쪽(예: 천장)을 향하게 되면, 수직으로 배치된 외부 장치(100)의 디스플레이부는 사용자의 시야각 내에서 벗어나게 될 수 있다. 이와 같은 이유로 사용자는 외부 장치(100)의 디스플레이부를 통해 영상 데이터를 제공받을 수 없게 된다.
본 개시의 AR 장치 시스템에서는, 사용자가 전자 장치(200)를 사용하더라도 기존에 외부 장치(100)를 통해 제공받던 영상 데이터를 연속적 또는 지속적으로 제공받을 수 있도록 웨어러블 AR 장치(예: 도 1의 웨어러블 AR 장치(300))를 통해 증강 현실 영상 데이터로 제공받을 수 있게 한다. 즉, 도 4a와 같은 사용자의 시야에서 도 4b와 같은 사용자의 시야로 변경이 되더라도, AR 장치 시스템에서는 사용자에게 지속적으로 영상 데이터에 대한 경험을 제공할 수 있다. AR 장치 시스템은 전자 장치(200)와 연결된 웨어러블 AR 장치를 통해 사용자의 시야와 외부 장치(100)의 디스플레이부와의 각도 관계를 무관하게 만들어, 사용자 친화적인 영상 데이터 제공 경험을 제공할 수 있다.
도 5는 본 개시의 다양한 실시예에 따른 AR 장치 시스템에서의 영상 데이터 제어 프로세스에 관한 개략적인 블록도이다.
단계 S510에서, 웨어러블 AR 장치(예: 도 1의 웨어러블 AR 장치(300))는 컨트롤부를 통해 영상 데이터에 관한 제어 명령을 입력할 수 있다. 이에 대응하여, 웨어러블 AR 장치의 인터페이스부(예: 도 2의 인터페이스부(320))는 제어 명령을 전자 장치(예: 도 1의 전자 장치(200))의 인터페이브수(예: 도 2의 인터페이스부(220))로 전달하고, 전자 장치의 제2 통신부(예: 도 2의 제2 통신부(210))는 제1 통신부(예: 도 2의 제1 통신부(110))로 제어 명령을 송신할 수 있다.
일 실시예에 따르면, 웨어러블 AR 장치의 컨트롤부를 통한 영상 데이터에 관한 제어 명령은 물리적 입력, 증강 현실 영상 데이터 상에의 제어 명령 등을 포함할 수 있다. 특히, 제어 명령은 영상 데이터의 재생과 관련된 기본적인 명령들과 영상 데이터의 플랫폼 내에서의 제어 명령들을 포함할 수 있다.
단계 S520에서, 웨어러블 AR 장치, 전자 장치, 및/또는 외부 장치(예: 도 1의 외부 장치(100))는 영상 데이터에 관한 제어를 수행할 수 있다. 즉, AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))에서는, 개별 장치들을 통해 영상 데이터에 관한 제어를 수행할 수 있다. 또한, 개별 장치들을 통해 입력하는 제어 명령은 개별 장치들에 제공되는 영상 데이터를 제어하는 것으로, AR 장치 시스템은 영상 데이터에 대한 제어를 공히 개별 장치들에 반영할 수 있게 된다.
도 6a 및 도 6b는 본 개시의 다양한 실시예에 따른 AR 장치 시스템에서의 영상 데이터 제어에 관한 예시도이다.
도 6a를 참조하면, 외부 장치(200)는 컨트롤 패널(230)을 구성요소로 포함한다. 컨트롤 패널(230)은 전자 장치(200)의 동작에 대한 전반적인 제어 및 전자 장치(200)에 미러캐스팅되는 영상 데이터에 관련된 각종 제어를 수행하도록 설정될 수 있다.
실시예에 따른 컨트롤 패널(230)은 도 5의 프로세스를 수행할 수 있도록 영상 데이터에 대한 제어 명령을 입력할 수 있다. 전자 장치(200)는 입력된 제어 명령을 외부 장치 및/또는 웨어러블 AR 장치(300)로 송신할 수 있다.
도 6b를 참조하면, 웨어러블 AR 장치(300)는 컨트롤부(350)를 구성요소로 포함한다. 컨트롤부(350)는 인터페이스부(예: 도 2의 인터페이스부(320))를 통해 전자 장치(200)에 미러캐스팅되는 영상 데이터에 관한 각종 제어 명령이 입력 가능할 수 있다. 도 6b에서, 웨어러블 AR 장치(300)가 안경 또는 글래스 형태로 도시된 것은 웨어러블 AR 장치(300)의 일 구현 형태로 예를 든 것이며, 이에 그 형태가 제한되는 것은 아니다.
도 7은 본 개시의 다양한 실시예에 따른 AR 장치 시스템의 영상 데이터 송출 프로세스에 관한 흐름도이다.
도 7을 참조하면, 단계 S710에서, 외부 장치(예: 도 1의 외부 장치(100))는 디스플레이부(예: 도 2의 디스플레이부(120))에 영상 데이터를 송출할 수 있다. 외부 장치를 통해 송출되는 영상 데이터는 영상 데이터의 플랫폼으로부터 전달받을 수 있으며, 별도의 저장 매체 등을 통해 전달받을 수 있다.
단계 S720에서, 웨어러블 AR 장치(예: 도 1의 웨어러블 AR 장치(300))는 디스플레이부(예: 도 2의 디스플레이부(340))를 통해 증강 현실 영상 데이터를 송출할 수 있다. 이 경우, 증강 현실 영상 데이터는 외부 장치의 디스플레이부를 통해 송출되는 영상 데이터와 동일하면서 증강 현실로 제공되도록 컨버팅된 데이터이다.
이와 같이, 도 7의 프로세스를 통해, AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))은 외부 장치의 디스플레이부를 통해 영상 데이터를 송출하는 동시에 동일하면서 컨버팅된 증강 현실 영상 데이터를 웨어러블 AR 장치의 디스플레이부를 통해 송출할 수 있다.
본 개시의 AR 장치 시스템은 전자 장치(예: 도 1의 전자 장치(200))를 이용하는 사용자가 외부 장치를 통해 외부 장치의 디스플레이부에 송출되는 영상을 전자 장치의 구조 변경이 있더라도 사용자에게 불편함 없이 제공할 수 있도록 한다. 예를 들어, AR 장치 시스템은 전자 장치와 연결되는 웨어러블 AR 장치를 통해 사용자의 자세 변경에 따른 시야 범위 변경이 있더라도 편안하게 영상을 제공한다. 이는 사용자가 웨어러블 AR 장치를 착용하여 사용자의 자세가 변경되더라도 증강 현실 영상이 제공될 수 있도록 하는 것일 수 있다. 일반적으로, 전자 장치를 이용하는 사용자는 외부 장치의 디스플레이부를 마주한 시야 범위가 수시로 변경될 수 있다. 이에 따라, 사용자는 외부 장치의 디스플레이부에서 제공되는 영상을 시청하는데 불편함이 있을 수 있다. 이를 고려하여, AR 장치 시스템은 전자 장치에 연결되는 웨어러블 AR 장치를 통해 사용자의 시야 범위 변경이 있더라도 불편함 없이 증강 현실 영상을 시청할 수 있도록 한다.
도 8은 본 개시의 다양한 실시예에 따른 증강 현실 영상 제공의 예시도이다.
도 8을 참조하면, 사용자는 전자 장치(200)에 신체를 의탁한 채로 휴식 기능을 제공받는다. 일반적으로, 전자 장치(200)와 외부 장치(100)는 전자 장치(200)의 사용자의 시야가 외부 장치(100)의 디스플레이부(예: 도 2의 디스플레이부(120))와 수직을 이루도록 설치된다. 이 경우, 사용자는 전자 장치(200)의 자세 변형에 의하여 시야가 외부 장치(100)의 디스플레이부와 수직을 이루는 상태에서 벗어나게 된다. 즉, 사용자는 전자 장치(200)를 사용하면서 외부 장치(100)에서 송출되는 영상 데이터(810)를 제공받지 못하게 될 수 있다.
본 개시의 다양한 실시예에 따른 AR 장치 시스템(예: 도 1의 AR 장치 시스템(10))은 전자 장치(200)와 유선 및/또는 무선으로 연결되는 웨어러블 AR 장치(300)를 구비하여, 사용자에게 전자 장치(200)의 사용과 동시에 영상 데이터에 대한 지속적인 경험을 제공할 수 있다.
도 8을 참조하면, 사용자는 웨어러블 AR 장치(300)을 착용하여 디스플레이부(예: 도 2의 디스플레이부(340))를 통해 증강 현실 영상 데이터(820)를 제공받을 수 있다. AR 장치 시스템은 제1 통신부(예: 도 2의 제1 통신부(110))를 구비하는 외부 장치(100)와 같은 디스플레이 기기와 미러캐스팅 수신부와 같은 제2 통신부(예: 도 2의 제2 통신부(210))를 구비하는 전자 장치(200), 및 증강 현실 영상 데이터를 제공할 수 있는 웨어러블 AR 장치(300)를 포함한다.
본 개시의 다양한 실시예에 따른 AR 장치 시스템은 무선 미러캐스팅 기술과 증강 현실 기술을 활용하여, 전자 장치(200)의 사용 시 웨어러블 AR 장치(300)를 통해 외부 장치(100)에서 송출되는 영상 데이터의 시청이 가능하도록 한다. 이를 통해, AR 장치 시스템은 사용자가 휴식을 취하기 위한 전자 장치(200)를 사용하면서 시야의 변화에 관계없이 영상 데이터를 제공받을 수 있도록 한다.
본 개시의 다양한 실시예에 따른 전자 장치(200)는 휴식 가전을 포함한다. 예를 들어, 전자 장치(200)는 안마 의자, 척추 마사지 장치, 리클라이너 장치, 또는 의료용 침대 중 어느 하나일 수 있다. 즉, 전자 장치(200)는 전체 구조 중 적어도 일부가 변경되어 전자 장치(200)를 이용하는 사용자의 시야가 변경되는 휴식 가전일 수 있다. 예를 들어, 전자 장치(200)가 안마 의자인 경우, 사용자는 전자 장치(200)의 각종 모드에 의해 외부 장치(100)의 디스블레이부를 마주하는 시야 범위에서 천장을 바라보는 시야 범위를 갖게될 수 있다. 이 때, 전자 장치(200)와 연결된 웨어러블 AR 장치(300)는 사용자의 시야 범위 변경에도 불구하고 사용자의 자세 변경 없이 영상을 편안하게 제공할 수 있다. 즉, 외부 장치(100)를 통해 제공되는 영상을 웨어러블 AR 장치(300)를 통해, 본 개시의 AR 장치 시스템은 사용자의 시야 범위 변경에도 불구하고 사용자가 누워 있는 상태에서도 편안하게 시청 가능하도록 영상을 제공할 수 있다. 이 때, AR 장치 시스템이 제공하는 영상은 증강 현실 영상일 수 있다.
다른 예를 들어, 전자 장치(200)가 의료용 침대인 경우, 사용자는 전자 장치(200)의 수직, 수평, 또는 대각선 방향으로의 구조 변경으로 시야 범위가 다양하게 변경될 수 있다. 본 개시의 AR 장치 시스템은 웨어러블 AR 장치(300)를 통해 전자 장치(200)의 적어도 일부의 구조 변경에도 불구하고 사용자의 시야 범위에서 증강 현실 영상을 제공하도록 한다. 즉, 전자 장치(200)의 구조 변경으로 사용자의 자세 변경에 따른 시야 범위의 변경에도 불구하고, 사용자가 전자 장치(200)와 연결된 웨어러블 AR 장치(300)를 착용한 상태에서, AR 장치 시스템은 사용자의 시야 범위에서 증강 현실 영상을 불편함 없이 제공할 수 있게 된다.
또 다른 예를 들어, 전자 장치(200)가 척추 마사지 장치인 경우, 사용자는 처음부터 외부 장치(100)의 디스플레이부를 마주하지 않는 시야 범위를 가질 수 있다. 즉, 사용자가 전자 장치(200)를 이용하게 되는 경우, 기본적인 자세(예: 누워 있는 자세)에 의해 사용자는 위를 바라보는 시야 범위를 가질 수 있다. 이러한 경우에도, AR 장치 시스템은 전자 장치(200)와 연결된 웨어러블 AR 장치(300)를 이용하여 사용자에게 증강 현실 영상을 제공할 수 있다. 구체적으로, 사용자는 전자 장치(200)를 이용함에 따라 누워 있는 상태에서 외부 장치(100)의 디스플레이부를 마주하지 못하여 외부 장치(100)의 디스플레이부에 표시되는 영상을 제공받지 못할 수 있다. 이 때, AR 장치 시스템은 웨어러블 AR 장치(300)를 착용한 사용자에게 외부 장치(100)를 통해 제공되는 영상을 증강 현실 영상으로 제공하게 된다. 즉, 본 개시의 AR 장치 시스템은 사용자가 전자 장치(200)를 이용하여 외부 장치(100)의 디스플레이부를 마주하는 시야 범위를 갖지 못하더라도, 웨어러블 AR 장치(300)를 통해 영상을 제공하도록 하여 사용자에게 불편함 없는 영상 시청 경험을 제공한다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
10: AR 장치 시스템
100: 외부 장치
200: 전자 장치
300: 웨어러블 AR 장치

Claims (11)

  1. 휴식 가전과 연결되어 사용자의 시야에 따라 증강 현실 영상을 제공하는 AR 장치 시스템에 있어서,
    무선 미러캐스팅으로 영상 데이터 송신이 가능한 제1 통신부를 포함하는 외부 장치;
    무선 커넥팅을 통해 영상 데이터 수신이 가능한 제2 통신부를 포함하는 전자 장치; 및
    웨어러블 AR 장치를 포함하고,
    상기 웨어러블 AR 장치는,
    상기 전자 장치와 커넥팅 가능한 인터페이스부;
    수신한 영상 데이터를 증강 현실 영상 데이터로 컨버팅하는 컨버팅부; 및
    상기 인터페이스부 및 상기 컨버팅부와 전기적으로 연결되는 프로세서를 포함하고,
    상기 전자 장치는, 상기 외부 장치로부터 수신된 커넥팅 명령에 따라 상기 외부 장치와 무선 커넥팅된 후, 상기 외부 장치로부터 무선 미러캐스팅을 통해 상기 영상 데이터를 수신하고,
    상기 전자 장치는, 상기 웨어러블 AR 장치가 분리형인 경우, 상기 인터페이스부를 통해 상기 웨어러블 AR 장치와 적어도 일부가 전기적으로 연결되어 상기 웨어러블 AR 장치가 동작 가능한 상태일 때만 상기 웨어러블 AR 장치로 상기 영상 데이터를 송신하고, 상기 웨어러블 AR 장치가 일체형인 경우, 상기 웨어러블 AR 장치와 전기적으로 연결된 상태를 지속적으로 유지하여 상기 웨어러블 AR 장치로 상기 영상 데이터를 송신하고,
    상기 전자 장치는, 사용자의 상기 영상 데이터에 관한 제어 명령이 입력되면, 상기 제어 명령에 대응하여, 상기 웨어러블 AR 장치의 디스플레이부를 통해 송출되는 영상 데이터와 상기 외부 장치의 디스플레이부를 통해 송출되는 영상 데이터에 대한 동일한 제어를 동시에 수행하는, AR 장치 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 웨어러블 AR 장치는, 디스플레이부를 포함하고,
    상기 디스플레이부는, 렌즈를 이용하여 상기 증강 현실 영상 데이터를 송출하는, AR 장치 시스템.
  6. 제1항에 있어서,
    상기 웨어러블 AR 장치는,
    상기 인터페이스부를 통해 상기 전자 장치에 미러캐스팅되는 영상 데이터에 관한 제어 명령을 입력 가능한 컨트롤부를 포함하고,
    상기 프로세서는,
    상기 컨트롤부를 통한 입력을 기초로 상기 외부 장치로부터 상기 전자 장치로 수신되는 영상 데이터에 관한 제어 명령을 상기 인터페이스부를 통해 상기 전자 장치로 제공하는 것을 특징으로 하는, AR 장치 시스템.
  7. 제1항에 있어서
    상기 전자 장치는,
    상기 전자 장치에 대한 제어 및 상기 전자 장치에 미러캐스팅되는 영상 데이터에 관한 제어를 수행 가능한 컨트롤 패널을 포함하는 것을 특징으로 하는, AR 장치 시스템.
  8. 제1항에 있어서,
    상기 외부 장치는,
    영상 데이터 송출이 가능한 디스플레이부를 포함하고,
    상기 시스템은,
    상기 외부 장치의 디스플레이부를 통해 영상 데이터를 송출하는 동시에 상기 웨어러블 AR 장치의 디스플레이부를 통해 동일한 영상 데이터를 컨버팅한 증강 현실 영상 데이터를 송출하는 것을 특징으로 하는, AR 장치 시스템.
  9. 삭제
  10. 제1항에 있어서,
    전자 장치는,
    휴식 가전 중 안마 의자, 척추 마사지 장치, 리클라이너 장치, 또는 의료용 침대인 것을 특징으로 하고,
    상기 웨어러블 AR 장치는,
    상기 전자 장치의 적어도 일부의 구조 변경에 의해 사용자의 시야가 상기외부 장치의 디스플레이부를 마주하는 범위에서 변경이 되더라도 증강 현실 영상을 사용자의 시야에 맞추어 제공하는 것을 특징으로 하는, AR 장치 시스템.
  11. 삭제
KR1020230023722A 2023-02-22 2023-02-22 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법 KR102601757B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230023722A KR102601757B1 (ko) 2023-02-22 2023-02-22 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230023722A KR102601757B1 (ko) 2023-02-22 2023-02-22 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법

Publications (1)

Publication Number Publication Date
KR102601757B1 true KR102601757B1 (ko) 2023-11-14

Family

ID=88744936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230023722A KR102601757B1 (ko) 2023-02-22 2023-02-22 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법

Country Status (1)

Country Link
KR (1) KR102601757B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180037715A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 무선 디바이스 및 무선 시스템
KR20180043118A (ko) * 2016-10-19 2018-04-27 엘지전자 주식회사 Hmd 디바이스
KR20180044687A (ko) * 2016-10-24 2018-05-03 엘지전자 주식회사 Hmd 디바이스
KR20190059067A (ko) * 2017-11-22 2019-05-30 삼성전자주식회사 미디어 출력 제어 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180037715A (ko) * 2016-10-05 2018-04-13 엘지전자 주식회사 무선 디바이스 및 무선 시스템
KR20180043118A (ko) * 2016-10-19 2018-04-27 엘지전자 주식회사 Hmd 디바이스
KR20180044687A (ko) * 2016-10-24 2018-05-03 엘지전자 주식회사 Hmd 디바이스
KR20190059067A (ko) * 2017-11-22 2019-05-30 삼성전자주식회사 미디어 출력 제어 장치 및 방법

Similar Documents

Publication Publication Date Title
US9696547B2 (en) Mixed reality system learned input and functions
KR102179142B1 (ko) 착용식 식품 영양 피드백 시스템
KR102471977B1 (ko) 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치
US9618747B2 (en) Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
CN104932679B (zh) 可穿戴设备及其操作方法
KR102184272B1 (ko) 글래스 타입 단말기 및 이의 제어방법
EP3195105B1 (en) Management of content in a 3d holographic environment
CN106415510B (zh) 数据处理方法及其电子设备
KR102294945B1 (ko) 기능 제어 방법 및 그 전자 장치
KR20180074369A (ko) 3차원 컨텐츠의 썸네일 관리 방법 및 그 장치
CN109416576A (zh) 基于确定的约束与虚拟对象的交互
KR20180002387A (ko) 헤드 마운티드 디스플레이 장치 및 이의 제어방법
TWI652612B (zh) 可穿戴式裝置及其操作方法
KR20180112599A (ko) 가상 공간의 캡쳐 방법 및 그 전자장치
KR20170109297A (ko) 전방위 영상을 제공하는 전자 장치 및 방법
KR20170062876A (ko) 헤드 마운트 장치 및 이에 탈부착 가능한 장치
KR102110208B1 (ko) 안경형 단말기 및 이의 제어방법
US11733956B2 (en) Display device sharing and interactivity
KR102662708B1 (ko) Hmd 디바이스
KR20160056659A (ko) 착용형 전자 장치
KR20180028211A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
US20230418078A1 (en) Electronic Devices With Deformation Sensors
WO2021246134A1 (ja) デバイス、制御方法及びプログラム
KR20180046543A (ko) 전방위 영상을 획득하는 방법 및 장치
KR102601757B1 (ko) 휴식 가전의 구조 변경에 따라 변경되는 사용자의 시야에 대응하여 증강 현실 영상을 제공하는 ar 장치 시스템 및 이를 이용한 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant