KR20190080243A - 증강 현실 제공 방법 - Google Patents
증강 현실 제공 방법 Download PDFInfo
- Publication number
- KR20190080243A KR20190080243A KR1020170182586A KR20170182586A KR20190080243A KR 20190080243 A KR20190080243 A KR 20190080243A KR 1020170182586 A KR1020170182586 A KR 1020170182586A KR 20170182586 A KR20170182586 A KR 20170182586A KR 20190080243 A KR20190080243 A KR 20190080243A
- Authority
- KR
- South Korea
- Prior art keywords
- augmented reality
- distance
- user terminal
- user
- information
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 211
- 238000000034 method Methods 0.000 title claims abstract description 95
- 230000002159 abnormal effect Effects 0.000 claims description 18
- 230000005856 abnormality Effects 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 15
- 230000007257 malfunction Effects 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 16
- 230000005764 inhibitory process Effects 0.000 description 13
- 238000005259 measurement Methods 0.000 description 13
- 239000003550 marker Substances 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000009118 appropriate response Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- General Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Emergency Management (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 증강 현실 제공 방법에 관한 것이다. 상기 증강 현실 제공 방법은, 사용자 단말기의 카메라부에서 객체를 포함하는 영상을 촬영하는 (a) 단계, 상기 촬영된 영상에서 상기 객체를 인식하는 (b) 단계, 상기 사용자 단말기와 상기 객체와의 거리를 계산하고, 계산된 상기 객체와의 거리가 미리 설정된 거리보다 작은지 여부를 판단하는 (c) 단계, 상기 객체에 대한 상태 정보를 수신하는 (d) 단계, 상기 수신된 상태 정보를 기초로 상기 객체의 동작 상태를 판단하는 (e) 단계, 상기 객체에 동작 이상이 발생한 경우, 상기 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 생성하는 (f) 단계, 및 상기 객체에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계를 포함한다.
Description
본 발명은 증강 현실 제공 방법에 관한 것이다. 구체적으로, 촬영되고 있는 기기에 대한 이상 상태가 감지되는 경우, 대상 기기에 접근 금지를 나타내는 증강 현실 인터페이스를 제공하는 증강 현실 제공 방법에 관한 것이다.
증강 현실(augmented reality, AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다.
증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리, 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 특징 때문에 증강 현실은 단순히 게임과 같은 분야에만 한정되어 적용이 가능한 기존의 가상 현실과 달리, 다양한 현실 환경에 응용이 가능하다. 특히, 증강 현실은 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.
증강 현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 증강 현실 기술을 활용하려는 연구가 이어져 왔으며, 최근에는 스마트폰의 확산과 더불어 증강 현실 기술이 위치 기반 서비스에 많이 활용되고 있다.
일반적으로, 증강 현실 기술은 현재 촬영되고 있는 기기에 대한 정보를 메뉴 형태로 프리뷰 화면 상에 표시한다. 이때 프리뷰 화면은 촬영되고 있는 기기의 상태 정보를 2D 또는 3D 형태로 표시할 수 있다.
다만, 종래의 증강 현실 제공 방법은, 촬영되고 있는 기기에서 이상 동작이 발생하는 위험한 상태가 감지됨에도 불구하고, 동일한 증강 현실 인터페이스 화면만을 제공하였다. 따라서, 종래의 증강 현실 제공 방법은 동작 이상 상태의 기기에 인접한 사용자를 그대로 위험에 노출시키는 문제점이 있었다.
본 발명은 촬영되고 있는 기기에서 동작 이상이 발생하는 경우, 해당 기기에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시하는 증강 현실 제공 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자 단말기와 인접한 기기에 문제가 발생하는 경우, 사용자에게 해당 기기의 동작 이상에 대한 알림을 제공하고, AR 어플리케이션 실행을 요청하여, 해당 기기에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시하는 증강 현실 제공 방법을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 방법의 일 예는, 사용자 단말기의 카메라부에서 객체를 포함하는 영상을 촬영하는 (a) 단계, 상기 촬영된 영상에서 상기 객체를 인식하는 (b) 단계, 상기 사용자 단말기와 상기 객체와의 거리를 계산하고, 계산된 상기 객체와의 거리가 미리 설정된 거리보다 작은지 여부를 판단하는 (c) 단계, 상기 객체에 대한 상태 정보를 수신하는 (d) 단계, 상기 수신된 상태 정보를 기초로 상기 객체의 동작 상태를 판단하는 (e) 단계, 상기 객체에 동작 이상이 발생한 경우, 상기 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 생성하는 (f) 단계, 및 상기 객체에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계를 포함한다.
또한, 상기 객체에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계는, 상기 카메라부에서 상기 객체에 대한 줌인(Zoom-In) 동작을 통해, 디스플레이부에 표시되는 상기 객체의 크기를 확대하는 것을 포함하고, 상기 사용자 단말기와 상기 객체와의 거리가 멀어지는 경우, 상기 객체에 대한 줌인 배율을 점진적으로 감소시키는 단계를 더 포함할 수 있다.
또한, 상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계는, 디스플레이부에 표시되는 상기 객체에 대한 증강 현실 이미지의 크기를 확대하는 것을 포함하고, 상기 사용자 단말기와 상기 객체와의 거리가 멀어지는 경우, 상기 객체에 대한 증강 현실 이미지의 크기를 점진적으로 축소시키는 단계를 더 포함할 수 있다.
또한, 상기 객체와의 거리가 미리 설정된 거리보다 커지는 경우, 상기 객체에 대한 증강 현실 이미지의 크기 확대 효과를 해제하는 단계를 더 포함할 수 있다.
또한, 상기 객체와의 거리가 미리 설정된 거리보다 커지는 경우, 상기 접근 금지를 나타내는 증강 현실 인터페이스의 표시를 해제하는 단계를 더 포함할 수 있다.
또한, 상기 사용자 단말기가 접근 금지 구역 내에 진입하는 경우, 상기 접근 금지 구역에서 벗어날 것을 알리는 증강 현실 인터페이스를 표시하는 단계를 더 포함할 수 있다.
또한, 상기 접근 금지 구역에서 벗어날 것을 알리는 증강 현실 인터페이스를 표시하는 단계 이후에, 상기 사용자 단말기와 상기 객체와의 거리가 멀어지는 경우, 상기 객체에 대한 줌인 배율을 점진적으로 증가시켜, 상기 디스플레이부 상에 표시되는 상기 객체의 크기를 일정하게 유지시키는 것을 더 포함할 수 있다.
또한, 상기 객체의 동작 상태를 판단하는 (e) 단계는, 상기 객체의 상기 수신된 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 상기 객체의 이상 동작 여부를 판단하는 것을 포함할 수 있다.
또한, 상기 상태 정보는, 상기 객체의 전력량 정보, 온도 정보, 전압 정보 또는 전류 정보를 포함할 수 있다.
또한, 상기 (b) 또는 (f) 단계는 상기 서버에서 수행되고, 다른 나머지 단계는 상기 사용자 단말기에서 수행될 수 있다.
상기의 목적을 달성하기 위한 본 발명의 증강 현실 제공 방법의 다른 예는. 사용자 단말기에 포함된 거리 측정 수단을 이용하여 객체와의 거리를 측정하는 단계, 측정된 상기 객체와의 거리가 미리 설정된 거리보다 작은지 여부를 판단하는 단계, 상기 객체에 대한 상태 정보를 수신하는 단계, 상기 수신된 상태 정보를 기초로 상기 객체의 동작 상태를 판단하는 단계, 상기 객체에 동작 이상이 발생한 경우, AR 어플리케이션의 실행을 요청하는 알림을 사용자에게 제공하는 단계, 및 상기 AR 어플리케이션이 실행되는 경우, 상기 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시하는 단계를 포함한다.
본 발명의 증강 현실 제공 방법은, 촬영되고 있는 기기에서 동작 이상이 발생하는 경우 해당 기기에 대한 접근 금지를 표시함으로써, 사용자가 문제가 발생한 기기로부터 멀어지도록 알림을 제공할 수 있다. 이를 통해, 사용자는 특정 기기에 대한 위험 상태를 직관적으로 파악할 수 있으며, 자신의 안전 거리를 확보한 상태에서 문제가 발생한 기기에 대한 적절한 대응을 수행할 수 있다.
또한, 본 발명의 증강 현실 제공 방법은, AR 어플리케이션을 실행시키지 않은 상태에서 사용자의 위치 정보만을 이용하여 사용자 단말기와 인접한 기기에 문제가 발생하였는지 여부를 판단하여 사용자에게 알림을 제공할 수 있다. 이를 통해, 본 발명은 적은 시스템 리소스를 이용하면서 사용자에게 위험을 효과적으로 알릴 수 있다. 또한, 본 발명은 사용자 단말기와 인접한 기기에 문제가 발생하는 경우, AR 어플리케이션 실행을 요청하여 해당 기기에 대한 접근 금지를 표시함으로써, 사용자가 해당 기기에 대한 위험 상태를 직관적으로 파악하도록 할 수 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 5는 도 4의 증강 현실 인터페이스의 표시 방법에 대한 일 예를 설명하기 위한 순서도이다.
도 6은 도 4의 증강 현실 인터페이스의 표시 방법에 대한 다른 예를 설명하기 위한 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 8 내지 도 11은 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법의 동작을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 5는 도 4의 증강 현실 인터페이스의 표시 방법에 대한 일 예를 설명하기 위한 순서도이다.
도 6은 도 4의 증강 현실 인터페이스의 표시 방법에 대한 다른 예를 설명하기 위한 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 8 내지 도 11은 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법의 동작을 설명하기 위한 도면이다.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
이하에서, 도 1 내지 도 11을 참조하여 본 발명에 따른 증강 현실 제공 방법에 대해 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 증강 현실 제공 시스템을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 시스템은, 사용자 단말기(100), 대상 기기(200) 및 서버(300)를 포함한다.
사용자 단말기(100)는 증강 현실 제공 장치로써 동작할 수 있다. 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 촬영된 영상에서 대상 기기(200)를 인식한다. 이어서, 사용자 단말기(100)는 대상 기기(200)의 동작에 문제가 있는지 여부를 판단한 뒤, 대상 기기(200)의 동작에 문제가 있는 경우, 대상 기기(200)에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시한다.
구체적으로, 사용자 단말기(100)는 대상 기기(200)와의 거리를 측정한다. 사용자 단말기(100)는 대상 기기(200)와의 거리가 미리 설정된 거리보다 작은 경우, 대상 기기(200)의 동작에 대한 상태 정보를 서버(300)로부터 수신한다.
이어서, 사용자 단말기(100)는 대상 기기(200)의 상태 정보를 기초로 대상 기기(200)의 정상 동작 여부를 판단한다. 이때, 사용자 단말기(100)는 정상 동작 기준치와 수신된 대상 기기(200)의 상태 정보를 비교하여, 대상 기기(200)의 이상 동작 여부를 판단한다. 이어서, 사용자 단말기(100)는 대상 기기(200)가 이상 동작 중인 경우, 대상 기기(200)에 접근 금지를 나타내는 증강 현실 인터페이스를 표시한다. 접근 금지를 나타내는 증강 현실 인터페이스를 표시하는 방법에 대한 자세한 설명은 이하에서 후술하도록 한다.
사용자 단말기(100)는 촬영되는 대상 기기(200)에 대한 증강 현실 정보를 서버(300)로부터 수신하고, 증강 현실 정보를 기초로 증강 현실 인터페이스를 생성하여 화면에 표시한다. 여기에서, 증강 현실 정보는 증강 현실 인터페이스를 생성하기 위한 촬영된 대상 기기(200)에 대한 증강 현실 관련 데이터를 포함한다.
증강 현실 정보는 2D 또는 3D 이미지로 모델링 및 렌더링될 수 있으며, 렌더링된 이미지는 증강 현실 인터페이스로 변환되어 사용자 단말기(100)의 화면에 프리뷰 형태로 표시된다.
추가적으로, 사용자 단말기(100)는 촬영되는 대상 기기(200)에 대한 증강 현실 인터페이스를 직접 서버(300)로부터 수신하고, 이를 화면에 그대로 표시할 수 있다.
사용자 단말기(100)는 증강 현실의 디스플레이 방식에 따라, 모바일 기반의 장치, 착용형 장치(wearable device)(예를 들어, HMD(Head Mounted Device), 비디오 시쓰루 장치(Video See-Through device), 광학 시쓰루 장치(Optical See-Through device)), 스크린 기반의 장치, 및 프로젝터 기반 장치 중 어느 하나가 될 수 있다.
또한, 사용자 단말기(100)는 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player) 등 정보를 무선 환경에서 송수신할 수 있는 장치가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.
대상 기기(200)는 다양한 전자기기가 될 수 있다. 예를 들어, 대상 기기(200)는 자동제어기기나 산업용기기 또는 배전반이 될 수 있다. 이때, 대상 기기(200)는 차단기, 계전기, 통신링크장치, 전력량계, 센서부, HMI(Human Machine Interface) 등을 구성요소로 포함할 수 있다.
이때, 대상 기기(200)에 포함된 구성요소들 중 어느 하나에 동작 이상이 발견되는 경우, 대상 기기(200)에 동작 이상이 발생되었다고 판단될 수 있다. 이러한 동작 이상에는, 누설 전류 발생, 부분 방전 발생, TRIP 상태 전환, 아크 발생 등이 있을 수 있다. 다만, 이는 몇몇 예시에 불과하며, 본 발명이 이에 한정되는 것은 아니다.
여기에서, 대상 기기(200)는 원격 검침 시스템(Automatic Meter Reading; 이하, AMR)의 측정 대상이 될 수 있다. 일반적으로, 원격 검침 시스템(AMR)이라 함은 멀리 떨어진 지점의 측정 대상으로부터 측정 결과를 전기적 신호로 변환하여 통신 네트워크를 통해 데이터를 전송하고, 그 데이터를 컴퓨터에서 처리하는 것을 말한다.
원격 검침 시스템(AMR)의 서버는 TCP/IP(Transmission Control Protocol/Internet Protocol)를 기반으로 데이터 통신을 수행할 수 있도록 제공되는 데이터 통신망(예컨대, 기간망, 사설망, 인터넷망 포함)을 통해 다수의 데이터수집장치와 상호 접속된다. 서버는 데이터 통신망을 통해 데이터수집장치와 실시간으로 데이터 송수신을 수행하며, 각 측정 대상의 전력 상태를 실시간으로 모니터링(monitoring)하는 것이 가능하다.
또한, 원격 검침 시스템(AMR)의 서버는 데이터수집장치로부터 각 측정 대상의 검침 데이터를 실시간으로 제공받는다. 이러한 검침 데이터를 기초로 하여 각 측정 대상의 전력 상태, 예컨대 정전, 도전, 누전 상태 등을 분석하여 관리자에게 제공한다.
여기서, 검침 데이터는 하나의 데이터 집중화 장치에 할당된 모든 측정 대상의 사용 전력량의 총합, 각 측정 대상별 사용 전력량, 순시 전력량 등이 될 수 있으며, 이 외에도 각 측정 대상의 전력 품질을 파악할 수 있는 모든 데이터가 포함될 수 있다.
서버(300)는 대상 기기(200)에 대한 각종 정보를 저장하는 데이터베이스를 포함한다. 예를 들어, 서버(300)는 대상 기기(200)에 대한 객체 정보, 대상 기기(200)의 상태 정보, 대상 기기(200)에 포함된 구성요소에 대한 정보, 및 대상 기기(200)에 대한 증강 현실 관련 데이터를 저장할 수 있다.
서버(300)는 원격 검침 시스템(AMR)의 데이터수집장치 또는 서버로써 동작할 수 있다. 즉, 서버(300)는 대상 기기(200)에 대한 검침 데이터를 실시간을 제공받고 저장할 수 있다. 이를 통해, 서버(300)는 대상 기기(200)의 동작 상태를 모니터링하고 원격 제어할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 증강 현실 제공 장치를 설명하기 위한 블럭도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는, 제어부(110), 카메라부(120), 객체 인식부(130), 위치 측정부(140), 증강 현실 처리부(150), 통신부(160), 센서부(165), 메모리부(170), 디스플레이부(180) 및 인터페이스부(190)를 포함한다. 다만, 도 2에 도시된 사용자 단말기(100)의 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 사용자 단말기(100)가 구현될 수 있다.
제어부(110)는 사용자 단말기(100)에 포함된 구성요소의 전반적인 동작을 제어할 수 있다. 제어부(110)는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 실행할 수 있다. 또한, 제어부(350)는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수 있다. 상기 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터로 판독 가능한 기록 매체에 저장될 수 있다. 제어부(110)의 자세한 동작에 대한 설명은 이하에서 후술하도록 한다.
카메라부(120)는 영상을 촬영하는 장치로써, 촬영된 영상은 제어부(110)에 전달된다. 카메라부(120)에서 촬영된 영상은 실시간 프리뷰 형태로 디스플레이부(180)에 표시될 수 있다.
객체 인식부(130)는 카메라부(120)에서 촬영된 영상에 포함된 객체를 인식한다. 객체 인식부(130)에서 사용되는 객체 인식 방법에는 영상에 포함된 마커를 이용해 객체를 인식하는 마커 기반 인식 방법과, 물리적인 마커 대신에 미리 등록된 실제 물체를 인식하는 마커리스 인식 방법이 있다.
구체적으로, 마커 기반 인식 방법은 큐알 코드(QR code), 데이터 메트릭스(DataMatrix) 또는 2D 바코드(Barcode) 등과 같은 마커를 기초로 객체를 인식하는 방법이다. 마커 기반 인식 방법은 시스템이 미리 이해하고 있는 특수한 형태의 마커를 활용하므로 연산 속도와 인식률이 높게 나타난다.
마커리스 인식 방법은 자연영상 기반 방식과 환경인식 기반 방식으로 나뉜다. 자연영상 기반 방식은 일반적인 평면 이미지에 존재하는 다수의 특징점(feature point)들을 분석하여, 분석된 특징점들을 보이지 않는 마커처럼 활용한다. 자연영상 기반 방식은, 자연영상에 존재하는 특징점을 추출하는 기술과, 특징점을 묘사하는 디스크립터(descriptor)로 효과적으로 변환시키는 기술을 이용한다. 환경인식 기반 방식은, 특수한 형태의 마커나 미리 입력된 영상 없이 환경 자체를 삼차원 지도 형태로 인식하는 기법이다. 환경인식 기반 방식은 카메라 혹은 RGBD 센서로부터 데이터를 분석하여 삼차원 환경 지도를 실시간으로 작성하는 지도 작성(mapping) 기술과, 작성된 지도에서 현재 카메라의 위치를 추정하는 카메라 추적(tracking) 기술이 이용될 수 있다.
객체 인식부(130)는 앞에서 설명한 마커 기반 인식 방법과 마커리스 인식 방법을 이용하여 촬영된 영상에 포함된 객체를 인식할 수 있다. 이때, 객체 인식부(130)는 영상이 촬영된 위치 정보, 객체에 대한 마커 또는 객체의 마커리스 정보를 기초로 영상에 포함된 객체를 인식할 수 있다. 다만, 객체 인식부(130)가 객체를 인식하는 방법이 이에 한정되는 것은 아니며, 새로이 개발되는 다양한 방식이 적용될 수 있다.
다만, 이러한 객체 인식부(130)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.
위치 측정부(140)는 사용자 단말기(100)의 현재 위치와, 촬영되는 객체의 위치를 측정한다. 구체적으로, 위치 측정부(140)는 로컬 위치 추적 기술을 이용하여 사용자 단말기(100)의 현재 위치와 사용자 단말기(100)에서 촬영되는 객체의 위치를 측정할 수 있다. 로컬 위치 추적 기술은 사용되는 방식에 따라서 TOF(time of flight), 공간 스캔(spatial scan), 관성측정(inertial sensing), 기계 연결식(mechanical linkage), 위상차 검출식(phase difference sensing), 직접 필드검출(direct field sensing)로 구분될 수 있으며, 정확도를 높이기 위해서 상기 기술들을 혼합하여 사용할 수 있다.
위치 측정부(140)는 근거리통신(near field communication; NFC)을 이용한 위치기반 서비스를 이용하여 위치측정을 할 수 있다. 예를 들어, 상기 위치기반 서비스는 Zigbee, iBeacon 기술을 이용할 수 있다. 위치기반 서비스는 주로 GPS를 사용하지 못하는 실내환경에서 이용될 수 있고, 각 노드의 신호강도를 통해서 상대위치를 파악할 수 있다. 또한, 위치 측정부(140)는 사용자 단말기(100)에 장착되어 있는 각종 센서(관성측정 센서, 고도계, 나침반) 등을 이용해서 위치측정의 정밀도를 높일 수 있다.
증강 현실 처리부(150)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 생성할 수 있다. 증강 현실 정보는 촬영되는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)이다. 증강 현실 정보는 서버(300)의 데이터베이스에 저장되거나, 사용자 단말기(100)의 메모리부(170)에 저장되어 이용될 수 있다.
증강 현실 처리부(150)는 증강 현실 정보를 기초로 실제 물체를 가상으로 정확하게 표현하는 모델링 기술과, 이를 사실적으로 표현하는 렌더링 기술을 이용할 수 있다. 모델링 기술은 비디오로 입력되는 2D 영상에 깊이 정보를 반영하여 합성하는 기술이다. 모델링 기술은 사용자 의도대로 객체 변형, 색상 변화 등을 수행하여 현실 공간에서 이룰 수 없는 다양한 응용을 가능케 한다. 렌더링 기술은 생성된 가상 모델들에 조명효과, 그림자 효과, 밝기 변화 등을 부가하여 가상 모델을 사실적으로 표현함으로써, 사용자가 증강 현실 인터페이스에서 생동감을 느낄 수 있게 하는 기술이다.
다만, 이러한 증강 현실 처리부(150)의 동작은 별도의 외부 장치(예를 들어, 서버(300))에서 수행될 수 있으며, 수행 결과에 대한 결과 데이터만을 사용자 단말기(100)에서 수신하여 이용할 수 있다.
통신부(160)는 증강현실 데이터베이스를 저장하고 관리하는 서버(300) 또는 촬영 대상인 대상 기기(200)와 데이터를 교환한다. 이때, 증강현실 데이터베이스는 증강현실 객체, 증강현실 객체의 속성 정보를 저장한 데이터베이스이다.
통신부(160)는 다른 단말 장치와 유무선으로 데이터를 주고 받는 전자 장치, 모듈 또는 프로그램을 포함할 수 있다. 통신부(160)에서 이용하는 통신 규약은, 예를 들어, CDMA(Code Division Multiple Access) 통신, WCDMA(Wideband Code Division Multiple Access) 통신 혹은, 광대역 무선 통신을 포함한다. 다만, 본 발명이 이에 한정되는 것은 아니다.
센서부(165)는 증강현실에 필요한 정보 또는 증강현실에 추가로 적용되는 맥락정보를 감지하는 장치이다. 센서부(165)는 온도 센서, 습도 센서, 위치감지 센서, 동작감지 센서 등을 포함할 수 있다. 여기에서, 위치감지 센서는 GPS신호를 감지하는 GPS 센서가 이용될 수 있고, 동작감지 센서로는 자이로스코프 센서 또는 가속도 센서가 이용될 수 있다. 또한, 센서부(165)는 사용자 단말기(100)의 현재 위치, 움직임, 기울기, 방향, 촬영하는 객체와의 거리, 주변의 소리, 밝기 등을 측정할 수 있다.
메모리부(170)는 사용자 단말기(100)의 전반적인 동작을 제어하기 위한 운영체제, 응용 프로그램 및 저장용 데이터(전화번호, SMS 메시지, 압축된 이미지 파일, 동영상 등)를 저장한다. 또한, 메모리부(170)는 촬영되는 대상에 대응되는 증강현실 객체, 증강현실 객체의 속성 정보 및 상태 정보를 저장할 수 있다. 즉, 메모리부(170)는 촬영 대상인 객체와, 객체에 포함된 구성요소에 대한 상태 정보 및 증강 현실 정보를 저장한다.
메모리부(170)는 RAM(Random Access Memory) 또는 ROM(Read Only Memory)과 정적 정보 및 명령어들을 저장하는 정적 저장 디바이스를 포함할 수 있다. 메모리부(170)는 휘발성 메모리 유닛 또는 비휘발성 메모리 유닛일 수 있다. 메모리부(170)는 또한 자기 또는 광디스크와 같은 컴퓨터 판독가능 매체의 또 다른 유형일 수 있다.
디스플레이부(180)는 사용자 단말기(100)의 동작 중에 발생되는 상태 정보(또는 인디케이터), 제한된 숫자와 문자들, 동화상(moving picture) 및 정화상(still picture) 등을 표시한다. 또한, 디스플레이부(180)는 카메라부(120)를 통해 수신되는 영상을 표시하고, 촬영되는 객체에 대응되는 증강 현실 인터페이스를 표시할 수 있다.
인터페이스부(190)는 사용자로부터의 입력을 수신할 수 있다. 인터페이스부(190)는 버튼형 입력부, 터치 스크린, 키보드 또는 마우스 등과 같은 입력장치를 포함할 수 있다. 예를 들어, 터치 스크린은 디스플레이부(180)의 상면에 형성될 수 있고, 사용자의 터치를 통해 입력을 수신할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 제공 장치의 동작 방법을 설명하기 위한 도면이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 장치인 사용자 단말기(100)는 대상 기기(200)를 촬영하고, 촬영된 대상 기기(200)에 대한 증강 현실 인터페이스를 디스플레이부(180) 상에 표시한다.
이때, 사용자 단말기(100)는 대상 기기(200)와의 거리를 계산하고, 대상 기기(200)의 정상 동작 여부를 판단한다. 이어서, 사용자 단말기(100)는 대상 기기(200)에 이상 동작이 감지되는 경우, 대상 기기(200)에 대한 접근 금지를 나타내는 증강 현실 인터페이스(예를 들어, “<경고> 접근 금지”(M01))와, 대상 기기(200)의 이상 상태 정보에 대한 증강 현실 인터페이스(예를 들어, “누설 전류 발생”(M02))와, 대상 기기(200)와 사용자 단말기(100) 사이의 거리(예를 들어, “3 m'”를 디스플레이부(180) 상에 표시할 수 있다. 다만, 이는 하나의 예시일 뿐, 본 발명이 이에 한정되는 것은 아니다.
여기에서, 대상 기기(200)는 복수의 객체를 포함할 수 있다. 예를 들어, 복수의 객체는 각각 자동제어기기나 산업용기기 또는 배전반 중 어느 하나가 될 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다. 사용자 단말기(100)는 촬영된 복수의 객체에 대한 이상 동작 여부를 판단하고, 이상 동작이 발생한 객체에 접근 금지를 나타내는 증강 현실 인터페이스를 표시할 수 있다.
서버(300)는 대상 기기(200)와 연동되어 대상 기기(200)에 대한 다양한 데이터를 저장한다. 서버(300)는 객체 정보 DB(310), 상태 정보 DB(320), 증강현실 DB(330)를 포함한다. 이하에서, 대상 기기(200)는 촬영 대상인 '객체'라는 용어와 혼용하여 설명하도록 한다.
객체 정보 DB(310)는 객체에 대한 다양한 정보를 포함한다. 예를 들어, 객체의 제품 정보(제품명, 제품 번호, 제품 종류, 설치 시기, 관리 방법 등), 객체가 설치된 위치 정보, 객체와 관련된 회로도 등의 정보를 포함할 수 있다.
상태 정보 DB(320)는 객체의 동작 정보를 포함한다. 예를 들어, 상태 정보 DB(320)는 각 객체의 전력량 정보, 온도 정보, 전압 정보, 또는 전류 정보를 포함할 수 있다. 각 객체의 상태 정보는 실시간으로 업데이트될 수 있으며, 원격 검침 시스템(AMR)의 일부로 이용될 수 있다.
증강현실 DB(330)는 객체를 모델링 및 렌더링 하는데 이용되는 로데이터(raw data)인 증강 현실 정보를 저장한다. 또한, 증강현실 DB(330)는 증강 현실 정보를 기초로 사용자에게 제공되는 증강 현실 인터페이스를 저장한다. 즉, 증강현실 DB(330)는 객체의 모델링 및 렌더링 이전의 증강 현실 정보와, 모델링 및 렌더링 이후의 증강 현실 인터페이스를 모두 저장하고, 사용자 단말기(100)의 요청에 따라 필요한 데이터를 제공할 수 있다.
사용자 단말기(100)는 촬영되는 영상에 포함된 객체인 대상 기기(200)를 인식하고, 대상 기기(200)에 대한 증강 현실 정보 또는 증강 현실 인터페이스를 서버(300)로부터 수신하여 화면에 표시한다. 이때, 사용자 단말기(100)는 대상 기기(200)의 동작 상태에 따라 서로 다른 메뉴의 증강 현실 인터페이스를 디스플레이부(180)에 표시한다.
사용자 단말기(100)에서 수행되는 증강 현실 제공 방법에 대한 자세한 설명은 이하에서 후술하도록 한다.
도 4는 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법은 우선, 사용자 단말기(100)의 카메라부(120)에서 객체를 포함하는 영상을 촬영한다(S110).
이어서, 객체 인식부(130)는 촬영된 영상에 포함된 객체를 인식한다(S120).
이어서, 제어부(110)는 사용자 단말기(100)와 촬영된 객체 사이의 거리(L)를 계산한다(S130). 이때, 제어부(110)는 센서부(165)에서 측정한 데이터를 기초로 객체와의 거리를 계산하거나, 카메라부(120)에서 촬영된 영상을 이용하여 객체와의 거리를 계산할 수 있다. 예를 들어, 제어부(110)는 초음파, 적외선 또는 레이저 등을 이용하는 거리 측정 수단을 이용하여 객체와의 거리를 측정할 수 있다. 다만, 이는 하나의 예시에 불과하며, 본 발명은 다양한 거리 측정 수단을 이용하여 객체와의 거리를 측정할 수 있다.
이어서, 제어부(110)는 사용자 단말기(100)와 촬영된 객체 사이의 거리(L)(이하, 객체와의 거리(L))가 미리 설정된 제1 거리(Ldet1)보다 작은지 여부를 판단한다(S140).
이어서, 객체와의 거리(L)가 미리 설정된 제1 거리(Ldet1)보다 큰 경우, 제어부(110)는 다른 객체에 대하여도 S130 단계 내지 S140 단계를 반복 수행한다.
반면, 객체와의 거리(L)가 미리 설정된 제1 거리(Ldet1)보다 작은 경우, 제어부(110)는 통신부(160)를 통해 서버(300)로부터 객체에 대한 상태 정보를 수신한다(S150). 제어부(110)는 인식된 객체에 대한 상태 정보를 서버(300)로부터 수신할 수 있다. 여기에서, 객체의 상태 정보는 객체의 전압, 전류, 전력량, 온도, 객체에 포함된 구성요소의 정상 동작 여부 등을 포함할 수 있다.
이어서, 제어부(110)는 수신된 상태 정보를 기초로 객체에 이상 발생 여부를 판단한다(S160). 구체적으로, 제어부(110)는 수신된 상태 정보와 정상 동작 기준치를 비교하여 객체의 이상 발생 여부를 판단한다. 다만, 본 발명이 이에 한정되는 것은 아니며, 제어부(110)는 외부 장치(예를 들어, 서버(300))로부터 객체의 이상 발생 여부에 대한 판단결과를 수신하여 이용할 수 있다. 이때, 외부 장치(예를 들어, 서버(300))는 객체로부터 수신된 상태 정보를 기초로 객체의 이상 발생 여부를 판단하거나, 객체로부터 직접 이상 여부를 수신하여 제어부(110)에 제공할 수 있다.
여기에서, 상태 정보는 촬영된 객체에 대한 전력량 정보, 온도 정보, 전압 정보, 또는 전류 정보를 포함할 수 있다. 정상 동작 기준치는 각 상태 수치값에 대한 정상 동작 범위로써, 메모리부(170)에 미리 저장된 값을 이용될 수 있다. 예를 들어, 제어부(110)는 객체의 전력 상태(예를 들어, 정전, 누전, 아크 발생, 또는 방전 여부, 융착 여부, 바이패스 스위치 동작여부, 차단기의 동작여부, TRIP 상태 여부 등)를 참고하여 정상 동작 여부를 판단할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니다.
이어서, 객체에 이상이 발생되었다고 판단되는 경우, 제어부(110)는 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 디스플레이부(180)에 표시한다(S170).
여기에서, 접근 금지를 나타내는 증강 현실 인터페이스는 문제가 발생한 객체의 크기를 확대하는 애니메이션 효과 또는 경고 문구를 포함하는 증강 현실 알림 메뉴를 포함할 수 있다. 접근 금지를 나타내는 증강 현실 인터페이스는 사용자의 주의를 끌 수 있는 다양한 색상 및 형상을 포함할 수 있다. 제어부(110)는 접근 금지를 나타내는 증강 현실 인터페이스를 서버(300)에 요청하여 수신된 증강 현실 인터페이스를 디스플레이부(180)에 표시할 수 있다.
또한, 증강 현실 인터페이스는 “해당 객체에 접근하지 말라”는 접근 금지 표시와 함께, “해당 객체로부터 물러서라”라는 안내 표시를 포함할 수 있다. 다만, 이는 하나의 예시에 불과하고, 증강 현실 인터페이스는 상기 접근 금지 표시 또는 상기 안내 표시 중 어느 하나만을 포함하여 디스플레이부(180)에 표시할 수 있다.
만약, 사용자가 접근 금지를 나타내는 증강 현실 인터페이스로 인해 객체로부터 멀어지는 방향으로 이동한 경우, 사용자 단말기(100)와 객체의 사이의 거리(L)는 증가하게 된다. 이때, 객체와의 거리(L)가 증가할수록 접근 금지를 나타내는 증강 현실 인터페이스의 크기는 점진적으로 감소할 수 있다.
다만, 본 발명이 이에 한정되는 것은 아니며, 디스플레이부(180)에 접근 금지 표시 또는 안내 표시가 제공되어 사용자가 뒤로 물러나는 경우에도, 디스플레이부(180)에 표시되는 객체의 크기는 그대로 유지될 수 있다.
이 경우, 사용자 단말기(100)는 사용자가 뒤로 물러남에 따라 발생하는 사용자 단말기(100)와 객체의 사이의 거리(L)의 증가분에 대응하여, 카메라부(120)의 촬영 배율을 자동으로 증가시킨다. 이를 통해, 사용자 단말기(100)는, 디스플레이부(180) 상의 객체의 크기를 그대로 유지시킬 수 있다.
따라서, 사용자와 객체 사이의 거리(L)가 멀어지더라도 디스플레이부(180)에 표시되는 객체의 크기가 일정하게 유지되기 때문에, 대상 객체가 작아짐에 따라 발생하는 사용자의 불편함은 해소될 수 있다.
이어서, 제어부(110)는 객체와의 거리(L)가 미리 설정된 제2 거리(Ldet2)보다 커지는지 여부를 주기적으로 판단한다(S180).
이어서, 객체와의 거리(L)가 충분히 증가하여 미리 설정된 제2 거리(Ldet2)보다 커지는 경우, 제어부(110)는 접근 금지를 나타내는 증강 현실 인터페이스의 표시를 해제한다(S190). 이때, 미리 설정된 제2 거리(Ldet2)는 객체로부터 사용자의 안전이 확보되는 거리를 의미한다. 미리 설정된 제2 거리(Ldet2)는 S140 단계에서 설명한 미리 설정된 제1 거리(Ldet1)와 동일할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 미리 설정된 제2 거리(Ldet2)는 미리 설정된 제1 거리(Ldet1)와 서로 다르게 설정될 수 있다.
즉, 본 발명의 증강 현실 제공 방법은 촬영되고 있는 기기에 동작 이상이 발생하는 경우 해당 기기에 대한 접근 금지를 표시함으로써, 사용자가 문제가 발생한 기기로부터 멀어지도록 알림을 제공할 수 있다. 이를 통해, 사용자는 특정 기기에 대한 위험 상태를 직관적으로 파악할 수 있으며, 자신의 안전 거리를 확보한 상태에서 문제가 발생한 기기에 대한 적절한 대응을 수행할 수 있다.
추가적으로, 사용자 단말기(100)의 증강 현실 처리부(150)는 사용자가 미리 설정한 설정값을 반영하여 객체 변형 또는 색상 변화 등과 같은 효과를 증강 현실 인터페이스에 추가적으로 부여할 수 있다.
이에 따라, 사용자 단말기(100)는 사용자의 설정값을 반영하여 사용자의 요구에 맞게 변경된 증강 현실 인터페이스를 출력할 수 있다. 즉, 사용자 단말기(100)는 서버(300)에서 제공하는 증강 현실 인터페이스를 이용할 뿐만 아니라, 사용자가 원하는 다양한 표현 효과를 증강 현실 인터페이스 상에 구현할 수 있다.
또한, 본 발명의 다른 실시예에 따른 증강 현실 제공 방법의 경우, 사용자 단말기(100)는 서버(300)로부터 수신한 접근 금지에 대한 증강 현실 인터페이스를 그대로 디스플레이부(180)에 출력할 수 있다.
예를 들어, 서버(300)는 앞에서 설명한 사용자 단말기(100)의 객체 인식부(130)와 증강 현실 처리부(150)의 동작을 수행할 수 있다. 이어서, 사용자 단말기(100)는 서버(300)로부터 수행된 동작의 결과 데이터를 수신하여 이용할 수 있다. 구체적으로, 사용자 단말기(100)는 카메라부(120)에서 촬영된 영상을 서버(300)에 전송하고, 서버(300)는 수신된 영상에 포함된 객체를 인식하며, 인식된 객체에 대한 증강 현실 인터페이스를 생성하여 사용자 단말기(100)에 제공할 수 있다.
이 경우, 사용자 단말기(100)는 서버(300)로부터 수신한 데이터(즉, 증강 현실 인터페이스)를 바로 디스플레이부(180)로 출력한다. 따라서, 제어부(110)의 연산량이 감소되므로 동작 속도가 증가될 수 있다.
도 5는 도 4의 증강 현실 인터페이스의 표시 방법에 대한 일 예를 설명하기 위한 순서도이다. 도 5는 접근 금지를 나타내는 증강 현실 인터페이스의 표시 방법의 일 예에 해당한다.
도 5를 참조하면, 도 4의 S150 단계에 이어서, 제어부(110)는 수신된 상태 정보를 기초로 객체에 이상 발생 여부를 판단한다(S260). 이상 발생 여부를 판단하는 방법은 앞에서 자세히 설명하였으므로, 중복되는 설명은 생략하도록 한다.
이어서, 객체에 이상이 발생되었다고 판단되는 경우, 제어부(110)는 카메라부(120)가 해당 객체를 줌인(Zoom-in)하도록 제어한다(S270). 이때, 해당 객체는 실제 촬영된 객체의 이미지일 수 있다. 따라서, 줌인 동작으로 인해, 디스플레이부(180) 상에 표시되는 해당 객체의 실제 촬영된 이미지의 크기는 증가된다.
또한, 제어부(110)는 추가적으로 해당 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스와, 해당 객체와의 거리를 디스플레이부(180)에 표시할 수 있다. 이때, 증강 현실 인터페이스에 포함된 해당 객체에 대응되는 증강 현실 이미지의 크기는, 증가되는 해당 객체의 실제 촬영된 이미지와 함께 증가될 수 있다.
이러한 증강 현실 제공 방법은 줌인으로 인해 화면 상에서 확대되는 이미지를 통해, 사용자로 하여금 직관적으로 뒤로 물러나야겠다는 생각이 들게 만들 수 있다. 이를 통해, 사용자는 해당 객체로부터 멀어지는 방향으로 이동하게 된다.
이어서, 사용자가 해당 객체와 멀어지는 경우, 제어부(110)는 카메라부(120)의 줌인 배율을 낮출 수 있다. 사용자와 해당 객체와의 거리가 증가됨에 따라, 디스플레이부(180)에 표시되는 해당 객체의 이미지의 크기는 감소할 수 있다. 즉, 사용자 단말기(100)와 객체 사이의 객체와의 거리(L)가 증가할수록 접근 금지를 나타내는 증강 현실 인터페이스의 크기가 점진적으로 감소할 수 있다.
이어서, 제어부(110)는 객체와의 거리(L)가 미리 설정된 제2 거리(Ldet2)보다 커지는지 여부를 주기적으로 판단한다(S280).
이어서, 객체와의 거리(L)가 충분히 증가하여 미리 설정된 제2 거리(Ldet2)보다 커지는 경우, 제어부(110)는 카메라부(120)의 해당 객체에 대한 줌인을 해제한다(S290). 즉, 제어부(110)는 통상 크기의 증강 현실 이미지를 해당 객체에 표시하거나, 실제 객체의 이미지를 디스플레이부(180) 상에 표시할 수 있다.
도 6은 도 4의 증강 현실 인터페이스의 표시 방법에 대한 다른 예를 설명하기 위한 순서도이다. 도 6은 접근 금지를 나타내는 증강 현실 인터페이스의 표시 방법의 다른 예에 해당한다.
도 6을 참조하면, 도 4의 S150 단계에 이어서, 제어부(110)는 수신된 상태 정보를 기초로 객체에 이상 발생 여부를 판단한다(S360). 이상 발생 여부를 판단하는 방법은 앞에서 자세히 설명하였으므로, 중복되는 설명은 생략하도록 한다.
이어서, 객체에 이상이 발생되었다고 판단되는 경우, 제어부(110)는 해당 객체에 대한 증강 현실 이미지의 크기가 커지도록 제어한다(S370). 이때, 제어부(110)는 증강 현실 처리부(150)를 통해 해당 객체에 대한 증강 현실 이미지의 크기를 변화시키거나 색상을 변화시킨 증강 현실 인터페이스를 생성할 수 있다. 즉, 제어부(110)는 사용자의 설정값을 반영하여 사용자의 요구에 맞게 증강 현실 이미지의 크기, 형상, 색상을 변경한 증강 현실 인터페이스를 출력하도록 제어할 수 있다.
예를 들어, 객체에 문제가 발생하는 경우, 제어부(110)는 해당 객체를 빨간색의 곧 터질 것 같은 폭탄 형상의 증강 현실 이미지로 표시되도록 제어할 수 있다.
추가적으로, 제어부(110)는 해당 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스와, 해당 객체와의 거리를 디스플레이부(180)에 표시할 수 있다.
본 발명의 증강 현실 제공 방법은 화면 상에서 확대되는 이미지를 통해, 사용자로 하여금 직관적으로 뒤로 물러나야겠다는 생각이 들게 만들 수 있다. 이를 통해, 사용자는 해당 객체로부터 멀어지는 방향으로 이동하게 된다.
이어서, 제어부(110)는 사용자와 해당 객체 사이의 거리(L)가 커지는지 여부를 주기적으로 판단한다(S380).
이어서, 사용자와 해당 객체 사이의 거리(L)가 점차적으로 증가하는 경우, 제어부(110)는 증강 현실 이미지의 크기를 점차적으로 축소시킨다(S385). 즉, 사용자와 해당 객체 사이의 거리(L)가 증가됨에 따라, 디스플레이부(180)에 표시되는 해당 객체의 이미지의 크기는 줄어들 수 있다.
이어서, 제어부(110)는 객체와의 거리(L)가 미리 설정된 제2 거리(Ldet2)보다 커지는지 여부를 주기적으로 판단한다(S390).
이어서, 객체와의 거리(L)가 충분히 증가하여 미리 설정된 제2 거리(Ldet2)보다 커지는 경우, 제어부(110)는 해당 객체에 대한 증강 현실 이미지의 확대 효과를 해제한다(S395). 이때, 제어부(110)는 통상 크기의 증강 현실 이미지를 해당 객체에 표시할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 증강 현실 제공 방법을 나타내는 순서도이다. 이하에서는 앞에서 서술한 내용과 중복되는 내용은 생략하고, 차이점을 위주로 설명하도록 한다.
도 7을 참조하면, 본 발명의 다른 실시예에 따른 증강 현실 제공 방법은 우선, 제어부(110)는 거리 측정 수단을 동작시킨다(S410). 거리 측정 수단으로 GPS를 이용해 사용자 단말기(100)의 현재 위치를 측정하는 위치 측정부(140)와, 초음파, 적외선 또는 레이저 등을 이용해 객체와의 거리를 계산하는 센서부(165)가 이용될 수 있다.
이어서, 제어부(110)는 거리 측정 수단으로부터 수신한 데이터를 기초로 객체와의 거리(L)를 계산한다(S420). 이때, 사용자 단말기(100)는 화면이 켜지지 않은 대기 상태일 수 있다. 사용자 단말기(100)는 대기 상태에서 거리 측정 수단만을 활성화시켜 사용자 단말기(100)와 인접한 객체와의 거리를 측정할 수 있다. 다만, 이는 하나의 예시에 불과하며, 본 발명이 이에 한정되는 것은 아니다.
이어서, 제어부(110)는 사용자 단말기(100)와 객체 사이의 거리(L) 가 미리 설정된 제1 거리(Ldet1)보다 작은지 여부를 판단한다(S430).
이어서, 객체와의 거리(L)가 미리 설정된 제1 거리(Ldet1)보다 큰 경우, 제어부(110)는 다른 객체에 대하여도 S420 단계 내지 S430 단계를 반복 수행한다.
반면, 객체와의 거리(L)가 미리 설정된 제1 거리(Ldet1)보다 작은 경우, 제어부(110)는 통신부(160)를 통해 서버(300)로부터 객체에 대한 상태 정보를 수신한다(S440). 제어부(110)는 인식된 객체에 대한 상태 정보를 서버(300)로부터 수신할 수 있다. 여기에서, 객체의 상태 정보는 객체의 전압, 전류, 전력량, 온도, 객체에 포함된 구성요소의 정상 동작 여부 등을 포함할 수 있다.
이어서, 제어부(110)는 수신된 상태 정보를 기초로 객체에 이상 발생 여부를 판단한다(S450). 제어부(110)는 수신된 상태 정보와 정상 동작 기준치를 비교하여 객체의 이상 발생 여부를 판단한다.
이어서, 객체에 이상이 발생되었다고 판단되는 경우, 제어부(110)는 객체에 대한 이상 상태를 알리는 알림 메시지를 디스플레이부(180)에 표시한다(S460). 예를 들어, 알림 메시지는 팝업 형태로 사용자에게 표시될 수 있고, 상세한 정보 제공을 위해 AR 어플리케이션을 실행시킬 것을 사용자에게 알릴 수 있다. 다만, 이는 하나의 예시이며, 본 발명이 이에 한정되는 것은 아니다.
이어서, 사용자에 의해 AR 어플리케이션이 실행되는 경우, 제어부(110)는 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 디스플레이부(180)에 표시한다(S465, S470).
접근 금지를 나타내는 증강 현실 인터페이스는 문제가 발생한 객체의 크기를 확대하는 애니메이션 효과 또는 경고 문구를 포함하는 증강 현실 알림 메뉴를 포함할 수 있다. 접근 금지를 나타내는 증강 현실 인터페이스는 사용자의 주의를 끌 수 있는 다양한 색상 및 형상을 포함할 수 있다.
접근 금지에 대한 증강 현실 인터페이스는 도 5를 참조하여 설명한 카메라 줌인 효과, 또는 도 6을 참조하여 설명한 증강 현실 이미지 확대 효과를 포함할 수 있다. 이에 대한 설명은 전술하였는 바, 여기에서 자세한 설명은 생략하도록 한다.
사용자가 접근 금지를 나타내는 증강 현실 인터페이스로 인해 객체로부터 멀어지는 방향으로 이동한 경우, 객체와의 거리(L)는 증가하게 된다. 이때, 객체와의 거리(L)가 증가할수록 접근 금지를 나타내는 증강 현실 인터페이스의 크기는 점진적으로 감소할 수 있다.
이어서, 제어부(110)는 객체와의 거리(L)가 미리 설정된 제2 거리(Ldet2)보다 커지는지 여부를 판단한다(S480).
이어서, 객체와의 거리(L)가 충분히 증가하여 미리 설정된 제2 거리(Ldet2)보다 커지는 경우, 제어부(110)는 접근 금지를 나타내는 증강 현실 인터페이스의 표시를 해제한다(S490). 이때, 미리 설정된 제2 거리(Ldet2)는 객체로부터 사용자의 안전이 확보되는 거리를 의미한다.
본 발명의 다른 실시예에 따른 증강 현실 제공 방법은 AR 어플리케이션을 실행시키지 않은 상태에서 사용자의 위치 정보만을 이용하여 사용자 단말기와 인접한 기기에 문제가 발생하였는지 여부를 판단하여 사용자에게 알림을 제공할 수 있다.
이를 통해, 본 발명은 적은 시스템 리소스를 이용하면서 사용자에게 위험을 효과적으로 알릴 수 있다. 또한, 본 발명은 사용자 단말기와 인접한 기기에 문제가 발생하는 경우, AR 어플리케이션 실행을 요청하여 해당 기기에 대한 접근 금지를 표시함으로써, 사용자가 해당 기기에 대한 위험 상태를 직관적으로 파악하도록 할 수 있다.
도 8 내지 도 11은 본 발명의 몇몇 실시예에 따른 증강 현실 제공 방법의 동작을 설명하기 위한 도면이다.
도 8을 참조하면, 본 발명의 일 실시예에 따른 증강 현실 제공 방법을 수행하는 사용자 단말기(100)는 거리 측정 수단을 통해 인접한 대상 기기(210, 220, 230)들을 감지할 수 있다.
이때, 사용자 단말기(100)는 센서부(165)에서 측정한 데이터를 기초로 객체와의 거리를 계산하거나, 카메라부(120)에서 촬영된 영상을 이용하여 객체와의 거리를 계산할 수 있다. 예를 들어, 제어부(110)는 초음파, 적외선 또는 레이저 등을 이용하는 거리 측정 수단을 이용하여 객체와의 거리를 측정할 수 있다. 다만, 이는 하나의 예시에 불과하며, 본 발명은 다양한 거리 측정 수단을 이용하여 객체와의 거리를 측정할 수 있다.
이어서, 사용자 단말기(100)는 각 대상 기기(210, 220, 230)와의 거리(L1, L2, L3)가 미리 설정된 거리(Ldet)보다 작은지 여부를 판단한다.
예를 들어, 사용자 단말기(100)와 제1 대상 기기(210) 및 제2 대상 기기(220) 사이의 거리(L1, L2)는 미리 설정된 거리(Ldet)보다 작고, 사용자 단말기(100)와 제3 대상 기기(230) 사이의 거리(L3)는 미리 설정된 거리(Ldet)보다 클 수 있다.
이때, 사용자 단말기(100)는 제1 대상 기기(210) 및 제2 대상 기기(220)에 대해서만 동작 상태를 판단하고, 제3 대상 기기(230)에 대해서는 동작 상태를 판단하지 않을 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 사용자 단말기(100)는 제3 대상 기기(230)에 대한 동작 상태를 판단하되, 접근 금지의 증강 현실 인터페이스를 표시하지 않을 수 있다. 이는 제3 대상 기기(230)가 사용자 단말기(100)로부터 사용자의 안전을 보장할 수 있을 만큼 충분히 떨어져 있기 때문이다.
이어서, 사용자 단말기(100)는 제1 대상 기기(210) 및 제2 대상 기기(220)에 대한 상태 정보를 서버(300)로부터 수신한다. 이어서, 사용자 단말기(100)는 제1 대상 기기(210) 및 제2 대상 기기(220)의 이상 동작 여부를 판단한다.
만약, 제1 대상 기기(210)는 정상 동작 중이고, 제2 및 제3 대상 기기(220, 230)는 이상 상태에 있는 경우, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시할 수 있다.
도 8 및 도 9를 참조하면, 본 발명의 다른 실시예에 따른 증강 현실 제공 방법을 수행하는 사용자 단말기(100)는 거리 측정 수단을 통해 인접한 대상 기기(210, 220, 230)들을 감지할 수 있다. 이때, 사용자 단말기(100)는 화면을 켜지 않은 대기 상태일 수 있다.
사용자 단말기(100)는 GPS를 이용해 사용자 단말기(100)의 현재 위치를 측정하고, 사용자 단말기(100)의 인근에 있는 대상 기기(210, 220, 230)를 초음파, 적외선 또는 레이저 등을 이용해 감지한다.
이어서, 사용자 단말기(100)는 각 대상 기기(210, 220, 230)와의 거리(L1, L2, L3)가 미리 설정된 거리(Ldet)보다 작은지 여부를 판단한다. 이어서, 사용자 단말기(100)는 미리 설정된 거리(Ldet) 이내에 위치한 제1 대상 기기(210) 및 제2 대상 기기(220)의 이상 동작 여부를 판단한다.
만약, 제1 대상 기기(210)는 정상 동작 중이고, 제2 및 제3 대상 기기(220, 230)는 이상 상태에 있는 경우, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 이상 상태 감지를 나타내는 알림 메시지(M1)을 화면에 표시할 수 있다. 이때, 알림 메시지(M1)는 AR 어플리케이션을 실행시킬 것을 사용자에게 알리는 문구를 포함할 수 있다.
이어서, 사용자가 알림 메시지(M1)를 통해 AR 어플리케이션을 실행시키는 경우, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시할 수 있다.
도 10을 참고하면, 도 10은 줌인(Zoom-In) 효과를 통해 이상 상태의 제2 대상 기기(220)를 확대함으로써, 접근 금지를 나타내는 증강 현실 인터페이스를 나타낸다.
이때, 제2 대상 기기(220)는 제2 대상 기기(220)의 실제 촬영된 이미지이거나, 확대된 제2 대상 기기(220)의 크기에 대응되는 증강 현실 이미지일 수 있다.
또한, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 접근 금지를 나타내는 증강 현실 메뉴(M31)와, 제2 대상 기기(220)와의 거리(L2)와, 줌인 배율에 대한 정보(M32)를 디스플레이부(180)에 함께 표시할 수 있다.
이어서, 사용자 단말기(100)가 제2 대상 기기(220)로부터 멀어지는 경우, 제2 대상 기기(220)와의 거리(L2)는 증가하고, 카메라부(120)의 줌인 배율은 감소할 수 있다. 따라서, 디스플레이부(180)에 표시되는 제2 대상 기기(220)의 이미지(즉, 증강 현실 이미지 또는 실제 이미지)의 크기는 점진적으로 감소될 수 있다.
이어서, 제2 대상 기기(220)와의 거리(L2)가 충분히 증가하여 미리 설정된 거리(Ldet)보다 커지는 경우, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 줌인을 해제한다. 즉, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 통상 크기의 증강 현실 이미지를 표시하거나, 제2 대상 기기(220)의 실제 이미지를 디스플레이부(180) 상에 표시할 수 있다.
본 발명의 증강 현실 제공 방법은 줌인으로 화면 상에서 확대되는 제2 대상 기기(220)의 이미지를 통해, 사용자로 하여금 직관적으로 뒤로 물러나야겠다는 생각이 들게 만들 수 있다. 이를 통해, 본 발명의 증강 현실 제공 방법은 사용자를 제2 대상 기기(220)로부터 멀어지도록 유도할 수 있다.
도 11을 참고하면, 도 11은 증강 현실 이미지 확대 효과를 통해 이상 상태의 제2 대상 기기(220)를 확대함으로써, 접근 금지를 나타내는 증강 현실 인터페이스를 나타낸다. 이때, 카메라부(120)의 배율은 일정하게 유지되며, 제2 대상 기기(220)에 대한 증강 현실 이미지(220_L)만이 확대될 수 있다.
이때, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 접근 금지를 나타내는 증강 현실 메뉴(M4)와, 각 대상 기기(210, 220, 230)와의 거리(L1, L2, L3)를 디스플레이부(180)에 표시할 수 있다.
이어서, 사용자 단말기(100)가 제2 대상 기기(220)와 멀어지는 경우, 제2 대상 기기(220)의 증강 현실 이미지(220_L)의 크기는 점진적으로 감소될 수 있다.
이어서, 제2 대상 기기(220)와의 거리(L2)가 충분히 증가하여 미리 설정된 거리(Ldet)보다 커지는 경우, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 증강 현실 이미지(220_L)의 크기 확대 효과를 해제한다. 즉, 사용자 단말기(100)는 제2 대상 기기(220)에 대한 통상 크기의 증강 현실 이미지를 표시할 수 있다.
본 발명의 증강 현실 제공 방법은 증강 현실 이미지 확대 효과를 통해 화면 상에서 확대되는 제2 대상 기기(220)의 증강 현실 이미지를 통해, 사용자로 하여금 직관적으로 뒤로 물러나야겠다는 생각이 들게 만들 수 있다. 이를 통해, 본 발명의 증강 현실 제공 방법은 사용자를 제2 대상 기기(220)로부터 멀어지도록 유도할 수 있다.
추가적으로, 본 발명의 증강 현실 제공 방법은 사용자 단말기(100)의 위치가 접근 금지 구역 내에 들어가는 경우에도, 앞에서 설명한 다양한 방법을 통해 접근 금지 구역에서 벗어날 것을 알리는 증강 현실 인터페이스를 표시할 수 있다. 접근 금지 구역에 대한 정보는 서버(300)를 통해 수신할 수 있으며, 사용자 단말기(100)는 다양한 경고 문구를 포함하는 증강 현실 인터페이스를 표시함으로써 사용자에게 위험을 알릴 수 있다.
따라서, 본 발명의 증강 현실 제공 방법은, 사용자가 문제가 발생한 기기로부터 멀어지도록 알림을 제공할 수 있고, 사용자는 특정 기기에 대한 위험 상태를 직관적으로 파악할 수 있으며, 자신의 안전 거리를 확보한 상태에서 문제가 발생한 기기에 대한 적절한 대응을 수행할 수 있다.
또한, 본 발명의 증강 현실 제공 방법은, AR 어플리케이션을 실행시키지 않은 상태에서 사용자의 위치 정보만을 이용하여 사용자 단말기와 인접한 기기에 문제가 발생하였는지 여부를 판단하여 사용자에게 알림을 제공할 수 있다. 이를 통해, 본 발명은 적은 시스템 리소스를 이용하면서 사용자에게 위험을 효과적으로 알릴 수 있다. 또한, 본 발명은 사용자 단말기와 인접한 기기에 문제가 발생하는 경우, AR 어플리케이션 실행을 요청하여 해당 기기에 대한 접근 금지를 표시함으로써, 사용자가 해당 기기에 대한 위험 상태를 직관적으로 파악하도록 할 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 사용자 단말기
200: 대상 기기
300: 서버
200: 대상 기기
300: 서버
Claims (11)
- 사용자 단말기 또는 서버에서 수행되는 증강 현실 제공 방법으로써,
상기 사용자 단말기의 카메라부에서 객체를 포함하는 영상을 촬영하는 (a) 단계;
상기 촬영된 영상에서 상기 객체를 인식하는 (b) 단계;
상기 사용자 단말기와 상기 객체와의 거리를 계산하고, 계산된 상기 객체와의 거리가 미리 설정된 거리보다 작은지 여부를 판단하는 (c) 단계;
상기 객체에 대한 상태 정보를 수신하는 (d) 단계;
상기 수신된 상태 정보를 기초로 상기 객체의 동작 상태를 판단하는 (e) 단계;
상기 객체에 동작 이상이 발생한 경우, 상기 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 생성하는 (f) 단계; 및
상기 객체에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계를 포함하는
증강 현실 제공 방법.
- 제1 항에 있어서,
상기 객체에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계는, 상기 카메라부에서 상기 객체에 대한 줌인(Zoom-In) 동작을 통해, 디스플레이부에 표시되는 상기 객체의 크기를 확대하는 것을 포함하고,
상기 사용자 단말기와 상기 객체와의 거리가 멀어지는 경우, 상기 객체에 대한 줌인 배율을 점진적으로 감소시키는 단계를 더 포함하는 증강 현실 제공 방법.
- 제1 항에 있어서,
상기 촬영된 영상에 상기 증강 현실 인터페이스를 오버랩하여 디스플레이부에 표시하는 (g) 단계는, 디스플레이부에 표시되는 상기 객체에 대한 증강 현실 이미지의 크기를 확대하는 것을 포함하고,
상기 사용자 단말기와 상기 객체와의 거리가 멀어지는 경우, 상기 객체에 대한 증강 현실 이미지의 크기를 점진적으로 축소시키는 단계를 더 포함하는 증강 현실 제공 방법.
- 제3 항에 있어서,
상기 객체와의 거리가 미리 설정된 거리보다 커지는 경우, 상기 객체에 대한 증강 현실 이미지의 크기 확대 효과를 해제하는 단계를 더 포함하는 증강 현실 제공 방법.
- 제1 항에 있어서,
상기 객체와의 거리가 미리 설정된 거리보다 커지는 경우, 상기 접근 금지를 나타내는 증강 현실 인터페이스의 표시를 해제하는 단계를 더 포함하는 증강 현실 제공 방법.
- 제1 항에 있어서,
상기 사용자 단말기가 접근 금지 구역 내에 진입하는 경우, 상기 접근 금지 구역에서 벗어날 것을 알리는 증강 현실 인터페이스를 표시하는 단계를 더 포함하는 증강 현실 제공 방법.
- 제6 항에 있어서,
상기 접근 금지 구역에서 벗어날 것을 알리는 증강 현실 인터페이스를 표시하는 단계 이후에, 상기 사용자 단말기와 상기 객체와의 거리가 멀어지는 경우, 상기 객체에 대한 줌인 배율을 점진적으로 증가시켜, 상기 디스플레이부 상에 표시되는 상기 객체의 크기를 일정하게 유지시키는 것을 더 포함하는 증강 현실 제공 방법.
- 제1 항에 있어서,
상기 객체의 동작 상태를 판단하는 (e) 단계는,
상기 객체의 상기 수신된 상태 정보와 미리 정해진 정상 동작 기준치를 비교하여, 상기 객체의 이상 동작 여부를 판단하는 것을 포함하는 증강 현실 제공 방법.
- 제8 항에 있어서,
상기 상태 정보는, 상기 객체의 전력량 정보, 온도 정보, 전압 정보 또는 전류 정보를 포함하는 증강 현실 제공 방법.
- 제1 항에 있어서,
상기 (b) 또는 (f) 단계는 상기 서버에서 수행되고, 다른 나머지 단계는 상기 사용자 단말기에서 수행되는 증강 현실 제공 방법.
- 사용자 단말기에서 수행되는 증강 현실 제공 방법으로써,
상기 사용자 단말기에 포함된 거리 측정 수단을 이용하여 객체와의 거리를 측정하는 단계;
측정된 상기 객체와의 거리가 미리 설정된 거리보다 작은지 여부를 판단하는 단계;
상기 객체에 대한 상태 정보를 수신하는 단계;
상기 수신된 상태 정보를 기초로 상기 객체의 동작 상태를 판단하는 단계;
상기 객체에 동작 이상이 발생한 경우, AR 어플리케이션의 실행을 요청하는 알림을 사용자에게 제공하는 단계; 및
상기 AR 어플리케이션이 실행되는 경우, 상기 객체에 대한 접근 금지를 나타내는 증강 현실 인터페이스를 표시하는 단계를 포함하는
증강 현실 제공 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182586A KR102347586B1 (ko) | 2017-12-28 | 2017-12-28 | 증강 현실 제공 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170182586A KR102347586B1 (ko) | 2017-12-28 | 2017-12-28 | 증강 현실 제공 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190080243A true KR20190080243A (ko) | 2019-07-08 |
KR102347586B1 KR102347586B1 (ko) | 2022-01-07 |
Family
ID=67256335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170182586A KR102347586B1 (ko) | 2017-12-28 | 2017-12-28 | 증강 현실 제공 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102347586B1 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287928A (zh) * | 2020-10-20 | 2021-01-29 | 深圳市慧鲤科技有限公司 | 一种提示方法、装置、电子设备及存储介质 |
WO2021133053A1 (ko) * | 2019-12-26 | 2021-07-01 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
KR20220050254A (ko) * | 2020-10-15 | 2022-04-25 | 한국전자기술연구원 | 경량형 증강현실장치의 스테레오 프레임을 이용한 3차원 맵을 생성하기 위한 장치 및 이를 위한 방법 |
WO2022149704A1 (ko) * | 2021-01-07 | 2022-07-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2024029699A1 (ko) * | 2022-08-04 | 2024-02-08 | 삼성전자 주식회사 | 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120086794A (ko) * | 2011-01-27 | 2012-08-06 | 주식회사 팬택 | 마커를 분할해서 공유하는 증강 현실 시스템 및 그 방법 |
KR20120129640A (ko) * | 2011-05-20 | 2012-11-28 | 단국대학교 산학협력단 | 증강현실을 이용한 학습 장치 및 방법 |
KR20140133640A (ko) * | 2013-05-09 | 2014-11-20 | 삼성전자주식회사 | 증강 현실 정보를 포함하는 콘텐츠 제공 방법 및 장치 |
KR20150087955A (ko) * | 2014-01-23 | 2015-07-31 | 에스케이플래닛 주식회사 | 증강현실 기반의 기상 정보 제공 장치 및 방법과, 기상 정보 제공 시스템 |
-
2017
- 2017-12-28 KR KR1020170182586A patent/KR102347586B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120086794A (ko) * | 2011-01-27 | 2012-08-06 | 주식회사 팬택 | 마커를 분할해서 공유하는 증강 현실 시스템 및 그 방법 |
KR20120129640A (ko) * | 2011-05-20 | 2012-11-28 | 단국대학교 산학협력단 | 증강현실을 이용한 학습 장치 및 방법 |
KR20140133640A (ko) * | 2013-05-09 | 2014-11-20 | 삼성전자주식회사 | 증강 현실 정보를 포함하는 콘텐츠 제공 방법 및 장치 |
KR20150087955A (ko) * | 2014-01-23 | 2015-07-31 | 에스케이플래닛 주식회사 | 증강현실 기반의 기상 정보 제공 장치 및 방법과, 기상 정보 제공 시스템 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021133053A1 (ko) * | 2019-12-26 | 2021-07-01 | 삼성전자주식회사 | 전자 장치 및 그의 제어 방법 |
KR20220050254A (ko) * | 2020-10-15 | 2022-04-25 | 한국전자기술연구원 | 경량형 증강현실장치의 스테레오 프레임을 이용한 3차원 맵을 생성하기 위한 장치 및 이를 위한 방법 |
CN112287928A (zh) * | 2020-10-20 | 2021-01-29 | 深圳市慧鲤科技有限公司 | 一种提示方法、装置、电子设备及存储介质 |
WO2022149704A1 (ko) * | 2021-01-07 | 2022-07-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
WO2024029699A1 (ko) * | 2022-08-04 | 2024-02-08 | 삼성전자 주식회사 | 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102347586B1 (ko) | 2022-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102347586B1 (ko) | 증강 현실 제공 방법 | |
KR102366293B1 (ko) | 디지털 트윈을 이용한 증강현실 기반 현장 모니터링 시스템 및 방법 | |
KR102289745B1 (ko) | 실시간 현장 작업 모니터링 방법 및 시스템 | |
US20210166489A1 (en) | Method of displaying virtual information in a view of a real environment | |
JP6056178B2 (ja) | 情報処理装置、表示制御方法及びプログラム | |
JP2023153815A (ja) | プロセス制御環境の3dマッピング | |
KR101958723B1 (ko) | 지오펜스 크로싱 기반 제어를 위한 시스템들 및 기술들 | |
EP2974509B1 (en) | Personal information communicator | |
KR102264754B1 (ko) | 증강 현실 제공 시스템 및 방법 | |
KR101125233B1 (ko) | 융합기술기반 보안방법 및 융합기술기반 보안시스템 | |
CN109656319B (zh) | 一种用于呈现地面行动辅助信息方法与设备 | |
KR102268797B1 (ko) | 증강 현실 제공 시스템 및 방법 | |
KR20210093194A (ko) | 차량의 차로변경을 탐지하는 방법과 장치, 전자 기기, 저장 장치, 노변 기기, 클라우드 제어 플랫폼 및 프로그램 제품 | |
KR102263468B1 (ko) | 증강 현실 제공 시스템 및 방법 | |
KR102337209B1 (ko) | 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체 | |
CN108628442A (zh) | 一种信息提示方法、装置以及电子设备 | |
KR102345333B1 (ko) | 증강 현실 제공 시스템 및 방법 | |
KR102496334B1 (ko) | 멀티퍼슨 체온 측정 방법, 장치, 전자 기기 및 저장 매체 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
JP2012141779A (ja) | 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム | |
KR101700651B1 (ko) | 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치 | |
US11475606B2 (en) | Operation guiding system for operation of a movable device | |
CN114187509B (zh) | 对象定位方法、装置、电子设备以及存储介质 | |
KR102268798B1 (ko) | 증강 현실 제공 시스템 및 방법 | |
KR20190081179A (ko) | 증강 현실 제공 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |