KR20240091611A - 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 - Google Patents
미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 Download PDFInfo
- Publication number
- KR20240091611A KR20240091611A KR1020220174709A KR20220174709A KR20240091611A KR 20240091611 A KR20240091611 A KR 20240091611A KR 1020220174709 A KR1020220174709 A KR 1020220174709A KR 20220174709 A KR20220174709 A KR 20220174709A KR 20240091611 A KR20240091611 A KR 20240091611A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual content
- diorama
- real
- miniature
- time
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013507 mapping Methods 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43076—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/816—Monomedia components thereof involving special video data, e.g 3D video
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Tourism & Hospitality (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Software Systems (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Optics & Photonics (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법에 관한 것이다. 보다 자세하게는 특정 현실세계에 설치된 적어도 하나 이상의 정보 획득 장치가 실시간 현실 정보를 획득하면, 가상 콘텐츠 시스템이 실시간 현실 정보에 포함된 객체를 식별하여 인식하고, 인식된 객체를 토대로 가상 콘텐츠를 생성하며, 이후에 사용자가 사용자 단말을 통하여 미니어처 디오라마를 촬영하면, 사용자 단말 화면 상에 가상 콘텐츠가 증강되어 디스플레이되도록 하여, 사용자가 특정 현실세계에서 펼쳐지는 상황을 한눈에 파악할 수 있도록 서비스를 제공하는 서비스 제공 방법에 관한 것이다.
Description
본 발명은 미니어처 디오라마 상에 실시간 현실 정보를 반영하여 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 특정 현실세계에 설치된 적어도 하나 이상의 정보 획득 장치가 실시간 현실 정보를 획득하면, 가상 콘텐츠 시스템이 실시간 현실 정보에 포함된 객체를 식별하여 인식하고, 인식된 객체를 토대로 가상 콘텐츠를 생성하며, 이후에 사용자가 사용자 단말을 통하여 미니어처 디오라마를 촬영하면, 사용자 단말 화면 상에 가상 콘텐츠가 증강되어 디스플레이 되도록 하여, 사용자가 특정 현실세계에서 펼쳐지는 상황을 한눈에 파악할 수 있도록 서비스를 제공하는 서비스 제공 방법에 관한 것이다.
증강현실은 현재 세계에 가상의 정보를 덧씌운 것을 말한다. 증강현실은 가상현실과 현실세계가 혼합된 현실이라고도 불리며, 4차 산업혁명이 도래된 시점부터 다양한 방면으로 활용되고 있다.
현재 상용화 되어 있는 증강현실 기술 중 축소된 모형인 미니어처 디오라마가 함께 활용되는 증강현실 기술이 있다. 종래의 미니어처 디오라마를 활용한 증강현실 기술은 사용자들에게 다양한 흥미를 유발하는 기술로 활용되고 있는데, 예를 들어, 사용자가 스마트폰으로 관광지, 관광 명소, 관광지의 풍경, 등을 축소한 모형인 미니어처 디오라마를 촬영하면 스마트폰 화면 상에 해당 디오라마와 관련된 정보들이 가상의 이미지로서 출력되어 해당 디오라마의 역사적 배경, 개념들을 교육하는 용도로 자주 활용되고 있다.
다만, 종래의 미니어처 디오라마를 활용한 증강현실 기술은 고정된 미니어처 디오라마에 대한 고정된 정보만을 제공하고 있기에 이미 한번 해당 기술을 경험한 사용자는 쉽게 흥미를 잃을 수 있으며, 실시간으로 획득되는 정보를 기반으로 제공되는 정보가 아니므로 교육, 또는 흥미 유발에 대한 목적 외의 다양한 목적으로 활용되기 어렵다.
한편, 이러한 종래의 미니어처 디오라마를 활용한 증강현실 기술의 문제점을 해결하고자, 디지털 트윈과 미니어처 디오라마를 결합한 기술이 개발되었다. 이 기술은 사용자가 원하는 정보를 얻기 위한 데이터를 입력시켜 실물과 똑같은 가상의 이미지 생성하고, 생성된 가상의 이미지가 실물의 미니어처 디오라마 공간에 증강되어 실제 제품을 만들기 이전, 또는 실제 공정이 실시되기 이전에 모의 시험(시뮬레이션)을 하여 모의시험을 통하여 발생할 수 있는 문제점을 파악하고 해결하는 기술이다.
이러한 종래의 디지털 트윈과 미니어처 디오라마를 결합한 기술은 사용자가 실시간으로 입력한 정보에 따라 원하는 가상의 이미지가 미니어처 디오라마 공간 내에 증강되는 바, 이러한 기술이 다양한 목적으로도 활용될 수 있으나, 해당 기술이 활용되기 위해서는 데이터를 입력해야 하는 사용자의 능동적인 자세를 요하며, 기술의 사용 자체가 난해하여 일반적인 사용자가 이용하기에는 어려움이 있고, 현재 실제로 일어나고 있는 상황에 대한 모니터링을 할 때에는 활용되기 어렵다.
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 고안할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.
본 발명이 해결하고자 하는 기술적 과제는 실제 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보(예. 사람들의 움직임)를 반영한 가상 콘텐츠를 증강시켜, 사용자가 실제 현실세계에 굳이 나아가 확인할 필요 없이 실제 현실세계에서 발생하는 상황을 미니어처 디오라마 상에 증강된 가상 콘텐츠를 통하여 파악할 수 있도록 하는 서비스를 제공하는 것을 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법은 (a)특정 현실세계를 실시간으로 모니터링하는 적어도 하나 이상의 정보 획득 장치로부터 실시간 현실 정보를 수신하는 단계, (b)상기 실시간 현실 정보를 기반으로 객체를 식별하고 인식하는 단계, (c)상기 실시간 현실 정보를 기반으로 상기 인식된 객체에 대한 가상 콘텐츠를 생성하는 단계 및 (d)사용자가 사용자 단말에 구비된 카메라를 통하여 상기 특정 현실세계를 축소하여 제작한 미니어처 디오라마를 촬영할 시, 상기 사용자 단말 화면 상에 상기 가상 콘텐츠가 증강되도록 하는 단계를 포함할 수 있다.
또한, 상기 (c) 단계는, (c-1)상기 (b) 단계에서 인식된 객체에 특정 현실세계 내에서의 제1 좌표를 맵핑하는 단계를 포함할 수 있다.
또한, 상기 (d) 단계는, (d-1)상기 객체에 맵핑된 제1좌표를 상기 미니어처 디오라마와 상기 특정 현실세계간의 축척비율을 기반으로 연산하여 제2 좌표를 생성하는 단계 및 (d-2)상기 가상 콘텐츠가 상기 사용자 단말 화면 상에 상기 가상 콘텐츠가 증강될 시, 상기 제2 좌표에 대응되는 위치에 증강되도록 하는 단계를 포함할 수 있다.
또한, 본 발명에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법은 상기 (d) 단계 이후에, 상기 사용자가 임의의 위치에서 상기 사용자 단말을 통하여 상기 미니어처 디오라마를 촬영할 시, 촬영하는 방향에 따라 상기 가상 콘텐츠의 위치 및 방향이 결정되어 디스플레이되는 것을 특징으로 할 수 있다.
또한, 본 발명에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법은 상기 (d) 단계 이후에, 상기 사용자가 임의의 위치에서 상기 사용자 단말을 통하여 상기 미니어처 디오라마를 촬영할 시, 상기 사용자 단말과 상기 미니어처 디오라마간의 거리에 따라 상기 가상 콘텐츠의 크기가 결정되어 디스플레이되는 것을 특징으로 할 수 있다.
상기와 같은 본 발명에 따르면, 사용자에게 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스를 제공함으로써, 사용자들이 실제 현실세계에 나아가 확인할 필요 없이 사용자 단말을 통하여 미니어처 디오라마를 촬영하는 간단한 방법만으로 실제 현실세계에서 발생하는 상황을 단번에 파악할 수 있는 효과가 있다.
또한, 본 발명은 사용자가 HMD 단말 또는 스마트폰과 같은 모바일 단말 내에 구비된 카메라를 미니어처 디오라마를 촬영하는 것만으로도 촬영된 화면 상에 가상 콘텐츠가 디스플레이 되도록 함으로써 누구나 손쉽게 사용할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도1은 본 발명의 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템을 개괄적으로 나타낸 도면이다.
도2는 본 발명의 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템이 실시간 현실 정보를 획득하여 가상 콘텐츠를 생성하는 과정을 간단한 모식도를 통하여 나타낸 도면이다.
도3은 본 발명의 제1 좌표 및 제2 좌표를 그림을 통하여 나타낸 도면이다.
도4는 본 발명의 제1 실시 예에 따른 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템의 전체적인 구성을 모식도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 구체적으로 나타낸 도면이다.
도6은 본 발명의 제2 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도7a 및 도7b는 본 발명의 제3 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도8은 본 발명의 제4 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 모식도로 나타낸 도면이다.
도9는 본 발명의 제4 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도2는 본 발명의 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템이 실시간 현실 정보를 획득하여 가상 콘텐츠를 생성하는 과정을 간단한 모식도를 통하여 나타낸 도면이다.
도3은 본 발명의 제1 좌표 및 제2 좌표를 그림을 통하여 나타낸 도면이다.
도4는 본 발명의 제1 실시 예에 따른 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템의 전체적인 구성을 모식도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 구체적으로 나타낸 도면이다.
도6은 본 발명의 제2 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도7a 및 도7b는 본 발명의 제3 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도8은 본 발명의 제4 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 모식도로 나타낸 도면이다.
도9는 본 발명의 제4 실시 예에 따른 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 명세서에서 사용되는 "포함한다 (Comprises)" 및/또는 "포함하는 (Comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
또한 본 명세서에서 사용되는 "증강"이라는 용어는, 사전적으로는 수나 양을 늘려 더 강하게 한다는 뜻으로 정의되어 있으나, 본 상세한 설명 내에서는 증강현실(augmented reality)이라는 용어 내에서 사용된 '증강'과 같은 의미, 즉 현실 세계에 가상의 정보를 구현(implement)하는 것으로 이해하기로 한다.
또한 본 명세서에서 사용되는 "촬영"한다는 표현은 카메라가 구동 중인 상태에서 사람, 사물, 풍경 따위가 비추어지는 상태, 사용자가 카메라가 들고 있는 채로 대상물을 향해 응시하고 있는 상태 등을 의미할 수 있으며, 사진 또는 동영상을 찍는 기능으로만 한정 해석되어서는 안될 것이다.
도1은 본 발명의 현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템(10)을 개괄적으로 나타낸 도면이다.
현실세계를 축소하여 제작한 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 시스템(이하 시스템(10)이라 약칭함)은 특정 현실세계에 설치된 적어도 하나 이상의 정보 획득 장치(100)가 실시간 현실 정보를 획득하면, 가상 콘텐츠 시스템이 실시간 현실 정보에 포함된 객체(20)를 식별하여 인식하고, 인식된 객체(20)를 토대로 가상 콘텐츠(30)를 생성하며, 이후에 사용자가 사용자 단말(310)을 통하여 미니어처 디오라마(200)를 촬영하면, 사용자 단말(310) 화면 상에 가상 콘텐츠(30)가 증강되도록 하여, 사용자가 특정 현실세계에서 펼쳐지는 상황을 한눈에 파악할 수 있도록 한다.
이러한 시스템(10)의 전체적인 구성과 시스템(10)이 사용자에게 서비스를 제공하는 방법을 살펴보기 이전에, 본 발명에서 자주 이용되는 용어를 간략히 살펴보도록 한다.
[특정 현실세계]
본 발명에서 말하는 특정 현실세계는 사용자가 본 발명의 서비스를 제공받고자 하는 특정 범위에 해당하는 공간을 말한다. 쉬운 예로, 본 발명의 미니어처 디오라마(200)가 A 아파트 단지 영역을 일정 축척으로 축소하여 제작한 미니어처 디오라마라면, 본 발명에서 말하는 특정 현실세계는 'A 아파트 단지'가 될 것이다.
[객체(20)]
본 발명에서 말하는 객체(20)는 특정 현실세계에 존재하는 사람, 동물 등의 움직이는 객체(20)를 말할 수 있으며, 건물, 표지판 등과 같은 건축물, 물체와 같은 부동(不動)의 객체(20)도 본 발명의 객체(20)가 될 수 있다.
객체(20)는 정보 획득 장치(100)에 의하여 정보가 수집되는 대상체 또는 대상물이 될 수 있다. 예를 들어, 정보 획득 장치(100)가 실시간으로 이미지 데이터를 촬영하여 실시간 현실 정보를 획득하는 장치라면, 이러한 정보 획득 장치(100)로부터 촬영된 사람, 동물, 움직이는 차량 등이 본 발명의 객체(20)가 될 수 있다.
[실시간 현실 정보]
실시간 현실 정보는 특정 현실세계에서 감지되는 객체(20)의 이미지, 또는 객체의 소리, 객체의 모션(움직임) 등을 포함한 정보일 수 있다. 예를 들어, A 아파트 단지에 A 사람과 B 사람이 운동을 하고 있다면, A 사람, B 사람 각각의 객체에 대한 '이미지'데이터, A 사람과 B 사람이 운동하면서 발생하는 '음성'데이터, A사람과 B사람이 운동하면서 취하는 동작/자세와 같은 '모션(움직임)'데이터, A사람과 B사람의 현재 '위치' 데이터가 본 발명의 실시간 현실 정보가 될 수 있다.
이러한 실시간 현실 정보는 정보 획득 장치(100)로부터 획득되며, 정보 획득 장치(100)의 기능에 따라 실시간 현실 정보에 포함되는 정보가 추가될 수 있다. 구체적인 예로, 만일, 정보 획득 장치(100)에 IR카메라(Infrared Camera: 열적외선 카메라)가 추가된다면, IR 카메라로부터 센싱된 객체(20)의 열에 대한 정보가 실시간 현실 정보에 포함될 수 있다.
[가상 콘텐츠(30)]
가상 콘텐츠(30)는 적어도 하나 이상의 이미지 데이터가 2차원 형태의 이미지 데이터 또는 3차원 형태의 이미지 데이터로 압축 또는 복원되어 가상현실 세계 상에 가시화되어 출력되는 가상의 콘텐츠이며, 가상 콘텐츠(30)는 이미지 데이터에 대한 콘텐츠뿐만 아니라 음성에 대한 데이터, 열에 대한 데이터 등과 같이 실시간 현실 정보로부터 획득될 수 있는 데이터를 기반으로 생성된 콘텐츠를 포함할 수 있다.
가상 콘텐츠(30)는 객체(20)에 대한 단순 정지 이미지를 사용자의 사용자 단말 화면(310: 도1 참고) 상에 출력하는 것이 아니라 특정 현실세계에 존재하는 객체의 모션과 대응되는 영상 이미지들이 가시화되어 사용자의 사용자 단말 화면(310) 상에 출력될 수 있다. 예를 들면, 특정 현실세계에서 객체(20)가 달리기를 하고 있다면, 사용자 단말(310) 화면 상에 객체가 달리는 모습이 가상 콘텐츠(30)로서 증강되어 출력될 수 있다.
도2는 본 발명의 시스템(10)이 실시간 현실 정보를 획득하여 가상 콘텐츠를 생성하는 과정을 간단한 모식도를 통하여 나타낸 도면이다.
도2를 참고하면, 본 발명의 시스템(10)에 의하여 가상 콘텐츠(20)가 생성되기 위해서는, 먼저, 정보 획득 장치(100)가 특정 현실세계로부터 실시간 현실 정보를 획득해야 하며(①), 인식 모듈(320)이 획득된 실시간 현실 정보에 포함된 ⅰ) 이미지를 인식하거나, ⅱ) 소리를 인식하거나, 또는 ⅲ) 모션(움직임)을 인식하여 객체(20) 자체를 식별한다(②). 이렇게 인식 모듈(320)로부터 인식 및 식별된 객체에 대한 데이터들은 가상 콘텐츠 생성부(340)에 전달된다(③). 이후에 가상 콘텐츠 생성부(340)에 의하여 가상 콘텐츠(30)가 생성하고, 사용자가 사용자 단말(310)의 카메라(311)를 통하여 상기 특정 현실세계를 축소하여 제작한 미니어처 디오라마(200)를 촬영하면, 사용자 단말(310) 화면 상에 가상 콘텐츠(30)가 출력된다.
[제1 좌표(P1) 및 제2 좌표(P2)]
도3은 본 발명의 제1 좌표(P1) 및 제2 좌표(P2)를 그림을 통하여 나타낸 도면이다.
도 3을 참고하면, 제1 좌표(P1)는 실제 특정 현실세계의 객체(20)의 위치이다. 예를 들어, A 아파트 단지 공원 내의 위치한 벤치 앞에 A 사람이 서 있다고 가정하였을 때, 여기서 'A 사람의 위치', 즉 'A 아파트 단지 공원 내의 위치한 벤치 앞'이 제1 좌표(P1)라고 볼 수 있다.
제1 좌표(P1)는 연산부(330)가 전술한 인식모듈(320)로부터 전달된 객체(20)에 대한 인식 데이터를 토대로 실제 특정 현실세계의 객체(20)의 위치를 연산하여 생성한 데이터이다. 제1 좌표(P1)는 특정 현실세계에서 임의로 정의된 좌표계를 기준으로 정해질 수 있으며, 이러한 좌표계는 특정 현실세계에 존재하는 정보 획득 장치(예. CCTV, 라이다 센서 등)의 설치 위치, 정보 획득 장치가 커버할 수 있는 현실세계의 영역, 특정 현실세계에 존재하는 랜드마크 또는 특징점 등을 기준으로 정의될 수 있다.
제1 좌표(P1)는 연산부(330)에 의하여 생성된 이후에 객체(20)에 맵핑되고, 객체(20)에 맵핑된 제1 좌표(P1)는 연산부(330)가 제2 좌표(P2)를 생성할 때의 데이터 리소스로 활용된다.
제2 좌표(P2)는 실제 특정 현실세계의 객체(20)의 위치 즉, 제1 좌표(P1)에 대응되는 미니어처 디오라마(200) 내의 위치이다. 예를 들어, A 아파트 단지 공원 내 위치한 벤치 앞에 A 사람이 서 있으며, A 아파트 단지 공원을 축소하여 제작한 미니어처 디오라마(200)가 마련되어 있다고 가정하였을 때, 'A 사람의 위치'라고 볼 수 있는 'A 아파트 단지 공원 내 위치한 벤치 앞'이 제1 좌표(P1)이며, '미니어처 디오라마(200) 내의 벤치 모형 앞'이 제2 좌표(P2)가 되는 것이다.
제2 좌표(P2)는 제1 좌표(P1)와 마찬가지로 연산부(330)에 의하여 생성된다. 구체적으로, 제2 좌표(P2)는 연산부(330)가 객체(20)에 맵핑된 제1좌표(P1)를 미니어처 디오라마(200)와 상기 특정 현실세계간의 축척비율을 기반으로 연산하여 생성된 좌표이다.
이렇게 연산부(330)로부터 생성된 제1 좌표(P1) 및 제2 좌표(P2)는 가상 콘텐츠(30)가 사용자 단말(310) 화면 상에 출력 될 때, 실제 특정 현실세계의 객체의 위치와 대응되는 미니어처 디오라마(200)의 위치에 출력될 수 있도록 한다.
이상 본 발명에서 자주 이용되는 용어를 간략히 살펴보았다.
다음으로, 본 발명의 제1 실시 예에 따른 시스템(10)의 전체적인 구성에 대하여 살펴보도록 한다.
<제1 실시 예>
도4는 본 발명의 제1 실시 예에 따른 시스템(10)의 전체적인 구성을 모식도로 나타낸 도면이다.
도4를 참고하면, 본 발명의 제1 실시 예에 따른 시스템(10)은 정보 획득 장치(100), 미니어처 디오라마(200) 및 가상 콘텐츠 시스템(300)을 포함할 수 있다.
[정보 획득 장치(100)]
정보 획득 장치(100)는 특정 현실세계에 대한 적어도 하나 이상의 데이터 정보를 획득하는 장치이다. 여기서, 특정 현실세계의 데이터 정보란, 앞서 설명한 실시간 현실 정보를 말한다.
정보 획득 장치(100)는 특정 현실세계를 실시간으로 모니터링 하여 실시간의 이미지 데이터를 촬영하여 실시간 현실 정보를 생성하는 카메라(예. CCTV(폐쇄회로))를 포함할 수 있다.
정보 획득 장치(100)는 특정 현실세계에서 출력되는 음성 데이터를 획득하여 음성 획득 장치를 포함할 수 있으며, 나아가, 정보 획득 장치(100)는 음성 획득 장치로부터 획득된 음성 데이터를 통하여 음원의 위치 및 거리를 측정하는 음원 위치 추적 장치를 추가로 포함할 수 있으며, 음원 위치 추적 장치를 통하여 획득된 실시간 현실 정보는 연산부(330)가 객체(20)의 위치인 제1 좌표(P1: 도3 참고)를 연산하는 데이터 리소스로 활용될 수 있다. 참고로 음원 위치 추적 장치는 음성 신호를 송수신하는 둘 이상의 센서를 활용하여, 각각 센서들을 통하여 송수신된 음성 신호의 시간차나 세기차를 이용하여 각 음성들의 위치와 방향을 찾아내는 장치를 말한다.
정보 획득 장치(100)는 3차원 라이다(Lidar) 센서를 포함할 수 있으며, 3차원 라이다 센서가 출력한 레이저 펄스의 도달시간을 측정하여 반사 시점의 공간 위치 좌표를 연산하여 실시간 현실 정보를 생성할 수 있으며, 3차원 라이다 센서가 생성한 실시간 현실 정보를 토대로 연산부(330)가 객체(20)의 위치인 제1 좌표(P1)를 연산하도록 구현할 수도 있다.
정보 획득 장치(100)는 특정현실 세계 내의 객체(20)의 열을 감지하는 IR카메라를 포함할 수 있다. 이렇게 IR 카메라가 생성한 실시간 현실 정보는 사용자가 사용자 단말(310)의 카메라(311)를 통하여 미니어처 디오라마(200)를 촬영할 시, 사용자 단말(310) 화면 상에 열이 표시된 가상 콘텐츠(30)가 출력될 수 있도록 하여 사용자가 특정 현실세계 내의 위치한 객체(20)들이 고열 상태인지 정상 상태인지 한눈에 파악할 수 있도록 한다.
[미니어처 디오라마(200)]
본 발명에서 말하는 미니어처 디오라마(200)는 앞서 설명하였듯이 특정 현실세계를 일정한 축척비율로 축소하여 제작한 모형이다. 쉽게 말해, 도1에 도시된 바와 같이 사용자가 특정 현실세계(예. 아파트 단지)를 한 눈에 확인할 수 있도록 축소된 모형이 본 발명의 미니어처 디오라마(300)가 될 수 있다.
[가상 콘텐츠 시스템(300)]
다시 도 4를 참고하면, 본 발명의 제1 실시 예에 따른 가상 콘텐츠 시스템(300)은 사용자 단말(310), 인식 모듈(320), 연산부(330) 및 가상 콘텐츠 생성부(340)를 포함할 수 있다.
[사용자 단말(310)]
사용자 단말(310)은 증강현실 또는 가상현실과 같은 가상의 세계를 구현하는 장치이며, 가상의 세계를 구현함과 동시에 가상의 현실 상에 가상 콘텐츠(30)가 디스플레이되도록 하는 단말이다.
사용자 단말(310)은 사용자 신체에 착용되는 HMD(Head Mounted Display)장치, 스마트 글래스 등을 포함할 수 있으며, HMD 장치 또는 스마트 글래스가 사용자에게 제공하는 화면 상에 가상 콘텐츠(30)를 증강할 수 있다.
한편, 사용자 단말(310)은 스마트폰, 태블릿 PC등과 같이 적어도 하나 이상의 통신모듈을 구비한 모바일 단말이 활용될 수 있으며, 모바일 단말을 이용한 본 발명의 서비스 제공방법은 본 발명의 제2 실시예를 설명할 때에 보다 자세히 설명하도록 한다.
[카메라(311)]
카메라(311)는 사용자 단말(310)에 포함된 장치로서, 카메라(311) 시야 내의 미니어처 디오라마(200)를 촬영하는 역할을 수행한다.
또한. 카메라(311)는 기본적으로 피사체를 촬영하는 것을 주된 기능을 포함하고 있어, 사용자가 미니어처 디오라마(200)를 촬영함으로써 본 발명의 서비스를 제공받을 때에 사용자의 또 다른 '눈'이 되어줄 수 있는 바, 카메라(311)는 사용자가 사용자 단말(310)에서 출력하는 화면을 통하여 본 발명의 서비스를 제공받을 수 있게 하는 매개체 역할을 수행한다.
[인식 모듈(320)]
인식 모듈(320)은 정보 획득 장치(100)로부터 획득된 실시간 현실 정보를 기반으로 인식 데이터를 생성하는 장치이다. 여기서, 인식 데이터는 실시간 현실 정보 내에 포함된 데이터들을 통하여 인식한 결과에 대한 데이터이다. 예를 들면, 정보 획득 장치(100)의 CCTV 카메라가 실시간 현실 정보로서 특정 현실세계 내의 객체(20)의 이미지 데이터를 획득하였다면, 이때의 인식 데이터는, 인식 모듈(320)이 객체(20)의 이미지 데이터를 분석하여 해당 객체(20)가 사람인지, 동물인지 또는 자동차 인지, 객체(20)가 현재 어떠한 모션을 취하고 있는지 등을 인식한 결과에 대한 데이터이다.
이러한 인식 모듈(320)은 이미지 인식부(321), 모션 인식부(322) 및 음성 인식부(323)를 포함할 수 있다.
[이미지 인식부(321)]
이미지 인식부(321)는 AI 이미지 알고리즘을 활용하여 실시간 현실 정보에 포함된 이미지 데이터를 식별하고 인식할 수 있다. 구체적으로, AI 이미지 알고리즘에는 객체(20)를 식별하기 위하여 복수의 이미지 데이터들이 기 학습되어 있으며, 복수의 기 학습된 이미지 데이터 중에서 획득된 객체(20)의 이미지 데이터와 가장 유사도 높은 이미지 데이터를 추출하여, 추출된 이미지 데이터가 획득된 객체(20)라고 식별함으로써 객체(20)를 인식한다. 구체적인 예로, AI 이미지 알고리즘에 '사람'에 대한 이미지 데이터와 '차량'에 대한 이미지 데이터가 학습되어 있으며, 정보 획득 장치(100)로부터 획득된 객체(20)의 이미지가 'A 사람'의 이미지 데이터라고 가정하면, 이미지 인식 알고리즘은 ' A 사람'의 이미지 데이터가 기 학습된 '사람'에 대한 이미지 데이터와 '차량'에 대한 이미지 데이터 중에서 '사람'에 대한 이미지 데이터가 유사하다고 판단하여, 현재 획득된 객체(20)의 이미지가 사람이라고 식별하여 인식할 수 있다.
이렇게 이미지 인식부(321)가 객체(20)를 식별하면, 이미지 인식부(321)는 사용자가 본 발명의 서비스를 제공받을 때에 사용자 단말(310) 화면 상에 사용자 원하는 가상 콘텐츠(30)만을 증강할 수 있다. 예를 들어, 사용자가 특정 현실세계 에 대하여 차량, 동물 등과 같은 객체(20)를 제외하고 사람 객체(20)만을 모니터링하고자 할 때, 이미지 인식부(321)는 AI 이미지 알고리즘을 통하여 복수의 객체(20)를 식별하고, 복수의 식별된 객체(20) 중 사람 객체에 대한 인식 데이터만을 가상 콘텐츠 생성부(340)에 전달할 수 있다.
[모션 인식부(322)]
모션 인식부(322)는 모션 감지 알고리즘을 활용하여 객체의 모션을 인식하여 인식 데이터를 생성하는 역할을 수행한다. 여기서 말하는 모션 감지 알고리즘이란 컴퓨터 비전 소프트웨어에 포함되는 알고리즘으로서, 정보 획득 장치(100)로부터 전달된 실시간 현실 정보 내의 캡쳐된 이미지를 분석하거나, 열화상 카메라가 촬영한 열 신호 데이터를 분석하거나, 광 펄스 감지 센서, 초음파 감지 센서, 연속파 감지레이더 중 적어도 하나 이상의 별도의 센서로부터 센싱된 데이터를 분석하여 피사체의 모션을 감지하는 알고리즘을 말한다.
모션 인식부(322)는 객체(20)의 특정한 모션(예. 싸우는 모션, 쓰러지는 모션 등)인식할 수 있으며, 이러한 특징을 활용하여 사용자가 특정 현실세계를 보다 효과적으로 모니터링 할 수 있도록 하며, 이러한 모션 인식부(320)의 특징을 활용한 기술에 대해서는 본 발명의 제4 실시 예를 설명할 때에 보다 자세히 설명하도록 한다.
[음성 인식부(323)]
음성 인식부(323)은 AI 음성 인식 알고리즘을 활용하여 특정 현실세계에서 발생되는 음성에 대한 인식 데이터를 생성하는 역할을 수행한다. 여기서 말하는 AI 음성 인식 알고리즘은 기 학습된 복수의 음성 신호의 특징(예. 주파수, 진폭, 주기)들 중에서 현재 시점에서 출력된 음성 신호의 특징과 가장 유사한 음성 신호의 특징을 추출하여, 추출된 음성 신호의 특징이 현재 시점에서 출력된 음성이라고 인식하는 알고리즘이다. 쉽게 말해, AI 음성 인식 알고리즘은 기 학습된 음성 신호의 특징들과 현재 인식하고자 하는 음성 신호 특징의 유사도를 비교하여 객체(20)에 의하여 발생되는 음성(예. 사람의 고함 소리), 소음(차량의 클락션) 등과 같은 음성의 종류를 인식하여 식별하는 알고리즘이다.
이러한 음성 인식부(323)의 역할은 사용자가 본 발명의 서비스를 제공받을 때에 주의하여 모니터링 해야 할 상황을 구분할 수 있도록 한다. 구체적으로, 사용자가 아파트 구역을 관리하는 경비원이라면, 아이들이 뛰어 놀 때에 발생하는 음성, 아파트 로비에서 발생하는 안내음 등은 경비원으로서 주의해야 할 소리가 아닐 것이며, 입주자 간의 다툼에 의한 고함 소리, 차량 간의 충돌에 의하여 발생하는 소음, 등이 경비원으로서 주의해야 할 소리이므로, 음성 인식부(323)는 특정 현실세계에서 발생하는 모든 음성을 인식하되, 경비원으로서 주의해야 할 음성, 즉 서비스를 제공받는 사용자에게 필요한 음성만을 구분하여 인식할 수 있다.
[연산부(330)]
연산부(330)는 정보 획득 장치(100)로부터 획득된 실시간 현실 정보를 토대로 특정 현실세계 내의 객체(20)의 위치인 제1 좌표(P1)과 제1 좌표(P1)와 대응되는 미니어처 디오라마(200) 내의 객체(20)의 위치인 제2 좌표(P2)를 연산하는 역할을 수행한다. 구체적으로, 연산부(330)는 정보 획득 장치(100)에 포함된 CCTV에 의해 촬영된 영역의 공간 위치 좌표를 연산한 결과 값을 토대로 제1 좌표(P1)를 생성하거나, 3차원 라이다(Lidar) 센서가 출력한 레이저 펄스의 도달시간을 측정하여 반사 시점의 공간 위치 좌표를 연산한 결과 값을 토대로 제1 좌표(P1)를 생성하거나, 정보 획득 장치(100)에 포함된 음원 위치 추적 장치가 송수신된 음성 신호의 시간차나 세기차를 이용하여 객체(20)로부터 발생된 음성의 위치를 연산한 결과 값을 토대로 제1 좌표(P1)를 생성하여, 특정 현실세계 내의 객체(20)의 위치를 연산하고, 해당 객체(20)에 제1 좌표(P1)를 맵핑하고, 객체(20)에 맵핑된 제1 좌표(P1)를 특정 현실세계와 미니어처 디오라마(200) 간의 축척 비율을 기반으로 연산하여 제2 좌표(P2)를 생성한다.
[가상 콘텐츠 생성부(340)]
가상 콘텐츠 생성부(340)는 실시간 현실 정보 및 인식 데이터를 토대로 사용자 단말(310) 화면 상에 출력될 가상 콘텐츠(30)를 생성하는 역할을 수행한다. 구체적으로, 실시간 현실 정보에는 객체(20)의 이미지 데이터, 특정 현실세계에서 발생하는 음성에 대한 데이터, 객체(20)의 열 데이터, 객체(20)의 움직임 데이터 등이 포함되어 있으며, 인식 데이터에는 해당 객체(20)가 무엇인지, 객체(20)가 어떠한 움직임을 취하고 있는지, 객체(20)의 상태가 어떠한지(객체(20)의 온도), 등이 인식된 결과에 대한 데이터를 포함하고 있으며, 이러한 데이터들을 토대로 객체(20)에 대한 2차원 형태의 이미지 데이터 또는 3차원 형태의 이미지 데이터를 생성하고, 생성된 이미지 데이터를 압축 또는 복원시키며, 별도의 추가 표시 데이터(예. 객체(20)의 온도, 식별된 객체(20)의 이름 등)를 삽입하여 사용자 단말(310) 화면 상에 가시화될 수 있도록 출력한다.
이상 본 발명의 제1 실시 예에 따른 시스템(10)의 전체적인 구성에 대하여 살펴보았다.
다음으로, 본 발명의 제1 실시 예에 따른 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 구체적으로 살펴보도록 한다.
도 5는 본 발명의 제1 실시 예에 따른 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 구체적으로 나타낸 도면이다.
도5를 참고하면, 본 발명의 제1 실시 예에 따른 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법은 먼저, 가상 콘텐츠 시스템(300)이 특정 현실세계 내에 설치된 정보 획득 장치(100)로부터 실시간 현실 정보를 수신하는 단계(S101)에서 시작된다.
이후에, 인식 모듈(320)이 객체(20)를 인식한다(S102). 여기서 S102 단계는 특정 현실세계 내에서 객체(20)가 있는지 여부를 판단하는 것뿐만 아니라 해당 객체(20)가 무엇인지, 객체(20)가 발화하고 있는지, 객체(20)에게 발생하고 있는 상황이 무엇인지, 객체(20)가 어떤 움직임을 취하고 있는지 등 객체(20)에 대한 정보를 인식하는 단계이다.
다음으로, 가상 콘텐츠 생성부(340)는 실시간 현실 정보와 인식된 객체에 대한 정보(인식 데이터)를 기반으로 사용자 단말(310) 화면 상에 출력될 가상 콘텐츠(30)를 생성한다(S103).
S103 단계는 가상 콘텐츠 생성부(340)가 객체(20)에 대한 가상 콘텐츠(30)를 생성할 때, 연산부(330)가 해당 객체(20)에 특정 현실세계 내의 객체(20)의 위치를 연산한 제1 좌표(P1)를 맵핑하는 단계(S103a)를 포함할 수 있다.
이후에, 가상 콘텐츠 시스템(300)은 사용자가 사용자 단말(310)을 통하여 미니어처 디오라마(200)를 촬영할 시, 사용자 단말(310) 화면 상에 가상 콘텐츠(30)를 증강한다(S104).
S104 단계는 S103a 단계에서 객체(20)에 맵핑된 제1 좌표(P1)를 미니어처 디오라마(20)와 특정 현실세계 간의 축척 비율을 기반으로 연산하여 제2 좌표(P2)를 생성하는 단계(S104a) 및 S103 단계에서 생성된 가상 콘텐츠(30)가 사용자 단말(310) 화면 상에 증강될 시, 제2 좌표(P2)에 대응되는 위치에 증강되도록 하는 단계(S104b)를 포함할 수 있다.
이상, 본 발명의 제1 실시 예에 따른 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 구체적으로 살펴보았다.
다음으로, 본 발명의 제2 내지 제4 실시 예에 따른 본 발명의 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법에 대하여 살펴보도록 한다.
<제2 실시 예>
도 6은 본 발명의 제2 실시 예에 다른 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도6을 참고하면, 본 발명의 제2 실시 예는 사용자 단말(310a) 로서 스마트폰, 태블릿 PC등과 같은 적어도 하나 이상의 통신모듈을 구비한 모바일 단말이 활용된다.
본 발명의 제2 실시 예서의 가상 콘텐츠 시스템(300)의 역할은 서버 형태의 가상 콘텐츠 서버(400)가 역할을 대신하고, 가상 콘텐츠 서버(400)는 원격으로 사용자에게 가상 콘텐츠(30)를 제공해준다. 구체적으로. 사용자 단말(310a)에는 가상현실 콘텐츠 서버(300a)와 연동되는 애플리케이션이 기 설치되어 있으며, 사용자가 상기 애플리케이션을 실행하여 미니어처 디오라마(200)를 촬영하면, 가상현실 콘텐츠 서버(300a)가 가상현실 콘텐츠(30)를 생성하여 사용자 단말(310a) 화면 상에 가상현실 콘텐츠(30)가 증강될 수 있도록 한다.
본 발명의 제2 실시 예는 모바일 단말인 사용자 단말(310a)에 구비된 카메라를 통하여 실물의 미니어처 디오라마(200)를 촬영하면, 특정 현실세계 내의 객체(20)에 대응되는 가상 콘텐츠(30)가 사용자 단말(310a) 화면 상에 증강되는 것인 바, 현실 세계에 가상의 콘텐츠가 증강되는 AR(Augmented Reality) 기술이 활용된 실시 예라고 볼 수 있다.
본 발명의 제2 실시 예는 사용자 단말(310a)로서 스마트 폰, 태블릿 PC와 같은 모바일 단말을 활용함으로써, 가상 콘텐츠 서버(400)에서 제공하는 애플리케이션을 설치하기만 하여도 본 발명의 서비스를 제공받을 수 있어, 서비스의 범용성과 활용성을 극대화하는 효과가 있다.
<제3 실시 예>
도 7a 및 도 7b는 본 발명의 제3 실시 예에 따른 본 발명의 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
본 발명의 제3 실시 예는 사용자 또는 사용자 단말(310)과 미니어처 디오라마(200)의 상대적인 위치와 방향에 따라 사용자 단말(310) 화면 상에 출력되는 가상현실 콘텐츠의 위치와 방향, 또는 크기가 변화하는 실시 예이다.
도 7a를 참고하면, 본 발명의 제3 실시 예는 사용자가 본 발명의 서비스를 제공받고자, 임의의 위치에서 사용자 단말(310)을 통하여 미니어처 디오라마(200)를 촬영할 시, 촬영하는 방향에 따라 상기 콘텐츠의 위치 및 방향이 결정되어 디스플레이 되도록 할 수 있다. 예를 들어, 사용자가 미니어처 디오라마(200)의 전면(A 방향)을 촬영하였을 때, 사용자 단말(310) 화면 상에 가상 콘텐츠(30)의 전면이 디스플레이 되고 있다면, 사용자가 자리를 옮겨 미니어처 디오라마(200)의 측면(B 방향)을 촬영하면 사용자 단말(310) 화면 상에 가상 콘텐츠(30)의 옆모습이 디스플레이될 수 있다.
도 7b를 참고하면, 본 발명의 제3 실시 예는 사용자가 본 발명의 서비스를 제공받고자, 임의의 위치에서 사용자 단말(310)을 통하여 미니어처 디오라마(200)를 촬영할 시, 사용자 단말(310)과 미니어처 디오라마(200) 간의 거리에 따라 가상 콘텐츠(300)의 크기가 결정되어 디스플레이되도록 할 수 있다. 예를 들어, 사용자가 본 발명의 서비스를 제공받기 위하여, 미니어처 디오라마(200)를 기준으로 L1의 이격 거리에서 미니어처 디오라마를 촬영한 이후에 미니어처 디오라마(200)를 기준으로 L2의 이격 거리만큼 떨어져 미니어처 디오라마(200)를 걸쳐 촬영하였고, L1의 거리가 L2의 거리보다 길다고 가정하였을 때, 가상 콘텐츠(30)에 원근감의 효과를 심어주기 위하여, 사용자가 L1의 이격 거리에서 미니어처 디오라마(200) 촬영했을 때 보다 L2의 이격 거리에서 촬영했을 때, 사용자 단말(200) 화면 상의 출력되는 가상 콘텐츠(30)의 크기가 커지도록 디스플레이 될 수 있다.
<제4 실시 예>
도 8은 본 발명의 제4 실시 예에 따른 본 발명의 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법을 모식도로 나타낸 도면이다.
본 발명의 제4 실시 예는 특정 현실 세계에서 발생할 수 있는 위험한 상황, 도움이 필요한 상황, 또는 관리가 필요한 상황 등의 돌발 이벤트를 사용자가 본 발명에서 제공하는 서비스를 통하여 단번에 인식할 수 있도록 하는 실시 예이다. 구체적으로, 본 발명에서 말하는 돌발 이벤트는 사람이 갑자기 쓰러지는 상황, 차량 간의 충돌이 발생한 상황, 사람이 소리지르는 상황 등이 될 수 있으며, 이러한 돌발 이벤트는 사람이 갑자기 쓰러지는 것과 특정 모션, 차량간의 충돌음, 또는 사람이 "살려주세요"또는 "도와주세요"라는 소리를 질렀을 때의 음성, 또는 특정 객체(20)의 이미지(예. 범죄자의 이미지)가 인식 모듈(320)의 특정 모션 인식기능, 음성 인식기능, 이미지 인식기능에 의하여 인식된 것이다.
이러한 본 발명의 제 4 실시 예에 따른 서비스를 사용자에게 제공하기 위하여, 본 발명의 시스템(10)은 정보 획득 장치(100)가 실시간 정보를 획득하고(①), 인식 모듈(320)이 실시간 현실 정보를 기반으로 특정 현실 세계에서 일어나고 있는 돌발 이벤트를 인식하며(②), 인식 모듈(320)이 돌발 이벤트의 원인이 될 수 있는 돌발 이벤트 주변의 객체(20)를 특정하고(③), 가상 콘텐츠 생성부(340)가 인식 모듈(320)이 특정한 객체 주변에 적어도 하나 이상의 특수효과(예. 객체(20) 주변에 불빛의 강조효과)를 표시하여 가상 콘텐츠(30)를 생성한다(④).
도9는 본 발명의 제4 실시 예에 따른 본 발명의 현실세계를 축소하여 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법의 활용 예를 그림을 통하여 나타낸 도면이다.
도 9를 참고하면, 특정 현실 세계에서 사람이 쓰러지는 돌발 이벤트가 발생하면, 사용자가 이러한 돌발 이벤트를 단번에 인지할 수 있도록 사용자 단말(310) 화면 상에 가상 콘텐츠(30)가 디스플레이 될 때에 돌발 이벤트의 대상이 되는 가상 콘텐츠(30)에 특수 효과 표시되어 디스플레이 될 수 있다. 여기서 특수 효과는 가상 콘텐츠(30) 테두리에 적어도 하나 이상의 색을 나타내는 불빛이 표시될 수 있으며, 원형, 사각형 등의 도형이 가상 콘텐츠(30) 주변에 표시될 수 있으며, 위험, 주의, 돌발 등의 텍스트 특수 효과가 표시될 수 있다.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
10: 시스템
20: 객체
30: 가상 콘텐츠
100: 정보 획득 장치
200: 미니어처 디오라마
300: 가상 콘텐츠 시스템
310, 310a: 사용자 단말 311: 카메라
320: 인식 모듈
321: 이미지 인식부 322: 모션 인식부 323: 음싱 인식부
330: 연산부
340: 가상 콘텐츠 생성부
400: 가상 콘텐츠 서버
20: 객체
30: 가상 콘텐츠
100: 정보 획득 장치
200: 미니어처 디오라마
300: 가상 콘텐츠 시스템
310, 310a: 사용자 단말 311: 카메라
320: 인식 모듈
321: 이미지 인식부 322: 모션 인식부 323: 음싱 인식부
330: 연산부
340: 가상 콘텐츠 생성부
400: 가상 콘텐츠 서버
Claims (5)
- 가상 콘텐츠 시스템이 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스를 제공하는 방법에 있어서,
(a)특정 현실세계를 실시간으로 모니터링하는 적어도 하나 이상의 정보 획득 장치로부터 실시간 현실 정보를 수신하는 단계;
(b)상기 실시간 현실 정보를 기반으로 객체를 식별하고 인식하는 단계;
(c)상기 실시간 현실 정보를 기반으로 상기 인식된 객체에 대한 가상 콘텐츠를 생성하는 단계; 및
(d)사용자가 사용자 단말에 구비된 카메라를 통하여 상기 특정 현실세계를 축소하여 제작한 미니어처 디오라마를 촬영할 시, 상기 사용자 단말 화면 상에 상기 가상 콘텐츠가 증강되도록 하는 단계;
를 포함하는,
미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법.
- 제2 항에 있어서,
상기 (c) 단계는,
(c-1)상기 (b) 단계에서 인식된 객체에 특정 현실세계 내에서의 제1 좌표를 맵핑하는 단계;
를 포함하는,
미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법.
- 제2항에 있어서,
상기 (d) 단계는,
(d-1)상기 객체에 맵핑된 제1좌표를 상기 미니어처 디오라마와 상기 특정 현실세계간의 축척비율을 기반으로 연산하여 제2 좌표를 생성하는 단계; 및
(d-2)상기 가상 콘텐츠가 상기 사용자 단말 화면 상에 상기 가상 콘텐츠가 증강될 시, 상기 제2 좌표에 대응되는 위치에 증강되도록 하는 단계;
를 포함하는,
미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법.
- 제1항에 있어서,
상기 (d) 단계 이후에,
상기 사용자가 임의의 위치에서 상기 사용자 단말을 통하여 상기 미니어처 디오라마를 촬영할 시, 촬영하는 방향에 따라 상기 가상 콘텐츠의 위치 및 방향이 결정되어 디스플레이되는 것을 특징으로 하는,
미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법.
- 제1항에 있어서,
상기 (d) 단계 이후에,
상기 사용자가 임의의 위치에서 상기 사용자 단말을 통하여 상기 미니어처 디오라마를 촬영할 시, 상기 사용자 단말과 상기 미니어처 디오라마간의 거리에 따라 상기 가상 콘텐츠의 크기가 결정되어 디스플레이되는 것을 특징으로 하는,
미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220174709A KR20240091611A (ko) | 2022-12-14 | 2022-12-14 | 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 |
PCT/KR2023/020606 WO2024128819A1 (ko) | 2022-12-14 | 2023-12-14 | 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220174709A KR20240091611A (ko) | 2022-12-14 | 2022-12-14 | 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240091611A true KR20240091611A (ko) | 2024-06-21 |
Family
ID=91700662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220174709A KR20240091611A (ko) | 2022-12-14 | 2022-12-14 | 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240091611A (ko) |
-
2022
- 2022-12-14 KR KR1020220174709A patent/KR20240091611A/ko unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10958896B2 (en) | Fusing measured multifocal depth data with object data | |
KR102417177B1 (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
US10320437B2 (en) | System and method for immersive and interactive multimedia generation | |
US9035970B2 (en) | Constraint based information inference | |
US9105210B2 (en) | Multi-node poster location | |
CN100499830C (zh) | 3d视频会议站和3d视频会议方法 | |
EP2984541B1 (en) | Near-plane segmentation using pulsed light source | |
JP7073481B2 (ja) | 画像表示システム | |
CN102419631A (zh) | 虚拟内容到现实内容中的融合 | |
CN110033783A (zh) | 声学环境中的声学信号的基于上下文的消除和放大 | |
CN103765879A (zh) | 扩展激光深度图范围的方法 | |
CN105264548A (zh) | 用于生成增强现实体验的难以察觉的标签 | |
US10955911B2 (en) | Gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
Yu et al. | Intelligent visual-IoT-enabled real-time 3D visualization for autonomous crowd management | |
WO2022023142A1 (en) | Virtual window | |
JPH10198506A (ja) | 座標検出システム | |
CN104883561A (zh) | 三维全景显示方法和头戴式显示设备 | |
KR20240091611A (ko) | 미니어처 디오라마 상에 실시간 현실 정보를 반영한 가상 콘텐츠를 증강하는 서비스 제공 방법 및 이를 위한 시스템 | |
WO2020250106A1 (en) | A system and a method for teleportation for enhanced audio-visual interaction in mixed reality (mr) using a head mounted device (hmd) | |
CN105894581B (zh) | 一种呈现多媒体信息的方法及装置 | |
JP2005258792A (ja) | 画像生成装置、画像生成方法、および画像生成プログラム | |
WO2017124871A1 (zh) | 一种呈现多媒体信息的方法及装置 | |
US20240129615A1 (en) | Imaging system, imaging method, and non-transitory computer readable medium | |
US20240331317A1 (en) | Information processing device, information processing system and method | |
JP7267756B2 (ja) | 監視装置及びドローン |