KR102639050B1 - Vr image content providing ststem - Google Patents

Vr image content providing ststem Download PDF

Info

Publication number
KR102639050B1
KR102639050B1 KR1020220135396A KR20220135396A KR102639050B1 KR 102639050 B1 KR102639050 B1 KR 102639050B1 KR 1020220135396 A KR1020220135396 A KR 1020220135396A KR 20220135396 A KR20220135396 A KR 20220135396A KR 102639050 B1 KR102639050 B1 KR 102639050B1
Authority
KR
South Korea
Prior art keywords
message
image
processor
output
messages
Prior art date
Application number
KR1020220135396A
Other languages
Korean (ko)
Inventor
김찬일
Original Assignee
주식회사 브로즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브로즈 filed Critical 주식회사 브로즈
Application granted granted Critical
Publication of KR102639050B1 publication Critical patent/KR102639050B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Abstract

VR 이미지 콘텐츠 제공 시스템이 개시된다.
일 실시예에 따른 VR 이미지 콘텐츠 제공 시스템은, 메모리 및 프로세서를 포함하고, 상기 프로세서는, VR 이미지의 소정 영역에 대한 사용자 입력 및 메시지를 수신하는 수신하고, 상기 VR 이미지에 포함된 복수 개의 오브젝트 중 상기 소정 영역에 대응되는 오브젝트에 대응하여 상기 메시지를 저장하고, 사용자가 입력한 메시지를 상기 대응되는 오브젝트에 매핑하여 출력하도록 구성된 메시지 출력할 수 있다.
A VR image content provision system is disclosed.
A VR image content providing system according to an embodiment includes a memory and a processor, wherein the processor receives user input and messages for a predetermined area of the VR image, and selects one of a plurality of objects included in the VR image. The message may be stored in response to an object corresponding to the predetermined area, and a message configured to be output by mapping the message input by the user to the corresponding object may be output.

Description

VR 이미지 콘텐츠 제공 시스템{VR IMAGE CONTENT PROVIDING STSTEM}VR image content provision system {VR IMAGE CONTENT PROVIDING STSTEM}

본 발명은 VR 이미지 콘텐츠 서비스 제공 시스템에 관한 것이다.The present invention relates to a VR image content service provision system.

일반적으로, VR(virtual reality)은 컴퓨터, 태블릿 PC 또는 스마트폰의 사이버 공간 상에서 파노라마 이미지를 이용한 3차원 효과를 통해 사용자가 마치 그 장소에 있는 것처럼 느끼게 해주는 3차원 가상 현실감을 구현하는 기술이다. 특히, 사용자가 마우스를 드래그하거나 터치 스크린을 터치하는 등의 사용자 인터렉티브(interactive)를 통해, 3차원 이미지가 드래그 또는 터치하는 방향으로 회전되므로 실제로 현장에 있는 듯한 느낌을 받게 된다.In general, VR (virtual reality) is a technology that implements a three-dimensional virtual reality that makes users feel as if they are in that location through a three-dimensional effect using panoramic images in cyberspace on a computer, tablet PC, or smartphone. In particular, through user interactivity such as dragging the mouse or touching the touch screen, the 3D image rotates in the direction of the drag or touch, giving the feeling of actually being there.

소장하는 제품을 소셜 네트워크 서비스 웹사이트에 공유하기 위한 개인, 제품을 홍보하기 위한 광고 회사, 현실감 및 생동감 있는 교육 내용을 전달을 위한 학교, 유물 또는 예술품 등을 전시하는 박물관 등 다양한 분야에서 그 활용도를 찾을 수 있다.It can be used in a variety of fields, including individuals who share their products on social networking service websites, advertising companies to promote products, schools to deliver realistic and lively educational content, and museums to display artifacts or works of art. You can find it.

대한민국 공개특허공보 제10-2022-0073684호(2022년 06월 03일, 공개)Republic of Korea Patent Publication No. 10-2022-0073684 (published on June 3, 2022)

본 발명은 사용자에 의해 입력되는 메시지를 격자 형태의 맵에 입력된 VR 이미지들의 오브젝트들에 대해 매칭하여 등록 가능한 VR 이미지 콘텐츠 제공 시스템을 제공할 수 있다.The present invention can provide a VR image content providing system that can be registered by matching a message input by a user to objects of VR images input in a grid-shaped map.

일 실시예에 따른 VR 이미지 콘텐츠 제공 시스템은, 메모리; 및 프로세서를 포함하고, 상기 프로세서는, VR 이미지의 소정 영역에 대한 사용자 입력 및 메시지를 수신하고, 상기 VR 이미지에 포함된 복수 개의 오브젝트 중 상기 소정 영역에 대응되는 오브젝트에 대응하여 상기 메시지를 저장하고, 사용자가 입력한 메시지를 상기 대응되는 오브젝트에 매핑하여 출력하도록 구성된 메시지 출력할 수 있다.A VR image content providing system according to an embodiment includes: memory; and a processor, wherein the processor receives a user input and a message for a predetermined area of the VR image, and stores the message in response to an object corresponding to the predetermined area among a plurality of objects included in the VR image. , a message configured to be output by mapping the message input by the user to the corresponding object can be output.

상기 프로세서는, 상기 VR 이미지의 픽셀에 대하여, Dense Prediction에 기초한 제1 레이블링 처리를 수행하고, 상기 VR 이미지에 Object Detection에 기초한 제2 레이블링 처리를 수행하고, 제2 레이블링 처리 결과 및 제2 레이블링 처리 결과에 기초하여 상기 오브젝트에 대응하여 상기 메시지를 저장할 수 있다.The processor performs a first labeling process based on Dense Prediction on the pixels of the VR image, performs a second labeling process based on Object Detection on the VR image, and provides a second labeling process result and a second labeling process. Based on the results, the message can be stored corresponding to the object.

상기 프로세서는, 상기 제2 레이블링 처리 결과에 기초하여, 각각의 오브젝트에 대한 세그멘테이션 범위를 설정하고, 상기 범위 내에서, 상기 제1 레이블링 처리 결과에 기초하여 상기 각각의 오브젝트의 세그멘테이션의 테두리를 결정하고, 상기 결정된 테두리에 기초하여, 상기 메시지를 저장할 수 있다.The processor sets a segmentation range for each object based on the second labeling processing result, and within the range, determines a segmentation border of each object based on the first labeling processing result, and , the message can be stored based on the determined border.

각각의 오브젝트에 대응되는 메시지는, 상기 각각의 오브젝트에 대해 미리 결정된 특정 지점에 기초하여 외부에 출력될 수 있다.A message corresponding to each object may be output to the outside based on a specific point predetermined for each object.

상기 메시지는, 기 입력된 사용자 메시지에 댓글 형식으로 추가적으로 기재되도록 구성될 수 있다.The message may be configured to be additionally written in the form of a comment to the previously entered user message.

일 실시예에 따른 VR 이미지 콘텐츠 제공 방법은, VR 이미지의 소정 영역에 대한 사용자 입력 및 메시지를 수신하는 단계; 상기 VR 이미지에 포함된 복수 개의 오브젝트 중 상기 소정 영역에 대응되는 오브젝트에 대응하여 상기 메시지를 저장하는 단계; 및 사용자가 입력한 메시지를 상기 대응되는 오브젝트에 매핑하여 출력하도록 구성된 메시지 출력하는 단계를 포함할 수 있다.A method of providing VR image content according to an embodiment includes receiving a user input and message regarding a predetermined area of a VR image; storing the message in response to an object corresponding to the predetermined area among a plurality of objects included in the VR image; and outputting a message configured to map and output a message input by the user to the corresponding object.

본 발명의 VR 이미지 콘텐츠 제공 시스템은 사용자에 의해 입력되는 메시지를 VR 이미지들의 오브젝트들에 대해 매칭하여 등록 가능함으로써, 다른 사용자가 상기 메시지를 다른 오브젝트들에 대한 메시지와 보다 쉽게 구별하여 인식할 수 있다.The VR image content providing system of the present invention can register a message input by a user by matching it to objects in VR images, so that other users can more easily recognize the message by distinguishing it from messages about other objects. .

도 1은 본 발명의 실시예에 따른, VR 이미지 콘텐츠 제공 시스템을 설명하기 위한 블록도이다. 도 2는 본 발명의 실시예에 따른, VR 이미지 콘텐츠 제공 시스템의 프로세서를 설명하기 위한 블록도이다.
도 3은 사용자 단말에 출력되는 VR 이미지를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 VR 이미지 콘텐츠를 제공하는 방법을 설명하기 위한 흐름도이다.
도 5a 내지 도 5d는 일 실시예에 따른 VR 이미지 콘텐츠 제공 시스템의 세그멘테이션 방식을 설명하기 위한 도면이다.
도 6a 내지 도 6c는 사용자 단말에 출력되는 VR 이미지에 사용자 메시지를 입력하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 예시적인 실시예에 따른, VR 이미지가 격자형으로 등록된 경우, 제공되는 격자 맵의 구조를 예시적으로 도시하는 도면이다.
1 is a block diagram for explaining a VR image content providing system according to an embodiment of the present invention. Figure 2 is a block diagram for explaining a processor of a VR image content providing system according to an embodiment of the present invention.
Figure 3 is a diagram for explaining a VR image output to a user terminal.
Figure 4 is a flowchart illustrating a method of providing VR image content according to an embodiment of the present invention.
5A to 5D are diagrams for explaining a segmentation method of a VR image content providing system according to an embodiment.
Figures 6A to 6C are diagrams for explaining the process of inputting a user message into a VR image output to a user terminal.
FIG. 7 is a diagram illustrating the structure of a grid map provided when a VR image is registered in a grid format according to an exemplary embodiment of the present invention.

이하에서는 본 발명의 실시 예를 첨부 도면을 참조하여 상세히 설명한다. 이하의 실시 예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상을 충분히 전달하기 위해 제시하는 것이다. 본 발명은 여기서 제시한 실시 예만으로 한정되지 않고 다른 형태로 구체화될 수도 있다. 도면은 본 발명을 명확히 하기 위해 설명과 관계없는 부분의 도시를 생략하고, 이해를 돕기 위해 구성요소의 크기를 다소 과장하여 표현할 수 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following examples are presented to sufficiently convey the idea of the present invention to those skilled in the art. The present invention is not limited to the embodiments presented herein and may be embodied in other forms. In order to clarify the present invention, the drawings may omit illustrations of parts unrelated to the description and may exaggerate the sizes of components somewhat to aid understanding.

본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.The embodiments described in this specification and the configurations shown in the drawings are only preferred examples of the disclosed invention, and at the time of filing this application, there may be various modifications that can replace the embodiments and drawings in this specification.

본 명세서의 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 도면에서 요소들의 형상 및 크기 등은 명확한 설명을 위해 과장된 것일 수 있다.The same reference numbers or symbols shown in each drawing of this specification indicate parts or components that perform substantially the same function. The shapes and sizes of elements in the drawings may be exaggerated for clarity.

본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.Terms used herein are used to describe embodiments and are not intended to limit and/or limit the disclosed invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “include” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. The existence or addition of numbers, steps, operations, components, parts, or combinations thereof is not excluded in advance.

본 명세서에서 사용한 “제1”, “제2”등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. “및/또는”이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms containing ordinal numbers, such as “first,” “second,” etc., used in this specification may be used to describe various components, but the components are not limited by the terms, and the terms refer to one It is used only for the purpose of distinguishing one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related stated items or any of a plurality of related stated items.

이하에서 사용되는 용어 "상단", "하단", "상부", "하부" 등은 도면을 기준으로 정의한 것이며, 이 용어에 의하여 각 구성요소의 형상 및 위치가 제한되는 것은 아니다.The terms “top”, “bottom”, “top”, “bottom”, etc. used below are defined based on the drawings, and the shape and location of each component are not limited by these terms.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시 예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시 예들 간에 중복되는 내용은 생략한다.Like reference numerals refer to like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present invention pertains is omitted.

명세서에서 사용되는 '부, 모듈, 장치'라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시 예들에 따라 복수의 '부, 모듈, 장치'가 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 장치'가 복수의 구성요소들을 포함하는 것도 가능하다.The terms 'unit, module, and device' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'units, modules, and devices' may be implemented as one component, or a single 'unit, It is also possible for a 'module or device' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

본 발명의 실시예에 있어서, "장치"라고 함은 범용 서버, 전용 서버, 데스크탑 컴퓨터, 노트북 컴퓨터, 스마트폰, VR 뷰어, 게임기 등 데이터를 수집, 판독, 처리, 가공, 저장, 표시할 수 있는 모든 계산 수단을 의미한다. 특히, 본 발명의 실시예에 있어서의 장치들은 해독 가능한 코드로 작성된 소프트웨어를 실행시킬 수 있으며, 이를 사용자에게 표시하여 전달할 수 있는 기능을 가진다. 또한, 필요에 따라서는 소프트웨어를 자체적으로 저장하기도 하고, 또는 외부로부터 데이터와 함께 읽어 들일 수도 있다.In an embodiment of the present invention, “device” refers to a device that can collect, read, process, process, store, and display data, such as general-purpose servers, dedicated servers, desktop computers, laptop computers, smartphones, VR viewers, and game consoles. means any means of calculation. In particular, the devices in the embodiment of the present invention can execute software written in decipherable code and have the function of displaying and delivering it to the user. Additionally, if necessary, the software can be stored internally or read together with data from outside.

또한, 본 발명의 실시예에 있어서의 장치들은 데이터 처리 기능뿐 아니라 입력, 출력, 저장 등의 기능이 포함되어 있으며, 이를 위하여 일반적인 컴퓨터들이 갖는 CPU, 메인보드, 그래픽 카드, 하드디스크, 사운드 카드, 스피커, 키보드, 마우스, 모니터, USB, 통신 모뎀 등의 각종 요소들뿐만 아니라 서버용 컴퓨터들이 갖는 CPU, 메인보드, 그래픽 칩, 메모리 칩, 사운드엔진, 스피커, 터치패드, USB 등의 외부 연결 단자, 통신 안테나, 3G, LTE, LTE-A, 5G, WiFi, 블루투스 등의 통신을 구현할 수 있는 통신 모뎀 등을 포함할 수 있다. 이러한 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 구현할 수 있으며, 본 발명의 실시예에서 도면이나 상세한 설명에서 하나 또는 2 이상의 블록으로 표시된 장치 또는 그 일부분들은 위와 같은 각종 요소들이 단독으로 또는 그 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 나타내는 것을 의미할 수 있다.In addition, the devices in the embodiment of the present invention include not only data processing functions but also functions such as input, output, and storage. For this purpose, the CPU, motherboard, graphics card, hard disk, sound card, and In addition to various elements such as speakers, keyboards, mice, monitors, USB, and communication modems, server computers have CPUs, motherboards, graphics chips, memory chips, sound engines, speakers, touchpads, external connection terminals such as USB, and communications. It may include an antenna, a communication modem capable of implementing communications such as 3G, LTE, LTE-A, 5G, WiFi, and Bluetooth. These various elements can implement one or more functions singly, two or more together, or parts of various elements combined, and in the embodiments of the present invention, a device shown as one or two or more blocks in the drawings or detailed description or The parts may mean that the above various elements are singly or more together, or parts of the various elements are combined to represent one or more functions.

한편, 본 발명의 실시예의 장치들은 통신 기능을 가질 수 있으며, 통신 기능을 구현하기 위하여 유선 인터넷, 무선 인터넷, 적외선 통신, 블루투스, WCDMA, Wibro, WiFi, LTE, LTE-A, 5G, 유무선 전화망 등의 각종 네트워크 수단을 구비할 수 있다.Meanwhile, the devices of the embodiment of the present invention may have a communication function, and in order to implement the communication function, wired Internet, wireless Internet, infrared communication, Bluetooth, WCDMA, Wibro, WiFi, LTE, LTE-A, 5G, wired and wireless telephone network, etc. Various network means can be provided.

도 1은 본 발명의 실시예에 따른, VR 이미지 콘텐츠 제공 시스템을 설명하기 위한 블록도이다. 도 2는 본 발명의 실시예에 따른, VR 이미지 콘텐츠 제공 시스템의 프로세서를 설명하기 위한 블록도이다.1 is a block diagram for explaining a VR image content providing system according to an embodiment of the present invention. Figure 2 is a block diagram for explaining a processor of a VR image content providing system according to an embodiment of the present invention.

도 1 내지 도 2를 참조하면, VR 이미지 콘텐츠 제공 시스템(100)은, 프로세서(120), 및 메모리(140)를 포함하는 정보 처리 장치일 수 있다. 예를 들어, 상기 VR 이미지 콘텐츠 제공 시스템(100)을 포함하는 전자 장치는, 각종 연산 및/또는 제어 등을 수행하기 위한 전자 장치 등을 포함할 수 있다. 일 예로서, 상기 정보 처리 장치는, 데스크톱 컴퓨터, 랩탑 컴퓨터, 또는 서버용 컴퓨터 등과 같이 정보 처리가 가능한 장치 중 적어도 하나를 포함할 수 있다.Referring to FIGS. 1 and 2 , the VR image content providing system 100 may be an information processing device including a processor 120 and a memory 140 . For example, the electronic device including the VR image content providing system 100 may include an electronic device for performing various operations and/or control. As an example, the information processing device may include at least one of devices capable of processing information, such as a desktop computer, a laptop computer, or a server computer.

본 발명의 실시예에 따른, VR 이미지 콘텐츠 제공 시스템(100)은, VR 환경을 이용하고자 하는 사용자의 사용자 단말에 어플리케이션 형태로 출력될 수 있으나, 이에 한정되지 않는다.The VR image content providing system 100 according to an embodiment of the present invention may be output in the form of an application to the user terminal of a user who wishes to use the VR environment, but is not limited to this.

일 실시예에 따르면, 프로세서(120)는, VR 이미지 콘텐츠 제공 시스템(100)의 전반적인 동작 또는 일부의 동작을 실행하기 위한 연산, 처리, 제어 및/또는 프로그램의 해석 등을 수행할 수 있다.According to one embodiment, the processor 120 may perform computation, processing, control, and/or program interpretation to execute the overall operation or partial operation of the VR image content providing system 100.

일 실시예에 따르면, 본 발명의 VR 이미지 콘텐츠 제공 시스템(100)은, VR 이미지에서 사용자가 선택한 오브젝트에 사용자가 입력한 메시지를 저장하고, 저장된 메시지를 VR 이미지의 오브젝트에 대응되는 패턴에 출력할 수 있는 시스템 또는 장치를 의미할 수 있다. 실시예에 따라서, VR 이미지는 격자 형태로 기저장될 수 있으며, 이 경우, VR 이미지 콘텐츠 제공 시스템(100)은 사용자에게 복수 개의 VR 이미지들을 포함하는 격자 맵을 우선적으로 제공하고, 제공된 격자 맵으로부터 사용자가 선택한 오브젝트 패턴에 기초하여 앞서 설명된 일련의 동작을 수행할 수 있다. VR 이미지 콘텐츠 제공 시스템의 자세한 동작은 후술하도록 한다.According to one embodiment, the VR image content providing system 100 of the present invention stores the message entered by the user in the object selected by the user in the VR image, and outputs the stored message in a pattern corresponding to the object in the VR image. It can refer to a system or device that can Depending on the embodiment, VR images may be pre-stored in the form of a grid. In this case, the VR image content providing system 100 preferentially provides a grid map including a plurality of VR images to the user, and selects a grid map from the provided grid map. The series of operations described above can be performed based on the object pattern selected by the user. The detailed operation of the VR image content provision system will be described later.

일 실시예에 따르면, 프로세서(120)는, 프로세서(120)는 미리 임베디드된 프로그램을 구동시키거나 및/또는 메모리(140)에 저장된 프로그램을 구동시켜 소정의 동작을 수행할 수 있다. 여기서, 메모리(140)에 저장된 프로그램은 설계자로부터 직접 저장된 것일 수도 있고, 또는 유무선 통신 네트워크를 통해 접속 가능한 전자 소프트웨어 유통망을 통하여 획득된 것일 수도 있다. 예시적인 실시예에 따르면, 프로세서(120)는 중앙 처리 장치(CPU, Central Processing Unit), 마이크로 컨트롤러 유닛(MCU, Micro Controller Unit), 마이컴(Micom, Micro Processor), 애플리케이션 프로세서(AP, Application Processor), 전자 제어 유닛(ECU, Electronic Controlling Unit) 및/또는 각종 연산 처리 및 제어 신호의 생성이 가능한 다른 전자 장치 등을 이용하여 구현 가능할 수 있다. 어떤 실시예에 따르면, 프로세서(120)는 하나의 물리적 장치를 이용하여 구현될 수도 있고, 또는 둘 이상의 물리적 장치를 이용하여 구현될 수도 있다.According to one embodiment, the processor 120 may perform a predetermined operation by driving a pre-embedded program and/or a program stored in the memory 140. Here, the program stored in the memory 140 may be stored directly from the designer, or may be obtained through an electronic software distribution network accessible through a wired or wireless communication network. According to an exemplary embodiment, the processor 120 includes a central processing unit (CPU), a micro controller unit (MCU), a micro processor (Micom), and an application processor (AP). , it can be implemented using an electronic control unit (ECU) and/or other electronic devices capable of various calculation processing and generation of control signals. According to some embodiments, the processor 120 may be implemented using one physical device, or may be implemented using two or more physical devices.

일 실시예에 따르면, 메모리(140)는, 프로세서(120)의 동작에 필요한 각종 데이터를 일시적 또는 비일시적으로 저장하는 저장 매체일 수 있다.According to one embodiment, the memory 140 may be a storage medium that temporarily or non-temporarily stores various data required for the operation of the processor 120.

일 실시예에 따르면, 메모리(140)는, 주 기억 장치 또는 보조 기억 장치 중 적어도 하나를 포함할 수 있다. 주 기억 장치는 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있다. 보조 기억 장치는 솔리드 스테이트 드라이브(SSD, Solid State Drive), 플래시 메모리 장치, 하드 디스크(HDD, Hard Disc), SD(Secure Digital) 카드, 자기 드럼, 자기 테이프, 컴팩트 디스크(CD), 디브이디(DVD), 레이저 디스크, 광자기 디스크 및/또는 플로피 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 적어도 하나의 저장 매체를 이용하여 구현될 수 있다.According to one embodiment, the memory 140 may include at least one of a main memory device or an auxiliary memory device. The main memory device may be implemented using a semiconductor storage medium such as read-only memory (ROM) and/or random access memory (RAM). Auxiliary storage devices include solid state drives (SSDs), flash memory devices, hard disks (HDDs), SD (Secure Digital) cards, magnetic drums, magnetic tapes, compact disks (CDs), and DVDs. ), it may be implemented using at least one storage medium capable of permanently or semi-permanently storing data, such as a laser disk, magneto-optical disk, and/or floppy disk.

일 실시예에 따르면, 프로세서(120)는, 격자 맵 제공부(122)(VR 이미지 저장 형태에 따라 선택적으로 구비될 수 있는 요소일 수 있다.), 이미지 제공부(124), 메시지 저장부(126), 및 메시지 출력부(128)를 포함할 수 있다. 일 실시예에 따르면, 전술한 구성 요소들(122, 124, 126, 128)은, 소프트웨어적으로 구현된 것일 수도 있고, 또는 하드웨어적으로 구현된 것일 수도 있다.According to one embodiment, the processor 120 includes a grid map providing unit 122 (which may be an element that can be optionally provided depending on the VR image storage type), an image providing unit 124, and a message storage unit ( 126), and may include a message output unit 128. According to one embodiment, the above-described components 122, 124, 126, and 128 may be implemented in software or hardware.

본 발명의 VR 이미지 콘텐츠 제공 시스템(100)의 프로세서(120)는, VR 이미지의 소정 영역에 대한 선택에 대응하는 사용자 입력 및 메시지를 수신하는 수신부(미도시), 사용자에게 복수 개의 VR 이미지들을 포함하는 격자 맵을 제공하는 격자 맵 제공부(122)(선택적으로 구비), VR 이미지를 사용자에게 제공하는 이미지 제공부(124), 사용자가 선택한 오브젝트 패턴에 사용자가 입력한 메시지를 저장하는 메시지 저장부(126), 및 저장된 메시지를 VR 이미지의 오브젝트 패턴에 출력하는 메시지 출력부(128)를 포함할 수 있다.The processor 120 of the VR image content providing system 100 of the present invention includes a receiver (not shown) that receives user input and messages corresponding to selection of a predetermined area of the VR image, and a plurality of VR images to the user. a grid map providing unit 122 (optionally provided) that provides a grid map, an image providing unit 124 that provides a VR image to the user, and a message storage unit that stores the message entered by the user in the object pattern selected by the user. (126), and a message output unit 128 that outputs the stored message to the object pattern of the VR image.

도 3은 사용자 단말에 출력되는 VR 이미지를 설명하기 위한 도면이다.Figure 3 is a diagram for explaining a VR image output to a user terminal.

도 3을 참조하면, 사용자 단말에 출력되는 VR 이미지에는, 복수 개의 오브젝트(또는 오브젝트 패턴)(44)들과 각각의 오브젝트(또는 오브젝트 패턴)(44)들에 표시된 사용자 메시지(45)가 도시된다. 오브젝트 패턴은 각각의 오브젝트가 세그멘테이션되어 테두리를 가지게되는 형태를 의미할 수 있다.Referring to FIG. 3, the VR image output to the user terminal shows a plurality of objects (or object patterns) 44 and a user message 45 displayed on each object (or object pattern) 44. . An object pattern may refer to a form in which each object is segmented and has a border.

VR 환경을 이용하는 사용자는, 어느 하나의 오브젝트(44)를 선택할 수 있다. 사용자는, 어느 하나의 오브젝트(44)에 대해 사용자 메시지를 입력할 수 있다. 사용자 메시지는, 해당 오브젝트(44)에 대한 후기, 코멘트, 또는 설명 등일 수 있다. 사용자 메시지는, 사용자의 개인 정보가 노출되도록 입력되거나, 또는 익명으로 입력될 수 있도록 사용자에 의해 입력 방식이 선택될 수 있다.A user using the VR environment can select any one object 44. The user can input a user message for any one object 44. The user message may be a review, comment, or explanation about the corresponding object 44. The input method of the user message may be selected by the user so that the user's personal information is exposed, or may be entered anonymously.

메시지 저장부(126)는, 사용자가 입력한 메시지를 저장할 수 있다. 메시지 저장부(126)는, 사용자가 입력한 메시지를 해당 오브젝트의 오브젝트 패턴의 세그멘테이션 값과 함께 메모리(140)에 저장할 수 있다.The message storage unit 126 can store messages entered by the user. The message storage unit 126 may store the message entered by the user in the memory 140 along with the segmentation value of the object pattern of the corresponding object.

메시지 출력부(128)는, 해당 오브젝트 패턴의 세그멘테이션 값을 갖는 메모리(140)에 저장된 메시지들을 해당 오브젝트의 오브젝트 패턴에 표시할 수 있고, 표시된 메시지는 사용자 단말에서 출력되는 VR 이미지에 표시될 수 있다.The message output unit 128 can display messages stored in the memory 140 having the segmentation value of the corresponding object pattern on the object pattern of the corresponding object, and the displayed message can be displayed on the VR image output from the user terminal. .

도 4는 본 발명의 일 실시예에 따른 VR 이미지 콘텐츠를 제공하는 방법을 설명하기 위한 흐름도이다.Figure 4 is a flowchart illustrating a method of providing VR image content according to an embodiment of the present invention.

도 4를 참고하면, 프로세서는, 단계(S410)에서 VR 이미지의 소정 영역에 대한 사용자 입력 및 메시지를 수신하는 수신할 수 있다.Referring to FIG. 4, the processor may receive a user input and message for a predetermined area of the VR image in step S410.

단계(S420)에서 프로세서는 VR 이미지에 포함된 복수 개의 오브젝트들 중 사용자에 의해 선택된 소정 영역에 대응되는 오브젝트에 대응하여 입력된 메시지를 저장할 수 있다. 보다 상세하게, 프로세서는 VR 이미지에 대해 CV Segmentation 알고리즘을 적용하여, VR 이미지 각 영역을 복수의 세그멘트로 나누고, 사용자가 선택한 소정의 영역에 대해 세그멘트 값을 부여할 수 있다. 프로세서는 입력된 메시지를 오브젝트에 대응하여 부여된 세그멘트 값과 함께 저장할 수 있다. 세그멘트 값을 부여하는 구체적인 방식은 이하 첨부될 도면을 통해 보다 상세하게 설명된다.In step S420, the processor may store a message input in response to an object corresponding to a predetermined area selected by the user among a plurality of objects included in the VR image. More specifically, the processor can apply the CV Segmentation algorithm to the VR image, divide each area of the VR image into a plurality of segments, and assign a segment value to a predetermined area selected by the user. The processor can store the input message along with the segment value assigned to the object. The specific method of assigning segment values is explained in more detail through the accompanying drawings below.

단계(S430)에서 프로세서는 사용자가 입력한 메시지를 대응되는 오브젝트에 매핑하여 출력할 수 있다. 프로세서는 메시지를 오브젝트에 매핑하여 출력하는 과정에서, 해당 오브젝트에 대해 대표적으로 결정된 소정의 위치에 메시지를 정렬하여 맞추어 코멘트를 출력할 수 있다. 이를 통해 동일한 오브젝트에 대해서 선택되는 지점이 상이하더라도, 해당 오브젝트에 대해 미리 설정된 지점을 통해 메시지를 제공함으로써, 보다 가독성이 높은 인터페이스를 제공할 수 있다.In step S430, the processor may map the message input by the user to the corresponding object and output it. In the process of mapping a message to an object and outputting it, the processor may output a comment by aligning the message at a predetermined location determined to be representative of the object. Through this, even if the point selected for the same object is different, a more readable interface can be provided by providing a message through a preset point for the object.

도 5a 내지 도 5d는 일 실시예에 따른 VR 이미지 콘텐츠 제공 시스템의 세그멘테이션 방식을 설명하기 위한 도면이다.5A to 5D are diagrams for explaining a segmentation method of a VR image content providing system according to an embodiment.

일 실시예에 따르면, 프로세서(120)는 입력된 VR 이미지를 패턴 처리할 수 있다. 예를 들어, 패턴 처리는, VR 이미지를 세그멘테이션 알고리즘(예: CV Segmentation 알고리즘)에 따라 처리함으로써, 오브젝트들을 구별하기 위한 패턴을 형성하는 프로세스를 의미할 수 있다.According to one embodiment, the processor 120 may pattern-process the input VR image. For example, pattern processing may refer to the process of forming a pattern to distinguish objects by processing a VR image according to a segmentation algorithm (eg, CV Segmentation algorithm).

도 5a와 같이, 우선, 프로세서(120)는, VR 이미지에 대해 픽셀 레이블링(또는 라벨링) 처리를 할 수 있다. 예를 들어, VR 이미지(27)에 대해, Depth 예측에 기반한 Dense Prediction을 통하여, 1차로 픽셀의 레이블링(28) 처리를 수행할 수 있다. 보다 구체적으로, 각각의 이미지의 픽셀에 대응되는 물체의 거리에 따라, 각각의 픽셀이 서로 다른 식별 요소로 레이블링될 수 있다. 예를 들어, 제시된 도면에서 식물에 대응되는 픽셀은 3으로, 사람에 대응되는 픽셀을 1로 식별될 수 있다.As shown in FIG. 5A, first, the processor 120 may perform pixel labeling (or labeling) processing on the VR image. For example, for the VR image 27, pixel labeling 28 can be performed primarily through Dense Prediction based on Depth Prediction. More specifically, depending on the distance of the object corresponding to the pixel of each image, each pixel may be labeled with a different identification element. For example, in the presented drawing, the pixel corresponding to a plant may be identified as 3, and the pixel corresponding to a person may be identified as 1.

도 5b와 같이, 프로세서(120)는, 레이블링 처리가 수행된 VR 이미지에 대해 2차로 이미지 레이블링 처리를 할 수 있다. 예를 들어, 픽셀 레이블링 처리가 된 VR 이미지를, Object Detection에 기반한 instance segmentation을 통해 오브젝트들에 대한 이미지 레이블링 처리를 할 수 있다. 도 5b를 참조하면, 복수 개의 오브젝트들에 대한 패턴으로 레이블링 처리(29, 30)가 된 상태가 도시된다. As shown in FIG. 5B, the processor 120 may secondarily perform image labeling processing on the VR image on which labeling processing has been performed. For example, a VR image with pixel labeling processing can be subjected to image labeling processing for objects through instance segmentation based on Object Detection. Referring to FIG. 5B, labeling processing (29, 30) using patterns for a plurality of objects is shown.

도 5c와 같이, 프로세서(120)는, 이미지 레이블링 처리가 된 VR 이미지의 복수 개의 세그멘테이션들의 범위(coverage)를 오브젝트에 따라 정리할 수 있다. 예를 들어, 오브젝트들의 세그멘테이션의 범위를 정할 수 있으며, 세그멘테이션 범위는 앞선 2차 레이블링 결과에 기초하여, 세그멘테이션을 수행할 범위를 결정할 수 있다. 또한, 프로세서(120)는, 앞서 설정된 범위 내에서 오브젝트들의 세그멘테이션의 테두리를 1차 픽셀 레이블링 처리가 된 VR 이미지의 픽셀 레이블링(도 5a의 결과)에 의해 정할 수 있다. 이에 따라, 오브젝트들의 세그멘테이션의 테두리(31, 32)가 결정될 수 있다. 이를 통해 프로세서(120)는 2차 레이블링을 통해 보다 큰 영역의 세그멘테이션 범위를 결정하고, 테두리에 해당하는 상세 검토가 필요한 부분은 1차 레이블링을 참조함으로써, 세그멘테이션의 효율성을 증대함과 동시에, 정확도를 높일 수 있다.As shown in FIG. 5C, the processor 120 may organize the coverage of a plurality of segmentations of a VR image that has undergone image labeling processing according to the object. For example, the range of segmentation of objects can be determined, and the segmentation range can be determined based on the previous secondary labeling result. Additionally, the processor 120 may determine the boundaries of the segmentation of objects within a previously set range by pixel labeling of the VR image that has undergone primary pixel labeling (result in FIG. 5A). Accordingly, the edges 31 and 32 of segmentation of objects may be determined. Through this, the processor 120 determines the segmentation range of a larger area through secondary labeling, and refers to the primary labeling for areas that require detailed review corresponding to the border, thereby increasing segmentation efficiency and improving accuracy. It can be raised.

도 5d와 같이, 프로세서(120)는, 오브젝트들의 세그멘테이션의 테두리(31, 32)가 결정된 부분을 제외하고, VR 이미지의 나머지 부분들에 대해서는 1차 픽셀 레이블링 처리가 된 VR 이미지의 픽셀 레이블링에 의해 나머지 부분을 세그멘테이션 처리할 수 있다.As shown in FIG. 5D, the processor 120 uses pixel labeling of the VR image that has undergone primary pixel labeling for the remaining portions of the VR image, except for the portion where the edges 31 and 32 of the segmentation of objects are determined. The remaining part can be segmented.

도 5d와 같이 세그멘테이션이 확정된 VR 이미지는, 확정된 세그멘테이션의 테두리를 통해서 세그멘테이션 맵으로 활용될 수 있다. 한편, 확정된 세그멘테이션 테두리를 갖는 오브젝트는, 오브젝트 패턴(33, 34)을 갖는 것으로 정의될 수 있다. 예를 들어, 앞선 프로세스를 통한 세그멘테이션 결과를 통해 VR 이미지 콘텐츠 제공 시스템은, 각각의 오브젝트가 구별된 결과를 도 3과 같이 사용자에게 제공할 수 있으며, 세그멘테이션 결과를 통해 앞서 설명된 도 4의 메시지 등록 방식을 구현할 수 있다.As shown in Figure 5d, a VR image with confirmed segmentation can be used as a segmentation map through the border of the confirmed segmentation. Meanwhile, an object with a confirmed segmentation border may be defined as having an object pattern (33, 34). For example, through the segmentation results through the previous process, the VR image content providing system can provide the user with results in which each object is distinguished, as shown in Figure 3, and the message registration in Figure 4 described above through the segmentation results. method can be implemented.

한편, 도 5a는 도 5b 내지 도 5d와 다른 배경의 사진이 제공되나, 본 발명은 도 5a 내지 도 5d의 과정이 동일한 배경의 사진을 통해 구현되는 것이고, 도 5a는 설명의 편의를 위한 사진일 수 있다.Meanwhile, Figure 5a provides a photograph with a different background from Figures 5b to 5d, but the present invention is implemented through a photograph of the same background as the process of Figures 5a to 5d, and Figure 5a is a photograph for convenience of explanation. You can.

이에 따라, 어떤 사용자가 입력한 사용자 메시지는, 다른 사용자의 사용자 단말에서도 출력되어 해당 정보가 공유될 수 있다. 또한, 사용자 메시지는, 기 입력된 사용자 메시지의 댓글 형식으로 추가적으로 기재되도록 구성되어 해당 오브젝트에서 해당 오브젝트에 대한 소통 장을 제공할 수도 있다.Accordingly, a user message input by a user may be output on another user's user terminal and the corresponding information may be shared. Additionally, the user message may be configured to be additionally written in the form of a comment to the previously entered user message, thereby providing a communication forum for the corresponding object.

한편, 메시지 출력부(128)에 의해 출력되는 사용자 메시지는, 오브젝트의 중앙 영역에 노출되도록 제어될 수 있으나, 이에 한정되지 않는다. 다만 오브젝트에 대응하는 메시지는 산재되어 제공되는 것이 아닌, 오브젝트의 특정 지점에 대응하여 제공될 수 있다. 한편, 오브젝트 패턴에 저장된 메시지가 복수 개인 경우, 메시지 출력부(128)는, 오브젝트 패턴을 클릭하기 전에는 사용자들의 메시지 클릭 수, 또는 추천 수와 같은 다양한 알고리즘에 따라 결정된 메시지를 오브젝트 패턴에 표시되도록 출력할 수 있고, 이때 해당 오브젝트 패턴을 클릭하면 나머지 메시지가 출력되도록 메시지 출력을 제어할 수도 있다.Meanwhile, the user message output by the message output unit 128 may be controlled to be exposed in the central area of the object, but is not limited to this. However, messages corresponding to objects may not be provided scatteredly, but may be provided in response to specific points of the object. Meanwhile, when there are multiple messages stored in the object pattern, the message output unit 128 outputs a message determined according to various algorithms, such as the number of message clicks by users or the number of recommendations, to be displayed in the object pattern before clicking the object pattern. You can also control the message output so that the remaining messages are output by clicking on the corresponding object pattern.

도 6a 내지 도 6c는 사용자 단말에 출력되는 VR 이미지에 사용자 메시지를 입력하는 과정을 설명하기 위한 도면이다.Figures 6A to 6C are diagrams for explaining the process of inputting a user message into a VR image output to a user terminal.

도 6a를 참조하면, 사용자에 의해 선택된 VR 이미지 영역(또는 오브젝트)에 대응하는 메시지 입력창(47)이 팝업된 상태가 도시된다.Referring to FIG. 6A, a message input window 47 corresponding to the VR image area (or object) selected by the user is shown in a pop-up state.

도 6b를 참조하면, 사용자가 메시지(상자 정말 많네요)를 입력하는 상태의 메시지 입력창(48)이 팝업된 상태가 도시된다. 사용자가 메시지 입력을 완료하면, 메시지 입력창(48)의 등록 버튼을 클릭하여 메시지 입력을 종료할 수 있다.Referring to Figure 6b, the message input window 48 is shown popping up in which the user inputs a message (there are so many boxes). When the user completes message input, he or she can click the registration button in the message input window 48 to end message input.

도 6c를 참조하면, 사용자가 입력한 메시지(48)가 VR 이미지(46)에 표시된 상태가 도시된다. 또한, 도 6c를 참조하면, VR 이미지(46)에는, 격자 맵으로 돌아가기 위한 버튼(49)이 표시된 상태가 도시된다. 사용자가 버튼(49)을 클릭하면, 기본 이미지, 격자 패턴, 격자 블록이 도시된 격자 맵으로 돌아갈 수 있다. 메시지(48)가 VR 이미지(46)에 매핑하여 저장되는 방식은 앞선 도면을 통해 설명된 방식과 동일할 수 있다.Referring to FIG. 6C, the message 48 input by the user is displayed on the VR image 46. Additionally, referring to FIG. 6C, the VR image 46 shows a state in which a button 49 for returning to the grid map is displayed. If the user clicks button 49, the user can return to the grid map showing the base image, grid pattern, and grid blocks. The method in which the message 48 is mapped and stored to the VR image 46 may be the same as the method described in the previous drawing.

또한, 도 6c를 참조하면, 격자 패턴 및 격자 블록이 미니 맵(50) 형태로 표시된 상태가 도시된다. 그 중에서, 주황색 격자 블록은, 사용자가 현재 보고 있는 VR 이미지의 격자 패턴 상의 격자 블록 위치를 나타낸다.Additionally, referring to FIG. 6C, a state in which grid patterns and grid blocks are displayed in the form of a mini map 50 is shown. Among them, the orange grid block indicates the location of the grid block on the grid pattern of the VR image the user is currently viewing.

도 7은 본 발명의 예시적인 실시예에 따른, VR 이미지가 격자형으로 등록된 경우, 제공되는 격자 맵의 구조를 예시적으로 도시하는 도면이다.FIG. 7 is a diagram illustrating the structure of a grid map provided when a VR image is registered in a grid format according to an exemplary embodiment of the present invention.

도 7을 참조하면, VR 이미지의 등록에 기초하여 생성되는 격자 맵은, 기본 이미지(41), 격자 패턴(42), 및 격자 블록(43)를 포함할 수 있다. 격자 맵은 앞선 도 6c에서 제시된 미니 맵(50) 제공에 활용될 수 있다.Referring to FIG. 7, a grid map generated based on registration of a VR image may include a basic image 41, a grid pattern 42, and a grid block 43. The grid map can be used to provide the mini map 50 shown in FIG. 6C.

기본 이미지(41)는 VR 환경을 구현하기 위한 사용자에 의해 입력된 기본 이미지(공간의 평면도 등) 일 수 있다. The basic image 41 may be a basic image (such as a floor plan of a space) input by a user to implement a VR environment.

격자 패턴(42)은, VR 환경을 구현하기 위한 사용자에 의해 선택된 좌표들을 포함하는 격자 블록(43)들을 구획하는 격자 패턴(42)일 수 있다.The grid pattern 42 may be a grid pattern 42 that partitions grid blocks 43 containing coordinates selected by a user to implement a VR environment.

VR 이미지에 대응하여 생성되는 격자 맵은, VR 환경을 이용하는 사용자의 사용자 단말기(예: 스마트폰, 또는 VR 기기)에 출력될 수 있다.The grid map generated corresponding to the VR image may be output to the user terminal (e.g., smartphone or VR device) of the user using the VR environment.

VR 환경을 이용하는 사용자는, 복수 개의 격자 블록(43) 중에서, 어느 하나의 격자 블록(43)을 선택할 수 있다. 사용자가 격자 블록(43)을 선택하면, 프로세서(120)는, 기 저장된 VR 이미지를 출력할 수 있고, 출력되는 VR 이미지는 상기 격자 블록(43)의 좌표 데이터를 갖는 VR 이미지일 수 있다.A user using the VR environment can select any one grid block 43 from among the plurality of grid blocks 43. When the user selects the grid block 43, the processor 120 may output a pre-stored VR image, and the output VR image may be a VR image having coordinate data of the grid block 43.

선택된 격자 블록(43)의 VR 이미지는, 세그멘테이션 처리가 되어 오브젝트 패턴들이 형성될 수 있다.The VR image of the selected grid block 43 may be segmented to form object patterns.

앞서 설명된 VR 이미지 콘텐츠 제공 시스템(100)은 사용자 메시지가 오브젝트 패턴 상에 출력됨으로써, 종래에 VR 이미지 콘텐츠 제공 시스템과 같이 사용자 메시지가 여기저기 산발적으로 표시된 것과 달리, 본 발명은, 사용자 메시지가 사용자가 의도한 오브젝트에 정확하게 표기되는 장점이 있다.The VR image content providing system 100 described above outputs user messages on object patterns, so unlike conventional VR image content providing systems where user messages are displayed sporadically here and there, in the present invention, user messages are displayed on the object pattern. It has the advantage of accurately labeling the intended object.

본 발명의 실시예에 따른, VR 이미지 콘텐츠 제공 시스템(100)은, VR 환경을 구현하고자 하는 사용자의 사용자 단말에 어플리케이션 형태로 출력될 수 있다. The VR image content providing system 100 according to an embodiment of the present invention may be output in the form of an application to the user terminal of a user who wishes to implement a VR environment.

이상에서 설명된 시스템 및 방법은, 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The systems and methods described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Although the embodiments have been described with limited drawings as described above, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

이상과 같이, 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described with limited examples and drawings, the present invention is not limited thereto, and the technical idea of the present invention and the following will be understood by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalence of the patent claims to be described.

100: VR 이미지 콘텐츠 제공 시스템
120: VR 이미지 콘텐츠 제공 시스템의 프로세서
122: 격자 맵 제공부
124: 이미지 제공부
126: 메시지 저장부
128: 메시지 출력부
100: VR image content provision system
120: Processor of VR image content provision system
122: Grid map providing unit
124: Image provider
126: Message storage unit
128: Message output unit

Claims (6)

VR 이미지 콘텐츠 제공 시스템에 있어서,
메모리; 및
프로세서
를 포함하고,
상기 프로세서는,
VR 이미지의 소정 영역에 대한 사용자 입력 및 메시지를 수신하는 수신하고,
상기 VR 이미지에 포함된 복수 개의 오브젝트 중 상기 소정 영역에 대응되는 오브젝트에 대응하여 상기 메시지를 저장하고,
사용자가 입력한 메시지를 상기 대응되는 오브젝트에 매핑하여 출력하도록 구성된 메시지 출력하고,
상기 프로세서는,
상기 VR 이미지의 픽셀에 대하여, Dense Prediction에 기초한 제1 레이블링 처리를 수행하고,
상기 VR 이미지에 Object Detection에 기초한 제2 레이블링 처리를 수행하고,
제2 레이블링 처리 결과 및 제2 레이블링 처리 결과에 기초하여 상기 오브젝트에 대응하여 상기 메시지를 저장하고,

각각의 오브젝트에 대응되는 복수의 메시지는,
상기 각각의 오브젝트에 대해 미리 결정된 특정 위치에 정렬되어 외부에 출력되고,
상기 복수의 메시지는,
기 입력된 메시지에 댓글 형식으로 추가적으로 기재되도록 구성되고,
상기 각각의 오브젝트에 대응되는 복수의 메시지는,
상기 각각의 오브젝트가 클릭되기 전에, 상기 각각의 오브젝트에 대응되는 복수의 메시지 중 상기 각각의 오브젝트가 클릭 되기 전에 메시지별 클릭 수에 기초하여 결정된 제1 메시지가 상기 각각의 오브젝트에 대응하여 출력되고, 상기 제1 메시지를 제외한 나머지 메시지에 대응하는 제2 메시지는 출력되지 않으며,
상기 각각의 오브젝트가 클릭되면, 상기 제1 메시지와 더불어, 상기 복수의 메시지 중 상기 제2 메시지가 출력되도록 제어되고,
각각의 오브젝트에 대응되는 복수의 메시지는,
상기 각각의 오브젝트의 중앙 영역에 일괄적으로 정렬되어 외부에 출력되고,
상기 프로세서는,
공간에 대응되는 기본 이미지 및 복수의 격자 블록을 포함하는 미니 맵을 더 제공하고,
상기 복수의 격자 블록 중 어느 하나의 격자 블록이 선택되는 사용자 입력을 수신하는 경우, 상기 선택된 격자 블록의 좌표 데이터에 대응되는 VR 이미지를 제공하고,
상기 프로세서는,
상기 제2 레이블링 처리 결과에 기초하여, 각각의 오브젝트에 대한 세그멘테이션 범위를 설정하고,
상기 설정된 범위 내에서, 상기 제1 레이블링 처리 결과에 기초하여 상기 각각의 오브젝트의 세그멘테이션의 테두리를 결정하고, 상기 테두리 이외의 영역의 경우, 상기 제2 레이블링 결과에 기초하여 세그멘테이션을 수행하고, 상기 결정된 테두리에 기초하여, 상기 메시지를 저장하는, VR 이미지 콘텐츠 제공 시스템.
In the VR image content provision system,
Memory; and
processor
Including,
The processor,
Receive user input and messages for a predetermined area of the VR image,
Storing the message in response to an object corresponding to the predetermined area among a plurality of objects included in the VR image,
Outputs a message configured to map and output a message entered by the user to the corresponding object,
The processor,
Performing a first labeling process based on Dense Prediction on the pixels of the VR image,
Performing a second labeling process based on Object Detection on the VR image,
storing the message corresponding to the object based on a second labeling processing result and a second labeling processing result;

A plurality of messages corresponding to each object are:
Each object is aligned to a specific predetermined position and output to the outside,
The plurality of messages are,
It is configured to be additionally written in the form of a comment to the already entered message,
A plurality of messages corresponding to each object are:
Before each object is clicked, a first message determined based on the number of clicks for each message among the plurality of messages corresponding to each object is output corresponding to each object, The second message corresponding to the messages other than the first message is not output,
When each object is clicked, the second message among the plurality of messages is output in addition to the first message,
A plurality of messages corresponding to each object are:
are collectively aligned in the central area of each object and output to the outside,
The processor,
It further provides a mini-map containing a basic image and a plurality of grid blocks corresponding to the space,
When receiving a user input in which one of the plurality of grid blocks is selected, provide a VR image corresponding to the coordinate data of the selected grid block,
The processor,
Based on the results of the second labeling process, set a segmentation range for each object,
Within the set range, a border of segmentation of each object is determined based on the first labeling processing result, and in the case of an area other than the border, segmentation is performed based on the second labeling result, and the determined A VR image content providing system that stores the message based on the border.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020220135396A 2022-09-27 2022-10-20 Vr image content providing ststem KR102639050B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220122799 2022-09-27
KR20220122799 2022-09-27

Publications (1)

Publication Number Publication Date
KR102639050B1 true KR102639050B1 (en) 2024-02-21

Family

ID=90052664

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220135396A KR102639050B1 (en) 2022-09-27 2022-10-20 Vr image content providing ststem
KR1020230130539A KR20240043719A (en) 2022-09-27 2023-09-27 Vr image content providing ststem

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230130539A KR20240043719A (en) 2022-09-27 2023-09-27 Vr image content providing ststem

Country Status (1)

Country Link
KR (2) KR102639050B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160039776A (en) * 2014-10-01 2016-04-12 (주) 애니펜 Method, system and computer-readable recording medium for creating message containing virtual space and virtual object
KR20200104894A (en) * 2017-12-28 2020-09-04 로비 가이드스, 인크. System and method for presenting supplemental content in augmented reality
KR20220073684A (en) 2020-11-26 2022-06-03 (주) 애니펜 Method, system and non-transitory computer-readable recording medium for supporting user experience sharing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160039776A (en) * 2014-10-01 2016-04-12 (주) 애니펜 Method, system and computer-readable recording medium for creating message containing virtual space and virtual object
KR20200104894A (en) * 2017-12-28 2020-09-04 로비 가이드스, 인크. System and method for presenting supplemental content in augmented reality
KR20220073684A (en) 2020-11-26 2022-06-03 (주) 애니펜 Method, system and non-transitory computer-readable recording medium for supporting user experience sharing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
인터넷문서, object detection(객체 검출)이란(2020.02.10.) 1부.* *

Also Published As

Publication number Publication date
KR20240043719A (en) 2024-04-03

Similar Documents

Publication Publication Date Title
EP3069544B1 (en) Protecting privacy in web-based immersive augmented reality
TWI544377B (en) Resolving merged touch contacts
US20200401687A1 (en) Secure authorization via modal window
JP6266656B2 (en) System and method for resizing an image
US9405449B2 (en) Layout constraint manipulation via user gesture recognition
US11397764B2 (en) Machine learning for digital image selection across object variations
KR20210015972A (en) Lesion detection method, apparatus, device and storage medium
WO2017157104A1 (en) Information copying system, method and electronic device, and machine-readable storage medium
US11568631B2 (en) Method, system, and non-transitory computer readable record medium for extracting and providing text color and background color in image
US20170052701A1 (en) Dynamic virtual keyboard graphical user interface
US20170091152A1 (en) Generating grid layouts with mutable columns
WO2016136380A1 (en) Information processing system and program, server, terminal, and medium
US11899908B2 (en) Image template-based AR form experiences
KR20160083759A (en) Method for providing an annotation and apparatus thereof
US20140331145A1 (en) Enhancing a remote desktop with meta-information
US20190384481A1 (en) Multiple monitor mouse movement assistant
US20240019976A1 (en) Intelligent placement of a user interface element on content of an application
KR102639050B1 (en) Vr image content providing ststem
US11379898B2 (en) Touch and pressure-based apparel image searching
US20230298373A1 (en) Detecting graphical elements in charts using predicted heatmaps
KR102621487B1 (en) Vr image registration system
CN107077272B (en) Hit testing to determine enabling direct manipulation in response to user action
CN114629800A (en) Visual generation method, device, terminal and storage medium for industrial control network target range
KR102647904B1 (en) Method, system, and computer program for classify place review images based on deep learning
KR102624944B1 (en) Method, computer device, and computer program for real-time inspector on live commerce platform

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant