KR102107340B1 - Method for displaying objects in display - Google Patents

Method for displaying objects in display Download PDF

Info

Publication number
KR102107340B1
KR102107340B1 KR1020190117048A KR20190117048A KR102107340B1 KR 102107340 B1 KR102107340 B1 KR 102107340B1 KR 1020190117048 A KR1020190117048 A KR 1020190117048A KR 20190117048 A KR20190117048 A KR 20190117048A KR 102107340 B1 KR102107340 B1 KR 102107340B1
Authority
KR
South Korea
Prior art keywords
unit
displayed
display
radar
objects
Prior art date
Application number
KR1020190117048A
Other languages
Korean (ko)
Inventor
이현주
Original Assignee
이현주
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이현주 filed Critical 이현주
Application granted granted Critical
Publication of KR102107340B1 publication Critical patent/KR102107340B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

The present invention provides a method for displaying objects in a display, in a method for displaying a plurality of objects within a specified distance from a user terminal including a screen using an interface of augmented reality, which includes an image implementation unit which expresses an image on the terminal screen; a radar unit which displays a mark of the object by dividing an area displayed on the image implementation unit from an area not displayed; an object correspondence display unit correspondingly representing a plurality of objects located in the area displayed on the image implementation unit; and a control input to activate and control a list for the objects. When an activation switch of the control input unit is activated, an object display unit displaying the list of the plurality of objects is displayed.

Description

디스플레이 내 객체표시 방법 {METHOD FOR DISPLAYING OBJECTS IN DISPLAY}How to display objects in the display {METHOD FOR DISPLAYING OBJECTS IN DISPLAY}

본 발명은 사용자단말기를 기준으로 방향 값 또는 위치 값을 가진 객체표시 방법에 관한 것이다. 보다 자세하게는, 증강현실과 가상현실화면에서 사용자 정면 방향의 화면상에 표시되지 않지만 단말기위치나 방향을 바꾸면 표시될 객체들을 화면방향을 바꾸지 않고도 존재유무 및 위치를 인지하고 조작할 수 있도록 표시하는 방법에 관한 것이다.The present invention relates to an object display method having a direction value or a position value based on a user terminal. In more detail, in augmented reality and virtual reality screens, a method is displayed on the screen facing the user in front of the user, but when the terminal position or direction is changed, the displayed objects can be recognized and manipulated without changing the screen direction. It is about.

증강현실(增强現實, augmented reality, AR)은 눈앞의 환경을 디스플레이장치를 거쳐 바라볼 때 실제 환경 위에 가상의 사물이나 정보를 합성하여 보여주는 컴퓨터 그래픽 기법이다. 가상현실(VR)은 단말기를 통해 보는 환경을 포함한 모든 것이 기 제작된 그래픽으로 표시되는 기법이다.Augmented reality (Augmented reality, AR) is a computer graphics technique that shows a virtual object or information on a real environment when viewed through a display device. Virtual reality (VR) is a technique in which everything, including the environment viewed through a terminal, is displayed with pre-made graphics.

가상 현실 및 증강현실에서 사용자 정보를 표시하는 것은 사용자가 단말기를 통해 바라보는 방향의 실제 환경 또는 가상의 환경 위에 정보 객체를 현실의 이미지와 같이 융합하여 표현하는 것을 특징으로 하고 있다. Displaying user information in virtual reality and augmented reality is characterized in that information objects are fused and expressed as real images on a real environment or virtual environment in a direction viewed by a user through a terminal.

이 경우 화면에 나타나는 증강정보는 단말기가 향한 방향에 나타나는 객체만을 표시할 수 밖에 없다. 만일 화면 밖에 있는 객체의 유무와 그 위치 인지 및 조작을 위해서는, 단말기의 방향을 회전하거나, 단말기 회전만으로 인식되지 않는 방향의 경우 사용자가 몸을 회전해, 단말기의 방향을 바꿔 원하는 방향의 실제환경을 화면 안에 넣어야만 가능하다는 큰 불편함이 있다. 이 같은 단말기 방향 밖의 객체 인지 및 조작의 불편함은 비단 증강현실(AR)뿐 아니라 가상현실(VR) 화면 및 360도VR영상 화면에서도 마찬가지다.In this case, the augmentation information appearing on the screen is forced to display only the object appearing in the direction the terminal is facing. If there is an object outside the screen and its position is recognized and manipulated, the direction of the terminal is rotated, or in the case of a direction that is not recognized only by the rotation of the terminal, the user rotates the body to change the orientation of the terminal to create the actual environment in the desired direction. There is a great inconvenience that it can only be put inside the screen. The inconvenience of object recognition and manipulation outside the terminal orientation is the same in augmented reality (AR) as well as in a virtual reality (VR) screen and a 360-degree VR video screen.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 단말기의 방향을 바꾸지 않고도 단말기 화면 밖의 증강현실과 가상현실 객체들의 개수 및 각각의 방향을 인지할 수 있는 객체표시 방법을 제공하고자 한다. The present invention is to solve the above problems, and to provide an object display method capable of recognizing the number of augmented reality and virtual reality objects outside the terminal screen and each direction without changing the direction of the terminal.

이러한 과제를 해결하고자, 본 발명에서 제공하는 디스플레이 내 객체표시 방법은 화면을 포함하는 사용자 단말기로부터 지정된 거리 내에 있는 복수개의 객체를 증강현실의 인터페이스로 표시하는 방법에 있어서, 상기 단말기 화면에 영상을 표현하는 영상 구현부, 상기 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하여 상기 객체의 마크를 표시하는 레이더부, 상기 영상 구현부에 표시되는 영역 내에 위치하는 복수개의 객체들을 대응 표현하는 객체 대응 표시부 및 상기 객체에 대한 리스트를 활성화하고 제어하는 제어 입력부를 포함하고, 상기 제어 입력부의 활성화 스위치가 활성화 되면, 상기 복수개의 객체에 대한 목록을 표시하는 객체 목록부가 표시되는 목록 표시 단계를 포함한다.To solve this problem, the object display method in the display provided by the present invention is a method of displaying a plurality of objects within a specified distance from a user terminal including a screen with an interface of augmented reality, and expressing an image on the terminal screen An image implementation unit to display, a radar unit to display the mark of the object by dividing an area displayed on the image implementation unit from an area not displayed, and an object corresponding to a plurality of objects located in an area displayed on the image implementation unit It includes a corresponding display unit and a control input unit for activating and controlling a list for the object, and when an activation switch of the control input unit is activated, a list display step of displaying an object list unit displaying a list for the plurality of objects is displayed. .

일 실시예에 있어서, 상기 목록 표시 단계에서는, 상기 객체 목록부는 미리 설정된 조건에 따라 표시되는 것을 특징으로 할 수 있다.In one embodiment, in the list display step, the object list may be displayed according to a preset condition.

일 실시예에 있어서, 상기 설정된 조건은 상기 레이더부에 표시되고, 상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 객체의 마크를 다르게 표현하는 것으로 표시되는 것을 특징으로 할 수 있다.In one embodiment, the set condition is displayed on the radar unit, and the set condition is displayed on the radar unit may be characterized by displaying the mark of the object differently.

일 실시예에 있어서, 상기 설정된 조건은 상기 레이더부에 표시되고, 상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 레이더부의 영역이 다른 기준으로 표시되는 것을 특징으로 할 수 있다.In one embodiment, the set condition is displayed on the radar unit, and the set condition is displayed on the radar unit may be characterized in that a region of the radar unit is displayed with different criteria.

일 실시예에 있어서, 상기 미리 설정된 조건은 상기 사용자 단말기를 기준으로 한 상기 복수개의 객체에 대한 실제 거리 별 그룹 순서인 것을 특징으로 할 수 있다.In one embodiment, the preset condition may be characterized in that it is a group order according to actual distances for the plurality of objects based on the user terminal.

일 실시예에 있어서, 상기 미리 설정된 조건은 상기 사용자 단말기가 향하는 방향을 기준으로 상기 복수개의 객체에 대한 실제 방향 별 그룹 순서인 것을 특징으로 할 수 있다.In one embodiment, the preset condition may be characterized in that it is a group order according to actual directions for the plurality of objects based on a direction facing the user terminal.

일 실시예에 있어서, 상기 미리 설정된 조건은 상기 영상 구현부에 표시되는 영역에 있는 객체와 상기 영상 구현부에 표시되지 않는 영역에 있는 객체인 지의 여부인 것을 특징으로 할 수 있다.In one embodiment, the preset condition may be whether or not an object in an area displayed in the image implementation unit and an object in an area not displayed in the image implementation unit.

일 실시예에 있어서, 상기 객체 목록부를 사용자의 입력에 따라 이동시키고, 상기 객체 목록부가 이동되는 위치에 따라 상기 객체 목록부에 표시되는 조건이 변경되는 것을 특징으로 할 수 있다.In one embodiment, the object list unit may be moved according to a user's input, and a condition displayed on the object list unit may be changed according to a location where the object list unit is moved.

일 실시예에 있어서, 상기 객체 목록부의 이동 위치는 상, 하, 좌, 우의 영역으로 구분되는 것을 특징으로 할 수 있다.In one embodiment, the moving position of the object list unit may be characterized by being divided into upper, lower, left, and right regions.

일 실시예에 있어서, 상기 레이더의 영역을 선택하는 경우 레이더의 영역에 해당하는 객체에 대한 리스트가 표시되는 것을 특징으로 할 수 있다.In one embodiment, when selecting an area of the radar, a list of objects corresponding to the area of the radar may be displayed.

일 실시예에 있어서, 상기 레이더의 영역은 복수개의 영역으로 구분되고, 각 레이더의 영역은 선택되는 경우에 개별적으로 활성화되어 선택된 레이더의 영역에 해당하는 객체만 필터링 되어 객체에 대한 리스트가 표시되는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar is divided into a plurality of areas, and each radar area is individually activated when selected, and only objects corresponding to the selected radar area are filtered to display a list of objects. It can be characterized as.

일 실시예에 있어서, 상기 레이더의 영역은 상기 객체의 위치를 파악할 수 있는 정보를 포함하는 위치 정보 레이어를 더 포함하는 것을 특징으로 할 수 있다.In one embodiment, the radar region may further include a location information layer including information capable of locating the object.

일 실시예에 있어서, 상기 레이더의 영역은 상기 객체 주변의 도로 이미지 및 지도를 포함하는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar may be characterized by including a road image and a map around the object.

일 실시예에 있어서, 상기 레이더의 영역은, 방향 별 객체의 수를 나타내는 적어도 2개 이상의 아이콘을 더 포함하는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar may further include at least two or more icons indicating the number of objects for each direction.

일 실시예에 있어서, 상기 레이더의 영역은, 상기 단말기가 대기화면일 때에 특정 객체의 마크와 함께 표시되는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar may be characterized by being displayed with a mark of a specific object when the terminal is a standby screen.

상기와 같은 본 발명에 따르면, 레이더부와 객체 목록부를 연동하여 객체를 리스팅 함으로써, 표시영역 내에 있지 않은 객체의 정보를 제공할 수 있다. According to the present invention as described above, by listing the object in conjunction with the radar unit and the object list unit, it is possible to provide information of an object that is not in the display area.

또한, 객체 목록부에 객체를 거리 별 그룹으로 리스팅 함으로써 사용자는 쉽게 객체 정보를 선택할 수 있다.In addition, by listing objects in a group by distance in the object list, the user can easily select object information.

또한, 객체 목록부를 드래그 앤 드롭 방식으로 이동하면서 직관적으로 방향과 관련된 조건을 교체할 수 있기 때문에, 객체의 리스팅 정보를 직관적으로 교체할 수 있다.In addition, since it is possible to intuitively replace the conditions related to the direction while moving the object list unit by dragging and dropping, it is possible to intuitively replace the listing information of the object.

또한, 레이더부 상에 표현되는 영역들을 터치하여 영역별 필터를 적용함으로써 직관적으로 데이터의 영역별 필터를 적용할 수 있다.In addition, by applying regions-specific filters by touching regions represented on the radar unit, it is possible to intuitively apply data-specific filters.

또한, 레이더부 상에 부가적인 레이어를 적용하여 도로 정보를 표시함으로써, 사용자는 객체의 위치 정보를 더 용이하게 파악할 수 있다.In addition, by displaying road information by applying an additional layer on the radar unit, the user can more easily grasp the location information of the object.

끝으로, 대기 화면에서도 레이더부를 표시할 수 있는 기능을 제공함으로써, 대기 상태에서 즉각적으로 객체의 방향과 위치를 파악할 수 있게 된다.Finally, by providing a function to display the radar unit on the standby screen, it is possible to immediately grasp the direction and position of the object in the standby state.

도 1은 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법이 적용되는 시스템에 관한 구성도이다.
도 2 내지 도 13은 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법을 나타내는 도면이다.
1 is a configuration diagram of a system to which an object display method in a display is applied according to an embodiment of the present invention.
2 to 13 are views showing an object display method in a display according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, but the same or similar elements are assigned the same reference numbers regardless of the reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "modules" and "parts" for the components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed herein, detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all modifications included in the spirit and technical scope of the present invention , It should be understood to include equivalents or substitutes.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.

또한, 본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. In addition, in the present specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise specified.

본 발명은 본 발명의 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the essential features of the invention.

이하, 도면들을 참조하여 본 발명의 실시 예에 대해 상세히 설명하기로 한다. 도면상에서 동일 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals in the drawings refer to the same elements.

증강현실 객체표시 시스템Augmented reality object display system

도 1은 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법이 적용되는 시스템에 관한 구성도이다.1 is a configuration diagram of a system to which an object display method in a display is applied according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 증강현실 객체표시 시스템은 단말기 영상 구현부를 구현하는 영상구현모듈(10), 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하여 객체의 마크를 표시하는 레이더 모듈(20), 영상 구현부에 표시되는 영역 내에 위치하는 복수개의 객체들을 대응 표현하는 객체 대응 표시부를 구현하는 객체대응 표시모듈(30) 및 객체에 대한 리스트를 활성화 하는 제어입력모듈(40)을 포함한다.Referring to FIG. 1, in the augmented reality object display system according to an embodiment of the present invention, an image realization module 10 that implements a terminal image implementation unit, and an area that is displayed on an image implementation unit and an area that is not displayed are divided into objects. A radar module 20 for displaying a mark, an object-correspondence display module 30 for implementing an object-correspondence display for correspondingly representing a plurality of objects located in an area displayed on the image implementation unit, and a control input for activating a list of objects Includes module 40.

영상 구현 모듈(10)은 외부의 카메라 모듈(60)로부터 현장에서 촬영되는 이미지를 수집하고 이를 단말기 화면(1)에 구현한다. 이때에 영상 구현 모듈(10)에서 구현되는 현장 이미지 내에서 각종 정보들을 연결하여 구성하여야 하므로, 일반적인 증강현실 모듈에서는 제한적인 정보밖에 표현할 수 없다. 또한, 이 경우 화면 밖의 정보들을 감지하기 위해서는 단말기의 화면 방향을 회전하여야 하는데, 이렇게 화면 방향만 회전하는 경우 각도상 사용자는 화면을 볼 수 없는 경우가 생긴다. 화면을 보는 상태에서 단말기를 회전하려면 몸 전체가 회전하여야 하는데, 이러한 움직임이 어렵거나, 불편한 환경에 있는 사용자에게는 아무래도 화면 밖에 있는 객체의 정보들을 인식 및 조작하는 데에 많은 어려움이 발생한다.The image realization module 10 collects an image captured in the field from an external camera module 60 and implements it on the terminal screen 1. At this time, since various information must be connected and configured in the field image implemented in the image realization module 10, only limited information can be expressed in the general augmented reality module. In addition, in this case, in order to sense information outside the screen, the screen direction of the terminal must be rotated. In this case, when only the screen direction is rotated, the user may not be able to see the screen in an angle. In order to rotate the terminal while viewing the screen, the entire body must be rotated. For users in this difficult or uncomfortable environment, there are many difficulties in recognizing and manipulating information of objects outside the screen.

레이더 모듈(20)은 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하고, 객체의 마크를 레이더부로 표시한다. 이러한 레이더 모듈(20)의 존재로 인하여, 실제 단말기 화면 상에 보이는 객체와 반경 내에는 있으나, 화면 상에는 나타나지 않는 객체들을 인지할 수 있다. 또한 객체대응표시모듈(30)은 화면 내의 반경에 있는 객체들을 실제 화면 상에 증강현실로 표현된 객체의 마크를 표시한다. The radar module 20 distinguishes an area displayed from an image implementation unit from an area not displayed, and displays an object mark on the radar unit. Due to the existence of the radar module 20, it is possible to recognize objects that are within a radius and objects visible on a real terminal screen, but do not appear on the screen. In addition, the object-correspondence display module 30 displays the objects of a radius in the screen on the actual screen, the mark of the object expressed in augmented reality.

레이더 모듈(20)과 객체대응표시모듈(30)은 외부의 데이터서버(50)와 단말기를 활용한 무선통신망 등으로 연결되어, 단말기가 현재 위치하는 지점을 기준으로 데이터를 전송 받아 사용한다.The radar module 20 and the object correspondence display module 30 are connected to an external data server 50 and a wireless communication network using a terminal, and receive and use data based on a point where the terminal is currently located.

제어입력모듈(40)은 증강현실을 표시하기 위한 다양한 사용자 입력을 제어한다. The control input module 40 controls various user inputs for displaying augmented reality.

도 2는 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법이 적용되는 시스템의 화면이다.2 is a screen of a system to which an object display method in a display is applied according to an embodiment of the present invention.

도 2를 참조하면, 영상 구현부(100)가 가장 하단의 레이어에 표시되고, 레이더부(200) 상에는 현재 영상 구현부(100)에서 표시되고 있는 영역과 그렇지 않은 영역을 구분하는 영역 구분선(201)이 표시된다. 영역 구분선(201) 내에 표시되는 객체 마크(205A)와 영역 구분선(201) 외에 표시되는 객체 마크(205B)는 별도의 방법으로 구분하여 표시될 수 있다.Referring to FIG. 2, the image implementing unit 100 is displayed on the bottom layer, and on the radar unit 200, an area dividing line 201 separating an area currently displayed by the image implementing unit 100 from an area that is not. ) Is displayed. The object mark 205A displayed in the area dividing line 201 and the object mark 205B displayed in addition to the area dividing line 201 may be displayed separately.

영상 구현부(100) 내에는 영역 구분선(201) 내에 표시되는 객체 대상(300)이 표시된다. 이 객체 대상은 외부 영상(100)과 함께 표시되어 구체적인 위치를 사용자가 인지할 수 있다. 이 객체 대상은 객체명, 객체의 거리 등 객체와 관련된 정보가 표시될 수 있다. 앞서 설명한 바와 같이 이러한 객체 대상을 통하여 객체의 내용을 구분할 수 있기 때문에, 영상 구현부(100) 내에 외치하여 영상과 함께 객체 대상(300)에 표시되지 않는 객체는 레이더부(200) 내에서만 인지할 수 있으며, 구체적인 내용이 어떠한지는 사용자는 알 수가 없다.The object target 300 displayed in the area dividing line 201 is displayed in the image implementation unit 100. The object target is displayed together with the external image 100 so that the user can recognize a specific location. The object target may display information related to the object, such as the object name and the distance of the object. As described above, since the contents of an object can be distinguished through such an object target, objects that are not displayed on the object target 300 together with the image by shouting in the image implementation unit 100 are recognized only within the radar unit 200. The user may not know what the specific contents are.

제어 입력부(40)의 활성화 스위치(400) 사용자가 터치 등으로 활성화 하는 경우 복수개의 객체에 대한 목록을 표시하는 객체 목록부가 표시된다. 활성화 스위치(400)는 아이콘 내에 실제 표현될 수 있는 객체의 개수를 표시할 수 있다.Activation switch 400 of the control input unit 40 When a user activates with a touch or the like, an object list unit displaying a list of a plurality of objects is displayed. The activation switch 400 may display the number of objects that can be actually represented in the icon.

객체 표시 방법 실시예 1 : 기본 실시예Object Display Method Example 1: Basic Example

도 3 은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.3 is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.

도 3을 참조하면, 도 2의 실시예에서 활성화 스위치(400)가 활성화 된 상태에서, 객체 목록부(500)가 표시되는 것을 확인할 수 있다. Referring to FIG. 3, in the embodiment of FIG. 2, in the state in which the activation switch 400 is activated, it can be seen that the object list unit 500 is displayed.

본 실시예에서 객체 목록부(500)에 나타나는 객체들은 영상 구현부(100) 내에 있는 객체의 조건을 기준으로 하였지만, 이것은 설정되는 조건에 따라 다양하게 적용될 수 있다.In this embodiment, the objects appearing in the object list unit 500 are based on the conditions of the objects in the image implementation unit 100, but this can be applied in various ways according to the set conditions.

사용자 활용 측면에서는, 편의점, 주차장, 주유소, 지하철역, 은행, 문화시설, 공공기관, 숙박, 음식점, 까페, 병원, 약국 등 다양한 필터를 적용하여 단말기 기준 반경 내에 존재하는 대상 객체들을 리스팅 할 수 있다.In terms of user utilization, various objects such as convenience stores, parking lots, gas stations, subway stations, banks, cultural facilities, public institutions, lodging, restaurants, cafes, hospitals, and pharmacies can be applied to list target objects existing within the terminal reference radius.

이외에도 다양한 조건을 적용하여 객체 목록부(500)에 리스팅이 가능하며, 특히 레이더부(200)과 연계하여 리스팅 하는 것은 이후의 실시예에서 설명하도록 한다.In addition, listing may be possible in the object list unit 500 by applying various conditions. In particular, listing in connection with the radar unit 200 will be described in a later embodiment.

레이더부(200) 내에 객체들 중 현재 객체 목록부(500)에 표시되는 객체들은 별도의 컬러를 사용하여 표시될 수 있다. 예를 들어, 검은색 마크(210A)으로 표현된 객체들은 현재 객체 목록부(500)에 리스팅 된 것을 의미할 수 있다. 흰색이나 투명색 마크(210B)로 표현된 객체들은 현재 객체 목록부(500)에 리스팅 되지 않은 것을 의미할 수 있다.Among the objects in the radar unit 200, objects currently displayed in the object list unit 500 may be displayed using a separate color. For example, objects represented by the black mark 210A may mean that they are currently listed in the object list unit 500. Objects represented by white or transparent color marks 210B may mean that they are not listed in the current object list unit 500.

본 실시예에서, 닫기 스위치(410) 및 전환 스위치(420)가 각각 객체 목록부(500) 상에 위치한다. 유저 인터페이스의 구성상, 닫기 스위치(410) 및 전환 스위치(420)의 의치는 화면 어느 곳에서나 존재할 수 있다. 닫기 스위치(410)는 객체 목록부(500)를 켜고 끄는 역할을 담당한다. 전환 스위치(420)는 객체 목록부(500)에 적용된 조건들을 다양한 방법으로 전환하는 기능을 담당한다.In this embodiment, the closing switch 410 and the switching switch 420 are located on the object list 500, respectively. Due to the configuration of the user interface, the dentures of the close switch 410 and the changeover switch 420 may exist anywhere on the screen. The closing switch 410 serves to turn the object list unit 500 on and off. The switch 420 is responsible for switching conditions applied to the object list unit 500 in various ways.

예를 들어 상기 전환 스위치(420)를 활성화 하면, 객체 목록부(500)에 적용된 조건들을 변환할 수 있는데, 구체적으로 이것들은 영상 구현부(100)에 표시되는 영역에 있는 객체와 상기 영상 구현부에 표시되지 않는 영역에 있는 객체인 지의 여부일 수 있다. 따라서 전환 스위치(420)는 토글 스위치와 같이, 영상 구현부(100)에 표시되는 영역을 기준으로, 영역 내에 위치하는 객체들의 리스트와 영역 밖에 위치하는 객체들의 리스트를 번갈아 표기할 수 있다.For example, when the changeover switch 420 is activated, conditions applied to the object list unit 500 may be converted. Specifically, these are objects in the area displayed on the image implementation unit 100 and the image implementation unit. It may be whether or not the object is in an area not displayed in. Accordingly, the changeover switch 420 may alternately display a list of objects located in the area and a list of objects located outside the area, based on the area displayed on the image implementing unit 100, such as a toggle switch.

도 4 는 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 도 4를 참조하면, 도 3의 실시예에서와 실질적으로는 동일한 기능으로 표현되나, 레이더(200)의 활성화 되고 있는 영역이 객체 마크를 기준으로 표시되는 것이 아니라, 레이더(200) 영역으로 표시되는 점이 다르다.4 is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied. Referring to FIG. 4, it is represented by substantially the same function as in the embodiment of FIG. 3, but the active area of the radar 200 is not displayed based on the object mark, but is displayed as the radar 200 area The point is different.

영상 구현부(100) 내에 표시되는 영역(220A)과 영상 구현부(100) 밖에 표시되는 영역(220B)을 구분하여 각각 현재 객체 목록부(500)에 표시되고 있는 리스트의 대상 영역을 레이더부(200) 내에 표시한다.The region 220A displayed in the image implementation unit 100 and the region 220B displayed outside the image implementation unit 100 are separated, and the radar unit determines the target area of the list currently displayed in the object list unit 500. 200).

이 영역은 별도의 레이어를 적용하여 투명층의 컬러 또는 불투명층의 컬러를 적용하여 표현할 수 있으며, 이외에도 영역을 시각적으로 표현하는 다양한 방법이 적용될 수 있다.The area may be expressed by applying a color of a transparent layer or a color of an opaque layer by applying a separate layer, and various methods of visually expressing the area may also be applied.

객체 표시 방법 실시예 2 : 거리 별 리스팅Object display method Example 2: Listing by distance

도 5a 는 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.5A is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.

도 5a를 참조하면, 도 3의 실시예에서, 객체 목록부(500)와 레이더부(200)가 다르게 표현되는 것을 알 수 있다. 본 실시예에서는 객체 목록부(500)에서 적용되는 리스팅의 조건은 사용자 단말기를 기준으로 한 상기 복수개의 객체에 대한 실제 거리 별 그룹 순서이다.Referring to FIG. 5A, it can be seen that in the embodiment of FIG. 3, the object list unit 500 and the radar unit 200 are represented differently. In this embodiment, the condition of listing applied in the object list unit 500 is a group order according to actual distances for the plurality of objects based on a user terminal.

예를 들어, 레이더 내에 포함되는 객체의 기준이 300m 이내인 경우, 0~50m인 제1그룹(231, 234)과, 50~100m 내인 제2그룹(232, 235), 100~300m인 제3그룹(233, 236)으로 구분할 수 있다. 이 그룹에서도 영상 구현부(100) 내에 있는 그룹(234, 235, 236)과 밖에 있는 그룹(231, 232, 233)으로 구분 지을 수 있으며, 두 가지 조건을 동시에 적용이 가능하다.For example, when the standard of the object included in the radar is within 300 m, the first group (231, 234), which is 0 to 50 m, and the second group (232, 235), which is 50 to 100 m, the third that is 100 to 300 m It can be divided into groups (233, 236). Even in this group, the groups 234, 235, and 236 in the image implementation unit 100 and the groups 231, 232, and 233 outside may be divided, and two conditions may be simultaneously applied.

이렇게 거리 별 그룹으로 리스팅을 진행하는 경우 객체 목록부(500)에서는 기존과는 다른 방식으로 리스팅이 진행될 수 있다. 특히, 리스팅 내에 객체와 대응되는 아이콘들을 배열함에 있어서, 거리 별로 다른 크기를 적용하거나, 거리 그룹별로 여러 개의 레이어를 적용하여 표시할 수 있다. 여러 개의 레이어가 적용되는 경우에는 바로 다음 그룹에서의 객체들이 얼마나 존재할 수 있는지를 예상할 수 있는 인터페이스 상의 장점이 있다.When listing is performed in a group by distance, the object listing unit 500 may perform listing in a different way from the previous one. In particular, in arranging the icons corresponding to the objects in the listing, different sizes may be applied for each distance or multiple layers may be applied for each distance group. When multiple layers are applied, there is an advantage on the interface that can predict how many objects in the next group can exist.

도 5b 및 도 5c는 도 5a의 실시예에서 증강현실 객체 표시 방법에서 객체 목록부의 화면을 나타내는 도면이다.5B and 5C are views illustrating a screen of an object list in the augmented reality object display method in the embodiment of FIG. 5A.

도 5b는 객체 목록부(500) 내에서, 거리 그룹별로 아이콘의 크기를 달리해서 리스팅 하는 방법을 나타내는 도면이다. 사용자는 위아래 방향으로 스크롤 하는 것 만으로 객체의 거리 그룹을 변경할 수 있다. 5B is a diagram illustrating a method of listing different sizes of icons for each distance group in the object list unit 500. The user can change the distance group of objects simply by scrolling up and down.

도 5c는 객체 목록부(500) 내에서, 거리 그룹별로 다른 레이어를 적용하여 다음 그룹에서의 아이콘들을 다음 레이어에 표현되도록 하는 도면이다. 사용자는 이로써 다음 그룹에 있는 아이콘들의 내용을 추측해 볼 수 있다.FIG. 5C is a diagram in which the icons in the next group are represented on the next layer by applying different layers for each distance group in the object list unit 500. This allows the user to guess the contents of the icons in the next group.

도 5b 및 5c의 적용된 실시예는 다른 기술들과 중첩되어 적용될 수 있으며, 아이콘의 모양이나 색상, 레이어의 순서나 다음 거리 그룹으로 변환하는 사용자 입력 방식은 당업자의 수준에서 다양한 방법으로 변경할 수 있다.The applied embodiments of FIGS. 5B and 5C may be applied overlapping with other technologies, and the shape or color of an icon, the order of layers, or a user input method for converting to the next distance group may be changed in various ways at the level of those skilled in the art.

객체 표시 방법 실시예 3 : 리스팅 이동 인터페이스Object display method Example 3: Listing movement interface

도 6 및 도 7은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.6 and 7 are screens of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.

도 6 및 도 7을 참조하면, 도 3의 실시예에서, 객체 목록부(500)가 다르게 구성된다. 보다 상세하게는 사용자의 입력에 따라 객체 목록부(500)의 위치를 이동하면서 객체 목록부(500)에 적용되는 조건을 직관적으로 변경할 수 있다.6 and 7, in the embodiment of FIG. 3, the object list unit 500 is configured differently. In more detail, the conditions applied to the object list unit 500 may be intuitively changed while moving the position of the object list unit 500 according to the user's input.

도 6의 실시예에서는 객체 목록부(500)를 터치하고, 드래그 앤 드롭 방식을 이용하여 화면 왼쪽으로 이동시킨 경우이다. 사용자가 객체 목록부(500)를 임의의 방향으로 이동시키는 경우 객체 목록부(500)가 이동되는 방향에 대응하는 조건으로 객체 목록부(500)에 표현되는 객체들의 조건이 변경된다.In the embodiment of FIG. 6, the object list unit 500 is touched and moved to the left side of the screen using a drag and drop method. When the user moves the object list unit 500 in an arbitrary direction, conditions of objects expressed in the object list unit 500 are changed as conditions corresponding to the direction in which the object list unit 500 is moved.

본 실시예에서는 객체 목록부(500)가 화면 왼쪽으로 이동하였고, 이에 따라 영상 구현부(100)에 표현되지 않아 화면에서는 확인할 수 없는 객체 중에서 좌측 방향에 해당하는 객체의 리스트로 변경된다. 이러한 조건들은 상하좌우 방향으로 구분될 수 있으며, 필요한 조건에 따라 상하 방향으로만 구분될 수 있다. 또한 다양한 방위의 내용으로 구분하여 조건을 변경할 수 있다.In the present embodiment, the object list unit 500 is moved to the left side of the screen, and accordingly, the object list unit 500 is not represented on the screen and is changed to a list of objects corresponding to the left direction among objects that cannot be checked on the screen. These conditions can be divided in the up, down, left, and right directions, and only in the up and down directions according to the necessary conditions. In addition, the conditions can be changed by dividing the contents into various defenses.

특히, 객체 목록부(500)의 리스팅 조건이 변경됨에 따라 현재 객체 목록부(500)에 리스팅 되고 있는 객체의 조건을 레이더부(200)에서도 같이 변경하여 표현하고 있다.In particular, as the listing conditions of the object list unit 500 are changed, the radar unit 200 also expresses the conditions of the objects currently being listed in the object list unit 500.

레이더부(200)에서는 표현되지 않는 영역을 쉐이딩 영역(242)으로 표현하고, 실제 표시되는 영역을 표시 영역(241)으로 표현한다. 객체 목록부(500)에 리스팅 되고 있는 객체의 마크(245)를 별도의 컬러로 표기하였다. 이러한 표시 방식은 앞서 설명한 바와 같이, 유저 인터페이스의 설계에 따라 다양한 방식으로 변경될 수 있다.In the radar unit 200, an area that is not expressed is expressed as a shading area 242, and an area that is actually displayed is expressed as a display area 241. Marks 245 of objects listed in the object list unit 500 are indicated in a separate color. As described above, the display method may be changed in various ways according to the design of the user interface.

특히, 도 7을 참조하면, 객체 목록부(500)를 아래 방향으로 드래그 앤 드롭 하여 이동하였다. 이 경우에는 영상 구현부(100)에 표현되지 않는 대상 전체가 리스팅 될 수 있으며, 이에 따라 전면부가 쉐이딩 영역(252)으로 표시되고, 영상 구현부(100)에 표현되지 않는 영역 전체가 표시 영역(251)으로 표시된다. 객체 목록부(500)에 리스팅 되고 있는 객체의 마크(255)가 별도의 컬러로 표시되었으며, 이동된 객체 목록부(500B)는 영상 구현부(100)에 표현되지 않는 대상 전체가 리스팅 된다. 필요한 경우 객체 목록부(500B)는 2열 이상의 리스트로 아이콘을 배열하여 많은 개수의 아이콘을 동시에 표시할 수 있다.In particular, referring to FIG. 7, the object list unit 500 is moved by dragging and dropping in the downward direction. In this case, the entire object that is not expressed in the image implementation unit 100 may be listed, and accordingly, the entire front area is displayed as the shading area 252, and the entire area that is not expressed in the image implementation unit 100 is displayed. 251). The mark 255 of the object being listed in the object list unit 500 is displayed in a separate color, and the entire object that is not expressed in the image implementation unit 100 is listed in the moved object list unit 500B. If necessary, the object list unit 500B can display a large number of icons at the same time by arranging icons in a list of two or more columns.

특히, 이러한 방위 별 그룹 설정은 앞서 언급한 객체의 영업 별 분류 카테고리인 편의점, 주차장, 주유소, 지하철역, 은행, 문화시설, 공공기관, 숙박, 음식점, 까페, 병원, 약국 등의 카테고리와 중첩하여 적용될 수 있으며, 찾고자 하는 대상이 편의점인 경우 이렇게 객체 목록부(500)를 이동하면서 원하는 방위에 있는 대상 객체를 파악하고 확인할 수 있다.In particular, this group setting by defense is applied in overlap with categories such as convenience store, parking lot, gas station, subway station, bank, cultural facility, public institution, lodging, restaurant, cafe, hospital, pharmacy, etc. When the object to be searched is a convenience store, it is possible to identify and check the object in a desired direction while moving the object list unit 500.

객체 표시 방법 실시예 4 : 직접 선택하는 영역별 리스팅 필터Object display method Example 4: Listing filter by area to be directly selected

도 8 내지 도 10은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.8 to 10 are screens of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.

도 8을 참조하면, 레이더부(200)의 각 영역은 방위 별과 거리 그룹별로 각각 12개의 영역으로 구분될 수 있으며, 사용자는 직접 이러한 레이더부(200)의 각 영역을 터치하여 선택함으로써, 영역별 필터링을 직접 적용할 수 있다.Referring to FIG. 8, each area of the radar unit 200 may be divided into 12 areas by direction and distance group, and a user directly touches and selects each area of the radar unit 200, thereby Star filtering can be applied directly.

예를 들어, 사용자가 방향에 관계 없이 근접 0~50m 이내의 객체 대상을 검색하고자 하는 경우 해당 영역(AU3, AR3, AL3, AD3)을 활성화 하면, 해당 영역 내에 있는 객체만 객체 목록부(500)에 표시되는 것으로 조건이 변경될 수 있다.For example, when a user wants to search for an object target within 0 to 50 m in proximity regardless of the direction, if the corresponding area (AU3, AR3, AL3, AD3) is activated, only the objects within the area are listed in the object list 500 The condition can be changed as shown in.

사용자가 직접 레이더부(200)의 할당 영역을 터치하여 지역적인 필터를 적용하는 것은 무엇보다 직관적으로 대상 객체에 대한 필터링 조건을 입력할 수 있는 방법이 된다. 해당 실시예에서는 이러한 영역을 12개의 영역으로 구분하였지만, 거리에 따른 영역으로 구분할 수도 있으며, 방위에 따른 영역으로 구분할 수도 있다. 후술할 레이더부(200)에 직접 도로 정보가 표시되는 경우 도로 자체를 터치하여 활성화 함으로써, 이에 대한 정보를 필터로 적용할 수 있다. 상세한 내용을 이후에 추가로 설명한다.The user directly applying the local filter by touching the allocation area of the radar unit 200 is a method of intuitively inputting the filtering conditions for the target object. In this embodiment, these areas are divided into 12 areas, but may be divided into areas according to distance or areas according to orientation. When road information is directly displayed on the radar unit 200, which will be described later, the road itself is activated by touching it, so that information on the road can be applied as a filter. Details will be described later.

도 9는 도 8의 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 특히, 지정된 조건에서 좌측 50 m 내지 100m 영역인 AL2영역을 터치함으로써, 다른 조건에 부가하여 영역적인 조건을 추가하여 객체를 리스팅 할 수 있다. 이 경우 다른 영역을 별도로 터치하는 경우 기존의 필터링 조건에 더하여 다른 영역까지 확장된 필터링 결과가 객체 목록부(500)에 표시 된다. 이 방법의 장점은 실제 증강 현실 화면에서 인지되지는 않지만, 특정한 조건을 입력하고, 이에 따른 영역을 활성화 함으로써, 구체적인 객체의 정보를 객체 목록부(500)의 리스팅을 통해 확인할 수 있는 점이다.9 is a screen of a system to which the augmented reality object display method according to the embodiment of FIG. 8 is applied. In particular, by touching the AL2 area, which is the 50m to 100m area on the left under the specified condition, an object can be listed by adding the regional condition in addition to other conditions. In this case, when different areas are touched separately, the filtering results extended to other areas in addition to the existing filtering conditions are displayed on the object list unit 500. The advantage of this method is that it is not recognized in the actual augmented reality screen, but by entering a specific condition and activating the area accordingly, information of a specific object can be confirmed through a listing of the object list unit 500.

도 10은 도 8의 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 특히 도 10은 앞서 설명한 바와 같이, 거리 별 그룹을 설정하여 0~50 m 이내의 영역(AC3)과, 100~300m 내의 영역(AC1)을 활성화하여 주어진 조건에 따라 객체 목록부(500)에서의 객체를 리스팅 하였으며, 이때에 객체 목록부(500)는 영역별 그룹으로 아이콘을 표현하는 방법을 적용하여 거리에 대한 정보와 함께 객체의 정보들을 아이콘화 하여 전달할 수 있다.10 is a screen of a system to which an augmented reality object display method according to the embodiment of FIG. 8 is applied. Particularly, as described above, in FIG. 10, the group for each distance is set to activate the area AC3 within 0 to 50 m and the area AC1 within 100 to 300 m according to a given condition. Objects are listed, and in this case, the object list unit 500 may apply icons representing the icons in a group for each area to iconify the information of the object along with information on the distance.

객체 표시 방법 실시예 5 : 도로 정보를 표현하는 레이더부Object display method Example 5: Radar unit for expressing road information

도 11 내지 도 13은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 11 to 13 are screens of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.

도 11 및 도 12를 참조하면, 본 실시예에서는 레이더부(200) 상에 추가적인 위치 정보 레이어(250)를 적용하여 간단한 도로 정보(250)를 포함할 수 있다. 특히, 도보로 이동하는 사용자에게 대상 위치로 갈 수 있는 직관적인 이동정보를 제공할 수 있다. 또한 본 실시예에서는 레이더부(200)를 직접 터치하여 필터를 적용하는 옵션에 있어서, 도로의 거리 별 필터를 적용할 수 있게 함으로써, 사용자는 해당 거리에 있는 객체에 대한 정보를 획득할 수 있는 장점이 있다.Referring to FIGS. 11 and 12, in this embodiment, simple road information 250 may be included by applying an additional location information layer 250 on the radar unit 200. In particular, it is possible to provide intuitive movement information to a user moving on foot to a target location. In addition, in the present embodiment, in the option of applying a filter by directly touching the radar unit 200, by allowing a filter for each distance of the road to be applied, the user can obtain information on an object at a corresponding distance. There is this.

도 12를 다시 참조하면, 레이더부(200) 상에 표현된 도로 정보(250)에서 특정 거리(255)를 터치하여 필터가 적용된 경우이다. 해당 필터가 적용되는 경우에는 도로 정보에 관여되는 객체들이 다시 객체 목록부(500)에 표시된다. 따라서 해당되는 특정 거리(255)에 존재하는 객체 들의 정보를 필터링 할 수 있다.Referring back to FIG. 12, a filter is applied by touching a specific distance 255 on the road information 250 expressed on the radar unit 200. When the corresponding filter is applied, objects involved in road information are displayed again in the object list unit 500. Therefore, information of objects existing at a specific distance 255 may be filtered.

본 조건은 특정 거리(255)뿐 아니라, 위치 정보 레이어(250)에 적용되는 다양한 엘리먼트들로 활용할 수 있다. 예를 들어 특정 빌딩을 선택하여 해당 빌딩 내에 있는 객체를 파악한다던 지, 중 규모 이상의 지하 상가, 도로와 도로가 만나 자연스럽게 규정되는 도심 블록 등이 필터의 대상으로 적용될 수 있고, 사용되는 이러한 조건들을 필터로 적용하여 증강 현실 내에서 화면을 전환하지 않으면서, 직관적으로 대상 리스트 정보를 빠르게 조회할 수 있다.This condition can be utilized as various elements applied to the location information layer 250 as well as a specific distance 255. For example, selecting a specific building to identify objects in the building, medium-sized underground shopping malls, roads and roads meet naturally defined urban blocks, etc. can be applied as filters, and filters these conditions used By applying as without changing the screen in augmented reality, you can quickly search the target list information intuitively.

도 13을 참조하면, 레이더부(200) 상에 표현된 도로 정보(250)에서 방향 별 객체의 개수를 나타내는 별도의 아이콘(162, 162, 163)을 표시하였다. 이 경우 각 방향 별로 객체의 개수를 직관적으로 파악할 수 있게 되어 사용자의 입장에서는 더 편리하게 객체를 파악할 수 있다.Referring to FIG. 13, in the road information 250 expressed on the radar unit 200, separate icons 162, 162, and 163 representing the number of objects for each direction are displayed. In this case, it is possible to intuitively grasp the number of objects in each direction, so that the user can grasp the objects more conveniently.

객체 표시 방법 실시예 6 : 대기 화면Object display method Example 6: standby screen

도 14는 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 14 is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.

도 14를 참조하면, 레이더부(200)의 대기화면 송출이 활성화 되어 있는 경우에, 레이더부(290)의 화면을 대기화면 상에 표현할 수 있다. 이 경우, 특정한 한 객체의 마크(710)만이 표시될 수 있으며, 실시간으로 사용자는 대기 화면 상에서 이동 상황을 확인할 수 있다. 대기화면은 슬라이딩 바(700) 등으로 해제할 수 있으며, 도면에 표시된 방법 이외에 다양한 화면을 이용하여 구현할 수 있다.Referring to FIG. 14, when the standby screen transmission of the radar unit 200 is activated, the screen of the radar unit 290 may be expressed on the standby screen. In this case, only the mark 710 of a specific object may be displayed, and in real time, the user can check the movement status on the standby screen. The standby screen can be released with a sliding bar 700 or the like, and can be implemented using various screens in addition to the method shown in the drawing.

반드시 하나의 객체에 대한 마크가 표시되어야 하는 것은 아니며, 이러한 객체의 표시여부는 사용자의 설정에 따라 다양한 옵션을 적용할 수 있다. 또한 레이더부(290)에는 필요한 다른 레이어를 적용하여 다양한 정보를 표현하도록 할 수 있다. 예를 들어, 도 11의 실시예에서 도시된 바와 같이 도로 정보를 표현하도록 별도의 레이어를 설정할 수 있다. 이 경우 보행자는 더 용이하게 객체를 찾고 위치를 이해할 수 있게 된다.Marks for one object are not necessarily displayed, and various options can be applied according to the user's setting. In addition, various layers may be applied to the radar unit 290 to express various information. For example, as illustrated in the embodiment of FIG. 11, a separate layer may be set to express road information. In this case, pedestrians can more easily find objects and understand their location.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above-described embodiments and the accompanying drawings. For those skilled in the art to which the present invention pertains, it will be apparent that components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.

10 : 영상구현모듈
20 : 레이더 모듈
30 : 객체대응 표시모듈
40 : 제어입력모듈
50 : 데이터서버
60 : 카메라 모듈
100 : 영상 구현부
200 : 레이더부
300 : 객체 대상
400 : 활성화 스위치
500 : 객체 목록부
10: Video realization module
20: radar module
30: object-adaptive display module
40: control input module
50: data server
60: camera module
100: video implementation
200: radar section
300: object target
400: activation switch
500: object list

Claims (15)

화면을 포함하는 사용자 단말기에 복수개의 객체를 증강현실의 인터페이스로 표시하는 방법에 있어서,
상기 단말기 화면에 영상을 표현하는 영상 구현부;
상기 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하여 상기 객체의 마크를 표시하는 레이더부;
상기 영상 구현부에 표시되는 영역 내에 위치하는 복수개의 객체들을 대응 표현하는 객체 대응 표시부; 및
상기 객체에 대한 리스트를 활성화하고 제어하는 제어 입력부;
를 포함하고,
상기 제어 입력부의 활성화 스위치가 활성화 되면, 상기 복수개의 객체에 대한 목록을 표시하는 객체 목록부가 표시되는 목록 표시 단계를 포함하고,
상기 제어 입력부의 상기 활성화 스위치가 비활성화 상태인 경우, 상기 제어 입력부에는 표시될 상기 객체 목록부의 개수가 표시되고, 상기 목록 표시 단계에서는, 상기 객체 목록부는 미리 설정된 조건에 따라 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
In the method for displaying a plurality of objects on the user terminal including the screen with the interface of the augmented reality,
An image implementation unit for expressing an image on the terminal screen;
A radar unit that displays a mark of the object by dividing a region displayed from the image implementation unit from a region not displayed;
An object correspondence display unit correspondingly representing a plurality of objects located in an area displayed on the image implementation unit; And
A control input unit that activates and controls the list for the object;
Including,
When the activation switch of the control input unit is activated, including a list display step of displaying an object list unit for displaying a list of the plurality of objects,
When the activation switch of the control input unit is in an inactive state, the control input unit displays the number of the object list units to be displayed, and in the list display step, the object list unit is displayed according to a preset condition. How to display my object.
삭제delete 제1항에 있어서,
상기 설정된 조건은 상기 레이더부에 표시되고,
상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 객체의 마크를 다르게 표현하는 것으로 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The set condition is displayed on the radar unit,
The method for displaying an object in a display is characterized in that the set condition is displayed on the radar unit by differently expressing the mark of the object.
제1항에 있어서,
상기 설정된 조건은 상기 레이더부에 표시되고,
상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 레이더부의 영역이 다른 기준으로 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법
According to claim 1,
The set condition is displayed on the radar unit,
When the set condition is displayed on the radar unit, an object display method in a display is characterized in that the radar unit region is displayed with different criteria.
제1항에 있어서,
상기 미리 설정된 조건은 상기 사용자 단말기를 기준으로 한 상기 복수개의 객체에 대한 실제 거리 별 그룹 순서인 것을 특징으로 하는 디스플레이 내 객체표시 방법
According to claim 1,
The preset condition is an object display method in a display, characterized in that the group order by the actual distance for the plurality of objects based on the user terminal
제1항에 있어서,
상기 미리 설정된 조건은 상기 사용자 단말기가 향하는 방향을 기준으로 상기 복수개의 객체에 대한 실제 방향 별 그룹 순서인 것을 특징으로 하는 디스플레이 내 객체표시 방법
According to claim 1,
The preset condition is an object display method in a display, characterized in that it is a group order for each of the plurality of objects based on a direction facing the user terminal.
제1항에 있어서,
상기 미리 설정된 조건은 상기 영상 구현부에 표시되는 영역에 있는 객체와 상기 영상 구현부에 표시되지 않는 영역에 있는 객체인 지의 여부인 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The preset condition is whether an object in an area displayed on the image implementation unit and an object in an area not displayed on the image implementation unit is displayed.
제1항에 있어서,
상기 객체 목록부를 사용자의 입력에 따라 이동시키고, 상기 객체 목록부가 이동되는 위치에 따라 상기 객체 목록부에 표시되는 조건이 변경되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
A method of displaying objects in a display, wherein the object list unit is moved according to a user's input and a condition displayed on the object list unit is changed according to a location where the object list unit is moved.
제8항에 있어서,
상기 객체 목록부의 이동 위치는 상, 하, 좌, 우의 영역으로 구분되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
The method of claim 8,
The moving position of the object list unit is divided into upper, lower, left, and right regions.
제1항에 있어서,
상기 레이더의 영역을 선택하는 경우 레이더의 영역에 해당하는 객체에 대한 리스트가 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
When selecting an area of the radar, a list of objects corresponding to the area of the radar is displayed.
제1항에 있어서,
상기 레이더의 영역은 복수개의 영역으로 구분되고, 각 레이더의 영역은 선택되는 경우에 개별적으로 활성화되어 선택된 레이더의 영역에 해당하는 객체만 필터링 되어 객체에 대한 리스트가 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The area of the radar is divided into a plurality of areas, and each radar area is individually activated when selected, and only objects corresponding to the selected area of the radar are filtered to display a list of objects. How to display.
제1항에 있어서,
상기 레이더의 영역은 상기 객체의 위치를 파악할 수 있는 정보를 포함하는 위치 정보 레이어를 더 포함하는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The radar region further includes a location information layer including information capable of determining the location of the object.
제12항에 있어서,
상기 레이더의 영역은 상기 객체 주변의 도로 이미지를 포함하는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
The method of claim 12,
The method of displaying an object in a display, wherein the area of the radar includes a road image around the object.
제13항에 있어서,
상기 레이더의 영역은, 방향 별 객체의 수를 나타내는 적어도 2개 이상의 아이콘을 더 포함하는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
The method of claim 13,
The radar area further includes at least two or more icons indicating the number of objects for each direction, and a method for displaying objects in a display.
제1항에 있어서,
상기 레이더의 영역은, 상기 단말기가 대기화면일 때에 특정 객체의 마크와 함께 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The method of displaying an object in a display, wherein the area of the radar is displayed together with a mark of a specific object when the terminal is a standby screen.
KR1020190117048A 2019-05-08 2019-09-23 Method for displaying objects in display KR102107340B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190053885 2019-05-08
KR20190053885 2019-05-08

Publications (1)

Publication Number Publication Date
KR102107340B1 true KR102107340B1 (en) 2020-05-07

Family

ID=70733477

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190117048A KR102107340B1 (en) 2019-05-08 2019-09-23 Method for displaying objects in display

Country Status (1)

Country Link
KR (1) KR102107340B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120040407A (en) * 2010-10-19 2012-04-27 주식회사 팬택 Display apparatus and display method that heighten visibility of augmented reality object
WO2017098822A1 (en) * 2015-12-10 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120040407A (en) * 2010-10-19 2012-04-27 주식회사 팬택 Display apparatus and display method that heighten visibility of augmented reality object
WO2017098822A1 (en) * 2015-12-10 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US20150338974A1 (en) Definition and use of node-based points, lines and routes on touch screen devices
US7317449B2 (en) Key-based advanced navigation techniques
US9323420B2 (en) Floor selection on an interactive digital map
US9256917B1 (en) Nested zoom in windows on a touch sensitive device
US8907886B2 (en) Advanced navigation techniques for portable devices
CN104137043A (en) Method for human-computer interaction on a graphical user interface (gui)
US20140040826A1 (en) Method for operating screen and electronic device thereof
US20120038669A1 (en) User equipment, server, and method for selectively filtering augmented reality
US20110169729A1 (en) Method and an apparatus for performing interaction between a mobile device and a screen
KR20100050103A (en) Method of controlling 3 dimension individual object on map and mobile terminal using the same
CN110375755A (en) Solution for the interactive moving map that height customizes
US8928700B1 (en) Simultaneous zoom in windows on a touch sensitive device
US9817572B2 (en) Overlapped transparent display and control method thereof
JP6000367B2 (en) Information display device and information display method
US20220391074A1 (en) User interfaces for maps and navigation
Olwal et al. Spatially aware handhelds for high-precision tangible interaction with large displays
KR102107340B1 (en) Method for displaying objects in display
WO2014167363A1 (en) Systems and methods for interacting with a touch screen
CN103902661B (en) Information display method for correcting search result object selected by user on electronic map interface
GB2504085A (en) Displaying maps and data sets on image display interfaces
US20230160714A1 (en) User interfaces for maps and navigation
CN104335151B (en) terminal device, display control method and program
EP2791773B1 (en) Remote display area including input lenses each depicting a region of a graphical user interface
KR101741943B1 (en) Apparatus and method for visualizing 3d cadastral objects
KR20180032322A (en) Method and program for displaying information on a marker

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant