KR102107340B1 - Method for displaying objects in display - Google Patents
Method for displaying objects in display Download PDFInfo
- Publication number
- KR102107340B1 KR102107340B1 KR1020190117048A KR20190117048A KR102107340B1 KR 102107340 B1 KR102107340 B1 KR 102107340B1 KR 1020190117048 A KR1020190117048 A KR 1020190117048A KR 20190117048 A KR20190117048 A KR 20190117048A KR 102107340 B1 KR102107340 B1 KR 102107340B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- displayed
- display
- radar
- objects
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Abstract
Description
본 발명은 사용자단말기를 기준으로 방향 값 또는 위치 값을 가진 객체표시 방법에 관한 것이다. 보다 자세하게는, 증강현실과 가상현실화면에서 사용자 정면 방향의 화면상에 표시되지 않지만 단말기위치나 방향을 바꾸면 표시될 객체들을 화면방향을 바꾸지 않고도 존재유무 및 위치를 인지하고 조작할 수 있도록 표시하는 방법에 관한 것이다.The present invention relates to an object display method having a direction value or a position value based on a user terminal. In more detail, in augmented reality and virtual reality screens, a method is displayed on the screen facing the user in front of the user, but when the terminal position or direction is changed, the displayed objects can be recognized and manipulated without changing the screen direction. It is about.
증강현실(增强現實, augmented reality, AR)은 눈앞의 환경을 디스플레이장치를 거쳐 바라볼 때 실제 환경 위에 가상의 사물이나 정보를 합성하여 보여주는 컴퓨터 그래픽 기법이다. 가상현실(VR)은 단말기를 통해 보는 환경을 포함한 모든 것이 기 제작된 그래픽으로 표시되는 기법이다.Augmented reality (Augmented reality, AR) is a computer graphics technique that shows a virtual object or information on a real environment when viewed through a display device. Virtual reality (VR) is a technique in which everything, including the environment viewed through a terminal, is displayed with pre-made graphics.
가상 현실 및 증강현실에서 사용자 정보를 표시하는 것은 사용자가 단말기를 통해 바라보는 방향의 실제 환경 또는 가상의 환경 위에 정보 객체를 현실의 이미지와 같이 융합하여 표현하는 것을 특징으로 하고 있다. Displaying user information in virtual reality and augmented reality is characterized in that information objects are fused and expressed as real images on a real environment or virtual environment in a direction viewed by a user through a terminal.
이 경우 화면에 나타나는 증강정보는 단말기가 향한 방향에 나타나는 객체만을 표시할 수 밖에 없다. 만일 화면 밖에 있는 객체의 유무와 그 위치 인지 및 조작을 위해서는, 단말기의 방향을 회전하거나, 단말기 회전만으로 인식되지 않는 방향의 경우 사용자가 몸을 회전해, 단말기의 방향을 바꿔 원하는 방향의 실제환경을 화면 안에 넣어야만 가능하다는 큰 불편함이 있다. 이 같은 단말기 방향 밖의 객체 인지 및 조작의 불편함은 비단 증강현실(AR)뿐 아니라 가상현실(VR) 화면 및 360도VR영상 화면에서도 마찬가지다.In this case, the augmentation information appearing on the screen is forced to display only the object appearing in the direction the terminal is facing. If there is an object outside the screen and its position is recognized and manipulated, the direction of the terminal is rotated, or in the case of a direction that is not recognized only by the rotation of the terminal, the user rotates the body to change the orientation of the terminal to create the actual environment in the desired direction. There is a great inconvenience that it can only be put inside the screen. The inconvenience of object recognition and manipulation outside the terminal orientation is the same in augmented reality (AR) as well as in a virtual reality (VR) screen and a 360-degree VR video screen.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로, 단말기의 방향을 바꾸지 않고도 단말기 화면 밖의 증강현실과 가상현실 객체들의 개수 및 각각의 방향을 인지할 수 있는 객체표시 방법을 제공하고자 한다. The present invention is to solve the above problems, and to provide an object display method capable of recognizing the number of augmented reality and virtual reality objects outside the terminal screen and each direction without changing the direction of the terminal.
이러한 과제를 해결하고자, 본 발명에서 제공하는 디스플레이 내 객체표시 방법은 화면을 포함하는 사용자 단말기로부터 지정된 거리 내에 있는 복수개의 객체를 증강현실의 인터페이스로 표시하는 방법에 있어서, 상기 단말기 화면에 영상을 표현하는 영상 구현부, 상기 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하여 상기 객체의 마크를 표시하는 레이더부, 상기 영상 구현부에 표시되는 영역 내에 위치하는 복수개의 객체들을 대응 표현하는 객체 대응 표시부 및 상기 객체에 대한 리스트를 활성화하고 제어하는 제어 입력부를 포함하고, 상기 제어 입력부의 활성화 스위치가 활성화 되면, 상기 복수개의 객체에 대한 목록을 표시하는 객체 목록부가 표시되는 목록 표시 단계를 포함한다.To solve this problem, the object display method in the display provided by the present invention is a method of displaying a plurality of objects within a specified distance from a user terminal including a screen with an interface of augmented reality, and expressing an image on the terminal screen An image implementation unit to display, a radar unit to display the mark of the object by dividing an area displayed on the image implementation unit from an area not displayed, and an object corresponding to a plurality of objects located in an area displayed on the image implementation unit It includes a corresponding display unit and a control input unit for activating and controlling a list for the object, and when an activation switch of the control input unit is activated, a list display step of displaying an object list unit displaying a list for the plurality of objects is displayed. .
일 실시예에 있어서, 상기 목록 표시 단계에서는, 상기 객체 목록부는 미리 설정된 조건에 따라 표시되는 것을 특징으로 할 수 있다.In one embodiment, in the list display step, the object list may be displayed according to a preset condition.
일 실시예에 있어서, 상기 설정된 조건은 상기 레이더부에 표시되고, 상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 객체의 마크를 다르게 표현하는 것으로 표시되는 것을 특징으로 할 수 있다.In one embodiment, the set condition is displayed on the radar unit, and the set condition is displayed on the radar unit may be characterized by displaying the mark of the object differently.
일 실시예에 있어서, 상기 설정된 조건은 상기 레이더부에 표시되고, 상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 레이더부의 영역이 다른 기준으로 표시되는 것을 특징으로 할 수 있다.In one embodiment, the set condition is displayed on the radar unit, and the set condition is displayed on the radar unit may be characterized in that a region of the radar unit is displayed with different criteria.
일 실시예에 있어서, 상기 미리 설정된 조건은 상기 사용자 단말기를 기준으로 한 상기 복수개의 객체에 대한 실제 거리 별 그룹 순서인 것을 특징으로 할 수 있다.In one embodiment, the preset condition may be characterized in that it is a group order according to actual distances for the plurality of objects based on the user terminal.
일 실시예에 있어서, 상기 미리 설정된 조건은 상기 사용자 단말기가 향하는 방향을 기준으로 상기 복수개의 객체에 대한 실제 방향 별 그룹 순서인 것을 특징으로 할 수 있다.In one embodiment, the preset condition may be characterized in that it is a group order according to actual directions for the plurality of objects based on a direction facing the user terminal.
일 실시예에 있어서, 상기 미리 설정된 조건은 상기 영상 구현부에 표시되는 영역에 있는 객체와 상기 영상 구현부에 표시되지 않는 영역에 있는 객체인 지의 여부인 것을 특징으로 할 수 있다.In one embodiment, the preset condition may be whether or not an object in an area displayed in the image implementation unit and an object in an area not displayed in the image implementation unit.
일 실시예에 있어서, 상기 객체 목록부를 사용자의 입력에 따라 이동시키고, 상기 객체 목록부가 이동되는 위치에 따라 상기 객체 목록부에 표시되는 조건이 변경되는 것을 특징으로 할 수 있다.In one embodiment, the object list unit may be moved according to a user's input, and a condition displayed on the object list unit may be changed according to a location where the object list unit is moved.
일 실시예에 있어서, 상기 객체 목록부의 이동 위치는 상, 하, 좌, 우의 영역으로 구분되는 것을 특징으로 할 수 있다.In one embodiment, the moving position of the object list unit may be characterized by being divided into upper, lower, left, and right regions.
일 실시예에 있어서, 상기 레이더의 영역을 선택하는 경우 레이더의 영역에 해당하는 객체에 대한 리스트가 표시되는 것을 특징으로 할 수 있다.In one embodiment, when selecting an area of the radar, a list of objects corresponding to the area of the radar may be displayed.
일 실시예에 있어서, 상기 레이더의 영역은 복수개의 영역으로 구분되고, 각 레이더의 영역은 선택되는 경우에 개별적으로 활성화되어 선택된 레이더의 영역에 해당하는 객체만 필터링 되어 객체에 대한 리스트가 표시되는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar is divided into a plurality of areas, and each radar area is individually activated when selected, and only objects corresponding to the selected radar area are filtered to display a list of objects. It can be characterized as.
일 실시예에 있어서, 상기 레이더의 영역은 상기 객체의 위치를 파악할 수 있는 정보를 포함하는 위치 정보 레이어를 더 포함하는 것을 특징으로 할 수 있다.In one embodiment, the radar region may further include a location information layer including information capable of locating the object.
일 실시예에 있어서, 상기 레이더의 영역은 상기 객체 주변의 도로 이미지 및 지도를 포함하는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar may be characterized by including a road image and a map around the object.
일 실시예에 있어서, 상기 레이더의 영역은, 방향 별 객체의 수를 나타내는 적어도 2개 이상의 아이콘을 더 포함하는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar may further include at least two or more icons indicating the number of objects for each direction.
일 실시예에 있어서, 상기 레이더의 영역은, 상기 단말기가 대기화면일 때에 특정 객체의 마크와 함께 표시되는 것을 특징으로 할 수 있다.In one embodiment, the area of the radar may be characterized by being displayed with a mark of a specific object when the terminal is a standby screen.
상기와 같은 본 발명에 따르면, 레이더부와 객체 목록부를 연동하여 객체를 리스팅 함으로써, 표시영역 내에 있지 않은 객체의 정보를 제공할 수 있다. According to the present invention as described above, by listing the object in conjunction with the radar unit and the object list unit, it is possible to provide information of an object that is not in the display area.
또한, 객체 목록부에 객체를 거리 별 그룹으로 리스팅 함으로써 사용자는 쉽게 객체 정보를 선택할 수 있다.In addition, by listing objects in a group by distance in the object list, the user can easily select object information.
또한, 객체 목록부를 드래그 앤 드롭 방식으로 이동하면서 직관적으로 방향과 관련된 조건을 교체할 수 있기 때문에, 객체의 리스팅 정보를 직관적으로 교체할 수 있다.In addition, since it is possible to intuitively replace the conditions related to the direction while moving the object list unit by dragging and dropping, it is possible to intuitively replace the listing information of the object.
또한, 레이더부 상에 표현되는 영역들을 터치하여 영역별 필터를 적용함으로써 직관적으로 데이터의 영역별 필터를 적용할 수 있다.In addition, by applying regions-specific filters by touching regions represented on the radar unit, it is possible to intuitively apply data-specific filters.
또한, 레이더부 상에 부가적인 레이어를 적용하여 도로 정보를 표시함으로써, 사용자는 객체의 위치 정보를 더 용이하게 파악할 수 있다.In addition, by displaying road information by applying an additional layer on the radar unit, the user can more easily grasp the location information of the object.
끝으로, 대기 화면에서도 레이더부를 표시할 수 있는 기능을 제공함으로써, 대기 상태에서 즉각적으로 객체의 방향과 위치를 파악할 수 있게 된다.Finally, by providing a function to display the radar unit on the standby screen, it is possible to immediately grasp the direction and position of the object in the standby state.
도 1은 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법이 적용되는 시스템에 관한 구성도이다.
도 2 내지 도 13은 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법을 나타내는 도면이다.1 is a configuration diagram of a system to which an object display method in a display is applied according to an embodiment of the present invention.
2 to 13 are views showing an object display method in a display according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, but the same or similar elements are assigned the same reference numbers regardless of the reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "modules" and "parts" for the components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed herein, detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all modifications included in the spirit and technical scope of the present invention , It should be understood to include equivalents or substitutes.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.
또한, 본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. In addition, in the present specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise specified.
본 발명은 본 발명의 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the essential features of the invention.
이하, 도면들을 참조하여 본 발명의 실시 예에 대해 상세히 설명하기로 한다. 도면상에서 동일 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The same reference numerals in the drawings refer to the same elements.
증강현실 객체표시 시스템Augmented reality object display system
도 1은 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법이 적용되는 시스템에 관한 구성도이다.1 is a configuration diagram of a system to which an object display method in a display is applied according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 증강현실 객체표시 시스템은 단말기 영상 구현부를 구현하는 영상구현모듈(10), 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하여 객체의 마크를 표시하는 레이더 모듈(20), 영상 구현부에 표시되는 영역 내에 위치하는 복수개의 객체들을 대응 표현하는 객체 대응 표시부를 구현하는 객체대응 표시모듈(30) 및 객체에 대한 리스트를 활성화 하는 제어입력모듈(40)을 포함한다.Referring to FIG. 1, in the augmented reality object display system according to an embodiment of the present invention, an image realization module 10 that implements a terminal image implementation unit, and an area that is displayed on an image implementation unit and an area that is not displayed are divided into objects. A radar module 20 for displaying a mark, an object-correspondence display module 30 for implementing an object-correspondence display for correspondingly representing a plurality of objects located in an area displayed on the image implementation unit, and a control input for activating a list of objects Includes module 40.
영상 구현 모듈(10)은 외부의 카메라 모듈(60)로부터 현장에서 촬영되는 이미지를 수집하고 이를 단말기 화면(1)에 구현한다. 이때에 영상 구현 모듈(10)에서 구현되는 현장 이미지 내에서 각종 정보들을 연결하여 구성하여야 하므로, 일반적인 증강현실 모듈에서는 제한적인 정보밖에 표현할 수 없다. 또한, 이 경우 화면 밖의 정보들을 감지하기 위해서는 단말기의 화면 방향을 회전하여야 하는데, 이렇게 화면 방향만 회전하는 경우 각도상 사용자는 화면을 볼 수 없는 경우가 생긴다. 화면을 보는 상태에서 단말기를 회전하려면 몸 전체가 회전하여야 하는데, 이러한 움직임이 어렵거나, 불편한 환경에 있는 사용자에게는 아무래도 화면 밖에 있는 객체의 정보들을 인식 및 조작하는 데에 많은 어려움이 발생한다.The image realization module 10 collects an image captured in the field from an external camera module 60 and implements it on the
레이더 모듈(20)은 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하고, 객체의 마크를 레이더부로 표시한다. 이러한 레이더 모듈(20)의 존재로 인하여, 실제 단말기 화면 상에 보이는 객체와 반경 내에는 있으나, 화면 상에는 나타나지 않는 객체들을 인지할 수 있다. 또한 객체대응표시모듈(30)은 화면 내의 반경에 있는 객체들을 실제 화면 상에 증강현실로 표현된 객체의 마크를 표시한다. The radar module 20 distinguishes an area displayed from an image implementation unit from an area not displayed, and displays an object mark on the radar unit. Due to the existence of the radar module 20, it is possible to recognize objects that are within a radius and objects visible on a real terminal screen, but do not appear on the screen. In addition, the object-correspondence display module 30 displays the objects of a radius in the screen on the actual screen, the mark of the object expressed in augmented reality.
레이더 모듈(20)과 객체대응표시모듈(30)은 외부의 데이터서버(50)와 단말기를 활용한 무선통신망 등으로 연결되어, 단말기가 현재 위치하는 지점을 기준으로 데이터를 전송 받아 사용한다.The radar module 20 and the object correspondence display module 30 are connected to an external data server 50 and a wireless communication network using a terminal, and receive and use data based on a point where the terminal is currently located.
제어입력모듈(40)은 증강현실을 표시하기 위한 다양한 사용자 입력을 제어한다. The control input module 40 controls various user inputs for displaying augmented reality.
도 2는 본 발명의 일 실시예에 따른 디스플레이 내 객체표시 방법이 적용되는 시스템의 화면이다.2 is a screen of a system to which an object display method in a display is applied according to an embodiment of the present invention.
도 2를 참조하면, 영상 구현부(100)가 가장 하단의 레이어에 표시되고, 레이더부(200) 상에는 현재 영상 구현부(100)에서 표시되고 있는 영역과 그렇지 않은 영역을 구분하는 영역 구분선(201)이 표시된다. 영역 구분선(201) 내에 표시되는 객체 마크(205A)와 영역 구분선(201) 외에 표시되는 객체 마크(205B)는 별도의 방법으로 구분하여 표시될 수 있다.Referring to FIG. 2, the
영상 구현부(100) 내에는 영역 구분선(201) 내에 표시되는 객체 대상(300)이 표시된다. 이 객체 대상은 외부 영상(100)과 함께 표시되어 구체적인 위치를 사용자가 인지할 수 있다. 이 객체 대상은 객체명, 객체의 거리 등 객체와 관련된 정보가 표시될 수 있다. 앞서 설명한 바와 같이 이러한 객체 대상을 통하여 객체의 내용을 구분할 수 있기 때문에, 영상 구현부(100) 내에 외치하여 영상과 함께 객체 대상(300)에 표시되지 않는 객체는 레이더부(200) 내에서만 인지할 수 있으며, 구체적인 내용이 어떠한지는 사용자는 알 수가 없다.The
제어 입력부(40)의 활성화 스위치(400) 사용자가 터치 등으로 활성화 하는 경우 복수개의 객체에 대한 목록을 표시하는 객체 목록부가 표시된다. 활성화 스위치(400)는 아이콘 내에 실제 표현될 수 있는 객체의 개수를 표시할 수 있다.
객체 표시 방법 실시예 1 : 기본 실시예Object Display Method Example 1: Basic Example
도 3 은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.3 is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.
도 3을 참조하면, 도 2의 실시예에서 활성화 스위치(400)가 활성화 된 상태에서, 객체 목록부(500)가 표시되는 것을 확인할 수 있다. Referring to FIG. 3, in the embodiment of FIG. 2, in the state in which the
본 실시예에서 객체 목록부(500)에 나타나는 객체들은 영상 구현부(100) 내에 있는 객체의 조건을 기준으로 하였지만, 이것은 설정되는 조건에 따라 다양하게 적용될 수 있다.In this embodiment, the objects appearing in the
사용자 활용 측면에서는, 편의점, 주차장, 주유소, 지하철역, 은행, 문화시설, 공공기관, 숙박, 음식점, 까페, 병원, 약국 등 다양한 필터를 적용하여 단말기 기준 반경 내에 존재하는 대상 객체들을 리스팅 할 수 있다.In terms of user utilization, various objects such as convenience stores, parking lots, gas stations, subway stations, banks, cultural facilities, public institutions, lodging, restaurants, cafes, hospitals, and pharmacies can be applied to list target objects existing within the terminal reference radius.
이외에도 다양한 조건을 적용하여 객체 목록부(500)에 리스팅이 가능하며, 특히 레이더부(200)과 연계하여 리스팅 하는 것은 이후의 실시예에서 설명하도록 한다.In addition, listing may be possible in the
레이더부(200) 내에 객체들 중 현재 객체 목록부(500)에 표시되는 객체들은 별도의 컬러를 사용하여 표시될 수 있다. 예를 들어, 검은색 마크(210A)으로 표현된 객체들은 현재 객체 목록부(500)에 리스팅 된 것을 의미할 수 있다. 흰색이나 투명색 마크(210B)로 표현된 객체들은 현재 객체 목록부(500)에 리스팅 되지 않은 것을 의미할 수 있다.Among the objects in the
본 실시예에서, 닫기 스위치(410) 및 전환 스위치(420)가 각각 객체 목록부(500) 상에 위치한다. 유저 인터페이스의 구성상, 닫기 스위치(410) 및 전환 스위치(420)의 의치는 화면 어느 곳에서나 존재할 수 있다. 닫기 스위치(410)는 객체 목록부(500)를 켜고 끄는 역할을 담당한다. 전환 스위치(420)는 객체 목록부(500)에 적용된 조건들을 다양한 방법으로 전환하는 기능을 담당한다.In this embodiment, the
예를 들어 상기 전환 스위치(420)를 활성화 하면, 객체 목록부(500)에 적용된 조건들을 변환할 수 있는데, 구체적으로 이것들은 영상 구현부(100)에 표시되는 영역에 있는 객체와 상기 영상 구현부에 표시되지 않는 영역에 있는 객체인 지의 여부일 수 있다. 따라서 전환 스위치(420)는 토글 스위치와 같이, 영상 구현부(100)에 표시되는 영역을 기준으로, 영역 내에 위치하는 객체들의 리스트와 영역 밖에 위치하는 객체들의 리스트를 번갈아 표기할 수 있다.For example, when the
도 4 는 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 도 4를 참조하면, 도 3의 실시예에서와 실질적으로는 동일한 기능으로 표현되나, 레이더(200)의 활성화 되고 있는 영역이 객체 마크를 기준으로 표시되는 것이 아니라, 레이더(200) 영역으로 표시되는 점이 다르다.4 is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied. Referring to FIG. 4, it is represented by substantially the same function as in the embodiment of FIG. 3, but the active area of the
영상 구현부(100) 내에 표시되는 영역(220A)과 영상 구현부(100) 밖에 표시되는 영역(220B)을 구분하여 각각 현재 객체 목록부(500)에 표시되고 있는 리스트의 대상 영역을 레이더부(200) 내에 표시한다.The
이 영역은 별도의 레이어를 적용하여 투명층의 컬러 또는 불투명층의 컬러를 적용하여 표현할 수 있으며, 이외에도 영역을 시각적으로 표현하는 다양한 방법이 적용될 수 있다.The area may be expressed by applying a color of a transparent layer or a color of an opaque layer by applying a separate layer, and various methods of visually expressing the area may also be applied.
객체 표시 방법 실시예 2 : 거리 별 리스팅Object display method Example 2: Listing by distance
도 5a 는 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.5A is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.
도 5a를 참조하면, 도 3의 실시예에서, 객체 목록부(500)와 레이더부(200)가 다르게 표현되는 것을 알 수 있다. 본 실시예에서는 객체 목록부(500)에서 적용되는 리스팅의 조건은 사용자 단말기를 기준으로 한 상기 복수개의 객체에 대한 실제 거리 별 그룹 순서이다.Referring to FIG. 5A, it can be seen that in the embodiment of FIG. 3, the
예를 들어, 레이더 내에 포함되는 객체의 기준이 300m 이내인 경우, 0~50m인 제1그룹(231, 234)과, 50~100m 내인 제2그룹(232, 235), 100~300m인 제3그룹(233, 236)으로 구분할 수 있다. 이 그룹에서도 영상 구현부(100) 내에 있는 그룹(234, 235, 236)과 밖에 있는 그룹(231, 232, 233)으로 구분 지을 수 있으며, 두 가지 조건을 동시에 적용이 가능하다.For example, when the standard of the object included in the radar is within 300 m, the first group (231, 234), which is 0 to 50 m, and the second group (232, 235), which is 50 to 100 m, the third that is 100 to 300 m It can be divided into groups (233, 236). Even in this group, the
이렇게 거리 별 그룹으로 리스팅을 진행하는 경우 객체 목록부(500)에서는 기존과는 다른 방식으로 리스팅이 진행될 수 있다. 특히, 리스팅 내에 객체와 대응되는 아이콘들을 배열함에 있어서, 거리 별로 다른 크기를 적용하거나, 거리 그룹별로 여러 개의 레이어를 적용하여 표시할 수 있다. 여러 개의 레이어가 적용되는 경우에는 바로 다음 그룹에서의 객체들이 얼마나 존재할 수 있는지를 예상할 수 있는 인터페이스 상의 장점이 있다.When listing is performed in a group by distance, the
도 5b 및 도 5c는 도 5a의 실시예에서 증강현실 객체 표시 방법에서 객체 목록부의 화면을 나타내는 도면이다.5B and 5C are views illustrating a screen of an object list in the augmented reality object display method in the embodiment of FIG. 5A.
도 5b는 객체 목록부(500) 내에서, 거리 그룹별로 아이콘의 크기를 달리해서 리스팅 하는 방법을 나타내는 도면이다. 사용자는 위아래 방향으로 스크롤 하는 것 만으로 객체의 거리 그룹을 변경할 수 있다. 5B is a diagram illustrating a method of listing different sizes of icons for each distance group in the
도 5c는 객체 목록부(500) 내에서, 거리 그룹별로 다른 레이어를 적용하여 다음 그룹에서의 아이콘들을 다음 레이어에 표현되도록 하는 도면이다. 사용자는 이로써 다음 그룹에 있는 아이콘들의 내용을 추측해 볼 수 있다.FIG. 5C is a diagram in which the icons in the next group are represented on the next layer by applying different layers for each distance group in the
도 5b 및 5c의 적용된 실시예는 다른 기술들과 중첩되어 적용될 수 있으며, 아이콘의 모양이나 색상, 레이어의 순서나 다음 거리 그룹으로 변환하는 사용자 입력 방식은 당업자의 수준에서 다양한 방법으로 변경할 수 있다.The applied embodiments of FIGS. 5B and 5C may be applied overlapping with other technologies, and the shape or color of an icon, the order of layers, or a user input method for converting to the next distance group may be changed in various ways at the level of those skilled in the art.
객체 표시 방법 실시예 3 : 리스팅 이동 인터페이스Object display method Example 3: Listing movement interface
도 6 및 도 7은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.6 and 7 are screens of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.
도 6 및 도 7을 참조하면, 도 3의 실시예에서, 객체 목록부(500)가 다르게 구성된다. 보다 상세하게는 사용자의 입력에 따라 객체 목록부(500)의 위치를 이동하면서 객체 목록부(500)에 적용되는 조건을 직관적으로 변경할 수 있다.6 and 7, in the embodiment of FIG. 3, the
도 6의 실시예에서는 객체 목록부(500)를 터치하고, 드래그 앤 드롭 방식을 이용하여 화면 왼쪽으로 이동시킨 경우이다. 사용자가 객체 목록부(500)를 임의의 방향으로 이동시키는 경우 객체 목록부(500)가 이동되는 방향에 대응하는 조건으로 객체 목록부(500)에 표현되는 객체들의 조건이 변경된다.In the embodiment of FIG. 6, the
본 실시예에서는 객체 목록부(500)가 화면 왼쪽으로 이동하였고, 이에 따라 영상 구현부(100)에 표현되지 않아 화면에서는 확인할 수 없는 객체 중에서 좌측 방향에 해당하는 객체의 리스트로 변경된다. 이러한 조건들은 상하좌우 방향으로 구분될 수 있으며, 필요한 조건에 따라 상하 방향으로만 구분될 수 있다. 또한 다양한 방위의 내용으로 구분하여 조건을 변경할 수 있다.In the present embodiment, the
특히, 객체 목록부(500)의 리스팅 조건이 변경됨에 따라 현재 객체 목록부(500)에 리스팅 되고 있는 객체의 조건을 레이더부(200)에서도 같이 변경하여 표현하고 있다.In particular, as the listing conditions of the
레이더부(200)에서는 표현되지 않는 영역을 쉐이딩 영역(242)으로 표현하고, 실제 표시되는 영역을 표시 영역(241)으로 표현한다. 객체 목록부(500)에 리스팅 되고 있는 객체의 마크(245)를 별도의 컬러로 표기하였다. 이러한 표시 방식은 앞서 설명한 바와 같이, 유저 인터페이스의 설계에 따라 다양한 방식으로 변경될 수 있다.In the
특히, 도 7을 참조하면, 객체 목록부(500)를 아래 방향으로 드래그 앤 드롭 하여 이동하였다. 이 경우에는 영상 구현부(100)에 표현되지 않는 대상 전체가 리스팅 될 수 있으며, 이에 따라 전면부가 쉐이딩 영역(252)으로 표시되고, 영상 구현부(100)에 표현되지 않는 영역 전체가 표시 영역(251)으로 표시된다. 객체 목록부(500)에 리스팅 되고 있는 객체의 마크(255)가 별도의 컬러로 표시되었으며, 이동된 객체 목록부(500B)는 영상 구현부(100)에 표현되지 않는 대상 전체가 리스팅 된다. 필요한 경우 객체 목록부(500B)는 2열 이상의 리스트로 아이콘을 배열하여 많은 개수의 아이콘을 동시에 표시할 수 있다.In particular, referring to FIG. 7, the
특히, 이러한 방위 별 그룹 설정은 앞서 언급한 객체의 영업 별 분류 카테고리인 편의점, 주차장, 주유소, 지하철역, 은행, 문화시설, 공공기관, 숙박, 음식점, 까페, 병원, 약국 등의 카테고리와 중첩하여 적용될 수 있으며, 찾고자 하는 대상이 편의점인 경우 이렇게 객체 목록부(500)를 이동하면서 원하는 방위에 있는 대상 객체를 파악하고 확인할 수 있다.In particular, this group setting by defense is applied in overlap with categories such as convenience store, parking lot, gas station, subway station, bank, cultural facility, public institution, lodging, restaurant, cafe, hospital, pharmacy, etc. When the object to be searched is a convenience store, it is possible to identify and check the object in a desired direction while moving the
객체 표시 방법 실시예 4 : 직접 선택하는 영역별 리스팅 필터Object display method Example 4: Listing filter by area to be directly selected
도 8 내지 도 10은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다.8 to 10 are screens of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.
도 8을 참조하면, 레이더부(200)의 각 영역은 방위 별과 거리 그룹별로 각각 12개의 영역으로 구분될 수 있으며, 사용자는 직접 이러한 레이더부(200)의 각 영역을 터치하여 선택함으로써, 영역별 필터링을 직접 적용할 수 있다.Referring to FIG. 8, each area of the
예를 들어, 사용자가 방향에 관계 없이 근접 0~50m 이내의 객체 대상을 검색하고자 하는 경우 해당 영역(AU3, AR3, AL3, AD3)을 활성화 하면, 해당 영역 내에 있는 객체만 객체 목록부(500)에 표시되는 것으로 조건이 변경될 수 있다.For example, when a user wants to search for an object target within 0 to 50 m in proximity regardless of the direction, if the corresponding area (AU3, AR3, AL3, AD3) is activated, only the objects within the area are listed in the
사용자가 직접 레이더부(200)의 할당 영역을 터치하여 지역적인 필터를 적용하는 것은 무엇보다 직관적으로 대상 객체에 대한 필터링 조건을 입력할 수 있는 방법이 된다. 해당 실시예에서는 이러한 영역을 12개의 영역으로 구분하였지만, 거리에 따른 영역으로 구분할 수도 있으며, 방위에 따른 영역으로 구분할 수도 있다. 후술할 레이더부(200)에 직접 도로 정보가 표시되는 경우 도로 자체를 터치하여 활성화 함으로써, 이에 대한 정보를 필터로 적용할 수 있다. 상세한 내용을 이후에 추가로 설명한다.The user directly applying the local filter by touching the allocation area of the
도 9는 도 8의 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 특히, 지정된 조건에서 좌측 50 m 내지 100m 영역인 AL2영역을 터치함으로써, 다른 조건에 부가하여 영역적인 조건을 추가하여 객체를 리스팅 할 수 있다. 이 경우 다른 영역을 별도로 터치하는 경우 기존의 필터링 조건에 더하여 다른 영역까지 확장된 필터링 결과가 객체 목록부(500)에 표시 된다. 이 방법의 장점은 실제 증강 현실 화면에서 인지되지는 않지만, 특정한 조건을 입력하고, 이에 따른 영역을 활성화 함으로써, 구체적인 객체의 정보를 객체 목록부(500)의 리스팅을 통해 확인할 수 있는 점이다.9 is a screen of a system to which the augmented reality object display method according to the embodiment of FIG. 8 is applied. In particular, by touching the AL2 area, which is the 50m to 100m area on the left under the specified condition, an object can be listed by adding the regional condition in addition to other conditions. In this case, when different areas are touched separately, the filtering results extended to other areas in addition to the existing filtering conditions are displayed on the
도 10은 도 8의 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 특히 도 10은 앞서 설명한 바와 같이, 거리 별 그룹을 설정하여 0~50 m 이내의 영역(AC3)과, 100~300m 내의 영역(AC1)을 활성화하여 주어진 조건에 따라 객체 목록부(500)에서의 객체를 리스팅 하였으며, 이때에 객체 목록부(500)는 영역별 그룹으로 아이콘을 표현하는 방법을 적용하여 거리에 대한 정보와 함께 객체의 정보들을 아이콘화 하여 전달할 수 있다.10 is a screen of a system to which an augmented reality object display method according to the embodiment of FIG. 8 is applied. Particularly, as described above, in FIG. 10, the group for each distance is set to activate the area AC3 within 0 to 50 m and the area AC1 within 100 to 300 m according to a given condition. Objects are listed, and in this case, the
객체 표시 방법 실시예 5 : 도로 정보를 표현하는 레이더부Object display method Example 5: Radar unit for expressing road information
도 11 내지 도 13은 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 11 to 13 are screens of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.
도 11 및 도 12를 참조하면, 본 실시예에서는 레이더부(200) 상에 추가적인 위치 정보 레이어(250)를 적용하여 간단한 도로 정보(250)를 포함할 수 있다. 특히, 도보로 이동하는 사용자에게 대상 위치로 갈 수 있는 직관적인 이동정보를 제공할 수 있다. 또한 본 실시예에서는 레이더부(200)를 직접 터치하여 필터를 적용하는 옵션에 있어서, 도로의 거리 별 필터를 적용할 수 있게 함으로써, 사용자는 해당 거리에 있는 객체에 대한 정보를 획득할 수 있는 장점이 있다.Referring to FIGS. 11 and 12, in this embodiment,
도 12를 다시 참조하면, 레이더부(200) 상에 표현된 도로 정보(250)에서 특정 거리(255)를 터치하여 필터가 적용된 경우이다. 해당 필터가 적용되는 경우에는 도로 정보에 관여되는 객체들이 다시 객체 목록부(500)에 표시된다. 따라서 해당되는 특정 거리(255)에 존재하는 객체 들의 정보를 필터링 할 수 있다.Referring back to FIG. 12, a filter is applied by touching a
본 조건은 특정 거리(255)뿐 아니라, 위치 정보 레이어(250)에 적용되는 다양한 엘리먼트들로 활용할 수 있다. 예를 들어 특정 빌딩을 선택하여 해당 빌딩 내에 있는 객체를 파악한다던 지, 중 규모 이상의 지하 상가, 도로와 도로가 만나 자연스럽게 규정되는 도심 블록 등이 필터의 대상으로 적용될 수 있고, 사용되는 이러한 조건들을 필터로 적용하여 증강 현실 내에서 화면을 전환하지 않으면서, 직관적으로 대상 리스트 정보를 빠르게 조회할 수 있다.This condition can be utilized as various elements applied to the
도 13을 참조하면, 레이더부(200) 상에 표현된 도로 정보(250)에서 방향 별 객체의 개수를 나타내는 별도의 아이콘(162, 162, 163)을 표시하였다. 이 경우 각 방향 별로 객체의 개수를 직관적으로 파악할 수 있게 되어 사용자의 입장에서는 더 편리하게 객체를 파악할 수 있다.Referring to FIG. 13, in the
객체 표시 방법 실시예 6 : 대기 화면Object display method Example 6: standby screen
도 14는 본 발명의 다른 실시예에 따른 증강현실 객체 표시 방법이 적용되는 시스템의 화면이다. 14 is a screen of a system to which an augmented reality object display method according to another embodiment of the present invention is applied.
도 14를 참조하면, 레이더부(200)의 대기화면 송출이 활성화 되어 있는 경우에, 레이더부(290)의 화면을 대기화면 상에 표현할 수 있다. 이 경우, 특정한 한 객체의 마크(710)만이 표시될 수 있으며, 실시간으로 사용자는 대기 화면 상에서 이동 상황을 확인할 수 있다. 대기화면은 슬라이딩 바(700) 등으로 해제할 수 있으며, 도면에 표시된 방법 이외에 다양한 화면을 이용하여 구현할 수 있다.Referring to FIG. 14, when the standby screen transmission of the
반드시 하나의 객체에 대한 마크가 표시되어야 하는 것은 아니며, 이러한 객체의 표시여부는 사용자의 설정에 따라 다양한 옵션을 적용할 수 있다. 또한 레이더부(290)에는 필요한 다른 레이어를 적용하여 다양한 정보를 표현하도록 할 수 있다. 예를 들어, 도 11의 실시예에서 도시된 바와 같이 도로 정보를 표현하도록 별도의 레이어를 설정할 수 있다. 이 경우 보행자는 더 용이하게 객체를 찾고 위치를 이해할 수 있게 된다.Marks for one object are not necessarily displayed, and various options can be applied according to the user's setting. In addition, various layers may be applied to the
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above-described embodiments and the accompanying drawings. For those skilled in the art to which the present invention pertains, it will be apparent that components according to the present invention can be substituted, modified and changed without departing from the technical spirit of the present invention.
10 : 영상구현모듈
20 : 레이더 모듈
30 : 객체대응 표시모듈
40 : 제어입력모듈
50 : 데이터서버
60 : 카메라 모듈
100 : 영상 구현부
200 : 레이더부
300 : 객체 대상
400 : 활성화 스위치
500 : 객체 목록부10: Video realization module
20: radar module
30: object-adaptive display module
40: control input module
50: data server
60: camera module
100: video implementation
200: radar section
300: object target
400: activation switch
500: object list
Claims (15)
상기 단말기 화면에 영상을 표현하는 영상 구현부;
상기 영상 구현부에 표시되는 영역과 표시되지 않는 영역을 구분하여 상기 객체의 마크를 표시하는 레이더부;
상기 영상 구현부에 표시되는 영역 내에 위치하는 복수개의 객체들을 대응 표현하는 객체 대응 표시부; 및
상기 객체에 대한 리스트를 활성화하고 제어하는 제어 입력부;
를 포함하고,
상기 제어 입력부의 활성화 스위치가 활성화 되면, 상기 복수개의 객체에 대한 목록을 표시하는 객체 목록부가 표시되는 목록 표시 단계를 포함하고,
상기 제어 입력부의 상기 활성화 스위치가 비활성화 상태인 경우, 상기 제어 입력부에는 표시될 상기 객체 목록부의 개수가 표시되고, 상기 목록 표시 단계에서는, 상기 객체 목록부는 미리 설정된 조건에 따라 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
In the method for displaying a plurality of objects on the user terminal including the screen with the interface of the augmented reality,
An image implementation unit for expressing an image on the terminal screen;
A radar unit that displays a mark of the object by dividing a region displayed from the image implementation unit from a region not displayed;
An object correspondence display unit correspondingly representing a plurality of objects located in an area displayed on the image implementation unit; And
A control input unit that activates and controls the list for the object;
Including,
When the activation switch of the control input unit is activated, including a list display step of displaying an object list unit for displaying a list of the plurality of objects,
When the activation switch of the control input unit is in an inactive state, the control input unit displays the number of the object list units to be displayed, and in the list display step, the object list unit is displayed according to a preset condition. How to display my object.
상기 설정된 조건은 상기 레이더부에 표시되고,
상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 객체의 마크를 다르게 표현하는 것으로 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The set condition is displayed on the radar unit,
The method for displaying an object in a display is characterized in that the set condition is displayed on the radar unit by differently expressing the mark of the object.
상기 설정된 조건은 상기 레이더부에 표시되고,
상기 설정된 조건이 상기 레이더부에 표시되는 것은 상기 레이더부의 영역이 다른 기준으로 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법
According to claim 1,
The set condition is displayed on the radar unit,
When the set condition is displayed on the radar unit, an object display method in a display is characterized in that the radar unit region is displayed with different criteria.
상기 미리 설정된 조건은 상기 사용자 단말기를 기준으로 한 상기 복수개의 객체에 대한 실제 거리 별 그룹 순서인 것을 특징으로 하는 디스플레이 내 객체표시 방법
According to claim 1,
The preset condition is an object display method in a display, characterized in that the group order by the actual distance for the plurality of objects based on the user terminal
상기 미리 설정된 조건은 상기 사용자 단말기가 향하는 방향을 기준으로 상기 복수개의 객체에 대한 실제 방향 별 그룹 순서인 것을 특징으로 하는 디스플레이 내 객체표시 방법
According to claim 1,
The preset condition is an object display method in a display, characterized in that it is a group order for each of the plurality of objects based on a direction facing the user terminal.
상기 미리 설정된 조건은 상기 영상 구현부에 표시되는 영역에 있는 객체와 상기 영상 구현부에 표시되지 않는 영역에 있는 객체인 지의 여부인 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The preset condition is whether an object in an area displayed on the image implementation unit and an object in an area not displayed on the image implementation unit is displayed.
상기 객체 목록부를 사용자의 입력에 따라 이동시키고, 상기 객체 목록부가 이동되는 위치에 따라 상기 객체 목록부에 표시되는 조건이 변경되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
A method of displaying objects in a display, wherein the object list unit is moved according to a user's input and a condition displayed on the object list unit is changed according to a location where the object list unit is moved.
상기 객체 목록부의 이동 위치는 상, 하, 좌, 우의 영역으로 구분되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
The method of claim 8,
The moving position of the object list unit is divided into upper, lower, left, and right regions.
상기 레이더의 영역을 선택하는 경우 레이더의 영역에 해당하는 객체에 대한 리스트가 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
When selecting an area of the radar, a list of objects corresponding to the area of the radar is displayed.
상기 레이더의 영역은 복수개의 영역으로 구분되고, 각 레이더의 영역은 선택되는 경우에 개별적으로 활성화되어 선택된 레이더의 영역에 해당하는 객체만 필터링 되어 객체에 대한 리스트가 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The area of the radar is divided into a plurality of areas, and each radar area is individually activated when selected, and only objects corresponding to the selected area of the radar are filtered to display a list of objects. How to display.
상기 레이더의 영역은 상기 객체의 위치를 파악할 수 있는 정보를 포함하는 위치 정보 레이어를 더 포함하는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The radar region further includes a location information layer including information capable of determining the location of the object.
상기 레이더의 영역은 상기 객체 주변의 도로 이미지를 포함하는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
The method of claim 12,
The method of displaying an object in a display, wherein the area of the radar includes a road image around the object.
상기 레이더의 영역은, 방향 별 객체의 수를 나타내는 적어도 2개 이상의 아이콘을 더 포함하는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
The method of claim 13,
The radar area further includes at least two or more icons indicating the number of objects for each direction, and a method for displaying objects in a display.
상기 레이더의 영역은, 상기 단말기가 대기화면일 때에 특정 객체의 마크와 함께 표시되는 것을 특징으로 하는 디스플레이 내 객체표시 방법.
According to claim 1,
The method of displaying an object in a display, wherein the area of the radar is displayed together with a mark of a specific object when the terminal is a standby screen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190053885 | 2019-05-08 | ||
KR20190053885 | 2019-05-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102107340B1 true KR102107340B1 (en) | 2020-05-07 |
Family
ID=70733477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190117048A KR102107340B1 (en) | 2019-05-08 | 2019-09-23 | Method for displaying objects in display |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102107340B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120040407A (en) * | 2010-10-19 | 2012-04-27 | 주식회사 팬택 | Display apparatus and display method that heighten visibility of augmented reality object |
WO2017098822A1 (en) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2019
- 2019-09-23 KR KR1020190117048A patent/KR102107340B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120040407A (en) * | 2010-10-19 | 2012-04-27 | 주식회사 팬택 | Display apparatus and display method that heighten visibility of augmented reality object |
WO2017098822A1 (en) * | 2015-12-10 | 2017-06-15 | ソニー株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20150338974A1 (en) | Definition and use of node-based points, lines and routes on touch screen devices | |
US7317449B2 (en) | Key-based advanced navigation techniques | |
US9323420B2 (en) | Floor selection on an interactive digital map | |
US9256917B1 (en) | Nested zoom in windows on a touch sensitive device | |
US8907886B2 (en) | Advanced navigation techniques for portable devices | |
CN104137043A (en) | Method for human-computer interaction on a graphical user interface (gui) | |
US20140040826A1 (en) | Method for operating screen and electronic device thereof | |
US20120038669A1 (en) | User equipment, server, and method for selectively filtering augmented reality | |
US20110169729A1 (en) | Method and an apparatus for performing interaction between a mobile device and a screen | |
KR20100050103A (en) | Method of controlling 3 dimension individual object on map and mobile terminal using the same | |
CN110375755A (en) | Solution for the interactive moving map that height customizes | |
US8928700B1 (en) | Simultaneous zoom in windows on a touch sensitive device | |
US9817572B2 (en) | Overlapped transparent display and control method thereof | |
JP6000367B2 (en) | Information display device and information display method | |
US20220391074A1 (en) | User interfaces for maps and navigation | |
Olwal et al. | Spatially aware handhelds for high-precision tangible interaction with large displays | |
KR102107340B1 (en) | Method for displaying objects in display | |
WO2014167363A1 (en) | Systems and methods for interacting with a touch screen | |
CN103902661B (en) | Information display method for correcting search result object selected by user on electronic map interface | |
GB2504085A (en) | Displaying maps and data sets on image display interfaces | |
US20230160714A1 (en) | User interfaces for maps and navigation | |
CN104335151B (en) | terminal device, display control method and program | |
EP2791773B1 (en) | Remote display area including input lenses each depicting a region of a graphical user interface | |
KR101741943B1 (en) | Apparatus and method for visualizing 3d cadastral objects | |
KR20180032322A (en) | Method and program for displaying information on a marker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |