KR20230069680A - Electronic device and method for displaying of curve indicating target point in augmented reality - Google Patents

Electronic device and method for displaying of curve indicating target point in augmented reality Download PDF

Info

Publication number
KR20230069680A
KR20230069680A KR1020210155920A KR20210155920A KR20230069680A KR 20230069680 A KR20230069680 A KR 20230069680A KR 1020210155920 A KR1020210155920 A KR 1020210155920A KR 20210155920 A KR20210155920 A KR 20210155920A KR 20230069680 A KR20230069680 A KR 20230069680A
Authority
KR
South Korea
Prior art keywords
curve
target point
camera
augmented reality
video image
Prior art date
Application number
KR1020210155920A
Other languages
Korean (ko)
Inventor
최동원
김준기
Original Assignee
최동원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 최동원 filed Critical 최동원
Priority to KR1020210155920A priority Critical patent/KR20230069680A/en
Publication of KR20230069680A publication Critical patent/KR20230069680A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

An electronic device and method for displaying a curve pointing to a target point in augmented reality that allows an intuitive understanding of an augmented reality environment and is easy to use is disclosed. The electronic device for displaying a curve pointing to a target point in augmented reality according to an embodiment comprises: a plane recognition unit that acquires a video image of the real environment through a camera and recognizes a plane existing in the real environment using the video image; a target point setting unit that fires a ray toward a portion of the plane and sets a point where the plane and the ray meet as a target point; a curve calculation unit that calculates a curve connecting the target point from the camera using the location information of the camera, the location information of the target point, and the location information of the target point with the height value of the camera; and a display unit that synthesizes a curve into the video image and provides a result; wherein the curve calculation unit uses the Bezier curve function to calculate the curve connecting the camera and target point.

Description

증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치 및 방법{ELECTRONIC DEVICE AND METHOD FOR DISPLAYING OF CURVE INDICATING TARGET POINT IN AUGMENTED REALITY}Electronic device and method for displaying a curve pointing to a target point in augmented reality

본 개시(The Disclosure)는 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치 및 방법에 관한 것이다.The Disclosure relates to an electronic device and method for displaying a curve indicating a target point in augmented reality.

한국 공개특허공보 제10-2019-0028238호는 가상 현실에서의 포인터 제어 방법 및 전자 장치를 개시한다.Korean Patent Publication No. 10-2019-0028238 discloses a pointer control method and electronic device in virtual reality.

동 공보에 개시된 전자 장치는, 디스플레이; 통신 회로; 상기 디스플레이 및 상기 통신 회로와 전기적으로 연결되는 프로세서; 및 상기 프로세서와 전기적으로 연결되는 메모리를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 통신 회로를 통해 외부 컨트롤러로부터 제어 신호를 수신하고, 상기 수신된 제어 신호에 적어도 기반하여 방향을 확인하고, 상기 디스플레이를 통해 표시되는 가상 공간 상에서, 상기 외부 컨트롤러에 관련된 제1 기준 위치로부터 상기 확인한 방향으로 지정된 제1 거리 범위에 위치한 제1 지점을 판단하고, 상기 제1 지점에 기반하여 상기 가상 공간의 화면에 포인터를 표시하도록 상기 디스플레이를 제어하는 인스트럭 션들을 저장하는 것을 특징으로 한다.The electronic device disclosed in this publication includes a display; communication circuit; a processor electrically connected to the display and the communication circuit; and a memory electrically connected to the processor, wherein the memory, when executed, causes the processor to receive a control signal from an external controller through the communication circuit and to set a direction based at least on the received control signal. and determining a first point located in a designated first distance range in the checked direction from a first reference position related to the external controller in a virtual space displayed through the display, and determining the virtual space based on the first point. It is characterized by storing instructions for controlling the display to display a pointer on the screen of the space.

전술한 전자 장치는, 외부 컨트롤러의 움직임 및 방향으로부터 좌표정보를 도출하여 디스플레이 상에 표시된 가상 공간의 지점을 점으로 가리킨다. 이로 인해, 가상 현실이나 증강 현실에 익숙하지 않고 이해가 부족한 사용자의 경우, 포인터의 표시 방법이 직관적이지 않아 사용하기에 뷸편하다는 문제점이 있다.The aforementioned electronic device derives coordinate information from the movement and direction of an external controller and indicates a point in a virtual space displayed on a display as a point. For this reason, in the case of a user who is not familiar with and lacks understanding of virtual reality or augmented reality, there is a problem in that the pointer display method is not intuitive and is inconvenient to use.

KR 10-2019-0028238 A (2019. 03. 18. 공개)KR 10-2019-0028238 A (2019. 03. 18. Public)

본 개시가 해결하고자 하는 과제는, 증강현실 환경을 직관적으로 이해시켜주고 사용하기가 용이한, 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치 및 방법을 제공하는 것이다.An object of the present disclosure is to provide an electronic device and method for intuitively understanding an augmented reality environment and displaying a curve indicating a target point in augmented reality, which is easy to use.

실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치는, 카메라를 통해 실제 환경의 영상이미지를 획득하고, 영상이미지를 이용하여 실제 환경 상에 존재하는 평면을 인식하는 평면인식부; 평면의 일부분을 향해 광선을 발사하고, 평면과 광선이 만나는 지점을 목표점으로 설정하는 목표점설정부; 카메라의 위치정보, 목표점의 위치정보, 카메라의 높이 값을 가지는 목표점의 위치정보를 이용하여 카메라에서 목표점을 잇는 곡선을 연산하는 곡선연산부; 및 곡선을 영상이미지에 합성하여 제공하는 디스플레이부;를 포함하고, 곡선연산부는, 베지어 곡선 함수를 이용하여 카메라와 목표점을 잇는 곡선을 연산하는 것을 특징으로 한다.An electronic device displaying a curve pointing to a target point in augmented reality according to an embodiment includes a plane recognition unit that acquires a video image of a real environment through a camera and recognizes a plane existing in the real environment by using the video image; A target point setting unit for launching a light beam toward a part of a plane and setting a point where the plane and the light beam meet as a target point; a curve calculation unit that calculates a curve connecting the target points in the camera using the position information of the camera, the position information of the target point, and the position information of the target point having the height value of the camera; and a display unit synthesizing and providing the curve to a video image, wherein the curve calculation unit calculates a curve connecting the camera and the target point using a Bezier curve function.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치의 디스플레이부는, 곡선과 평면이 만나는 점을 중심으로 하여 소정 넓이를 갖는 가상도착영역을 설정하고, 가상도착영역을 영상이미지에 합성하여 제공하는 것을 특징으로 한다.In addition, the display unit of the electronic device displaying the curve pointing to the target point in augmented reality according to the embodiment sets a virtual arrival area having a predetermined area centered on the point where the curve and the plane meet, and sets the virtual arrival area in a video image. It is characterized in that it is synthesized and provided.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치의 곡선은, 점선 형태를 가지는 것을 특징으로 한다.In addition, the curve of the electronic device displaying the curve pointing to the target point in augmented reality according to the embodiment is characterized in that it has a dotted line form.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치는, 곡선에 커서(cursor) 형상을 가지는 3D 객체를 오버레이하는 객체오버레이부;와 3D 객체의 색상정보와 영상이미지에서 3D 객체가 겹쳐지는 영역의 색상정보를 비교하여, 3D 객체의 외곽에 외곽선을 그리는 외곽선생성부;를 더 포함하는 것을 특징으로 한다.In addition, an electronic device displaying a curve pointing to a target point in augmented reality according to an embodiment includes an object overlay unit that overlays a 3D object having a cursor shape on the curve; and color information of the 3D object and a 3D object in a video image. It is characterized in that it further includes; an outline generator that compares color information of overlapping regions and draws an outline around the 3D object.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치의 3D 객체는, 카메라의 위치로부터 목표점까지의 거리가 증가함에 따라 커서의 폭이 얇게 형성되는 것을 특징으로 한다.In addition, the 3D object of the electronic device displaying the curve pointing to the target point in augmented reality according to the embodiment is characterized in that the width of the cursor is formed thin as the distance from the position of the camera to the target point increases.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법은, 카메라를 통해 실제 환경의 영상이미지를 획득하고, 영상이미지를 이용하여 실제 환경 상에 존재하는 평면을 인식하는 단계; 평면의 일부분을 향해 광선을 발사하고, 평면과 광선이 만나는 지점을 목표점으로 설정하는 단계; 카메라의 위치정보, 목표점의 위치정보, 카메라의 높이 값을 가지는 목표점의 위치정보를 이용하여 카메라에서 목표점을 잇는 곡선을 연산하는 단계; 및 곡선을 영상이미지에 합성하여 제공하는 단계;를 포함한다.In addition, a method of displaying a curve pointing to a target point in augmented reality according to an embodiment includes acquiring a video image of a real environment through a camera, and recognizing a plane existing in the real environment using the video image; emitting a light beam toward a part of the plane, and setting a point where the plane and the light beam meet as a target point; calculating a curve connecting the target points in the camera using camera position information, target point position information, and target point position information having a height value of the camera; and synthesizing and providing a curve to a video image.

실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치를 이용하면, 증강현실을 직관적이고 간편하게 이해할 수 있다.By using an electronic device displaying a curve pointing to a target point in augmented reality according to an embodiment, augmented reality can be intuitively and conveniently understood.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치는, 증강현실 상에 좌표정보를 도출하기 위한 별도의 장비를 구비할 필요가 없다.In addition, an electronic device displaying a curve pointing to a target point in augmented reality according to an embodiment does not need to have separate equipment for deriving coordinate information in augmented reality.

또한, 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치는, 목표점을 가리키는 수단을 직선형이 아닌 곡선형으로 표현함으로써 증강현실 환경에 알맞는 형상이며, 증강현실에서 목표점을 확인하기가 용이하다.In addition, an electronic device displaying a curve pointing to a target point in augmented reality according to an embodiment expresses a means for pointing to a target point in a curved form rather than a straight line, so it has a shape suitable for an augmented reality environment, and it is easy to check the target point in augmented reality. It's easy.

도 1은 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치의 구성도이다.
도 2는 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치를 개략적으로 나타낸 도면이다.
도 3은 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 나타낸다.
도 4는 다른 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 나타낸다.
도 5는 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법을 나타내는 순서도이다.
도 6은 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 동작을 설명하는 도면이다.
1 is a configuration diagram of an electronic device displaying a curve indicating a target point in augmented reality according to an embodiment.
2 is a diagram schematically illustrating an electronic device displaying a curve indicating a target point in augmented reality according to an embodiment.
3 shows a curve indicating a target point in augmented reality according to an embodiment.
4 shows a curve indicating a target point in augmented reality according to another embodiment.
5 is a flowchart illustrating a method of displaying a curve indicating a target point in augmented reality according to an embodiment.
6 is a diagram illustrating an operation of displaying a curve pointing to a target point in augmented reality according to an embodiment.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.Advantages and features of the present disclosure, and methods of achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms, only the present embodiments make the present disclosure complete, and those of ordinary skill in the art to which the present disclosure belongs It is provided to fully inform the person of the scope of the invention, and the present disclosure is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치[이하 '전자장치(100)'라고 함]의 구성도를 나타내는 도 1을 참조하면, 전자장치(100)는 평면인식부(110), 목표점설정부(120), 곡선연산부(130) 및 디스플레이부(140)를 포함한다. 전자장치(100)는 사용자가 사용하는 단말기로 카메라가 구비된 스마트폰 또는 카메라가 구비된 태블릿 PC(tablet pc)일 수 있다.Referring to FIG. 1 showing a configuration diagram of an electronic device (hereinafter referred to as 'electronic device 100') displaying a curve pointing to a target point in augmented reality according to an embodiment, the electronic device 100 includes a plane recognition unit 110 ), a target point setting unit 120, a curve calculation unit 130, and a display unit 140. The electronic device 100 is a terminal used by a user and may be a smartphone equipped with a camera or a tablet PC equipped with a camera.

평면인식부(110)는 전자장치(100)에 내장된 카메라를 통해 실제 환경의 영상이미지를 획득한 뒤, 획득한 영상이미지를 이용하여 실제 환경 상에 존재하는 평면을 인식한다.The plane recognition unit 110 acquires a video image of a real environment through a camera built in the electronic device 100 and recognizes a plane existing in the real environment using the acquired video image.

하나의 예로, 영상이미지에서 평면을 인식하기 위해 Unity 3D Engine의 증강현실 플랫폼 AR Foundation을 이용할 수 있다. AR Foundation은 단말기에 구비된 카메라를 통해 실제 환경에서의 상대적 위치를 알아내기 위해 동시 현지화 및 매핑 프로세스를 사용한다. 이어서, 특징점이라고 불리는 각각의 시각적 특징을 찾아낸다. 이후, 수직, 수평의 표면에서 해당 특징점의 클러스터를 찾아내고, 해당 특징점의 클러스터를 모아 평면으로 인식한다.As an example, AR Foundation, an augmented reality platform of the Unity 3D Engine, can be used to recognize a plane in a video image. AR Foundation uses a simultaneous localization and mapping process to determine relative positions in the real environment through the camera equipped on the device. Next, each visual feature, called a feature point, is found. Thereafter, clusters of corresponding feature points are found on the vertical and horizontal surfaces, and the clusters of corresponding feature points are collected and recognized as a plane.

전자장치(100)를 개략적으로 나타낸 도 2를 참조하면, 목표점설정부(120)는 평면인식부(110)에서 인식한 평면의 일부분을 향해 광선을 발사한 뒤, 발사한 광선과 평면이 만나는 지점을 목표점(T)으로 설정한다.Referring to FIG. 2 schematically showing the electronic device 100, the target point setting unit 120 emits a light beam toward a part of the plane recognized by the plane recognition unit 110, and then the point where the emitted light beam and the plane meet. is set as the target point (T).

곡선연산부(130)는 카메라(C)의 위치정보, 목표점(T)의 위치정보, 카메라의 높이 값을 가지는 목표점(T')의 위치정보를 이용하여 카메라(C)에서 목표점(T)을 잇는 곡선을 연산한다. 이때, 카메라에서 목표점을 잇는 곡선은 베지어 곡선 함수를 이용하여 구할 수 있다.The curve calculation unit 130 connects the camera C to the target point T by using the location information of the camera C, the location information of the target point T, and the location information of the target point T′ having the height value of the camera. calculate the curve At this time, a curve connecting the target point from the camera can be obtained using a Bezier curve function.

구체적으로, 곡선연산부(130)는 카메라(C)의 위치정보, 카메라의 높이 값을 가지는 목표점(T')의 위치정보, 목표점(T)의 위치정보를 각각 A(시작점), B(조절점), C(끝점)로 지정하고, 2차 베지어 곡선 함수를 이용하여 시간의 변화에 따라 점의 위치를 구한다.Specifically, the curve calculation unit 130 converts the location information of the camera C, the location information of the target point T' having the height value of the camera, and the location information of the target point T into A (start point) and B (control point), respectively. ), and C (end point), and use the quadratic Bezier curve function to obtain the position of the point according to the change in time.

(수학식)

Figure pat00001
(mathematical expression)
Figure pat00001

이어서, 시간에 따른 점의 위치로부터 직선을 구한다. 먼저, t=0일 때의 위치값과 t=0.01일 때의 위치값을 이어서 직선으로 렌더링하고, t=0.01일 때의 위치값과 t=0.02일 때의 위치값을 이어서 직선으로 렌더링한다. 해당 과정을 t=1일 때의 위치값까지 반복한 뒤, 렌더링한 모든 직선을 곡선으로 렌더링해준다. 실시예에서는 t의 간격을 0.01로 하여 직선을 구하고 이를 곡선으로 렌더링해주었지만, 카메라의 위치로부터 목표점까지의 거리가 증가할수록 곡선의 길이가 증가하므로 t의 간격을 더 작게 설정하여 곡선을 렌더링해줄 수 있다.Then, a straight line is obtained from the position of the point over time. First, the position value at t = 0 and the position value at t = 0.01 are subsequently rendered as a straight line, and the position value at t = 0.01 and the position value at t = 0.02 are subsequently rendered as a straight line. After repeating this process until the position value at t=1, all rendered straight lines are rendered as curves. In the embodiment, a straight line was obtained with an interval of t of 0.01 and rendered as a curve, but as the distance from the camera position to the target point increases, the length of the curve increases, so the curve can be rendered by setting the interval of t smaller there is.

실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 나타낸 도 3을 참조하면, 디스플레이부(140)는 곡선연산부(130)에서 연산한 곡선을 실제 환경의 영상이미지에 합성하여 사용자에게 제공한다.Referring to FIG. 3 showing a curve pointing to a target point in augmented reality according to an embodiment, the display unit 140 synthesizes the curve calculated by the curve calculation unit 130 into a video image of a real environment and provides the result to the user.

또한, 디스플레이부(140)는 곡선과 평면이 만나는 점을 중심으로 하여 소정 넓이를 가지는 가상도착영역(S)을 설정할 수 있으며, 설정한 가상도착영역(S)을 실제 환경의 영상이미지에 합성하여 사용자에게 제공할 수 있다.In addition, the display unit 140 may set a virtual arrival area S having a predetermined area centered on a point where a curve and a plane meet, and synthesize the set virtual arrival area S with a video image of a real environment. can be provided to users.

또한, 다른 실시예에 따른 증강현실에서 목표점을 가리키는 곡선을 나타낸 도 4 (a)를 참조하면, 디스플레이부(140)는 카메라와 목표점을 잇는 곡선을 점선(DL)으로 형상화하여 사용자에게 제공할 수 있다. 곡선을 점선(DL)으로 형상화함으로써 사용자는 곡선으로 인해 가려지는 부분 없이 디스플레이부(140)에서 제공된 영상이미지를 선명하게 볼 수 있다.In addition, referring to FIG. 4 (a) showing a curve pointing to a target point in augmented reality according to another embodiment, the display unit 140 may shape a curve connecting the camera and the target point into a dotted line DL and provide it to the user. there is. By shaping the curve into a dotted line DL, the user can clearly see the video image provided on the display unit 140 without a portion being covered by the curve.

전자장치(100)는 단말기(카메라)가 움직임에 따라 카메라의 위치값이 바뀔 경우, 다시 평면을 인식한 후, 위의 과정을 반복하여 곡선을 표현할 수 있다.When the position value of the camera changes as the terminal (camera) moves, the electronic device 100 can express a curve by recognizing a plane again and repeating the above process.

또한, 전자장치(100)는 객체오버레이부(150)와 외곽선생성부(160)를 더 포함할 수 있다.In addition, the electronic device 100 may further include an object overlay unit 150 and an outline generator 160.

도 4 (b) 내지 (c)를 참조하면, 객체오버레이부(150)는 연산된 곡선에 커서(cursor) 형상을 가지는 3D 객체(O)를 오버레이할 수 있다. 3D 객체(O)의 커서의 폭은 카메라의 위치로부터 목표점까지의 거리가 증가함에 따라 얇게 형성될 수 있다.4 (b) to (c), the object overlay unit 150 may overlay a 3D object O having a cursor shape on the calculated curve. The width of the cursor of the 3D object O may be formed thinner as the distance from the position of the camera to the target point increases.

외곽선생성부(160)는 3D 객체(O)와 3D 객체가 겹쳐지는 영역을 비교하여, 3D 객체(O)의 외곽에 외곽선(OL)을 그릴 수 있다. 구체적으로, 3D 객체(O)의 색상정보와 실제 환경의 영상이미지에서 3D 객체(O)가 겹쳐지는 영역의 색상정보를 비교하여, 두 색상정보의 값이 비슷하다고 판단되면, 3D 객체(O)의 외곽에 외곽선(OL)을 그려 3D 객체(O)의 가시성을 올려줄 수 있다. 이때, 두 색상정보(3D 객체와 3D 객체가 겹쳐지는 영역)의 값은 RGB, RGBA, CMYK 등의 색상코드 값을 이용하여 구할 수 있다.The outline generator 160 compares the 3D object O with an area where the 3D object overlaps, and draws an outline OL around the 3D object O. Specifically, the color information of the 3D object (O) is compared with the color information of the area where the 3D object (O) overlaps in the video image of the real environment, and when it is determined that the values of the two color information are similar, the 3D object (O) The visibility of the 3D object O may be increased by drawing an outline OL on the outside of the . At this time, the value of the two color information (the 3D object and the area where the 3D object overlaps) can be obtained using color code values such as RGB, RGBA, and CMYK.

전자장치(100)의 순서도인 도 5와 곡선을 표시하는 동작을 설명한 도 6을 참조하여, 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법을 설명한다.A method of displaying a curve indicating a target point in augmented reality will be described with reference to FIG. 5, which is a flowchart of the electronic device 100, and FIG.

먼저, S110 단계에서는 카메라를 통해 영상이미지를 획득하고, 영상이미지를 이용하여 실제 환경 상에 존재하는 평면을 인식한다. 도 6 (a)를 참조하면, 실제 환경의 영상이미지를 획득하는 것을 확인할 수 있다. 이어서, 도 6 (b)를 참조하면, 실제 환경의 영상이미지에서 평면(P, P')을 인식하는 것을 확인할 수 있다. 전자장치(100)는 바닥과 책상처럼 넓은 영역을 평면(P, P')으로 인식할 수 있다. 평면을 인식한 후, S120 단계로 넘어간다.First, in step S110, a video image is acquired through a camera, and a plane existing in the real environment is recognized using the video image. Referring to FIG. 6 (a), it can be confirmed that a video image of a real environment is obtained. Subsequently, referring to FIG. 6 (b), it can be confirmed that the planes P and P' are recognized in the video image of the real environment. The electronic device 100 may recognize a wide area such as a floor and a desk as planes P and P'. After recognizing the plane, it goes to step S120.

S120 단계에서는 평면의 일부분을 향해 광선을 발사하고, 평면과 광선이 만나는 지점을 목표점으로 설정한다. 도 6 (c)를 참조하면, 인식한 평면(P)의 일부분에 목표점(T)이 설정된 것을 확인할 수 있다. 목표점을 설정한 후, S130 단계로 넘어간다.In step S120, a beam is fired toward a part of the plane, and a point where the plane and the beam meet is set as a target point. Referring to FIG. 6 (c), it can be confirmed that the target point T is set on a part of the recognized plane P. After setting the target point, the process proceeds to step S130.

S130 단계에서는 카메라의 위치정보, 목표점의 위치정보, 카메라의 높이 값을 가지는 목표점의 위치정보를 이용하여 카메라에서 목표점을 잇는 곡선을 연산한다. 이때, 곡선은 베지어 곡선 함수를 이용하여 연산할 수 있다. 곡선을 연산한 후, S140단계로 넘어간다.In step S130, a curve connecting the target points is calculated by using camera position information, target point position information, and target point position information having a height value of the camera. In this case, the curve may be calculated using a Bezier curve function. After calculating the curve, the process proceeds to step S140.

S140 단계에서는 곡선을 영상이미지에 합성하여 제공한다. 도 6 (d)를 참조하면, 목표점(T)을 가리키는 곡선(CL)이 영상이미지에 합성된 것을 확인할 수 있다.In step S140, the curve is synthesized into a video image and provided. Referring to FIG. 6 (d), it can be seen that the curve CL pointing to the target point T is synthesized with the video image.

전술한 전자장치(100)를 이용하면, 증강현실을 직관적이고 간편하게 이해할 수 있다.Using the aforementioned electronic device 100, augmented reality can be intuitively and conveniently understood.

또한, 전술한 전자장치(100)는, 증강현실 상에 좌표정보를 도출하기 위한 별도의 장비를 구비할 필요가 없다.In addition, the above-described electronic device 100 does not need to have separate equipment for deriving coordinate information on augmented reality.

또한, 전술한 전자장치(100)는, 목표점을 가리키는 수단을 직선형이 아닌 곡선형으로 표현함으로써 증강현실 환경에 알맞는 형상이며, 증강현실에서 목표점을 확인하기가 용이하다.In addition, the electronic device 100 described above has a shape suitable for an augmented reality environment by expressing means pointing to a target point in a curved shape rather than a straight line, and it is easy to check the target point in augmented reality.

본 개시의 실시예를 설명할 때 사용된 표현(용어, 시각화된 이미지 등)들은 기술에 대한 이해를 높이기 위한 도구적인 목적에 의해 선택된 것에 불과하다.Expressions (terms, visualized images, etc.) used in describing the embodiments of the present disclosure are merely selected for instrumental purposes to enhance understanding of the technology.

또한, 여건상 본 개시는 제한된 수의 실시예에 의하여 설명되었고, 통상의 기술자는 설명된 실시예를 바탕으로 본 개시의 기술적 사상을 벗어나지 않는 범위 내에서 새로운 실시예들을 창안해 낼 수 있을 것이다.In addition, the present disclosure has been described by a limited number of embodiments, and a person skilled in the art will be able to create new embodiments based on the described embodiments without departing from the technical spirit of the present disclosure.

따라서, 본 개시의 청구범위는 '발명의 설명' 및 '도면'에 나타난 일부 표현에 의하여 제한되어선 안되고, 명세서의 전반에 내재된 본원적인 기술적 사상을 바탕으로 폭넓게 해석되어야 함이 마땅하다.Therefore, the claims of the present disclosure should not be limited by some expressions shown in the 'description of the invention' and 'drawings', and should be interpreted broadly based on the original technical idea inherent in the entire specification.

100... 전자장치
110... 평면인식부
120... 목표점설정부
130... 곡선연산부
140... 디스플레이부
150... 객체오버레이부
160... 외곽선생성부
P, P'.... 평면 C... 카메라
T... 목표점 T'... 카메라의 높이 값을 가지는 목표점
CL... 곡선 S... 가상도착 영역
DL... 점선 O, O'... 3D 객체
100... Electronics
110 ... plane recognition unit
120 ... target point setting unit
130 ... curve calculation unit
140 ... display unit
150 ... object overlay unit
160 ... outline generation unit
P, P'.... Plane C... Camera
T... target point T'... target point having the height value of the camera
CL... curve S... area of virtual arrival
DL... dotted O, O'... 3D objects

Claims (10)

카메라를 통해 실제 환경의 영상이미지를 획득하고, 상기 영상이미지를 이용하여 상기 실제 환경 상에 존재하는 평면을 인식하는 평면인식부;
상기 평면의 일부분을 향해 광선을 발사하고, 상기 평면과 상기 광선이 만나는 지점을 목표점으로 설정하는 목표점설정부;
상기 카메라의 위치정보, 상기 목표점의 위치정보, 상기 카메라의 높이 값을 가지는 상기 목표점의 위치정보를 이용하여 상기 카메라에서 상기 목표점을 잇는 곡선을 연산하는 곡선연산부; 및
상기 곡선을 상기 영상이미지에 합성하여 제공하는 디스플레이부;를 포함하고,
상기 곡선연산부는,
베지어 곡선 함수를 이용하여 상기 카메라와 상기 목표점을 잇는 상기 곡선을 연산하는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치.
a plane recognition unit that acquires a video image of a real environment through a camera and recognizes a plane existing on the real environment by using the video image;
a target point setting unit for emitting a light beam toward a part of the plane and setting a point where the plane and the light beam meet as a target point;
a curve calculation unit that calculates a curve connecting the target point from the camera using position information of the camera, position information of the target point, and position information of the target point having a height value of the camera; and
A display unit for synthesizing and providing the curve to the video image;
The curve calculation unit,
An electronic device displaying a curve pointing to a target point in augmented reality, characterized in that calculating the curve connecting the camera and the target point using a Bezier curve function.
제1항에 있어서,
상기 디스플레이부는,
상기 곡선과 상기 평면이 만나는 점을 중심으로 하여 소정 넓이를 갖는 가상도착영역을 설정하고, 상기 가상도착영역을 상기 영상이미지에 합성하여 제공하는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치.
According to claim 1,
the display unit,
A virtual arrival area having a predetermined area is set centered on the point where the curve and the plane meet, and the virtual arrival area is combined with the video image and provided. Displaying a curve pointing to a target point in augmented reality electronic device.
제1항에 있어서,
상기 곡선은,
점선 형태를 가지는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치.
According to claim 1,
The curve is
An electronic device displaying a curve pointing to a target point in augmented reality, characterized in that it has a dotted line form.
제1항에 있어서,
상기 곡선에 커서(cursor) 형상을 가지는 3D 객체를 오버레이하는 객체오버레이부;와
상기 3D 객체의 색상정보와 상기 영상이미지에서 상기 3D 객체가 겹쳐지는 영역의 색상정보를 비교하여, 상기 3D 객체의 외곽에 외곽선을 그리는 외곽선생성부;를 더 포함하는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치.
According to claim 1,
An object overlay unit for overlaying a 3D object having a cursor shape on the curve; and
and an outline generator that compares color information of the 3D object with color information of an area where the 3D object overlaps in the video image and draws an outline around the 3D object. An electronic device showing a curve pointing towards.
제4항에 있어서,
상기 3D 객체는,
상기 카메라의 위치로부터 상기 목표점까지의 거리가 증가함에 따라 커서의 폭이 얇게 형성되는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 전자 장치.
According to claim 4,
The 3D object,
An electronic device displaying a curve pointing to a target point in augmented reality, characterized in that the width of the cursor is formed thin as the distance from the position of the camera to the target point increases.
(a) 카메라를 통해 실제 환경의 영상이미지를 획득하고, 상기 영상이미지를 이용하여 상기 실제 환경 상에 존재하는 평면을 인식하는 단계;
(b) 상기 평면의 일부분을 향해 광선을 발사하고, 상기 평면과 상기 광선이 만나는 지점을 목표점으로 설정하는 단계;
(c) 상기 카메라의 위치정보, 상기 목표점의 위치정보, 상기 카메라의 높이 값을 가지는 상기 목표점의 위치정보를 이용하여 상기 카메라에서 상기 목표점을 잇는 곡선을 연산하는 단계; 및
(d) 상기 곡선을 상기 영상이미지에 합성하여 제공하는 단계;를 포함하고,
상기 곡선연산부는,
베지어 곡선 함수를 이용하여 상기 카메라와 상기 목표점을 잇는 상기 곡선을 연산하는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법.
(a) acquiring a video image of a real environment through a camera, and recognizing a plane existing on the real environment using the video image;
(b) emitting a light beam toward a part of the plane, and setting a point where the plane and the light beam meet as a target point;
(c) calculating a curve connecting the target points using the camera location information, the location information of the target point, and the location information of the target point having a height value of the camera; and
(d) synthesizing and providing the curve to the video image;
The curve calculation unit,
A method of displaying a curve pointing to a target point in augmented reality, characterized in that calculating the curve connecting the camera and the target point using a Bezier curve function.
제6항에 있어서,
상기 (d) 단계는,
상기 곡선과 상기 평면이 만나는 점을 중심으로 하여 소정 넓이를 갖는 가상도착영역을 설정하고, 상기 가상도착영역을 상기 영상이미지에 합성하여 제공하는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법.
According to claim 6,
In step (d),
A virtual arrival area having a predetermined area is set centered on the point where the curve and the plane meet, and the virtual arrival area is combined with the video image and provided. Displaying a curve pointing to a target point in augmented reality method.
제6항에 있어서,
상기 곡선은,
점선 형태를 가지는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법.
According to claim 6,
The curve is
A method of displaying a curve pointing to a target point in augmented reality, characterized in that it has a dotted line form.
제6항에 있어서,
(e) 상기 곡선에 커서(cursor) 형상을 가지는 3D 객체를 오버레이하는 단계;와
(f) 상기 3D 객체의 색상정보와 상기 영상이미지에서 상기 3D 객체가 겹쳐지는 영역의 색상정보를 비교하여, 상기 3D 객체의 외곽에 외곽선을 그리는 단계;를 더 포함하는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법.
According to claim 6,
(e) overlaying a 3D object having a cursor shape on the curve; and
(f) comparing color information of the 3D object with color information of an area where the 3D object overlaps in the video image, and drawing an outline around the 3D object; How to display a curve pointing to a target point.
제9항에 있어서,
상기 3D 객체는,
상기 카메라의 위치로부터 상기 목표점까지의 거리가 증가함에 따라 커서의 폭이 얇게 형성되는 것을 특징으로 하는 증강현실에서 목표점을 가리키는 곡선을 표시하는 방법.
According to claim 9,
The 3D object,
A method of displaying a curve pointing to a target point in augmented reality, characterized in that the width of the cursor is formed thin as the distance from the position of the camera to the target point increases.
KR1020210155920A 2021-11-12 2021-11-12 Electronic device and method for displaying of curve indicating target point in augmented reality KR20230069680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210155920A KR20230069680A (en) 2021-11-12 2021-11-12 Electronic device and method for displaying of curve indicating target point in augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210155920A KR20230069680A (en) 2021-11-12 2021-11-12 Electronic device and method for displaying of curve indicating target point in augmented reality

Publications (1)

Publication Number Publication Date
KR20230069680A true KR20230069680A (en) 2023-05-19

Family

ID=86546890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210155920A KR20230069680A (en) 2021-11-12 2021-11-12 Electronic device and method for displaying of curve indicating target point in augmented reality

Country Status (1)

Country Link
KR (1) KR20230069680A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028238A (en) 2017-09-08 2019-03-18 삼성전자주식회사 Method for controlling a pointer in a screen of virtual reality and electronic device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028238A (en) 2017-09-08 2019-03-18 삼성전자주식회사 Method for controlling a pointer in a screen of virtual reality and electronic device

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
US11462028B2 (en) Information processing device and information processing method to generate a virtual object image based on change in state of object in real space
KR102032398B1 (en) Method for selection of an object in a virtual environment
US20150205484A1 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP2016006627A (en) Image processor and image processing method
US11195302B2 (en) Video synthesis device, video synthesis method and recording medium
JP6669783B2 (en) Terminal device, system, program and method
US11989838B2 (en) Mixed reality display device and mixed reality display method
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
JP2021056679A (en) Image processing apparatus, method and program
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
JP7499819B2 (en) Head-mounted display
CN110286906A (en) Method for displaying user interface, device, storage medium and mobile terminal
JP2006318015A (en) Image processing device, image processing method, image display system, and program
KR20230069680A (en) Electronic device and method for displaying of curve indicating target point in augmented reality
JP2004030408A (en) Three-dimensional image display apparatus and display method
JP7313811B2 (en) Image processing device, image processing method, and program
CN106055108B (en) Virtual touch screen control method and system
CN110060349A (en) A method of extension augmented reality head-mounted display apparatus field angle
US20230360316A1 (en) Information processing device, information processing method, and information distribution system
JP6765846B2 (en) Information processing equipment, information processing methods, and programs
US20230068299A1 (en) Information processing device, information processing method, and computer program
WO2017098999A1 (en) Information-processing device, information-processing system, method for controlling information-processing device, and computer program
KR102419290B1 (en) Method and Apparatus for synthesizing 3-dimensional virtual object to video data
JP2013257830A (en) Information processor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application