KR102241873B1 - 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램 - Google Patents

사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102241873B1
KR102241873B1 KR1020190163750A KR20190163750A KR102241873B1 KR 102241873 B1 KR102241873 B1 KR 102241873B1 KR 1020190163750 A KR1020190163750 A KR 1020190163750A KR 20190163750 A KR20190163750 A KR 20190163750A KR 102241873 B1 KR102241873 B1 KR 102241873B1
Authority
KR
South Korea
Prior art keywords
terminal
user terminal
cooperative
information
designated object
Prior art date
Application number
KR1020190163750A
Other languages
English (en)
Inventor
김석권
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020190163750A priority Critical patent/KR102241873B1/ko
Application granted granted Critical
Publication of KR102241873B1 publication Critical patent/KR102241873B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 명세서의 실시예는 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램을 개시한다.

Description

사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램{USER TERMINAL, METHOD FOR CALCULATING THE POSITION REFLECTING THE DIRECTION OF THE USER TERMINAL USING A COOPERATIVE TERMINAL AND COMPUTER PROGRAM FOR EXECUTING THE METHOD}
본 명세서의 실시예는 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램을 개시한다.
위성항법 시스템(Global Positioning System, GPS)은 오늘날 실생활 속 다양한 분야에 이용되고 있다. 특히 최근엔 스마트폰과 같은 이동통신 단말기와 융합하여 사용자가 있는 위치 정보 및 주변 정보를 엮어 새로운 부가 가치를 창출하는 위치 기반 서비스로도 활용되고 있다. 위치 기반 서비스는 구조 요청, 범위 신고에의 대응, 인접 지역 정보 제공의 지리 정보 시스템, 교통 정보, 차량 항법 및 물류 관계, 네비게이션 서비스 등 다양한 분야에서 사용된다.
이러한 GPS 위성 신호를 통해서, 사용자 단말의 위치 정보를 산출할 뿐이며, 사용자 단말이 향하는 방향 정보를 산출할 수 없는 문제가 있었다. 주변을 정확하게 인식하지 못하는 사용자의 경우, GPS 를 활용한 지정 객체의 위치 정보 만으로는 정확한 지정 객체의 위치 정보 파악이 지연되거나 제한될 수 있었다.
본 실시예가 이루고자 하는 기술적 과제는 상술한 필요성에 따른 것으로, 주변의 하나 이상의 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하고, 산출된 위치 및 방향, 상대적 위치를 기초로 사용자 단말의 시야 범위 및 시야 범위와 대응되는 지정 객체의 가상 현실 데이터를 생성하는 사용자 단말, 방법 및 컴퓨터 프로그램을 제공하는데 있다.
본 발명의 실시예들에 따른 정해진 위치에 부착된 카메라 및 출력부를 포함하는 사용자 단말의 위치를 산출하는 방법은 상기 사용자 단말은 협동 단말을 설정하는 단계; 상기 사용자 단말은 상기 협동 단말의 제1 위치 정보 및 지정 객체의 제2 위치 정보를 수신하는 단계; 상기 사용자 단말은 상기 카메라의 방향을 전환시켜 상기 출력부의 지정된 지점에 상기 협동 단말이 위치하는 상태에서 상기 카메라를 통해 이미지를 센싱하여 협동 단말을 인식하고, 인식된 이미지를 출력하는 단계; 상기 사용자 단말은 자신의 제3 위치 정보와 상기 제1 위치 정보를 고려하여 상기 사용자 단말의 협동 단말에 대한 제1 방향 정보를 획득하는 단계; 상기 사용자 단말은 상기 제3 위치 정보와 상기 제2 위치 정보를 고려하여 상기 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득하는 단계; 상기 사용자 단말은 상기 출력부에서 인식된 상기 협동 단말을 고려하여 상기 사용자 단말의 상기 카메라의 시야 범위를 생성하는 단계; 상기 사용자 단말은 상기 제1 방향 정보 및 상기 제2 방향 정보를 고려하여 상기 시야 범위에서의 상기 지정 객체의 방향 정보를 산출하는 단계; 및 상기 사용자 단말은 산출된 지정 객체의 방향 정보를 상기 출력부를 통해 출력하는 단계를 포함할 수 있다.
본 발명의 실시예들에 따른 정해진 위치에 부착된 카메라 및 출력부를 포함하는 사용자 단말의 위치를 산출하는 방법은 상기 사용자 단말은 협동 단말을 설정하는 단계; 상기 사용자 단말은 상기 협동 단말의 제1 위치 정보 및 지정 객체에 대한 제2 위치 정보를 수신하는 단계; 상기 사용자 단말은 상기 카메라의 방향을 전환시켜 상기 협동 단말이 포함된 상기 출력부의 미리 보기 화면 내에서 상기 출력부의 터치 입력 또는 입력부를 통한 사용자 입력에 의해 협동 단말을 인식하고, 인식된 이미지를 출력하는 단계; 상기 사용자 단말은 자신의 제3 위치 정보와 상기 제1 위치 정보를 고려하여 상기 사용자 단말의 협동 단말에 대한 제1 방향 정보를 획득하는 단계; 상기 사용자 단말은 상기 제3 위치 정보와 상기 제2 위치 정보를 고려하여 상기 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득하는 단계; 상기 사용자 단말은 상기 출력부에서 인식된 상기 협동 단말을 고려하여 상기 사용자 단말의 카메라의 시야 범위를 생성하는 단계; 상기 사용자 단말은 상기 제1 방향 정보, 및 상기 제2 방향 정보를 고려하여 상기 시야 범위에 대한 상기 지정 객체의 방향 정보를 산출하는 단계; 및 상기 사용자 단말은 산출된 지정 객체의 방향 정보를 상기 출력부를 통해 출력하는 단계를 포함할 수 있다.
본 실시예에 따르면, 상기 사용자 단말은 상기 시야 범위에 대한 지정 객체의 방향 정보를 고려하여 상기 협동 단말과 상기 지정 객체 사이의 위치 관계를 반영한 3차원 시각 데이터를 생성하는 단계;를 포함할 수 있다.
상기 방향 정보를 산출하는 단계는 상기 시야 범위의 소정의 기준 방향을 기준으로 반시계 방향 또는 시계 방향으로의 각도로 방향 정보를 산출할 수 있으며, 상기 시야 범위를 4분할, 8분할, 16분할 등으로 분할시켜 이중 하나로 방향 정보를 산출할 수 있다.
본 실시예에 따르면, 상기 방향 정보를 산출하는 단계 이후에, 상기 사용자 단말은 상기 시야 범위에 대한 지정 객체의 방향 정보를 상기 협동 단말로 전송하는 단계;를 더 포함할 수 있다.
상기 협동 단말은 상기 지정 객체를 시야 범위 내에 포함하고 있는 단말일 수 있다.
상기 수신하는 단계는 상기 협동 단말이 복수인 경우, 상기 사용자 단말은 복수의 제1 위치 정보 및 복수의 제1 방향 정보를 획득할 수 있다.
본 발명의 실시예들에 따른 협동 단말을 이용하여 방향이 반영된 위치를 산출하는 사용자 단말은 정해진 위치에 부착된 카메라 및 출력부를 포함하고, 협동 단말을 설정하고 상기 협동 단말의 제1 위치 정보 및 지정 객체의 제2 위치 정보를 수신하는 협동 단말 설정부; 상기 카메라의 방향을 전환시켜 상기 출력부의 지정된 지점에 상기 협동 단말이 위치하는 상태에서 상기 카메라를 통해 이미지를 센싱하여 협동 단말을 인식하고, 상기 카메라의 방향을 전환시켜 상기 협동 단말이 포함된 상기 출력부의 미리 보기 화면 내에서 상기 출력부의 터치 입력 또는 입력부를 통한 사용자 입력에 의해 협동 단말을 인식하고, 인식된 이미지를 출력하는 제1 출력 제어부; 상기 제1 위치 정보, 상기 제2 위치 정보 및 상기 사용자 단말 자신의 제3 위치 정보를 고려하여 상기 사용자 단말의 협동 단말에 대한 제1 방향 정보 및 상기 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득하는 방향 정보 산출부; 상기 출력부에서 인식된 상기 협동 단말을 고려하여 상기 사용자 단말의 상기 카메라의 시야 범위를 생성하는 시야 범위 생성부; 상기 제1 방향 정보, 및 상기 제2 방향 정보를 고려하여 상기 시야 범위에서의 상기 지정 객체의 방향 정보를 산출하는 지정 객체 검출부; 및 산출된 지정 객체의 방향 정보를 상기 출력부를 통해 출력하는 제2 출력 제어부를 포함할 수 있다.
본 발명의 실시예들에 따른 협동 단말을 이용하여 방향이 반영된 위치를 산출하는 사용자 단말은 정해진 위치에 부착된 카메라 및 출력부를 포함하고, 상기 제1 위치 정보, 상기 제2 위치 정보 및 상기 제3 위치 정보를 고려하여 상기 사용자 단말의 협동 단말에 대한 제1 방향 정보 및 상기 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득하는 방향 정보 산출부; 상기 출력부에서 인식된 상기 협동 단말을 고려하여 상기 사용자 단말의 상기 카메라의 시야 범위를 생성하는 시야 범위 생성부; 상기 제1 방향 정보, 및 상기 제2 방향 정보를 고려하여 상기 시야 범위에 대한 상기 지정 객체의 방향 정보를 산출하는 지정 객체 검출부; 및 산출된 지정 객체의 방향 정보를 상기 출력부를 통해 출력하는 제2 출력 제어부를 포함할 수 있다.
본 실시예에 따르면, 상기 시야 범위에 대한 지정 객체의 방향 정보를 고려하여 상기 협동 단말과 상기 지정 객체 사이의 위치 관계를 반영한 3차원 시각 데이터를 생성하는 3차원 데이터 생성부를 포함할 수 있다.
상기 방향 정보 산출부는 상기 시야 범위의 소정의 기준 방향을 기준으로 반시계 방향 또는 시계 방향으로의 각도로 방향 정보를 산출할 수 있으며, 상기 시야 범위를 4분할, 8분할, 16분할 등으로 분할시켜 이중 하나로 방향 정보를 산출할 수 있다.
상기 시야 범위 생성부는 상기 제1 방향 정보 및 상기 제3 위치 정보를 고려하여 상기 사용자 단말의 상기 카메라의 시야 범위를 생성할 수 있다.
상기 지정 객체 검출부는 상기 시야 범위에 대한 지정 객체의 방향 정보를 상기 협동 단말로 전송할 수 있다.
상기 협동 단말 설정부는 상기 협동 단말이 복수인 경우, 상기 사용자 단말은 복수의 제1 위치 정보 및 복수의 제1 방향 정보를 획득할 수 있다.
본 발명의 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 본 발명의 실시예에 따른 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.
이와 같은 본 발명에 의해서, 주변의 하나 이상의 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하고, 산출된 위치 및 방향, 상대적 위치를 기초로 사용자 단말의 시야 범위 및 시야 범위와 대응되는 지정 객체의 가상 현실 데이터를 생성할 수 있다.
도 1은 본 발명의 실시예들에 따른 사용자 단말, 협동 단말, 및 지정 객체를 포함하는 시스템의 도면이다.
도 2는 본 발명의 실시예들에 따른 사용자 단말의 블록도이다.
도 3은 본 발명의 실시예들에 따른 방향 위치 산출부의 블록도이다.
도 4는 사용자 단말에 대한 협동 단말 및 지정 객체 사이의 방향 정보의 산출 과정을 설명하는 도면이다.
도 5 및 도 6은 본 발명의 실시예들에 따른 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법의 흐름도들이다.
도 7은 제1 협동 단말, 제2 협동 단말을 이용하여 사용자 단말의 지정 객체에 대한 방향 정보를 산출하는 과정을 설명하는 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
본 명세서에서, 지정 객체는 사용자 단말이 방향이 반영된 위치를 파악하고자 하는 목표 객체를 말한다.
도 1은 본 발명의 실시예들에 따른 사용자 단말(100), 협동 단말(200), 및 지정 객체(300)를 포함하는 시스템의 도면이다.
사용자가 소지한 사용자 단말(100)은 구비된 GPS 모듈을 통해 자신의 위치 정보(11)를 획득하고, 주변의 협동 단말(200)을 이용하여 지정 객체(300)에 대한 실질적인 방향 정보(12)를 획득할 수 있다. 사용자 단말(100)은 지정 객체(300)의 위치를 쉽게 인지할 수 있다. 여기서, 지정 객체(300)는 사용자 단말(100)이 목표로 하는 지리적 지점과 관련된 것 일 수 있다.
이때, 사용자 단말(100)은 협동 단말의 위치 정보(21) 및 지정 객체의 위치 정보(31)를 수신 받을 수 있다. 사용자 단말(100)은 자신의 위치 정보(11)와 수신된 협동 단말(200)의 위치 정보(21)로 협동 단말(200)에 대한 방향 정보(12)를 획득할 수 있다. 사용자 단말(100)은 자신의 위치 정보(11)와 지정 객체(300)의 위치 정보(31)로 지정 객체에 대한 방향 정보(13)를 획득할 수 있다. 여기서, 위치 정보(11, 21, 31)는 위도, 경도, 및 고도 정보를 포함하는 좌표 정보이거나, 기 설정된 기준 점을 기준으로 하는 2차원 또는 3차원의 좌표 정보 일 수 있다. 여기서, 방향 정보(12, 13)는 소정의 기준 방향을 기준으로 반시계 방향 또는 시계 방향으로의 각도로 설정될 수 있다.
사용자 단말(100)은 사용자 단말(100)의 카메라가 협동 단말(200)의 이미지를 센싱할 수 있도록 방향을 전환한 상태에서 협동 단말(200)의 이미지가 출력부의 지정된 위치에 위치하는 상태로 협동 단말(200)을 인식할 수 있으며, 카메라를 통한 출력부의 미리 보기 화면 내에서 사용자 입력에 의해 협동 단말을 인식할 수 있다.
사용자 단말(100)은 출력부에서 협동 단말을 고려하여 사용자 단말의 시야 범위를 생성할 수 있다. 사용자 단말(100)은 출력부에서 협동 단말이 표시되는 위치를 고려하여 사용자 단말의 시야 범위를 생성할 수 있다. 사용자 단말(100)은 사용자 단말(100)의 카메라를 통해 획득되는 시야 범위 내에 지정 객체가 포함되어 있는지 여부, 시야 범위에서 지정 객체가 위치한 방향에 대한 정보를 측정할 수 있다. 사용자 단말의 지정 객체에 대한 방향 정보(13)는 사용자 단말의 협동 단말에 대한 방향(12)을 기준으로 반시계 방향 또는 시계 방향으로의 각도로 설정될 수 있다. 사용자 단말(100)은 지정 객체에 대한 방향 정보를 기초로 지정 객체(300)를 직관적으로 표현한 데이터를 생성하여 출력부를 통해 제공할 수 있다. 이때, 지정 객체(300)를 직관적으로 표현하는 데이터는 협동 단말(200) 및 지정 객체(300)를 포함하도록 렌더링된 시각적 데이터이거나 지정 객체(300)의 방향 정보를 사용자 단말(100)의 방향을 기초로 설명하는 텍스트 데이터일 수 있다.
협동 단말(200)은 사용자 단말 (100)과 다른 단말로서, 사용자 단말(100)의 주변에 위치한 하나 이상의 단말을 말한다. 도 1에는 협동 단말(200)이 단수로 도시되어 있으나, 이에 한정되지 않고 복수개의 협동 단말(200)이 있을 수 있다. 협동 단말(200)은 사용자 단말(100)의 주변에 있고, 사용자 단말(100)에서 위치를 알고 있는 단말을 말한다.
지정 객체(300)는 위치를 스스로 판단하는 모듈(GPS 모듈)을 내장하고 이동할 수 있는 단말일 수 있으며, 단수 또는 복수 일 수 있다. 또한, 지정 객체(300)는 사용자 단말(100)이 알고자 하는 상점, 가게, 시설물, 건축물, 건물 등이 될 수 있다. 지정 객체(300)의 위치 정보(31)는 데이터베이스를 통해서 획득되거나, 사용자에 의해 설정될 수 있다.
도 2는 본 발명의 실시예들에 따른 사용자 단말(100)의 블록도이다.
도 2에 도시된 바와 같이, 사용자 단말(100)은 방향 위치 산출부(110), 프로세서(120), 출력부(130), 입력부(140), 통신부(150), GPS 모듈(160), 카메라(170)를 포함할 수 있다.
프로세서(120)는 사용자 단말(100)을 전반적으로 제어하기 위한 구성이다. 구체적으로, 프로세서(120)는 사용자 단말(100)의 방향 위치 산출부(110)에 저장된 각종 프로그램을 이용하여 사용자 단말(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(120)는 CPU, 램(RAM), 롬(ROM), 시스템 버스를 포함할 수 있다. 여기서, 롬은 시스템 부팅을 위한 명령어 세트가 저장되는 구성이고, CPU는 롬에 저장된 명령어에 따라 사용자 단말(100)의 저장된 운영체제를 램에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU는 저장된 각종 애플리케이션을 램에 복사하고, 실행시켜 각종 동작을 수행할 수 있다. 이상에서는 사용자 단말(100)가 하나의 CPU만을 포함하는 것으로 설명하였지만, 구현 시에는 복수의 CPU(또는 DSP, SoC 등)으로 구현될 수 있다.
본 발명의 일 실시 예에 따라, 프로세서(120)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP)), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(120)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
출력부(130)는 사용자 단말(100)의 방향 위치 산출부(110)에 의해 생성된 정보 및/또는 인터페이스를 디스플레이할 수 있다. 본 발명의 일 실시예에 따르면 출력부(130)는 입력부(140)를 통해 입력된 사용자 입력에 대한 사용자 인터페이스를 디스플레이할 수 있다. 출력부(130)는 저장된 그래픽 데이터, 시각 데이터, 청각 데이터, 진동 데이터를 방향 위치 산출부(110)의 제어에 의해 출력할 수 있다.
출력부(130)는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예로, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다. 또한, 출력부(130)는 플렉서블 디스플레이(flexible display)의 형태로 디스플레이 패널의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다.
출력부(130)는 레이어 구조의 터치 스크린으로 구현될 수 있다. 터치 스크린은 디스플레이 기능뿐만 아니라 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출하는 기능을 가질 수 있고, 또한 실질적인 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출하는 기능을 가질 수 있다.
입력부(140)는 사용자 단말(100)에 다양한 정보를 입력하기 위한 사용자 인터페이스를 포함할 수 있다.
통신부(150)는 서버, 다른 전자장치 등의 장치와 데이터를 송수신하기 위한 구성이다. 통신부(150)는 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등의 근거리 통신부, 이동통신 망, 또는 유선 이더넷 망 등을 포함할 수 있다.
사용자 단말(100)는 프로세서(120)의 처리 또는 제어를 위한 프로그램 등 전반의 동작을 위한 다양한 데이터를 저장한 저장 매체(미도시)를 더 포함할 수 있다. 저장 매체는 사용자 단말(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 사용자 단말(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 사용자 단말(100)의 기본적인 기능을 위하여 출고 당시부터 사용자 단말(100) 상에 존재할 수 있다. 응용 프로그램은, 저장 매체에 저장되고, 프로세서(120)에 의하여 사용자 단말(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
사용자 단말은 위치를 센싱하는 GPS 모듈(160) 및 이미지를 센싱하는 카메라(170)를 더 포함할 수 있다.
도 3은 본 발명의 실시예들에 따른 방향 위치 산출부(110)의 블록도이다.
방향 위치 산출부(110)는 사용자 단말(100)의 위치 정보에 사용자 단말의 지정 객체에 대한 방향 정보를 반영하여 산출하기 위하여, 협동 단말 설정부(111), 방향 정보 산출부(112), 시야 범위 생성부(113), 지정 객체 검출부(114), 시각 데이터 생성부(115), 제1 출력 제어부(116), 제2 출력 제어부(117)를 포함할 수 있다.
협동 단말 설정부(111)는 주변의 사용자 단말 중에서, 방향 정보의 측정에 이용할 협동 단말을 설정할 수 있다. 협동 단말 설정부(111)는 협동 단말로부터의 협동 요청 신호와 대응하여, 협동 단말을 설정할 수 있다. 사용자 단말에서 협동 요청 신호가 수신되면, 협동 요청 신호의 발신 단말이 협동 단말이 될 수 있다.
다른 실시예에서, 협동 단말 설정부(111)는 주변의 사용자 단말 중에서, 방향 정보의 측정에 이용할 협동 단말을 설정할 수 있다. 협동 단말 설정부(111)는 설정된 협동 단말에 협동 요청 신호를 발신할 수 있다. 사용자 단말에서 협동 요청 신호가 발신되면, 협동 요청 신호의 수신 단말이 협동 단말이 될 수 있다.
협동 단말 설정부(111)는 협동 단말의 위치 정보 및/또는 지정 객체의 위치 정보를 수신할 수 있다. 협동 단말 설정부(111)는 통신부를 통해 협동 단말의 제1 위치 정보 및/또는 지정 객체의 제2 위치 정보를 수신할 수 있다. 여기서, 위치 정보는 해당 단말이 위치한 지점과 대응되는 정보로서, 2차원 또는 3차원의 좌표 정보, 해당 국가에서 정해진 주소 정보 등 일 수 있다. 협동 단말의 제1 위치 정보는 협동 단말에 구비된 GPS 모듈을 통해 획득될 수 있다. 지정 객체의 제2 위치 정보는 데이터베이스를 통해서 획득되거나, 지정 객체에 구비된 GPS 모듈을 통해 획득되거나, 사용자에 의해 설정될 수 있다. 협동 단말은 지정 객체의 위치를 모르거나 아는 단말 일 수 있다.
다른 실시예에서, 협동 단말 설정부(111)는 협동 단말로부터 협동 단말의 위치 정보 및/또는 방향 정보를 수신할 수 있다. 협동 단말 설정부(111)는 통신부를 통해 협동 단말의 제1 위치 정보 및/또는 방향 정보를 수신할 수 있다. 여기서, 위치 정보는 해당 단말이 위치한 지점과 대응되는 정보로서, 2차원 또는 3차원의 좌표 정보, 해당 국가에서 정해진 주소 정보 등 일 수 있다. 협동 단말의 제1 위치 정보는 협동 단말에 구비된 GPS 모듈을 통해 획득될 수 있다. 여기서, 협동 단말의 방향 정보는 사용자 단말의 협동 단말에 대한 방향을 기준으로 사용자 단말의 지정 객체에 대한 상대적인 방향 정보를 말하며, 협동 단말의 방향 정보는 사용자 단말의 협동 단말에 대한 제1 방향 정보 및 사용자 단말의 지정 객체에 대한 제2 방향 정보를 기초로 산출할 수 있는 방향 정보를 말한다.
방향 정보 산출부(112)는 협동 단말의 제1 위치 정보 및 사용자 단말의 제3 위치 정보를 고려하여, 사용자 단말의 협동 단말에 대한 제1 방향 정보를 획득할 수 있다. 방향 정보 산출부(112)는 지정 객체의 제2 위치 정보 및 사용자 단말의 제3 위치 정보를 고려하여, 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득할 수 있다. 상기 사용자 단말의 제3 위치 정보는 구비된 GPS 모듈(160)을 통해 획득될 수 있다.
만약, 사용자 단말의 제3 위치 정보가 (x1, y1)이고, 협동 단말의 제1 위치 정보가 (x2, y2)인 경우, 아래의 수학식 1을 기초로, 기 설정된 기준 선에 대한 사용자 단말의 협동 단말에 대한 제1 방향 정보(
Figure 112019127519885-pat00001
)를 산출할 수 있다.
[수학식 1]
Figure 112019127519885-pat00002
여기서, 기준 선은 y값이 0인 선일 수 있다. 상기의 수학식에 의해 협동 단말은 사용자 단말에서 기준 선과 평행한 선에 대해서,
Figure 112019127519885-pat00003
의 각도를 가지는 선의 연장선에 위치할 수 있다.
만약, 사용자 단말의 위치 정보가 (x1, y1)이고, 지정 객체의 위치가 (x3, y3)인 경우, 아래의 수학식 2를 기초로, 기 설정된 기준 선에 대한 사용자 단말의 지정 객체에 대한 제2 방향 정보(
Figure 112019127519885-pat00004
)를 산출할 수 있다.
[수학식 2]
Figure 112019127519885-pat00005
여기서, 기준 선은 y값이 0인 선일 수 있다. 상기의 수학식에 의해 지정 객체는 사용자 단말에서 기준 선과 평행한 선에 대해서,
Figure 112019127519885-pat00006
의 각도를 가지는 선의 연장선에 위치할 수 있다.
시야 범위 생성부(113)는 카메라의 방향을 전환시켜 제1 출력 제어부(116)에 의해 협동 단말이 인식된 상황에서의 사용자 단말의 카메라의 시야 범위를 생성할 수 있다. 여기서, 시야 범위는 사용자 단말의 카메라에 의해 감지된 시야 범위를 말하나, 사용자 단말의 카메라를 통해 감지될 수 있는 가상적인 시야 범위를 말할 수도 있다.
다른 실시예에서, 시야 범위 생성부(113)는 사용자 단말의 제3 위치 정보 및 사용자 단말의 협동 단말에 대한 제1 방향 정보를 고려하여 카메라가 협동 단말로 향하는 이미지를 촬영하는 상황에서의 시야 범위를 추론할 수 있다. 시야 범위 생성부(113)는 사용자 단말의 위치 정보를 기준으로 사용자 단말의 협동 단말에 대한 제1 방향 정보로 연장되는 선을 결정하고 연장되는 선을 기준으로 기 설정된 시야 각으로 시야 범위를 생성할 수 있다. 시야 각은 사용자 단말의 카메라의 화각을 기준으로 설정될 수 있다. 시야 범위는 협동 단말과 대응되는 지점을 기준으로 생성될 수 있다.
지정 객체 검출부(114)는 협동 단말에 대한 제1 방향 정보, 지정 객체에 대한 제2 방향 정보를 고려하여 시야 범위에 대한 지정 객체의 방향 정보를 산출할 수 있다.
만약, 사용자 단말의 위치 정보가 (x1, y1), 협동 단말의 위치 정보가 (x2, y2), 지정 객체의 위치 정보가 (x3, y3) 인 경우, 사용자 단말의 협동 단말에 대한 방향을 기준으로 사용자 단말의 지정 객체에 대한 상대적인 각도(
Figure 112019127519885-pat00007
)를 수학식 1의 제1 방향 정보와 수학식 2의 제2 방향 정보를 기초로 아래의 수학식 3으로 산출할 수 있다.
[수학식 3]
Figure 112019127519885-pat00008
다른 실시예에서, 지정 객체 검출부(114)는 협동 단말 설정부(111)에서 수신한 협동 단말의 방향 정보를 고려하여 시야 범위에 대한 지정 객체의 방향 정보를 산출할 수 있다. 여기서, 협동 단말의 방향 정보는 사용자 단말의 협동 단말에 대한 방향을 기준으로 사용자 단말의 지정 객체에 대한 상대적인 방향 정보를 말한다.
시야 범위에 대한 지정 객체의 방향 정보는 시야 범위 내에 포함되어 있는지 여부, 시야 범위와 대응하여 지정 객체가 위치한 부분 정보, 시야 범위 내에 포함되지 않는 경우 시야 범위에 대해서 지정 객체가 위치한 방향에 대한 정보 등을 포함할 수 있다. 지정 객체가 위치한 부분 정보는 시야 범위를 4분할, 8분할, 16 분할 등으로 분할시켜 표현하는 정보일 수 있다.
만약, 시야 범위 정중앙과 협동 단말에 대한 제1 방향 정보로 연장되는 선과의 각도가
Figure 112019127519885-pat00009
이면,
Figure 112019127519885-pat00010
의 범위는 아래의 수학식 4와 같다.
[수학식 4]
Figure 112019127519885-pat00011
협동 단말이 시야 범위 정중앙에 위치하면
Figure 112019127519885-pat00012
은 0이다. 상기 수학식 3의
Figure 112019127519885-pat00013
으로 카메라의 시야 범위 내에 지정 객체가 포함되어 있는지 여부를 아래의 수학식 5를 고려하여 판단할 수 있다. 수학식 5가 만족되면 시야 범위 내에 지정 객체가 포함되어 있는 것으로 판단할 수 있으며, 수학식 5가 만족되지 않는다면 시야 범위 내에 지정 객체가 포함되어 있지 않은 것으로 판단할 수 있다.
[수학식 5]
Figure 112019127519885-pat00014
다른 실시예에서, 지정 객체 검출부(114)는 시야 범위에 대한 지정 객체의 방향 정보를 협동 단말로 전송할 수 있다. 협동 단말은 시야 범위에 대한 지정 객체의 방향 정보를 기초로 사용자 단말의 상대적인 위치를 획득할 수 있다.
시각 데이터 생성부(115)는 시야 범위에 대한 지정 객체의 방향 정보를 고려하여 협동 단말과 지정 객체 사이의 위치 관계를 반영한 시각적 데이터를 생성할 수 있다. 협동 단말과 지정 객체 사이의 위치 관계는 사용자 단말의 카메라가 협동 단말을 바라보는 경우에, 지정 객체의 위치에 대한 정보로서, 사용자 단말에서의 협동 단말 및 사용자 단말에서의 지정 객체 사이의 상대적인 위치 정보를 말한다.
시각 데이터 생성부(115)는 사용자 단말의 카메라를 이용하여 협동 단말을 촬영한 이미지를 기초로 지정 객체를 더 포함한 시각적 3차원 데이터를 렌더링하여 생성할 수 있다.
시각 데이터 생성부(115)는 시야 범위의 협동 단말의 위치 정보, 지정 객체의 위치 정보를 고려하여 상기 협동 단말과 상기 지정 객체 사이의 상대적인 위치 관계를 반영한 3차원 시각 데이터를 생성할 수 있다. 이때, 3차원 시각 데이터에서는 bottom 및 top이 설정되고 협동 단말 및 지정 객체가 배치될 수 있다.
제1 출력 제어부(116)는 사용자 단말의 카메라를 통한 출력부의 미리 보기 화면 내에서 협동 단말의 이미지가 지정된 위치에 위치하는 상태로 협동 단말을 인식할 수 있으며, 인식된 이미지를 상기 출력부를 통해 출력할 수 있다.
다른 실시예에서, 제1 출력 제어부(116)는 사용자 단말의 카메라를 통한 출력부의 미리 보기 화면 내에서 출력부의 터치 입력 또는 입력부를 통한 사용자 입력에 의해 협동 단말을 인식할 수 있으며, 인식된 이미지를 상기 출력부를 통해 출력할 수 있다.
제2 출력 제어부(117)는 시각 데이터 생성부(115)에 의해 생성된 시각적 데이터를 출력부를 통해 출력하도록 제어할 수 있다.
도 4는 사용자 단말에 대한 협동 단말 및 지정 객체 사이의 방향 정보의 산출 과정을 설명하는 도면이다.
사용자 단말(100)의 위치 정보가 (x1, y1), 협동 단말의 위치 정보가 (x2, y2), 지정 객체(300)의 위치 정보가 (x3, y3) 인 경우, 협동 단말(200)의 위치 정보 및 지정 객체(300)의 위치 정보를 기초로 협동 단말(200) 및 지정 객체(300) 사이의 각도(
Figure 112019127519885-pat00015
)를 수학식 1과 수학식 2를 고려하여 아래의 수학식 3으로 산출할 수 있다.
[수학식 3]
Figure 112019127519885-pat00016
사용자 단말(100)의 시야 범위(
Figure 112019127519885-pat00017
)는 협동 단말(200)을 카메라의 시야 범위 내에 위치 시킨 상황에서의 사용자 단말(100)의 시야 범위를 말한다. 협동 단말 및 지정 객체에 대한 방향 정보를 기초로 시야 범위 내에서 지정 객체가 포함되어 있는지 여부, 시야 범위와 대응하여 지정 객체가 위치한 부분 정보, 시야 범위 내에 포함되지 않는 경우 시야 범위에 대해서 지정 객체가 위치한 방향에 대한 정보 등을 판단할 수 있다.
시야 범위 정중앙과 협동 단말에 대한 제1 방향 정보로 연장되는 선과의 각도가
Figure 112019127519885-pat00018
이면,
Figure 112019127519885-pat00019
의 범위는 아래의 수학식 4와 같다.
[수학식 4]
Figure 112019127519885-pat00020
협동 단말이 시야 범위 정중앙에 위치하면
Figure 112019127519885-pat00021
은 0이다. 상기 수학식 3의
Figure 112019127519885-pat00022
으로 카메라의 시야 범위 내에 지정 객체가 포함되어 있는지 여부를 아래의 수학식 5를 고려하여 판단할 수 있다. 수학식 5가 만족되면 시야 범위 내에 지정 객체가 포함되어 있는 것으로 판단할 수 있으며, 수학식 5가 만족되지 않는다면 시야 범위 내에 지정 객체가 포함되어 있지 않은 것으로 판단할 수 있다.
[수학식 5]
Figure 112019127519885-pat00023
도 5는 본 발명의 실시예들에 따른 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 의 흐름도이다.
S110에서는 사용자 단말(100)은 카메라를 통해 획득된 미리 보기 이미지를 출력한다.
S120에서는 사용자 단말(100)은 출력된 이미지에서 협동 단말을 인식할 수 있다. 사용자 단말(100)은 협동 단말을 향한 카메라의 시야 범위로 획득된 이미지 내에서 협동 단말을 인식할 수 있다. 사용자 단말(100)은 카메라를 통한 출력부의 미리 보기 화면 내에서 협동 단말의 이미지가 지정된 위치에 위치하는 상태로 협동 단말을 인식할 수 있다. 사용자 단말은 사용자 단말의 카메라를 통한 출력부의 미리 보기 화면 내에서 출력부의 터치 입력 또는 입력부를 통한 사용자 입력에 의해 협동 단말을 인식할 수 있다.
S130에서는 사용자 단말(100)은 협동 단말의 제1 위치 정보 및 지정 객체의 제2 위치 정보를 협동 단말 및/또는 지정 객체로부터 수신할 수 있다. 사용자 단말의 제3 위치 정보는 구비된 GPS 모듈을 통해 획득될 수 있다. 협동 단말의 제1 위치 정보는 협동 단말에 구비된 GPS 모듈을 통해 획득될 수 있다. 지정 객체의 제2 위치 정보는 데이터베이스를 통해서 획득되거나, 지정 객체에 구비된 GPS 모듈을 통해 획득되거나, 사용자에 의해 설정될 수 있다.
사용자 단말(100)은 협동 단말의 제1 위치 정보 및 사용자 단말의 제3 위치 정보를 기초로 사용자 단말(100)의 협동 단말에 대한 제1 방향 정보를 획득할 수 있다. 만약, 사용자 단말의 위치 정보가 (x1, y1)이고, 협동 단말의 위치 정보가 (x2, y2)인 경우, 아래의 수학식 1을 기초로, 기 설정된 기준 선에 대한 사용자 단말의 협동 단말에 대한 제1 방향 정보를 산출할 수 있다.
[수학식 1]
Figure 112019127519885-pat00024
여기서, 기준 선은 y값이 0인 선일 수 있다. 상기의 수학식에 의해 협동 단말은 사용자 단말에서 기준 선과 평행한 선에 대해서,
Figure 112019127519885-pat00025
의 각도를 가지는 선의 연장선에 위치할 수 있다.
사용자 단말(100)은 지정 객체의 제2 위치 정보 및 사용자 단말의 제3 위치 정보를 기초로 사용자 단말(100)의 지정 객체에 대한 제2 방향 정보를 획득할 수 있다. 만약, 사용자 단말의 위치 정보가 (x1, y1)이고, 지정 객체의 위치가 (x3, y3)인 경우, 아래의 수학식 2를 기초로, 기 설정된 기준 선에 대한 사용자 단말의 지정 객체에 대한 제2 방향 정보를 산출할 수 있다.
[수학식 2]
Figure 112019127519885-pat00026
여기서, 기준 선은 y값이 0인 선일 수 있다. 상기의 수학식에 의해 지정 객체는 사용자 단말에서 기준 선과 평행한 선에 대해서,
Figure 112019127519885-pat00027
의 각도를 가지는 선의 연장선에 위치할 수 있다.
S140에서는 사용자 단말(100)은 인식된 상기 협동 단말을 고려하여 기초로 카메라의 시야 범위를 생성할 수 있다. 여기서, 시야 범위는 사용자 단말의 카메라에 의해 감지된 시야 범위를 말한다. 사용자 단말(100)은 협동 단말의 제1 위치 정보, 협동 단말에 대한 제1 방향 정보, 사용자 단말의 제3 위치 정보를 기초로 카메라의 시야 범위를 생성할 수 있다. 사용자 단말(100)은 사용자 단말의 위치 정보 및 협동 단말에 대한 방향 정보를 고려하여 협동 단말로 향하는 이미지를 촬영하는 상황에서의 시야 범위를 추론할 수 있다. 사용자 단말(100)은 사용자 단말의 위치 정보를 기준으로 사용자 단말의 협동 단말에 대한 방향 정보로 연장되는 선을 결정하고 연장되는 선을 기준으로 기 설정된 시야 각으로 시야 범위를 생성할 수 있다. 사용자 단말(100)은 카메라를 실행 시켜 촬영된 이미지로 협동 단말이 인식된 동안의 시야 범위를 결정할 수 있다. 여기서, 시야 범위는 협동 단말과 대응되는 지점을 기준으로 생성할 수 있다.
S150에서는 사용자 단말(100)은 협동 단말에 대한 제1 방향 정보, 지정 객체에 대한 제2 방향 정보를 고려하여 시야 범위에서의 지정 객체의 방향 정보를 산출할 수 있다.
만약, 사용자 단말(100)의 위치 정보가 (x1, y1), 협동 단말의 위치 정보가 (x2, y2), 지정 객체의 위치 정보가 (x3, y3) 인 경우, 협동 단말에 대한 제1 방향 정보 및 지정 객체에 대한 제2 방향 정보를 기초로 협동 단말에 대한 방향을 기준으로 지정 객체에 대한 상대적인 각도(
Figure 112019127519885-pat00028
)를 수학식 1과 수학식 2를 기초로 아래의 수학식 3으로 산출할 수 있다.
[수학식 3]
Figure 112019127519885-pat00029
사용자 단말의 협동 단말 및 지정 객체에 대한 방향 정보를 기초로 시야 범위 내에서 지정 객체가 포함되어 있는지 여부, 시야 범위와 대응하여 지정 객체가 위치한 부분 정보, 시야 범위 내에 포함되지 않는 경우 시야 범위에 대해서 지정 객체가 위치한 방향에 대한 정보 등을 판단할 수 있다.
시야 범위 정중앙과 협동 단말에 대한 제1 방향 정보로 연장되는 선과의 각도가
Figure 112019127519885-pat00030
이면,
Figure 112019127519885-pat00031
의 범위는 아래의 수학식 4와 같다.
[수학식 4]
Figure 112019127519885-pat00032
협동 단말이 시야 범위 정중앙에 위치하면
Figure 112019127519885-pat00033
은 0이다. 상기 수학식 3의
Figure 112019127519885-pat00034
으로 카메라의 시야 범위 내에 지정 객체가 포함되어 있는지 여부를 아래의 수학식 5를 고려하여 판단할 수 있다. 수학식 5가 만족되면 시야 범위 내에 지정 객체가 포함되어 있는 것으로 판단할 수 있으며, 수학식 5가 만족되지 않는다면 시야 범위 내에 지정 객체가 포함되어 있지 않은 것으로 판단할 수 있다.
[수학식 5]
Figure 112019127519885-pat00035
S160에서는 사용자 단말(100)은 시야 범위에 대한 지정 객체의 방향이 반영된 지정 객체의 위치 정보를 출력부를 통해 출력할 수 있다.
도 6는 본 발명의 실시예들에 따른 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 의 흐름도이다.
S210에서는 사용자 단말(100)은 협동 단말을 설정하고 인식할 수 있다. 사용자 단말(100)은 주변의 사용자 단말 중에서, 방향 정보의 측정에 이용할 협동 단말을 설정할 수 있다. 사용자 단말에서 협동 요청 신호가 수신되면, 협동 요청 신호의 발신 단말이 협동 단말이 될 수 있다. 사용자 단말에서 협동 요청 신호가 발신되면, 협동 요청 신호의 수신 단말이 협동 단말이 될 수 있다. 사용자 단말(100)은 카메라를 통한 출력부의 미리 보기 화면 내에서 협동 단말의 이미지가 지정된 위치에 위치하는 상태로 협동 단말을 인식할 수 있다. 사용자 단말(100)은 카메라를 통한 출력부의 미리 보기 화면 내에서 출력부의 터치 입력 또는 입력부를 통한 사용자 입력에 의해 협동 단말을 인식할 수 있다.
S220에서는 사용자 단말(100)은 협동 단말로부터 협동 단말의 방향 정보를 수신할 수 있다. 사용자 단말(100)은 통신부를 통해 협동 단말의 방향 정보를 수신할 수 있다. 여기서, 협동 단말의 방향 정보는 사용자 단말의 협동 단말에 대한 방향을 기준으로 사용자 단말의 지정 객체에 대한 상대적인 방향 정보를 말하며, 협동 단말에서 산출한 정보이다.
만약, 사용자 단말(100)의 위치 정보가 (x1, y1), 협동 단말의 위치 정보가 (x2, y2), 지정 객체의 위치 정보가 (x3, y3) 인 경우, 협동 단말은 사용자 단말의 위치 정보, 협동 단말 자신의 위치 정보 및 지정 객체의 위치 정보를 기초로 사용자 단말(100)의 협동 단말에 대한 방향을 기준으로 사용자 단말(100)의 지정 객체에 대한 상대적인 각도(
Figure 112019127519885-pat00036
)를 아래의 수학식 3으로 산출할 수 있다.
[수학식 3]
Figure 112019127519885-pat00037
S230에서는 사용자 단말(100)은 인식된 상기 협동 단말을 고려하여 기초로 카메라의 시야 범위를 생성할 수 있다. 여기서, 시야 범위는 사용자 단말의 카메라에 의해 감지된 시야 범위를 말한다. 사용자 단말(100)은 사용자 단말의 위치 정보 및 사용자 단말의 협동 단말에 대한 방향 정보를 고려하여 협동 단말로 향하는 이미지를 촬영하는 상황에서의 시야 범위를 추론할 수 있다. 사용자 단말(100)은 사용자 단말의 위치 정보를 기준으로 사용자 단말의 협동 단말에 대한 방향 정보로 연장되는 선을 결정하고 연장되는 선을 기준으로 기 설정된 시야 각으로 시야 범위를 생성할 수 있다. 사용자 단말(100)은 카메라를 실행 시켜 촬영된 이미지로 협동 단말이 인식된 동안의 시야 범위를 결정할 수 있다. 여기서, 시야 범위는 협동 단말과 대응되는 지점을 기준으로 생성할 수 있다.
S240에서는 사용자 단말(100)은 시야 범위, 사용자 단말(100)의 협동 단말에 대한 방향을 기준으로 사용자 단말(100)의 지정 객체에 대한 상대적인 방향 정보를 고려하여 시야 범위에 대한 지정 객체의 방향 정보를 산출할 수 있다. 시야 범위에 대한 지정 객체의 방향 정보는 시야 범위 내에 포함되어 있는지 여부, 시야 범위 내에서, 지정 객체가 위치한 부분 정보, 시야 범위 내에 포함되지 않는 경우 시야 범위에 대해서 지정 객체가 위치한 방향에 대한 정보 등을 포함할 수 있다.
시야 범위 정중앙과 협동 단말에 대한 방향으로 연장되는 선과의 각도가
Figure 112019127519885-pat00038
이면,
Figure 112019127519885-pat00039
의 범위는 아래의 수학식 4와 같다.
[수학식 4]
Figure 112019127519885-pat00040
협동 단말이 시야 범위 정중앙에 위치하면
Figure 112019127519885-pat00041
은 0이다. 상기 수학식 3의
Figure 112019127519885-pat00042
으로 카메라의 시야 범위 내에 지정 객체가 포함되어 있는지 여부를 아래의 수학식 5를 고려하여 판단할 수 있다. 수학식 5가 만족되면 시야 범위 내에 지정 객체가 포함되어 있는 것으로 판단할 수 있으며, 수학식 5가 만족되지 않는다면 시야 범위 내에 지정 객체가 포함되어 있지 않은 것으로 판단할 수 있다.
[수학식 5]
Figure 112019127519885-pat00043
사용자 단말(100)은 시야 범위에 대한 지정 객체의 방향 정보를 협동 단말로 전송할 수 있으나 이에 한정되지 않는다. 협동 단말은 시야 범위에 대한 지정 객체의 방향 정보를 기초로 사용자 단말의 상대적인 위치를 획득할 수 있으나 이에 한정되지 않는다. 사용자 단말(100)은 시야 범위에 대한 지정 객체의 방향 정보를 고려하여 협동 단말과 지정 객체 사이의 위치 관계를 반영한 시각적 데이터를 생성할 수 있다. 협동 단말과 지정 객체 사이의 위치 관계는 사용자 단말이 협동 단말을 시야 범위 내로 포함시켜 바라보는 경우에, 지정 객체의 위치에 대한 정보로서, 사용자 단말에서의 협동 단말 및 사용자 단말에서의 지정 객체 사이의 상대적인 위치 정보를 말한다.
사용자 단말(100)은 사용자 단말의 카메라를 이용하여 협동 단말을 촬영한 이미지를 기초로 지정 객체를 더 포함한 시각적 데이터를 렌더링하여 생성할 수 있다.
도 7는 제1 협동 단말(200'), 제2 협동 단말(200")를 이용하여 사용자 단말(100)의 지정 객체(300)에 대한 방향 정보를 산출하는 과정을 설명하는 도면이다.
도 7에 도시된 바와 같이, 사용자 단말(100)은 제1 협동 단말(200')의 위치 정보(21'), 제2 협동 단말(200")의 위치 정보(21")를 수신할 수 있다. 사용자 단말은 자신의 위치 정보(11)와 제1 협동 단말(200')의 위치 정보(21'), 제2 협동 단말(200")의 위치 정보(21")를 이용하여, 사용자 단말(100)의 제1 협동 단말(200')에 대한 방향 정보(12') 및 사용자 단말(100)의 제2 협동 단말(200")에 대한 방향 정보(12")를 획득할 수 있다. 사용자 단말(100)은 출력부의 지정된 위치에 제1 협동 단말(200') 및 제2 협동 단말(200")이 위치하는 상태에서, 카메라를 통해 시야 범위의 이미지를 센싱하여 제1 협동 단말(200') 및 제2 협동 단말(200")을 인식할 있다. 사용자 단말(100)은 사용자 단말의 카메라를 통한 출력부의 미리 보기 화면 내에서 출력부의 터치 입력 또는 입력부를 통한 사용자 입력에 의해 제1 협동 단말(200') 및 제2 협동 단말(200")을 인식할 수 있다. 사용자 단말(100)은 제1 협동 단말(200') 의 위치 정보(21') 및 방향 정보(22') 및 제2 협동 단말(200")의 위치 정보(21") 및 방향 정보(22")를 기초로 사용자 단말(100)의 시야 범위를 가상 현실로 시각화 할 수 있다. 사용자 단말(100)는 협동 단말(200')의 위치 정보(21'), 협동 단말(200")의 위치 정보(21"), 지정 객체(300)의 위치 정보(31)를 이용하여 시야 범위 내에서의 지정 객체의 방향 정보를 산출할 수 있다. 이렇게 시야 범위 내에서의 지정 객체의 방향 정보를 기초로 시야 범위에서의 지정 객체의 상대적 위치가 드러나는 출력 데이터가 출력될 수 있다.
사용자 단말(100)의 시야 범위는 제1 협동 단말(200'), 제2 협동 단말(200"), 및 지정 객체 사이의 위치 관계, 원근 관계 등을 포함하는 가상 현실 데이터를 생성하고, 이때, 가상 현실 데이터는 지정 객체(300)의 위치 정보(31)에 대한 정보와 대응되는 태그 정보(위치 설명, 시야 범위를 벗어나는 경우 시야 범위를 4분할, 8분할, 16분할 등으로 분할 시켜 이중 하나)를 더 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
100: 사용자 단말
200, 200', 200": 협동 단말
300: 지정 객체

Claims (13)

  1. 정해진 위치에 부착된 카메라 및 출력부를 포함하는 사용자 단말의 위치를 산출하는 방법에 있어서,
    상기 사용자 단말은 협동 단말을 설정하는 단계;
    상기 사용자 단말은 상기 협동 단말의 제1 위치 정보 및 지정 객체의 제2 위치 정보를 수신하는 단계;
    상기 사용자 단말은 상기 출력부의 지정된 지점에 상기 협동 단말이 위치하는 상태에서 상기 카메라를 통해 이미지를 센싱하여 협동 단말을 인식하고, 상기 출력부에서 센싱된 이미지의 미리 보기 화면 내에서 입력부를 통한 사용자 입력에 의해 협동 단말을 인식하고, 상기 이미지를 출력하는 단계;
    상기 사용자 단말은 상기 제1 위치 정보를 고려하여 상기 사용자 단말의 협동 단말에 대한 제1 방향 정보를 획득하는 단계;
    상기 사용자 단말은 상기 제2 위치 정보를 고려하여 상기 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득하는 단계;
    상기 사용자 단말은 상기 인식된 상기 협동 단말을 기초로, 상기 제1 위치 정보, 제1 방향 정보 및 상기 사용자 단말의 제3 위치 정보를 기초로 상기 사용자 단말의 상기 카메라의 시야 범위를 생성하는 단계;
    상기 사용자 단말은 상기 제1 방향 정보, 및 상기 제2 방향 정보를 고려하여 상기 시야 범위에서의 상기 지정 객체의 방향 정보를 산출하는 단계;
    상기 사용자 단말은 상기 시야 범위에서의 지정 객체의 방향 정보를 상기 시야 범위와 함께 상기 출력부를 통해 출력하는 단계; 및
    상기 사용자 단말은 상기 시야 범위에 대한 지정 객체의 방향 정보를 고려하여 상기 협동 단말과 상기 지정 객체 사이의 위치 관계를 반영한 3차원 시각 데이터를 생성하는 단계;를 포함하고,
    상기 협동 단말과 지정 객체 사이의 위치 관계는 상기 사용자 단말의 카메라가 협동 단말을 바라보는 경우에 지정 객체의 위치에 대한 정보인, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 방향 정보를 산출하는 단계는
    상기 시야 범위의 소정의 기준 방향을 기준으로 반시계 방향 또는 시계 방향으로의 각도로 방향 정보를 산출하되,
    상기 시야 범위를 4분할, 8분할, 16분할 중 적어도 하나로 분할시켜 이중 하나로 방향 정보를 산출하는, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법.
  4. 제1항에 있어서,
    상기 방향 정보를 산출하는 단계 이후에,
    상기 사용자 단말은 상기 시야 범위에 대한 지정 객체의 방향 정보를 상기 협동 단말로 전송하는 단계;를 더 포함하는, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법.
  5. 제1항에 있어서,
    상기 수신하는 단계는
    상기 사용자 단말은 협동 단말에 대한 방향을 기준으로 지정 객체에 대한 상대적인 방향 정보를 수신하는, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법.
  6. 제1항에 있어서,
    상기 수신하는 단계는
    상기 협동 단말이 복수인 경우, 상기 사용자 단말은 복수의 제1 위치 정보를 수신하여 복수의 제1 방향 정보를 획득하는, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법.
  7. 제1항에 있어서,
    상기 수신하는 단계는
    상기 협동 단말이 복수인 경우, 상기 사용자 단말은 복수의 협동 단말에 대한 방향 정보들을 기준으로 지정 객체에 대한 복수의 상대적인 방향 정보들을 수신하는, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법.
  8. 컴퓨터를 이용하여 제1항, 및 제3항 내지 제7항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
  9. 정해진 위치에 부착된 카메라 및 출력부를 포함하고,
    협동 단말을 설정하고 상기 협동 단말의 제1 위치 정보 및 지정 객체의 제2 위치 정보를 수신하는 협동 단말 설정부;
    상기 카메라의 방향을 전환시켜 상기 출력부의 지정된 지점에 상기 협동 단말이 위치하는 상태에서 상기 카메라를 통해 이미지를 센싱하여 협동 단말을 인식하고, 상기 카메라의 방향을 전환시켜 상기 협동 단말이 포함된 상기 출력부의 센싱된 이미지의 미리 보기 화면 내에서 입력부를 통한 사용자 입력에 의해 협동 단말을 인식하고, 상기 이미지를 출력하는 제1 출력 제어부;
    상기 제1 위치 정보, 상기 제2 위치 정보 및 사용자 단말의 제3 위치 정보를 고려하여 상기 사용자 단말의 협동 단말에 대한 제1 방향 정보 및 상기 사용자 단말의 지정 객체에 대한 제2 방향 정보를 획득하는 방향 정보 산출부;
    상기 인식된 협동 단말을 기초로, 상기 제1 위치 정보, 제1 방향 정보 및 상기 제3 위치 정보를 기초로 상기 사용자 단말의 상기 카메라의 시야 범위를 생성하는 시야 범위 생성부;
    상기 제1 방향 정보, 및 상기 제2 방향 정보를 고려하여 상기 시야 범위에서의 상기 지정 객체의 방향 정보를 산출하는 지정 객체 검출부;
    상기 시야 범위에서의 지정 객체의 방향 정보를 상기 시야 범위와 함께 상기 출력부를 통해 출력하는 제2 출력 제어부; 및
    상기 시야 범위에 대한 지정 객체의 방향 정보를 고려하여 상기 협동 단말과 상기 지정 객체 사이의 위치 관계를 반영한 3차원 시각 데이터를 생성하는 시각 데이터 생성부;를 포함하고,
    상기 협동 단말과 지정 객체 사이의 위치 관계는
    상기 사용자 단말의 카메라가 협동 단말을 바라보는 경우에, 지정 객체의 위치에 대한 정보인, 협동 단말을 이용하여 방향이 반영된 위치를 산출하는 사용자 단말.
  10. 삭제
  11. 제9항에 있어서,
    상기 방향 정보 산출부는
    상기 시야 범위의 소정의 기준 방향을 기준으로 반시계 방향 또는 시계 방향으로의 각도로 방향 정보를 산출하되 상기 시야 범위를 4분할, 8분할, 16분할 중 하나로 분할시켜 이중 하나로 방향 정보를 산출하는, 협동 단말을 이용하여 사용자 단말의 방향이 방향된 위치를 산출하는 사용자 단말.
  12. 제9항에 있어서,
    상기 지정 객체 검출부는
    상기 시야 범위에 대한 지정 객체의 방향 정보를 상기 협동 단말로 전송하는, 협동 단말을 이용하여 방향이 반영된 위치를 산출하는 사용자 단말.
  13. 제9항에 있어서,
    상기 협동 단말 설정부는
    상기 협동 단말이 복수인 경우, 상기 사용자 단말은 복수의 제1 위치 정보들 또는 복수의 제1 방향 정보들을 수신하는, 협동 단말을 이용하여 방향이 반영된 위치를 산출하는 사용자 단말.
KR1020190163750A 2019-12-10 2019-12-10 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램 KR102241873B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190163750A KR102241873B1 (ko) 2019-12-10 2019-12-10 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190163750A KR102241873B1 (ko) 2019-12-10 2019-12-10 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR102241873B1 true KR102241873B1 (ko) 2021-04-19

Family

ID=75718590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190163750A KR102241873B1 (ko) 2019-12-10 2019-12-10 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR102241873B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110053096A (ko) * 2009-11-13 2011-05-19 엘지전자 주식회사 이동 단말기의 관심 지점 등록 방법 및 그 장치
KR20160092611A (ko) * 2015-01-28 2016-08-05 안기순 단일 단말기를 이용한 비콘 위치 탐색 방법 및 그 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110053096A (ko) * 2009-11-13 2011-05-19 엘지전자 주식회사 이동 단말기의 관심 지점 등록 방법 및 그 장치
KR20160092611A (ko) * 2015-01-28 2016-08-05 안기순 단일 단말기를 이용한 비콘 위치 탐색 방법 및 그 장치

Similar Documents

Publication Publication Date Title
US10643364B1 (en) Ground plane detection for placement of augmented reality objects
CN110967011B (zh) 一种定位方法、装置、设备及存储介质
US10482623B2 (en) Placement of augmented reality objects using a bounding shape
EP2989481B1 (en) Localization systems and methods
US10319110B2 (en) Display control method and system
US10911818B2 (en) Electronic device and method for controlling the same
US20110249122A1 (en) System and method for location-based operation of a head mounted display
EP3460636B1 (en) Electronic device and operating method therefor
US10725760B2 (en) Application program uninstallation method and apparatus
KR20210046217A (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
WO2017028203A1 (zh) 用于生成地理坐标的方法和设备
KR20140144101A (ko) 제스처 정보를 이용하여 서비스에 대한 사용자간 관계를 설정하는 방법 및 시스템
KR102241873B1 (ko) 사용자 단말, 협동 단말을 이용하여 사용자 단말의 방향이 반영된 위치를 산출하는 방법 및 상기 방법을 실행하는 컴퓨터 프로그램
US20220198764A1 (en) Spatially Aware Environment Relocalization
US20190138026A1 (en) Electronic device, external server, and method for controlling same
JP6663648B2 (ja) 表示制御装置、情報処理装置、表示制御方法、および制御プログラム
CN108628435B (zh) 虚拟实境系统、移动装置的操作方法、非挥发性计算机可读取记录媒体、虚拟实境处理装置
KR20210048244A (ko) 3차원 기반의 실내위치 추정 장치 및 시스템
JP6670682B2 (ja) 位置検出方法及び位置検出システム
KR102243138B1 (ko) 환경 정보 취득을 이용한 혼합 현실 기기 지원 장치 및 그 방법
WO2024057779A1 (ja) 情報処理装置、プログラムおよび情報処理システム
US20230354258A1 (en) Data processing method and apparatus
US20150092985A1 (en) Updating filter parameters of a system
JP2023094344A (ja) 拡張現実表示装置、方法、及びプログラム
KR20230041461A (ko) 외부의 측위 장치를 이용하여 전역 위치를 추정하기 위한 컴퓨팅 장치 및 그의 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant