KR102454833B1 - 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법 - Google Patents

가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법 Download PDF

Info

Publication number
KR102454833B1
KR102454833B1 KR1020220058286A KR20220058286A KR102454833B1 KR 102454833 B1 KR102454833 B1 KR 102454833B1 KR 1020220058286 A KR1020220058286 A KR 1020220058286A KR 20220058286 A KR20220058286 A KR 20220058286A KR 102454833 B1 KR102454833 B1 KR 102454833B1
Authority
KR
South Korea
Prior art keywords
user terminal
virtual
display device
information
identified
Prior art date
Application number
KR1020220058286A
Other languages
English (en)
Inventor
표영일
Original Assignee
(주)이브이알스튜디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)이브이알스튜디오 filed Critical (주)이브이알스튜디오
Priority to KR1020220058286A priority Critical patent/KR102454833B1/ko
Application granted granted Critical
Publication of KR102454833B1 publication Critical patent/KR102454833B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06K9/6215
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치에 있어서, 가상의 아쿠아리움의 이미지가 저장된 메모리, 통신부, 카메라, 이미지를 표시하는 디스플레이, 및 메모리, 통신부, 카메라, 및 디스플레이와 연결된 프로세서를 포함하여, 프로세서는, 통신부를 통해, 근접한 적어도 하나의 사용자 단말과 페어링을 수행하고, 카메라를 통해 사용자 단말을 식별하고, 식별된 사용자 단말의 위치 및 모션을 바탕으로, 표시된 이미지를 변경한다.
또한, 본 발명의 이 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치와 통신 가능한, 사용자 단말의 제어 방법에 있어서, 디스플레이 장치에 근접함에 따라, 디스플레이 장치와 페어링을 수행하는 단계, 카메라를 통해 디스플레이 장치를 식별하는 단계, 식별된 디스플레이 장치를 기준으로 하는 사용자 단말의 위치 및 모션을 바탕으로, 가상의 아쿠아리움에 대한 사용자의 명령 정보를 획득하는 단계, 및 획득된 명령 정보를 바탕으로 표시된 이미지가 변경되도록, 디스플레이 장치를 제어하는 단계를 포함한다.

Description

가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법{DISPLAY DEVICE DISPLAYING IMAGE OF VIRTUAL AQUARIUM, AND CONTROL METHOD FOR USER TERMINAL COMMUNICATING TO DISPLAY DEVICE}
본 발명은 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법에 관한 것으로, 상세하게는, 스마트폰과 같은 사용자 단말과 디스플레이 장치 간의 인터랙션을 바탕으로, 디스플레이 장치를 통해 제공되는 가상의 3D 아쿠아리움 내 수중 생물의 먹이를 주거나 수중 생물을 추가 투입하는 동작을 사용자의 의도에 따라 수행하는 기술이다.
종래의 TV, 디지털 액자, 디지털 인터폰, 주방용 디스플레이 등 이미지(ex. 사진, 영상 등)를 출력하는 디스플레이 장치에 대한 제어를 수행함에 있어서, 리모컨, 애플리케이션, 터치 화면, 조작 버튼 등에 대한 사용자 입력을 통해 실시되어 왔다.
이러한 방법에 의해 제어가 실시되는 디스플레이 장치는, 단순히 화면 전환, 음량 조절, 재생, 정지 등에 대한 기본적인 동작만을 수행하는 것으로, 사용자와 디스플레이 장치 간의 인터렉션이 다양하게 이루어지지 못함에 따라 사용자의 디스플레이 장치에 대한 흥미를 이끌어내지 못하였다.
한편, 상기의 배경기술로서 설명된 사항들은 본 발명의 배경에 대한 이해 증진을 위한 것일 뿐, 이 기술분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안 될 것이다.
공개특허공보 제10-2019-0020434호, 2019.03.04.
본 발명이 해결하고자 하는 과제는 벽걸이 TV 등 다양한 디스플레이 장치에 대한 Screen Saver 모드, 번인 방지 모드 등에 출력되는 가상의 3D 아쿠아리움에 대해, 디스플레이 장치의 화면 가장자리에 대해 페어링된 사용자 단말의 모션에 대한 트래킹 및, 사용자 단말에 설치된 애플리케이션을 통한 사용자 입력을 바탕으로 가상의 수중 생물에게 먹이를 공급하거나, 가상의 수중 생물을 추가하는 동작을 수행하는, 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치에 있어서, 가상의 아쿠아리움의 이미지가 저장된 메모리, 통신부, 카메라, 이미지를 표시하는 디스플레이, 및 메모리, 통신부, 카메라, 및 디스플레이와 연결된 프로세서를 포함하고, 이때, 프로세서는, 통신부를 통해, 근접한 적어도 하나의 사용자 단말과 페어링을 수행하고, 카메라를 통해 사용자 단말을 식별하고, 식별된 사용자 단말의 위치 및 모션을 바탕으로, 표시된 이미지를 변경한다.
추가로, 프로세서는, 카메라를 통해, 디스플레이의 화면을 둘러싸는 엣지 영역을 구성하는 복수의 지점 각각에 대한 사용자 단말의 거리를 식별하고, 복수의 지점 중 사용자 단말과 가장 가까운 일 지점에 대한 사용자 단말의 거리가 임계 거리 미만인 상태에서, 카메라를 통해 사용자 단말의 모션을 식별하고, 식별된 모션에 매칭되는 이벤트를 식별하고, 디스플레이의 화면 중 일 지점과 맞닿은 좌표 영역을 기점으로 식별된 이벤트가 시각화되도록, 표시된 이미지를 변경할 수 있다.
한편, 프로세서는, 사용자 단말로부터 사용자 단말의 사용자가 보유한 가상의 먹이에 대한 정보를 수신하고, 이에 따라, 식별된 이벤트가 피딩인 경우, 가상의 먹이가 좌표 영역을 기점으로 등장하여 이동하도록, 표시된 이미지를 변경하고, 가상의 아쿠아리움 내에 존재하는 수중 생물이 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경할 수 있다.
또한, 프로세서는, 가상의 아쿠아리움 내에 존재하는 복수의 수중 생물 중 가상의 먹이와 매핑되도록 기설정된 적어도 하나의 수중 생물을 선택하고, 이에 따라, 선택된 수중 생물이 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경할 수 있다.
추가로, 프로세서는, 피딩에 해당하는 이벤트가 식별된 시점을 기준으로 일정 시간 내에 선택된 수중 생물이 먹은 가상의 먹이의 양을 식별하고, 식별된 양이 임계량 미만이면, 가상의 아쿠아리움 내에 존재하는 수중 생물이 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경하고, 식별된 양이 임계량을 초과하면, 선택된 수중 생물이 가상의 먹이를 먹지 않도록 제어할 수 있다.
또한, 프로세서는, 사용자 단말로부터 사용자 단말의 사용자가 보유한 가상의 수중 생물에 대한 정보를 수신하고, 식별된 이벤트가 수중 생물 추가인 경우, 가상의 수중 생물이 좌표 영역을 기점으로 등장하여 이동하도록, 표시된 이미지를 변경할 수 있다.
본 발명의 이 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치와 통신 가능한, 사용자 단말의 제어 방법에 있어서, 디스플레이 장치에 근접함에 따라, 디스플레이 장치와 페어링을 수행하는 단계, 카메라를 통해 디스플레이 장치를 식별하는 단계, 식별된 디스플레이 장치를 기준으로 하는 사용자 단말의 위치 및 모션을 바탕으로, 가상의 아쿠아리움에 대한 사용자의 명령 정보를 획득하는 단계, 및 획득된 명령 정보를 바탕으로 표시된 이미지가 변경되도록, 디스플레이 장치를 제어하는 단계를 포함한다.
이때, 카메라를 통해 디스플레이 장치를 식별하는 단계는, 카메라를 통해, 디스플레이 장치의 화면을 둘러싸는 엣지 영역을 구성하는 복수의 지점 각각에 대한 사용자 단말의 거리를 식별하는 단계, 및 복수의 지점 중 사용자 단말과의 거리가 가장 가까운 적어도 하나의 지점을 선택하는 단계를 포함할 수 있다.
또한, 사용자의 명령 정보를 획득하는 단계는, 지점에 대한 사용자 단말의 거리가 임계 거리 미만인 상태에서, 사용자 단말의 모션에 매칭되는 이벤트를 식별하고, 식별된 이벤트와 관련된 명령 정보를 획득할 수 있으며, 디스플레이 장치를 제어하는 단계는, 디스플레이 장치의 화면 중 지점과 맞닿은 좌표 영역을 기점으로 식별된 이벤트가 시각화되도록, 명령 정보에 따라 디스플레이 장치를 제어하여, 표시된 이미지를 변경하는 단계를 포함할 수 있다.
추가로, 사용자 단말의 제어 방법에 있어서, 인벤토리를 선택하는 사용자 명령을 획득한 경우, 사용자 단말의 사용자가 보유한 가상의 먹이에 대한 정보 및 가상의 수중 생물에 대한 정보를 포함하는 인벤토리 정보를 제공하는 단계, 가상의 먹이에 대한 정보 및 가상의 수중 생물에 대한 정보 중 적어도 하나에 대한 추가 요청을 수신한 경우, 추가 요청의 대상이 된 정보의 결제 페이지를 출력하는 단계, 및 결제 페이지에 대한 결제를 수행하는 사용자 명령을 획득하면, 추가 요청의 대상이 된 정보를 바탕으로, 인벤토리 정보를 업데이트하는 단계를 포함할 수 있다.
이때, 표시된 이미지를 변경하는 단계는, 식별된 이벤트가 피딩인 경우, 인벤토리 정보를 바탕으로, 가상의 먹이가 좌표 영역을 기점으로 등장하여 이동하도록, 디스플레이 장치를 제어하여, 표시된 이미지를 변경하는 단계, 및 가상의 아쿠아리움 내에 존재하는 수중 생물이 가상의 먹이를 먹는 모습이 나타나도록, 디스플레이 장치를 제어하여, 표시된 이미지를 변경하는 단계를 포함할 수 있다.
또한, 표시된 이미지를 변경하는 단계는, 식별된 이벤트가 수중 생물 추가인 경우, 인벤토리 정보를 바탕으로, 가상의 수중 생물이 좌표 영역을 기점으로 등장하여 이동하도록, 표시된 이미지를 변경하는 단계를 포함할 수 있다.
한편, 디스플레이 장치와 페어링을 수행하는 단계는, 디스플레이 장치로, 인벤토리 정보를 전송하는 단계, 및 디스플레이 장치로, 사용자의 모션 정보를 전송하는 단계를 포함하고, 이때, 사용자의 모션 정보는, 인식된 모션에 매칭되는 이벤트에 대한 정보를 포함할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법에 의하면, 사용자 단말과 디스플레이 장치 간의 페어링 방식에 있어서, 디스플레이의 엣지 영역에 대해 사용자 단말을 인식하여, 일 지점에 대한 입력을 획득하면, 해당 지점을 기준으로 입력된 명령에 따른 영상 효과를 부여하여 실감나는 디지털 경험을 제공함에 따라, 가상의 아쿠아리움에 대해 사용자에게 현실감을 제공할 수 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1 및 도 2는 본 발명의 일 실시예에 따른 디스플레이 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 시스템 구성도이다.
도 4는 본 발명의 일 실시예에 따른 기본 흐름도이다.
도 5 내지 도 8은 본 발명의 일 실시예에 따른 디스플레이 장치에 대한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 디스플레이 장치의 사용자 단말에 대한 모션 트래킹 예시도이다.
도 10은 본 발명의 이 실시예에 따른 사용자 단말의 구성도이다.
도 11은 본 발명의 이 실시예에 따른 기본 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1 및 도 2는 본 발명의 일 실시예에 따른 디스플레이 장치의 구성도이고, 도 3은 본 발명의 일 실시예에 따른 시스템 구성도이다.
도시된 바와 같이, 본 발명의 일 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치(100)는 가상의 아쿠아리움의 이미지가 저장된 메모리(110), 통신부(120), 카메라(130), 이미지를 표시하는 디스플레이(140), 및 메모리(110), 통신부(120), 카메라(130), 및 디스플레이(140)와 연결된 프로세서(150)를 포함한다.
이때, 디스플레이 장치(100)는 통신부(120)를 통해 사용자 단말(200)과 페어링 될 수 있으며, 사용자 단말(200)은 디스플레이 장치의 동작을 제어하기 위한 사용자의 전자 장치이다.
일 실시예로, 디스플레이 장치(100)는 월 디스플레이(Wall Display), TV, 디지털 액자, 디지털 인터폰, 주방용 디스플레이 중 적어도 하나를 포함할 수 있다.
일 실시예로, 사용자 단말(200)은 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 노트북 컴퓨터(notebook computer), PDA(personal digital assistant), PMP(portable multimedia player), 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다.
한편, 메모리(110)는 디스플레이 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리(110), 휘발성 메모리(110), 플래시메모리(110)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.
통신부(120)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(120)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.
프로세서(150)는 메모리(110)에 저장된 각종 프로그램을 이용하여 디스플레이 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(150)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.
RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 디스플레이 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.
ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.
그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이의 디스플레이 영역 내에 표시될 수 있다.
메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.
제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
한편, 프로세서(150)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.
일 실시예에 따른 프로세서(150)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.
예를 들어, 프로세서(150)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다.
한편, 프로세서(150)는 프로세서(150) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(150)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.
메모리(110)에는 프로세서(150)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.
카메라(130)는 적어도 하나의 피사체를 촬영하기 위한 구성으로, 프로세서(150)는 카메라(130)를 통해 적어도 하나의 객체를 인식하거나 객체와의 거리를 식별할 수 있다.
일 실시 예로, 카메라(130)는 입체 이미지를 획득하는 뎁스 카메라(Depth camera), RGB 카메라 등으로 구현될 수 있다. 뎁스 카메라는, 동시에 2장의 화상을 획득하여 피사체를 입체적으로 획득하는 스테레오 카메라(stereoscopic camera, stereo camera, 쌍안 촬영기, 양 시점 카메라) 및 피사체에 반사된 빛이 돌아오는 시간 및 속도를 바탕으로 배경내 피사체의 3차원 영상 정보를 얻는 ToF 카메라(Time of Flight camera) 등일 수 있다.
디스플레이(140)는 다양한 정보를 시각적으로 출력하기 위한 구성이다.
디스플레이(140)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED), Micro LED 등으로 구현될 수 있으나, 이에 한정되는 것은 아니고 이밖에 종래 알려진 다양한 형태의 디스플레이를 포함할 수 있다. 디스플레이(140)는, 사용자의 터치 조작을 감지할 수 있는 터치스크린 형태로 구현될 수 있으며, 접히거나 구부러질 수 있는 플렉서블 디스플레이로 구현될 수도 있다.
도 4는 본 발명의 일 실시예에 따른 기본 흐름도이다.
도시된 바와 같이, 본 발명의 일 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치(100)에 있어서, 프로세서(150)는, 통신부(120)를 통해, 근접한 적어도 하나의 사용자 단말(200)과 페어링을 수행(S410)하고, 카메라(130)를 통해 사용자 단말(200)을 식별하고, 식별된 사용자 단말(200)의 위치 및 모션을 트래킹(S420)하여, 위치 및 모션을 바탕으로 이벤트를 식별(S430)하고, 식별된 이벤트를 바탕으로, 표시된 이미지를 변경함으로써, 디스플레이(140) 상에, 식별된 이벤트를 시각화(S440)한다.
이때, 프로세서(150)가 단계 S410을 수행함에 있어서, 가상의 아쿠아리움에 대한 제어를 수행하기 위해 어플리케이션을 실행한 사용자 단말(200)과의 페어링이 수행되면, 카메라(130)를 활성화시켜 전방을 촬영하도록 제어한다. 이때, 디스플레이 장치(100)는 디스플레이(140)에 대한 사용자 단말(200)의 접근을 판단하는 근접센서를 더 포함할 수 있으며, 이에 따라, 프로세서(150)는 근접센서를 통해 사용자 단말(200)이 디스플레이(140)의 엣지 영역(10)에 대해 일정 거리 미만으로 근접하였는지 여부를 판단하고, 사용자 단말(200)과 엣지 영역(10) 간의 거리가 일정 거리 미만이면, 단계 S410을 수행할 수 있다.
도 5 내지 도 8은 본 발명의 일 실시예에 따른 디스플레이 장치(100)에 대한 예시도이고, 도 9는 본 발명의 일 실시예에 따른 디스플레이 장치(100)의 사용자 단말(200)에 대한 모션 트래킹 예시도이다.
도시된 바와 같이, 프로세서(150)는 디스플레이(140)의 화면을 둘러싸는 엣지 영역(10), 및 엣지 영역(10)내에 복수의 지점(11, 12 등)을 식별할 수 있다.
또한, 프로세서(150)는 카메라(130)를 통해 촬영된 이미지를 분석하여 사용자 단말(200)을 식별할 수 있다. 구체적으로, 프로세서(150)는 페어링이 수행된 사용자 단말(200)의 식별 정보를 바탕으로 사용자 단말(200)의 이미지를 획득할 수 있다. 이 경우, 사용자 단말(200)의 이미지는 디스플레이 장치(100)에 기저장된 것일 수도 있고, 통신부(120)를 통해 적어도 하나의 외부 장치로부터 수신된 것일 수도 있다. 그리고, 프로세서(150)는 사용자 단말(200)의 이미지를 촬영된 이미지와 비교함으로써, 촬영된 이미지 내 사용자 단말(200)을 인식할 수 있다. 이때, 사용자 단말(200)에 해당하는 스마트폰, 태블릿 PC, 웨어러블 기기 등을 인식하도록 훈련된 적어도 하나의 인공지능 모델(ex. CNN)이 활용될 수도 있다. 이때, 프로세서(150)는 사용자 단말(200)의 위치 및 크기를 바탕으로 카메라(130)에 대한 사용자 단말(200)의 위치(위치 관계)를 식별할 수도 있다.
이에 따라, 프로세서(150)는, 카메라(130)를 통해, 디스플레이(140)의 화면을 둘러싸는 엣지 영역(10)을 구성하는 복수의 지점 각각에 대한 사용자 단말(200)의 거리를 식별하고, 복수의 지점 중 사용자 단말(200)과 가장 가까운 일 지점(도 7의 11, 도 8의 12)을 선택한다. 구체적으로, 프로세서(150)는 카메라(130)와 복수의 지점 간의 위치 관계, 카메라(130)와 사용자 단말(200) 간의 위치 관계를 바탕으로 복수의 지점 각각에 대한 사용자 단말(200)의 거리를 식별할 수 있다. 카메라(130)와 복수의 지점 간의 위치 관계는 카메라(130)의 설치 지점에 따라 기설정되거나 기저장된 값일 수 있다. 카메라(130)와 사용자 단말(200)의 위치 관계와 관련하여, 카메라(130)는 ToF(time of flight) 카메라 내지는 스테레오 카메라 등으로 구현될 수 있으며, 프로세서(150)는 카메라(130)를 통해 촬영된 이미지(ex. 뎁스 이미지)를 바탕으로 (카메라(130)를 기준으로 하는) 사용자 단말(200)의 거리/방향을 식별할 수 있다. 또는, 프로세서(150)는 RGB 카메라로 구현된 카메라(130)의 이미지 내 사용자 단말(200)의 크기를 바탕으로 사용자 단말(200)의 거리를 산출하는 것도 가능하다.
이후, 프로세서(150)는 일 지점(11, 12)에 대한 사용자 단말(200)의 거리가 임계 거리 미만인 상태에서, 카메라(130)를 통해 사용자 단말(200)의 모션을, 도 9에 도시된 바와 같이, 식별할 수 있다.
예를 들어, 프로세서(150)는 촬영된 이미지 내 사용자 단말(200), 및 사용자 단말(200)에 대해 기 등록된 규격(사용자 단말(200)의 크기 등)을 바탕으로, 사용자 단말(200)이 디스플레이(140)에 대해 어느 지점에 위치하는지, 실측 거리를 판단할 수 있다. 실시예로, 프로세서(150)는 촬영된 이미지 내에서의 사용자 단말(200)의 형상(ex. 사다리꼴, 직사각형 등 사각형을 형성하는 네 변의 길이 차)를 식별하여, 식별된 형상을 바탕으로 사용자 단말(200)이 디스플레이 장치(100)에 대해 형성하는 각도를 산출하고, 촬영된 이미지 내에서의 사용자 단말(200)의 크기를 사용자 단말(200)에 대해 기 등록된 규격과 비교하여 사용자 단말(200)이 디스플레이 장치(100)로부터 이격된 이격 거리를 판단할 수 있다. 판단된 이격 거리가 임계 거리 미만인 경우, 프로세서(150)는 산출된 각도, 및 판단된 이격 거리를 바탕으로, 사용자 단말(200)이 디스플레이 장치(100)의 엣지 영역에 대해 수행하는 모션을 판단할 수 있다.
이를 위해, 프로세서(150)는 순차적으로 촬영된 사용자 단말(200)의 이미지를 분석하여 사용자 단말(200)의 모션을 식별할 수 있다. 예를 들어, 프로세서(150)는 순차적으로 촬영된 이미지들에 포함된 사용자 단말(200)의 위치, 각도, 크기 변화를 식별하고, 이를 기저장된 적어도 하나의 모션과 비교할 수 있다. 또한, 순차적으로 촬영된 복수의 이미지를 바탕으로 객체의 움직임을 식별하도록 훈련된 적어도 하나의 인공지능 모델이 활용될 수도 있다. 이 경우, 프로세서(150)는 순차적으로 촬영된 복수의 이미지를 인공지능 모델에 입력함으로써 사용자 단말(200)의 모션을 식별할 수 있다.
그리고, 프로세서(150)는 식별된 모션에 매칭되는 이벤트를 식별하고, 디스플레이(140)의 화면 중 일 지점(11, 12)과 맞닿은 좌표 영역을 기점으로 식별된 이벤트가, 도 7 및 도 8에 도시된 바와 같이, 시각화되도록, 표시된 이미지를 변경할 수 있다.
예를 들어, 식별된 모션이, 사용자 단말(200)의 위쪽 측면이 디스플레이 장치(100)의 엣지 영역에 가까워지도록 사용자 단말(200)이 기울어지는 모션인 경우, 또는 사용자 단말(200)을 흔드는 모션인 경우, 먹이 주기(피딩)에 해당하는 이벤트가 식별될 수 있다.
다만, 동일한 모션(ex. 기울어지는 모션)이라도, 사용자 단말(200)에서 실행되는 애플리케이션 상에서 (ex. 사용자 명령에 의해) 활성화된 기능에 따라 이벤트가 달라질 수도 있다. 이를 위해, 디스플레이 장치(100)는 사용자 단말(200)로부터 활성화된 기능에 대한 정보를 수신할 수 있다.
예를 들어, 사용자 단말(200)에서 먹이 주기 기능이 활성화된 경우, 디스플레이 장치(100)는 기울어지는 모션을 식별함에 따라 '먹이 주기' 이벤트를 식별할 수 있다. 다른 예로, 사용자 단말(200)에서 물고기 추가 기능이 활성화된 경우, 디스플레이 장치(100)는 기울어지는 모션을 식별함에 따라 '물고기 추가' 이벤트를 식별할 수 있다.
한편, 프로세서(150)는, 사용자 단말(200)로부터 사용자 단말(200)의 사용자가 보유한 가상의 먹이(A, B), 가상의 수중 생물 등에 대한 정보를 포함하는 인벤토리 정보를 수신할 수 있다.
도 6에 도시된 바와 같이, 사용자 단말(200)은 사용자가 보유한 가상의 먹이(A, B), 가상의 물고기의 종류, 양 등 인벤토리 정보를 표시할 수 있다. 여기서, 사용자 명령에 따라 먹이 주기 기능이 활성화된 경우, 사용자 단말(200)은 사용자가 보유한 가상의 먹이에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다. 또한, 사용자 명령에 따라 물고기 추가 기능이 활성화된 경우, 사용자 단말(200)은 사용자가 보유한 가상의 물고기에 대한 정보를 디스플레이 장치(100)로 전송할 수 있다.
여기서, 사용자 단말(200)의 모션에 따라 식별된 이벤트가 피딩인 경우, 디스플레이 장치(100)의 프로세서(150)는 가상의 먹이가 좌표 영역을 기점으로 등장하여 이동하도록, 표시된 이미지를 변경하고, 가상의 아쿠아리움 내에 존재하는 수중 생물(21)이 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경할 수 있다.
예를 들어, 프로세서(150)는 도 7에 도시된 바와 같이, 복수의 지점 중, 일 지점(11)이 사용자 단말(200)과 가장 근접한 것으로 판단하고, 일 지점(11)과 맞닿은, 디스플레이(140)의 좌표 영역을 기점으로 먹이가 생성되어 가라앉거나, 가라앉던 먹이가 부력에 의해 떠오르는 이미지가 나타나도록 제어한다.
이렇듯 가상의 먹이가 가상의 아쿠아리움에 제공됨에 따라, 사용자 단말(200)은 사용자가 보유한 가상의 먹이(ex. A)의 양이 감소되도록 인벤토리 정보를 업데이트할 수 있으며, 업데이트된 인벤토리 정보가 사용자 단말(200) 상에 실시간으로 표시될 수 있다.
또한, 일 실시예로, 프로세서(150)는 사용자 단말(200)의 모션을 바탕으로, 사용자가 의도한, 피딩 이벤트를 발생시키는 시간(먹이의 양), 및 먹이의 종류(도 6의 A, B 등)를 식별할 수 있다.
구체적으로, 프로세서(150)는 사용자 단말(200)이 페어링 되면, 디스플레이(140)를 통해 사용자 단말(200)의 사용자에 대해 저장된 인벤토리 정보를 출력하고, 출력된 인벤토리 정보에 포함된, 사용자 단말(200)의 사용자가 보유한 가상의 먹이에 대한 정보, 사용자 단말(200)의 사용자가 보유한 가상의 수중 생물에 대한 정보, 및 사용자 단말(200)의 사용자가 보유한 가상의 아쿠아리움 장식물(ex. 해초, 산호, 자갈, 조개껍데기 등)에 대한 정보 중 적어도 하나에 대한 선택을 입력하는 제1 모션을 식별하면, 제1 모션에 대해 선택된 정보를 기본 출력 정보로 저장할 수 있다.
이때, 기본 출력 정보는, 사용자 단말(200)의 모션에 대해 식별된 이벤트를 디스플레이(140)를 통해 시각화 함에 있어, 디스플레이(140) 상에 출력되는 이미지 설정값이다.
프로세서(150)는 기 설정된 제2 모션을 획득하면, 제2 모션에 대한 피딩 이벤트를 식별하고, 제2 모션이 발생한 횟수를 바탕으로 피딩 이벤트를 발생시키는 시간을 산출한다.
또한, 프로세서(150)는, 가상의 아쿠아리움 내에 존재하는 복수의 수중 생물 중 가상의 먹이와 매핑되도록 기설정된 적어도 하나의 수중 생물을 선택하고, 이에 따라, 선택된 수중 생물(21)가 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경할 수 있다.
예컨대, 도 6에 도시된 바와 같이, 사용자 단말(200)의 사용자에 대한 인벤토리에 먹이의 종류(A, B 등)가 구분되어 저장되며, 도 7에 도시된 바와 같이, 수중 생물의 종류(21, 22, 23 등)가 구분됨에 따라, 먹이의 종류 A에 대해 기 매칭된 수중 생물(21)에 대항하는 복수의 수중 생물이 동적으로 표시된 먹이를 포인트로 이동하게 하고, 먹이에 근접한 각각의 수중 생물(21)가 먹이를 먹는 동작을 수행하도록, 표시된 이미지를 변경할 수 있다.
이때, 프로세서(150)는, 피딩에 해당하는 이벤트가 식별된 시점을 기준으로 일정 시간 내에 선택된 수중 생물(21)가 먹은 가상의 먹이의 양을 식별하고, 식별된 양이 임계량 미만이면, 가상의 아쿠아리움 내에 존재하는, 해당 수중 생물(21)가 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경하고, 식별된 양이 임계량을 초과하면, 선택된 수중 생물(21)가 가상의 먹이를 먹지 않도록 제어할 수 있다.
이에 따라, 식별된 양이 임계량 미만이면, 프로세서(150)는 선택된 수중 생물(21)의 소화 속도를 바탕으로, 식별된 양이 임계량 이상이 되는 시점까지 가상의 먹이에 대해 선택된 수중 생물(21)가 먹는 동작을 수행하는 것을 제한함으로써 가상의 아쿠아리움에 대해 사실감을 부가할 수 있다.
실시예로, 프로세서(150)는 사용자 단말(200)의 사용자가 보유한 가상의 먹이 정보를 바탕으로, 먹이 잔량에 따른 제1 모션의 입력 제한을 수행할 수 있다.
구체적으로, 프로세서(150)는 사용자 단말(200)의 사용자가 보유한 가상의 먹이 정보를 바탕으로 먹이의 종류 및 먹이의 종류에 따른 먹이 잔량을 식별하고, 먹이 잔량이 미존재하는 먹이의 종류에 대하여는, 사용자 단말(200)에 의한 제2 모션이 식별되더라도 피딩 이벤트가 발생되는 것을 방지할 수 있다.
또한, 프로세서(150)는, 사용자 단말(200)로부터 사용자 단말(200)의 사용자가 보유한 가상의 수중 생물에 대한 정보를, 도 6에 도시된 바와 같이, 수신하고, 식별된 이벤트가 수중 생물 추가인 경우, 가상의 수중 생물이 좌표 영역을 기점으로 등장하여 이동하도록, 표시된 이미지를 변경할 수 있다.
구체적으로, 프로세서(150)는 도 8에 도시된 바와 같이, 기 설정된 제3 모션을 획득하면, 제3 모션에 대한 수중 생물 추가 이벤트를 식별하고, 사용자가 보유한 가상의 수중 생물들(21, 22, 23) 중, 제3 모션에 의해 선택된 가상의 수중 생물(21)가, 사용자 단말(200)의 거리가 임계 거리 미만인 일 지점(12)과 맞닿은, 디스플레이(140) 상의 좌표 영역에 대하여 등장하여 가상의 아쿠아리움 내에서 헤엄쳐 이동하는 모습이 표시되도록, 표시된 이미지를 변경할 수 있다.
실시예로, 디스플레이 장치(100)는 스피커, RTC(Real Time Clock) 및 온도 센서를 더 포함하고, 프로세서(150)는 온도 센서로부터 획득한 온도 센싱값, 및 RTC에 따른 시간값을 바탕으로 표시된 이미지를 변경할 수 있다.
구체적으로, 프로세서(150)는 온도 센싱값을 기반으로 디스플레이(140)에 표시된 이미지의 조명 설정을 변경하고, 시간값을 기반으로 주간, 야간 및 계절 중 적어도 하나에 대한 설정 개체를 제공하도록, 디스플레이(140)에 표시된 이미지를 변경할 수 있다.
예컨대, 프로세서(150)는 저온 구간인 제1 온도 구간에 대하여는 청색광을 적용하고, 상온 구간인 제2 온도 구간에 대하여는 백색광을 적용하고, 이외 온도 구간인 제3 온도 구간에 대하여는 적색광을 적용하며, 제1 온도 구간 내지 제3 온도 구간 중 온도 센싱값을 포함하는 어느 하나의 온도 구간을 식별하면, 청색광, 백색광, 및 적색광 중 식별된 온도 구간에 대한 조명 설정을 바탕으로 디스플레이(140)에 표시된 이미지를 변경한다.
또한, 프로세서(150)는 시간값을 바탕으로 현재 시점에 대한 계절 별 일출 시점, 계절 별 일몰 시점, 및 계절 별로 기 설정된 기본 출력 정보를 식별할 수 있다.
이에 따라, 프로세서(150)는 계절 별 일출 시점 및 계절 별 일몰 시점을 기반으로 디스플레이(140) 상에 표시된 이미지의 밝기 값을 변경하고, 계절 별로 기 설정된 기본 출력 정보를 기반으로 표시된 이미지에 포함된 수중 생물의 종류를 변경할 수 있다.
한편, 프로세서(150)는, 메모리(110)를 통해, 디스플레이(140)에 표시된 이미지에 포함된 적어도 하나의 수중 생물 각각에 대한 종류 및 성별을 식별하고, 표시된 이미지 상의 생태 영역을 식별할 수 있다.
이에 따라, 프로세서(150)는 표시된 이미지에 포함된 적어도 하나의 수중 생물 중, 제1 수중 생물에 대해 암컷과 수컷이 모두 표시된 이미지에 포함된 경우, 제1 수중 생물의 종류에 대해 기 등록된 배란 주기 및 제1 수중 생물의 종류에 대해 기 등록된 부화 개체 수를 바탕으로, 제1 수중 생물의 개체수를 증가시키는 것이 가능하다.
또한, 프로세서(150)는 제1 수중 생물에 대해 공생 관계로 등록된 종류의 제2 수중 생물이 표시된 이미지에 포함된 경우, 제2 수중 생물에 대한 생태 영역을 제1 수중 생물에 대한 생태 영역에 일정 간격 이하로 근접하게 표시할 수 있다.
이에 따라, 프로세서(150)는 제1 수중 생물과 제2 수중 생물 간의 공생에 따른 행동 양식에 따른 이미지가 일정 주기별로 출력되도록, 디스플레이(140)에 표시된 이미지를 변경할 수 있다.
추가로, 프로세서(150)는 제1 수중 생물의 종류에 대한 생태 영역이 표시된 이미지 상에 미식별된 경우, 사용자 단말(200)의 사용자가 보유한 가상의 아쿠아리움 장식물에 대한 정보를 바탕으로 제1 수중 생물의 종류에 대한 생태 영역을 구성할 수 있는지 여부를 판단할 수 있다.
가상의 아쿠아리움 장식물에 대한 정보를 바탕으로 제1 수중 생물의 종류에 대한 생태 영역을 구성하는 것이 불가능한 것으로 판단한 경우, 프로세서(150)는, 사용자 단말(200)로 제1 수중 생물의 종류에 대한 생태 영역을 구성하는 장식물에 대한 추천 정보를 전송할 수 있다.
가상의 아쿠아리움 장식물에 대한 정보를 바탕으로 제1 수중 생물의 종류에 대한 생태 영역을 구성하는 것이 가능한 것으로 판단한 경우, 프로세서(150)는, 디스플레이(140)를 통해, 표시된 이미지 상에 모션 지시선을 오버랩하고, 모션 지시선의 시작 포인트에 근접한 제1 위치 좌표에 대해 사용자 단말을 식별하고, 시작 포인트로부터 모션 지시선의 종료 포인트에 근접한 제2 위치 좌표에 대한 제4 모션을 사용자 단말로부터 획득하되, 제4 모션을 모션 트래킹하여, 제4 모션의 입력 속도와 동일한 속도로 모션 지시선을 시작 포인트로부터 종료 포인트까지 소멸되도록 제어하며, 제4 모션에 따라 제2 위치 좌표에 사용자 단말이 위치한 시점에 제1 수중 생물의 종류에 대한 생태 영역이 표시된 이미지에 포함되도록 한다.
도 10은 본 발명의 이 실시예에 따른 사용자 단말의 구성도이다.
도 10에 따르면, 본 발명의 이 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치(100)와 통신 가능한, 사용자 단말(200)은 메모리(210), 적어도 하나의 디스플레이 장치(100)와 통신하는 통신부(220), 카메라(230), 디스플레이(240), 및 메모리(210), 통신부(220), 카메라(230), 및 디스플레이(240)와 연결된 프로세서(250)을 포함한다.
프로세서(250)는 사용자 단말(200)의 전반적인 동작을 제어할 수 있으며, 카메라(230)는 뎁스 카메라일 수 있다.
도 11은 본 발명의 이 실시예에 따른 기본 흐름도이다.
도시된 바와 같이, 본 발명의 이 면에 따른 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치(100)와 통신 가능한, 사용자 단말(200)의 제어 방법에 있어서, 사용자 단말(200)은, 디스플레이 장치(100)에 근접함에 따라, 통신부(220)를 통해 디스플레이 장치(100)와 페어링을 수행(S1110)하고, 사용자 단말(200)의 카메라(230)를 통해 디스플레이 장치(100)를 식별한다.
사용자 단말(200)은 식별된 디스플레이 장치(100)의 엣지 영역(10)을 식별하고, 식별된 엣지 영역(10)을 기준으로 하는 사용자 단말(200)의 위치 및 모션을 바탕으로, 가상의 아쿠아리움에 대한 사용자의 명령 정보를 획득(S1120)하고, 획득된 명령 정보를 바탕으로 이벤트를 식별(S1130)함에 따라, 식별된 이벤트를 시각화하기 위해, 표시된 이미지가 변경되도록, 디스플레이 장치(100)를 제어(S1140)한다.
이때, 카메라(230)를 통해 디스플레이 장치(100)를 식별함에 있어서, 사용자 단말(200)은 사용자 단말(200)이 포함하는 카메라(230)를 통해, 디스플레이 장치(100)의 화면을 둘러싸는 엣지 영역(10)을 구성하는 복수의 지점 각각에 대한 사용자 단말(200)의 거리를 식별하고, 복수의 지점 중 사용자 단말(200)과의 거리가 가장 가까운 적어도 하나의 지점을 선택할 수 있다.
예를 들어, 사용자 단말(200)은, 카메라(230)를 통해 촬영된 이미지 내 디스플레이 장치(100)의 엣지 영역(10), 및 디스플레이 장치(100)에 대해 기 등록된 규격을 바탕으로 사용자 단말(200)이 디스플레이 장치(100)에 대해 어느 지점에 위치하는지, 실측 거리를 판단할 수 있다. 구체적으로, 사용자 단말(200)은 촬영된 이미지 상의 디스플레이 장치(100)에 대한 형상을 식별하고, 식별된 형상을 이루는 각 변의 길이 관계를 바탕으로 사용자 단말(200)에 대한 디스플레이 장치(100)의 방향 내지는 상대적 위치 관계를 판단할 수 있다. 이에 따라, 사용자 단말(200)이 디스플레이 장치(100)의 어느 방향에 위치하였는지를 식별하는 한편, 식별된 형상의 크기와 디스플레이 장치(100)에 대해 기 등록된 규격(실제 크기)를 비교함에 따라 디스플레이 장치(100)와 사용자 단말(200) 간의 거리를 식별할 수 있다.
다른 예로, 사용자 단말(200)은 카메라(230)를 통해 촬영된 이미지 내, 디스플레이 장치(100)를 통해 표시된 가상의 아쿠아리움에 대한 고정 객체(: 디스플레이 장치(100)를 통해 표시된 이미지가 변경될 때, 표시된 이미지 내에 위치 및 크기가 변경되지 않는 객체, ex. 가상의 아쿠아리움 내 장식물로 자갈, 산호 등)를 식별할 수 있다. 촬영된 이미지 내, 적어도 하나의 고정 객체가 식별되면, 사용자 단말(200)은 식별된 고정 객체의 기 설정된 형상을 바탕으로 사용자 단말(200)이 디스플레이 장치(100)에 대해 갖는 거리 및 사용자 단말(200)이 디스플레이 장치(100)를 촬영하는 각도에 따른 엣지 영역(10)내 복수의 지점 중 사용자 단말(200)과의 거리가 가장 가까운 적어도 하나의 지점을 선택할 수 있다. 예컨대, 사용자 단말(200)은 식별된 고정 객체에 대해 기 설정된 형상에 따른 크기와 촬영된 이미지 내 고정 객체의 크기를 비교하여, 사용자 단말(200)과 디스플레이 장치(100) 간의 거리를 산출하거나, 또는, 사용자 단말(200)은 고정 객체에 대해 기 설정된 형상에 따른 엣지 영역(10)에 대한 최단 거리와 촬영된 이미지 내 고정 객체가 엣지 영역(10)에 대해 갖는 최단 거리를 비교하여, 사용자 단말(200)과 디스플레이 장치(100) 간의 거리를 산출할 수 있다.
또 다른 예로, 사용자 단말(200)은, 식별된 고정 객체의, 사용자 단말(200)가 디스플레이 장치(100)를 촬영하는 각도에 따른 형상 및 촬영된 이미지 내 고정 객체의 형상을 비교하여 사용자 단말(200)이 디스플레이 장치(100)에 대해 갖는 거리 및 사용자 단말(200)이 디스플레이 장치(100)를 촬영하는 각도에 따른 엣지 영역(10)내 복수의 지점 중 사용자 단말(200)과의 거리가 가장 가까운 적어도 하나의 지점을 선택할 수 있다. 예컨대, 디스플레이 장치(100)를 포함하는 이미지가 다양한 방향(각도, 관점)에서 획득된 경우를 전제로, 동일한 고정 객체에 대한 서로 다른 형상(ex. 원형이 타원형으로, 정사각형이 직사각형으로 획득)이 사용자 단말(200)에 저장될 수 있다. 여기서, 사용자 단말(200)은 촬영된 이미지 내 고정 객체의 형상에 따라 사용자 단말(200)이 디스플레이 장치(100)를 촬영하는 각도를 획득할 수 있다. 또는, 사용자 단말(200)은 고정 객체에 포함된 기 설정된 특징점(ex. 점, 꼭지점, 주변 픽셀과 RGB 값이 다른 어느 하나의 픽셀 등)을 복수 개 식별하고, 복수의 특징점 간의 거리를 획득하고, 촬영된 이미지 내 고정 객체에 대한 복수의 특징점 간의 거리를 기 설정된 특징점 간의 거리와 비교하여 사용자 단말(200)이 디스플레이 장치(100)를 촬영하는 각도를 산출할 수 있다. 여기서, 기설정된 특징점 간의 거리는, 예를 들어, 디스플레이 장치(100)에 고정 객체가 표시된 상태에서 고정 객체가 정면에서 촬영된 결과 식별되는 고정 객체 내 복수의 특징점 간의 거리에 해당할 수 있다. 이 경우, 특징점 간의 거리 내지 거리의 편차는, 고정 객체를 바라보는 방향에 따라 달라질 수 있다.
또한, 사용자 단말(200)이 단계 S1120를 수행함에 있어서, 선택된 지점에 대한 사용자 단말(200)의 거리가 임계 거리 미만인 상태에서, 사용자 단말(200)의 모션에 매칭되는 이벤트를 식별하고, 식별된 이벤트와 관련된 명령 정보를 획득할 수 있다. 이 경우, 사용자 단말(200)은 가속도 센서, 지자기 센서, GPS 센서, 카메라(230) 등을 바탕으로 (사용자에 의해 움직이는) 사용자 단말(200)의 모션을 식별할 수 있다. 일 예로, 사용자 단말(200)의 위쪽 측면이 디스플레이 장치(100)의 엣지 영역에 가까워지도록 사용자 단말(200)이 기울어지는 경우, 먹이 주기(피딩)에 해당하는 이벤트가 식별될 수 있으며, 식별된 이벤트의 명령 정보가 디스플레이 장치(100)로 전송될 수 있다.
이에 따라, 사용자 단말(200)이 단계 S1140를 수행함에 있어서, 사용자 단말(200)은 디스플레이 장치(100)의 화면(140) 중 지점(도 7의 11, 도 8의 12 등)과 맞닿은 좌표 영역을 기점으로 식별된 이벤트가 시각화되도록, 명령 정보에 따라 디스플레이 장치(100)를 제어하여, 표시된 이미지를 변경할 수 있다.
한편, 사용자 단말(200)의 제어 방법에 있어서, 인벤토리를 선택하는 사용자 명령을 획득한 경우, 사용자 단말(200)은 사용자 단말(200)의 사용자가 보유한 가상의 먹이에 대한 정보 및 가상의 수중 생물에 대한 정보를 포함하는 인벤토리 정보를 제공하고, 가상의 먹이에 대한 정보 및 가상의 수중 생물에 대한 정보 중 적어도 하나에 대한 추가 요청을 수신한 경우, 추가 요청의 대상이 된 정보의 결제 페이지를 출력함에 따라, 결제 페이지에 대한 결제를 수행하는 사용자 명령을 획득하면, 추가 요청의 대상이 된 정보를 바탕으로, 인벤토리 정보를 업데이트할 수 있다.
이때, 사용자 단말(200)이 식별된 이벤트가 시각화되도록, 디스플레이 장치(100)를 제어하여, 표시된 이미지를 변경함에 있어서, 식별된 이벤트가 피딩인 경우, 인벤토리 정보를 바탕으로, 가상의 먹이가 좌표 영역을 기점으로 등장하여 이동하도록, 디스플레이 장치(100)를 제어하여, 표시된 이미지를 변경하고, 가상의 아쿠아리움 내에 존재하는 수중 생물(21)가 가상의 먹이를 먹는 모습이 나타나도록, 디스플레이 장치(100)를 제어하여, 표시된 이미지를 변경할 수 있다.
예를 들어, 사용자 단말(200)은, 도 7에 도시된 바와 같이, 디스플레이 장치(100)의 엣지 영역에 대한 복수의 지점 중, 일 지점(11)이 사용자 단말(200)과 가장 근접한 것으로 판단하고, 일 지점(11)과 맞 닿은, 디스플레이 장치(100) 화면의 좌표 영역을 기점으로 먹이가 생성되어 가라앉거나, 가라앉던 먹이가 부력에 의해 떠오르는 이미지가 나타나도록 제어한다.
실시예로, 사용자 단말(200)은 획득한 모션을 바탕으로, 사용자가 의도한, 피딩 이벤트를 발생시키는 시간(먹이의 양), 및 먹이의 종류를 식별할 수 있다.
구체적으로, 사용자 단말(200)은 사용자 단말(200)의 사용자에 대해 저장된 인벤토리 정보를 제공하고, 인벤토리 정보에 포함된, 사용자 단말(200)의 사용자가 보유한 가상의 먹이에 대한 정보, 사용자 단말(200)의 사용자가 보유한 가상의 수중 생물에 대한 정보, 및 사용자 단말(200)의 사용자가 보유한 가상의 아쿠아리움 장식물에 대한 정보 중 적어도 하나에 대한 선택을 입력하는 제1 모션을 획득하면, 제1 모션에 대해 선택된 정보를 기본 출력 정보로 저장할 수 있다.
이때, 기본 출력 정보는, 사용자 단말(200)의 모션에 대해 식별된 이벤트를 디스플레이 장치(100)를 통해 시각화 함에 있어, 디스플레이(140) 상에 출력되는 이미지 설정값이다.
사용자 단말(200)은 기 설정된 제2 모션을 획득하면, 제2 모션에 대한 피딩 이벤트를 식별하고, 제2 모션이 발생한 횟수를 바탕으로 피딩 이벤트를 발생시키는 시간을 산출한다.
또한, 사용자 단말(200)은, 가상의 아쿠아리움 내에 존재하는 복수의 수중 생물 중 가상의 먹이와 매핑되도록 기설정된 적어도 하나의 수중 생물을 선택하고, 이에 따라, 디스플레이 장치(100)를 제어하여, 선택된 수중 생물(21)가 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경할 수 있다.
예컨대, 사용자 단말(200)의 사용자에 대한 인벤토리에 먹이의 종류가 구분되어 저장되며, 수중 생물의 종류(21, 22, 23 등)가 구분됨에 따라, 디스플레이 장치(100)를 제어하여, 먹이의 종류 A에 대해 기 매칭된 수중 생물(21)에 대항하는 복수의 수중 생물이 동적으로 표시된 먹이를 포인트로 이동하게 하고, 먹이에 근접한 각각의 수중 생물(21)가 먹이를 먹는 동작을 수행하도록, 표시된 이미지를 변경할 수 있다.
이때, 사용자 단말(200)은, 피딩에 해당하는 이벤트가 식별된 시점을 기준으로 일정 시간 내에 선택된 수중 생물(21)가 먹은 가상의 먹이의 양을 식별하고, 식별된 양이 임계량 미만이면, 가상의 아쿠아리움 내에 존재하는, 해당 수중 생물(21)가 가상의 먹이를 먹는 모습이 나타나도록, 표시된 이미지를 변경하고, 식별된 양이 임계량을 초과하면, 선택된 수중 생물(21)가 가상의 먹이를 먹지 않도록 디스플레이 장치(100)를 통해 제어할 수 있다.
이에 따라, 식별된 양이 임계량 미만이면, 사용자 단말(200)은 선택된 수중 생물(21)의 소화 속도를 바탕으로, 식별된 양이 임계량 이상이 되는 시점까지 가상의 먹이에 대해 선택된 수중 생물(21)가 먹는 동작을 수행하는 것을 디스플레이 장치(100)를 통해 제한함으로써 가상의 아쿠아리움에 대해 사실감을 부가할 수 있다.
또한, 사용자 단말(200)이 식별된 이벤트가 시각화되도록, 디스플레이 장치(100)를 제어하여, 표시된 이미지를 변경함에 있어서, 식별된 이벤트가 수중 생물 추가인 경우, 인벤토리 정보를 바탕으로, 가상의 수중 생물이 좌표 영역을 기점으로 등장하여 이동하도록, 표시된 이미지를 변경하는 단계를 포함할 수 있다.
구체적으로, 사용자 단말(200)은 기 설정된 제3 모션을 획득하면, 제3 모션에 대한 수중 생물 추가 이벤트를 식별하고, 사용자가 보유한 가상의 수중 생물들(21, 22, 23) 중, 제3 모션에 의해 선택된 가상의 수중 생물(21)가, 사용자 단말(200)의 거리가 임계 거리 미만인 일 지점(12)과 맞닿은, 디스플레이 장치 상의 좌표 영역에 대하여 등장하여 가상의 아쿠아리움 내에서 헤엄쳐 이동하는 모습이 표시되도록, 도 8에 도시된 바와 같이, 디스플레이 장치(100)를 통해 표시된 이미지를 변경할 수 있다.
한편, 사용자 단말(200)이 단계 S1110을 수행함에 있어서, 사용자 단말(200)은 디스플레이 장치(100)로, 인벤토리 정보 및 사용자의 모션 정보 중 적어도 하나를 각각 전송할 수 있다.
이때, 사용자의 모션 정보는, 인식된 모션에 매칭되는 이벤트에 대한 정보를 포함할 수 있다.
실시예로, 사용자 단말(200)의 제어 방법에 있어서, 사용자 단말(200)이 페어링 허용에 대한 활성화 모드 및 페어링 불가에 대한 비활성화 모드 중 어느 하나를 선택하는 것에 대한 사용자 명령을 획득할 수 있다.
이에 따라, 사용자 단말(200)이 비활성화 모드인 경우, 사용자 단말(200)은 디스플레이 장치(100)에 대한 페어링이 수행되는 것을 제한하되, 활성화 모드에 대한 사용자 명령이 획득된 시점부터 디스플레이 장치(100)에 대한 페어링이 수행되는 것을 허용할 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.
본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
100 : 디스플레이 장치
110 : 메모리
120 : 통신부
130 : 카메라
140 : 디스플레이
150 : 프로세서
200 : 사용자 단말
210 : 메모리
220 : 통신부
230 : 카메라
240 : 디스플레이
250 : 프로세서

Claims (13)

  1. 디스플레이 장치에 있어서,
    가상의 아쿠아리움의 이미지가 저장된 메모리;
    통신부;
    카메라;
    상기 이미지를 표시하는 디스플레이; 및
    상기 메모리, 상기 통신부, 상기 카메라, 및 상기 디스플레이와 연결된 프로세서;를 포함하고,
    상기 프로세서는,
    상기 통신부를 통해, 근접한 적어도 하나의 사용자 단말과 페어링을 수행하고,
    상기 카메라를 통해 상기 사용자 단말을 식별하고,
    상기 식별된 사용자 단말의 위치 및 모션을 바탕으로, 상기 표시된 이미지를 변경하고,
    상기 카메라를 통해, 상기 디스플레이의 화면을 둘러싸는 엣지 영역을 구성하는 복수의 지점 각각에 대한 상기 사용자 단말의 거리를 식별하고,
    상기 복수의 지점 중 상기 사용자 단말과 가장 가까운 일 지점에 대한 상기 사용자 단말의 거리가 임계 거리 미만인 상태에서, 상기 카메라를 통해 상기 사용자 단말의 모션을 식별하고,
    상기 식별된 모션에 매칭되는 이벤트를 식별하고,
    상기 디스플레이의 화면 중 상기 일 지점과 맞닿은 좌표 영역을 기점으로 상기 식별된 이벤트가 시각화되도록, 상기 표시된 이미지를 변경하고,
    상기 사용자 단말로부터 상기 사용자 단말의 사용자가 보유한 가상의 수중 생물에 대한 정보를 수신하고,
    상기 식별된 이벤트가 수중 생물 추가인 경우, 상기 가상의 수중 생물이 상기 좌표 영역을 기점으로 등장하여 이동하도록, 상기 표시된 이미지를 변경하는, 디스플레이 장치.
  2. 삭제
  3. 제1 항에 있어서,
    상기 프로세서는,
    상기 사용자 단말로부터 상기 사용자 단말의 사용자가 보유한 가상의 먹이에 대한 정보를 수신하고,
    상기 식별된 이벤트가 피딩인 경우, 상기 가상의 먹이가 상기 좌표 영역을 기점으로 등장하여 이동하도록, 상기 표시된 이미지를 변경하고,
    상기 가상의 아쿠아리움 내에 존재하는 수중 생물이 상기 가상의 먹이를 먹는 모습이 나타나도록, 상기 표시된 이미지를 변경하는, 디스플레이 장치.
  4. 제3 항에 있어서,
    상기 프로세서는,
    상기 가상의 아쿠아리움 내에 존재하는 복수의 수중 생물 중 상기 가상의 먹이와 매핑되도록 기설정된 적어도 하나의 수중 생물을 선택하고,
    상기 선택된 수중 생물이 상기 가상의 먹이를 먹는 모습이 나타나도록, 상기 표시된 이미지를 변경하는, 디스플레이 장치.
  5. 제4 항에 있어서,
    상기 프로세서는,
    상기 피딩에 해당하는 이벤트가 식별된 시점을 기준으로 일정 시간 내에 상기 선택된 수중 생물이 먹은 가상의 먹이의 양을 식별하고,
    상기 식별된 양이 임계량 미만이면, 상기 가상의 아쿠아리움 내에 존재하는 수중 생물이 상기 가상의 먹이를 먹는 모습이 나타나도록, 상기 표시된 이미지를 변경하고,
    상기 식별된 양이 임계량을 초과하면, 상기 선택된 수중 생물이 상기 가상의 먹이를 먹지 않도록 제어하는, 디스플레이 장치.
  6. 삭제
  7. 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치와 통신 가능한, 사용자 단말의 제어 방법에 있어서,
    상기 사용자 단말이, 상기 디스플레이 장치에 근접함에 따라, 상기 디스플레이 장치와 페어링을 수행하는 단계;
    상기 사용자 단말이, 카메라를 통해 상기 디스플레이 장치를 식별하는 단계;
    상기 사용자 단말이, 상기 식별된 디스플레이 장치를 기준으로 하는 상기 사용자 단말의 위치 및 모션을 바탕으로, 상기 가상의 아쿠아리움에 대한 사용자의 명령 정보를 획득하는 단계;
    상기 사용자 단말이, 상기 획득된 명령 정보를 바탕으로 상기 표시된 이미지가 변경되도록, 상기 디스플레이 장치를 제어하는 단계; 및
    상기 사용자 단말이, 인벤토리를 선택하는 사용자 명령을 획득한 경우, 상기 사용자 단말의 사용자가 보유한 가상의 먹이에 대한 정보 및 가상의 수중 생물에 대한 정보를 포함하는 인벤토리 정보를 제공하는 단계;를 포함하고,
    상기 카메라를 통해 상기 디스플레이 장치를 식별하는 단계는,
    상기 카메라를 통해, 상기 디스플레이 장치의 화면을 둘러싸는 엣지 영역을 구성하는 복수의 지점 각각에 대한 상기 사용자 단말의 거리를 식별하는 단계; 및
    상기 복수의 지점 중 상기 사용자 단말과의 거리가 가장 가까운 적어도 하나의 지점을 선택하는 단계;를 포함하고,
    상기 사용자의 명령 정보를 획득하는 단계는,
    상기 지점에 대한 상기 사용자 단말의 거리가 임계 거리 미만인 상태에서, 상기 사용자 단말의 모션에 매칭되는 이벤트를 식별하고,
    상기 식별된 이벤트와 관련된 명령 정보를 획득하고,
    상기 디스플레이 장치를 제어하는 단계는,
    상기 디스플레이 장치의 화면 중 상기 지점과 맞닿은 좌표 영역을 기점으로 상기 식별된 이벤트가 시각화되도록, 상기 명령 정보에 따라 상기 디스플레이 장치를 제어하여, 상기 표시된 이미지를 변경하는 단계;를 포함하고,
    상기 표시된 이미지를 변경하는 단계는,
    상기 식별된 이벤트가 수중 생물 추가인 경우, 상기 인벤토리 정보를 바탕으로, 상기 가상의 수중 생물이 상기 좌표 영역을 기점으로 등장하여 이동하도록, 상기 표시된 이미지를 변경하는 단계;를 포함하는, 사용자 단말의 제어 방법.
  8. 삭제
  9. 삭제
  10. 제7 항에 있어서,
    상기 사용자 단말의 제어 방법에 있어서,
    상기 사용자 단말이, 상기 가상의 먹이에 대한 정보 및 상기 가상의 수중 생물에 대한 정보 중 적어도 하나에 대한 추가 요청을 수신한 경우, 상기 추가 요청의 대상이 된 정보의 결제 페이지를 출력하는 단계; 및
    상기 사용자 단말이, 상기 결제 페이지에 대한 결제를 수행하는 사용자 명령을 획득하면, 상기 추가 요청의 대상이 된 정보를 바탕으로, 상기 인벤토리 정보를 업데이트하는 단계;를 포함하는, 사용자 단말의 제어 방법.
  11. 제7 항에 있어서,
    상기 표시된 이미지를 변경하는 단계는,
    상기 식별된 이벤트가 피딩인 경우, 상기 인벤토리 정보를 바탕으로, 상기 가상의 먹이가 상기 좌표 영역을 기점으로 등장하여 이동하도록, 상기 디스플레이 장치를 제어하여, 상기 표시된 이미지를 변경하는 단계; 및
    상기 가상의 아쿠아리움 내에 존재하는 수중 생물이 상기 가상의 먹이를 먹는 모습이 나타나도록, 상기 디스플레이 장치를 제어하여, 상기 표시된 이미지를 변경하는 단계;를 포함하는, 사용자 단말의 제어 방법.
  12. 삭제
  13. 제7 항에 있어서,
    상기 디스플레이 장치와 페어링을 수행하는 단계는,
    상기 디스플레이 장치로, 상기 인벤토리 정보를 전송하는 단계; 및
    상기 디스플레이 장치로, 사용자의 모션 정보를 전송하는 단계;를 포함하고,
    상기 사용자의 모션 정보는,
    인식된 모션에 매칭되는 이벤트에 대한 정보를 포함하는, 사용자 단말의 제어 방법.
KR1020220058286A 2022-05-12 2022-05-12 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법 KR102454833B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220058286A KR102454833B1 (ko) 2022-05-12 2022-05-12 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220058286A KR102454833B1 (ko) 2022-05-12 2022-05-12 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법

Publications (1)

Publication Number Publication Date
KR102454833B1 true KR102454833B1 (ko) 2022-10-14

Family

ID=83599944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220058286A KR102454833B1 (ko) 2022-05-12 2022-05-12 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법

Country Status (1)

Country Link
KR (1) KR102454833B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080075932A (ko) * 2007-01-11 2008-08-20 (주)에이치씨아이랩 음성 및 영상 인식을 이용하여 주인을 알아보고 주인과대화형 인터페이스 및 상호 연동이 가능한 디지털 수족관장치 그 제어방법
KR20190020434A (ko) 2017-08-21 2019-03-04 이성주 영상 출력 장치의 콘텐츠 제공 방법
KR20190041069A (ko) * 2017-10-12 2019-04-22 삼성전자주식회사 디스플레이 장치와 사용자 단말 장치 및 이를 포함하는 디스플레이 시스템
KR102041279B1 (ko) * 2019-04-17 2019-11-27 주식회사 지티온 가상 인터렉티브 컨텐츠의 사용자 인터페이스 제공 시스템, 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080075932A (ko) * 2007-01-11 2008-08-20 (주)에이치씨아이랩 음성 및 영상 인식을 이용하여 주인을 알아보고 주인과대화형 인터페이스 및 상호 연동이 가능한 디지털 수족관장치 그 제어방법
KR20190020434A (ko) 2017-08-21 2019-03-04 이성주 영상 출력 장치의 콘텐츠 제공 방법
KR20190041069A (ko) * 2017-10-12 2019-04-22 삼성전자주식회사 디스플레이 장치와 사용자 단말 장치 및 이를 포함하는 디스플레이 시스템
KR102041279B1 (ko) * 2019-04-17 2019-11-27 주식회사 지티온 가상 인터렉티브 컨텐츠의 사용자 인터페이스 제공 시스템, 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체

Similar Documents

Publication Publication Date Title
US10482662B2 (en) Systems and methods for mixed reality transitions
US11138796B2 (en) Systems and methods for contextually augmented video creation and sharing
WO2019205838A1 (zh) 虚拟场景中的距离信息显示方法、终端及计算机设备
CN105637564B (zh) 产生未知对象的扩增现实内容
KR20230098172A (ko) 확장 현실 시스템들을 위한 추천들
JP6492332B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11508087B2 (en) Texture-based pose validation
US20170293349A1 (en) Lighting system control method, computer program product, wearable computing device and lighting system kit
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
JPWO2013054462A1 (ja) ユーザーインタフェース制御装置、ユーザーインタフェース制御方法、コンピュータプログラム、及び集積回路
KR20200061279A (ko) 전자 장치 및 그 제어 방법
KR20220149503A (ko) 이미지 촬영 방법 및 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체
CN112424832A (zh) 用于检测对象的3d关联的系统与方法
US20240070976A1 (en) Object relighting using neural networks
KR20180062867A (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
CN118103799A (zh) 与远程设备的用户交互
JP2017182247A (ja) 情報処理装置、情報処理方法、およびプログラム
KR102454833B1 (ko) 가상의 아쿠아리움의 이미지를 표시하는 디스플레이 장치, 및 디스플레이 장치와 통신 가능한 사용자 단말의 제어 방법
KR102481956B1 (ko) 유물 위치에 따른 역사 교육 연계형 코딩 시스템의 제어 방법
KR102214338B1 (ko) 증강현실 표시를 위한 전자 장치의 제어 방법, 장치 및 프로그램
KR102445082B1 (ko) 블록 퍼즐의 솔루션을 제공하는 서버의 제어 방법
KR20220111821A (ko) 증강현실 기반 전자 장치의 제어 방법
KR20200061196A (ko) 디스플레이 장치 및 그 제어 방법
KR102665395B1 (ko) 홀까지의 경로 이미지를 포함하는 ar을 제공하는 전자 장치의 제어 방법
KR102585311B1 (ko) 360도 영상과 hmd를 활용하고, 메타버스 공간 내에서 진행되는 비대면 실시간 교육 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant