KR101979918B1 - 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템 - Google Patents

가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템 Download PDF

Info

Publication number
KR101979918B1
KR101979918B1 KR1020170173027A KR20170173027A KR101979918B1 KR 101979918 B1 KR101979918 B1 KR 101979918B1 KR 1020170173027 A KR1020170173027 A KR 1020170173027A KR 20170173027 A KR20170173027 A KR 20170173027A KR 101979918 B1 KR101979918 B1 KR 101979918B1
Authority
KR
South Korea
Prior art keywords
information
terminal
user interface
input
user
Prior art date
Application number
KR1020170173027A
Other languages
English (en)
Inventor
김효찬
Original Assignee
김효찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김효찬 filed Critical 김효찬
Priority to KR1020170173027A priority Critical patent/KR101979918B1/ko
Application granted granted Critical
Publication of KR101979918B1 publication Critical patent/KR101979918B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따른 실시예는, 방법으로서, 카메라 시스템과 디스플레이를 구비한 단말기에서, 애플리케이션을 실행하는 단계; 제1 어포던스를 포함하는 제1 사용자 인터페이스를 표시하는 단계; 상기 제1 사용자 인터페이스에 상기 카메라 시스템으로부터의 촬영 영상을 표시하는 단계; 제1 컨텐츠를 입력 기능을 개시하는 상기 제1 어포던스에 대한 선택을 검출하는 것에 응답하여 제2 사용자 인터페이스를 표시하는 단계; 상기 제2 사용자 인터페이스를 통해 입력된 제1 컨텐츠를 상기 촬영 영상 내에 표시하는 단계; 및 상기 제1 컨텐츠와 상기 제1 컨텐츠의 위치 좌표를 저장하는 단계;를 포함하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수 있다.

Description

가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템{A method for inputting information on a virtual space, and a terminal and a system therefor}
본 발명은 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템에 관한 것이다.
소셜 네트워킹 서비스(Social Networking Service, 이하 SNS)는 사용자 간의 자유로운 의사소통과 정보 공유, 그리고 인맥 확대 등을 통해 사회적 관계를 생성하고 강화해주는 온라인 플랫폼을 의미한다. SNS에서 가장 중요한 부분은 이 서비스를 통해 사회적 관계망을 생성, 유지, 강화, 확장해 나간다는 점이다. 이러한 관계망을 통해 정보가 공유되고 유통될 때 더욱 의미 있을 수 있다. 오늘날 대부분의 SNS는 웹 기반의 서비스이며, 웹 이외에도 전자 우편이나 인스턴트 메신저를 통해 사용자들끼리 서로 연락할 수 있는 수단을 제공하고 있다.
현재 전 세계적으로 페이스북, 인스타그램, 마이스페이스, 트위터, 링크트인 등 소셜 네트워크 서비스가 이용되고 있다. 이들은 게시판에서 글을 쓰고 등록하는 방식으로 사용자간에 컨텐츠를 공유하는 플랫폼을 제공한다.
상기와 같이 종래에는 사용자가 일반 게시판에 글이나, 영상 등의 각종 컨텐츠를 입력하는 방식으로 SNS 서비스를 이용한다. 하지만, 이러한 게시글을 등록하는 방식은 사용자들의 다양한 게시글 작성 욕구를 제한하는 불편함이 있다. 또한, 종래의 SNS는 영상과 영상과 관련한 각종 텍스트 등을 SNS에 등록할 때 이들 각각을 서로 구분하여 등록해야만 하고, 영상과 각종 컨텐츠가 결합된 하나의 컨텐츠를 등록하기 위해서는 이들을 서로 결합하기 위한 별도의 툴과 툴 사용에 대한 숙련도가 필요한 불편함이 있다. 뿐만 아니라, 웹 서버를 이용한 소셜 네트워크 서비스 방법은 PC, 휴대폰 등과 같은 장치로 게시물을 작성 및 관람할 때, SNS 웹 사이트를 통해서 SNS 서버에 접속하여 소셜 네트워크 서비스를 제공받기 때문에 서버 유지를 위한 관리 비용이 발생하게 된다는 번거로움이 있다. 또한, 종래의 소셜 네트워킹 서비스는 동일하거나 거의 변화가 없는 고정된 방식의 컨텐츠 등록 플랫폼을 제공한다. 이로 인하여 종래의 SNS는 단편적인 플랫폼이라는 인식이 강화되고 있고 최근 SNS 사용자의 대량 이탈 및 일회성 접촉에 불과한 사용자 수의 증가라는 새로운 SNS 위기가 대두되고 있다.
한국특허공개공보 10-2012-0137543 A1
본 발명은 전술한 문제점을 해결하기 위한 것으로써, 기존의 게시판에 컨텐츠를 등록하는 방식이 아닌 현실 세계 기반의 가상 공간에 컨텐츠를 저장하고 공유할 수 있도록 한 방법 및 이를 위한 단말기와 시스템을 제공하는데 목적이 있다.
또한, 본 발명은 특정 장소에 대한 영상 컨텐츠에 다른 컨텐츠를 쉽고 편리하게 결합시킬 수 있도록 하는데 목적이 있다.
또한, 본 발명은 특정 장소와 해당 장소 내의 각종 시설물에 대한 정보를 필요로 하는 유저가 해당 정보를 빠르고 편리하게 취득할 수 있도록 하는데 목적이 있다.
실시예는, 방법으로서, 카메라 시스템과 디스플레이를 구비한 단말기에서, 애플리케이션을 실행하는 단계; 제1 어포던스를 포함하는 제1 사용자 인터페이스를 표시하는 단계; 상기 제1 사용자 인터페이스에 상기 카메라 시스템으로부터의 촬영 영상을 표시하는 단계; 제1 컨텐츠를 입력 기능을 개시하는 상기 제1 어포던스에 대한 선택을 검출하는 것에 응답하여 제2 사용자 인터페이스를 표시하는 단계; 상기 제2 사용자 인터페이스를 통해 입력된 제1 컨텐츠를 상기 촬영 영상 내에 표시하는 단계; 및 상기 제1 컨텐츠와 상기 제1 컨텐츠의 위치 좌표를 저장하는 단계;를 포함하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수 있다.
다른 측면에서, 상기 제1 컨텐츠에 대한 터치 및 상기 터치의 이동을 검출하는 것에 응답하여 상기 터치의 이동 방향으로 상기 제1 컨텐츠를 이동시키는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
또 다른 측면에서, 상기 카메라 시스템의 촬영 영상의 확대 또는 축소에 대응하여 상기 촬영 영상 내의 컨텐츠를 확대 또는 축소하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
또 다른 측면에서, 다른 단말기에서 저장된 제2 컨텐츠가 상기 촬영 영상 내에 표시되는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
또 다른 측면에서, 상기 제1 사용자 인터페이스에 포함된 제2 어포던스에 대한 선택을 검출하는 것에 응답하여 상기 제1 및 제2 컨텐츠 중 어느 하나만 표시하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
또 다른 측면에서, 컨텐츠가 저장된 장소들에 대한 지도 정보를 제3 사용자 인터페이스를 제공하는 단계;를 더 포함하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
또 다른 측면에서, 상기 장소들 중 어느 하나의 장소에 대한 선택을 검출하는 것에 응답하여 선택된 장소의 촬영 영상 및 상기 선택된 장소의 촬영 영상 내에 미리 저장된 컨텐츠를 표시하는 단계;를 더 포함하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
또 다른 측면에서, 상기 단말기의 위치 정보를 수집하는 단계; 및 상기 위치 정보에 기초하여 컨텐츠가 저장된 장소에 상기 단말기가 위치하는 것으로 판단하는 것에 응답하여 알람을 표시하는 단계;를 더 포함하는 가상 공간 상에 정보를 입력하는 방법을 제공할 수도 있다.
실시예는 실제 현실 세계에 기초하여 생성된 가상의 공간 상에 텍스트, 영상 또는 편지 등의 컨텐츠를 저장할 수 있고 언제 어디서나 자신이 남긴 기록 정보를 열람할 수 있다.
또한, 실시예는 특정 공간 내에 저장된 타인의 컨텐츠를 열람할 수 있고, 해당 컨텐츠에 관심을 표하거나 댓글을 다는 방식으로 컨텐츠를 공유하고 커뮤니케이션 할 수 있는 새로운 인터페이스를 제공한다.
또한, 실시예는 복수의 지역에 가상으로 남긴 흔적들을 간편하게 열람할 수 있도록 한 방법을 제공한다.
또한, 실시예는 가상의 공간에 평면적으로 정보를 기록하는 것이 아닌 3차원 적으로 흔적을 남길 수 있는 방법을 제공한다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다.
도 1은 예시적인 시스템에 대한 블록 다이어그램이다.
도 2는 예시적인 단말기에 대한 설명을 제공한다.
도 3은 단말기에 대한 예시도이다.
도 4 내지 도 8은 일부 실시예들에 따른, 단말기 상의 애플리케이션의 가상 공간 내에 텍스트 정보를 입력 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
도 9 내지 도 13은 일부 실시예들에 따른, 단말기 상의 애플리케이션의 가상 공간 내에 영상 정보를 입력 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
도 14 내지 도 16은 단말기 상의 애플리케이션의 가상 공간 내에 편지 정보를 입력 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
도 17 내지 도 22는 단말기 상의 애플리케이션의 가상 공간 내의 입력 정보 서칭 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
본 발명의 실시예는 현실 세계 기반의 가상의 공간 상에 정보를 입력할 수 있는 기능을 가지는 사용자 인터페이스들을 갖는다. 애플리케이션을 표시하는 동안, 단말기는 사용자의 가상 공간 상에 정보를 입력하라는 요청에 응답한다. 사용자 인터페이스는 사용자들과 연관된 선택 가능한 어포던스 또는 아이콘이나 이들로 구성된 행 또는 열에 대한 영역을 포함할 수 있다. 사용자 인터페이스를 표시하는 동안, 단말기는 사용자 인터페이스에서 어포던스의 선택을 검출한다. 어포던스에 미리 설정된 기능에 따라, 단말기는 가상의 공간 상에 정보를 입력하기 위한 프로세스를 개시한다. 실시예는 보다 쉽고 직관적으로 가상의 공간 상에 각종 정보를 입력할 수 있도록 한다.
이하에서 도 1은 예시적인 시스템에 대한 블록 다이어그램이고, 도 2는 예시적인 단말기에 대한 설명을 제공한다.
이제, 실시예들이 상세하게 참조될 것이며, 실시예들의 예들이 첨부 도면들에 예시된다. 하기의 상세한 설명에서, 많은 구체적인 상세 사항들이 다양하게 기술된 실시예들의 완전한 이해를 제공하기 위해 설명된다. 그러나, 다양하게 기술된 실시예들이 이들 구체적인 상세 사항 없이 실시될 수 있다는 것은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백할 것이다. 다른 예들에서, 잘 알려진 방법들, 절차들, 컴포넌트들, 회로들 및 네트워크들은 실시예들의 양태들을 불필요하게 모호하게 하지 않기 위해 상세히 설명되지 않았다.
일부 예들에서, 용어들, 제1, 제2 등이 본 명세서에서 다양한 요소들을 기술하는 데 사용되지만, 이들 요소들은 이들 용어들로 제한되어서는 안 된다는 것이 또한 이해될 것이다. 이들 용어들은 하나의 요소를 다른 요소와 구별하는 데에만 사용된다. 예를 들어, 다양하게 기술된 실시예들의 범주로부터 벗어남이 없이, 제1 접촉이 제2 접촉으로 지칭될 수 있고, 유사하게, 제2 접촉이 제1 접촉으로 지칭될 수 있다. 제1 접촉 및 제2 접촉은 둘 모두가 접촉이지만, 그들이 동일한 접촉인 것은 아니다.
본 명세서에서 다양하게 기술된 실시예들의 설명에 사용되는 용어는 특정 실시예들을 기술하는 목적만을 위한 것이고, 제한하려는 의도는 아니다. 다양하게 기술된 실시예들의 설명 및 첨부된 청구범위에 사용되는 바와 같이, 단수의 형태는 문맥상 명백히 다르게 나타내지 않는다면 복수의 형태들도 마찬가지로 포함하려는 것으로 의도된다. 또한, 본 명세서에서 사용되는 바와 같은 용어 "및/또는"은 열거되는 연관된 항목들 중 하나 이상의 항목의 임의의 그리고 모든 가능한 조합들을 나타내고 그들을 포괄하는 것임이 이해될 것이다. 본 명세서에서 사용될 때 용어들 포함한다는 언급되는 특징들, 정수들, 단계들, 동작들, 요소들, 및/또는 컴포넌트들의 존재를 특정하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들, 및/또는 이들의 그룹들의 존재 또는 추가를 배제하지 않음이 추가로 이해될 것이다.
본 명세서에서 사용되는 바와 같이, 용어 "~는 경우"는, 선택적으로, 문맥에 따라 "~할 때" 또는 "~시" 또는 "결정하는 것에 응답하여" 또는 "검출하는 것에 응답하여"를 의미하는 것으로 해석된다. 유사하게, 구문 "결정된 경우" 또는 "[언급된 조건 또는 이벤트가] 검출된 경우"는, 선택적으로, 문맥에 따라, "결정 시" 또는 "결정하는 것에 응답하여" 또는 "[언급된 조건 또는 이벤트] 검출 시" 또는 "[언급된 조건 또는 이벤트를] 검출하는 것에 응답하여"를 의미하는 것으로 해석된다.
단말기들, 그러한 단말기들을 위한 사용자 인터페이스들, 및 그러한 단말기들을 사용하기 위한 연관 된 프로세스들의 실시예들이 기술된다.
이하의 논의에서, 디스플레이 및 터치 감응형 표면을 포함하는 단말기가 기술된다. 그러나, 단말기가 선택적으로 물리적 키보드, 마우스 및/또는 조이스틱과 같은 하나 이상의 다른 물리적 사용자 인터페이스 디바이스를 포함한다는 것이 이해되어야 한다.
단말기는 전형적으로 다음 중 하나 이상과 같은 다양한 애플리케이션들을 지원한다: 그리기 애플리케이션, 프레젠테이션 애플리케이션, 워드 프로세싱 애플리케이션, 웹사이트 제작 애플리케이션, 디스크 저작 애플리케이션, 스프레드시트 애플리케이션, 게임 애플리케이션, 전화 애플리케이션, 화상 회의 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 운동 지원 애플리케이션, 사진 관리 애플리케이션, 디지털 카메라 애플리케이션, 디지털 비디오 카메라 애플리케이션, 웹 브라우징 애플리케이션, 디지털 음악 재생기 애플리케이션, 및/또는 디지털 비디오 재생기 애플리케이션.
단말기 상에서 실행되는 다양한 애플리케이션들은, 선택적으로, 터치 감응형 표면과 같은 적어도 하나의 보편적인 물리적 사용자 인터페이스 디바이스를 사용한다. 터치 감응형 표면의 하나 이상의 기능뿐만 아니라 디바이스 상에 표시되는 대응 정보는, 선택적으로, 조정되고 그리고/또는 하나의 애플리케이션으로부터 다음 애플리케이션으로 그리고/또는 각각의 애플리케이션 내에서 변화된다. 이러한 방식으로, 디바이스의 (터치 감응형 표면과 같은) 보편적인 물리적 아키텍처는, 선택적으로, 사용자에게 직관적이고 명료한 사용자 인터페이스들을 이용하여 다양한 애플리케이션들을 지원한다.
이제 터치 감응형 디스플레이들을 구비한 휴대용 단말기들의 실시예들에 주목한다. 도 2는 일부 실시예들에 따른 터치 감응형 디스플레이(110)들을 구비한 휴대용 단말기(100)를 예시하는 블록도이다. 터치 감응형 디스플레이(110)는 때때로 편의상 "터치 스크린"이라고 지칭되고, 때때로 터치 감응형 디스플레이 시스템으로 알려지거나 지칭된다. 단말기(100)는 메모리(190)(선택적으로, 하나 이상의 컴퓨터 판독 가능한 저장 매체를 포함함), 메모리 제어기(191), 하나 이상의 처리 유닛(CPU)(180), 주변기기 인터페이스(120), RF 회로(170), 입/출력(I/O) 서브시스템(130), 다른 입력 또는 제어 디바이스들(140), 및 카메라시스템(150)을 포함한다. 단말기(100)는, 선택적으로, 단말기(100) 상의 접촉들의 세기를 검출하기 위한 하나 이상의 세기 센서(160)(예를 들어, 단말기(100)의 터치 감응형 디스플레이 시스템(110)과 같은 터치 감응형 표면)를 포함한다. 단말기(100)는, 선택적으로, 단말기(100) 상에 촉각적 출력들을 생성하기 위한(예를 들어, 단말기(100)의 터치 감응형 디스플레이 시스템(110) 또는 터치패드와 같은 터치 감응형 표면 상에 촉각적 출력들을 생성하기 위한) 하나 이상의 촉각적 출력 생성기를 포함한다. 이들 컴포넌트는 선택적으로 하나 이상의 통신 버스 또는 신호 라인을 통해 통신한다.
단말기(100)는 일 예일 뿐이고, 단말기(100)는 선택적으로 도시된 것보다 더 많거나 더 적은 컴포넌트들을 갖거나, 선택적으로 2개 이상의 컴포넌트를 조합하거나, 선택적으로 컴포넌트들의 상이한 구성 또는 배열을 갖는다는 것이 인식되어야 한다. 도 2에 도시된 다양한 컴포넌트들은 하나 이상의 신호 처리 및/또는 주문형 집적 회로(application specific integrated circuit)들을 비롯한, 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어 둘 모두의 조합으로 구현된다.
메모리(190)는, 선택적으로, 고속 랜덤 액세스 메모리를 포함하고, 또한 선택적으로, 하나 이상의 자기 디스크저장 디바이스, 플래시 메모리 디바이스, 또는 다른 비휘발성 솔리드 스테이트 메모리 디바이스와 같은 비휘발성 메모리를 포함한다. CPU(180) 및 주변기기 인터페이스(120)와 같은 단말기(100)의 다른 컴포넌트들에 의한 메모리(190)에의 액세스는, 선택적으로, 메모리 제어기(191)에 의해 제어된다.
주변기기 인터페이스(120)는 디바이스의 입력 및 출력 주변기기들을 CPU(180) 및 메모리(190)에 연결하는 데 사용될 수 있다. 하나 이상의 프로세서(180)는 단말기(100)에 대한 다양한 기능들을 수행하고 데이터를 처리하기 위해 메모리(190)에 저장된 다양한 소프트웨어 프로그램들 및/또는 명령어들의 세트들을 구동하거나 실행한다.
일부 실시예들에서, 주변기기 인터페이스(120), CPU(180) 및 메모리 제어기(191)는, 선택적으로, 칩과 같은 단일 칩 상에서 구현된다. 일부 다른 실시예들에서, 이들은 선택적으로 별개의 칩들 상에서 구현된다.
RF(radio frequency) 회로(170)는 전자기 신호들로도 칭해지는 RF 신호들을 수신 및 송신한다. RF 회로(170)는 전기 신호들을 전자기 신호들로/로부터 변환하고, 전자기 신호들을 통해 통신 네트워크들 및 다른 통신 디바이스들과 통신한다. RF 회로(170)는 선택적으로 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 하나 이상의 발진기, 디지털 신호 프로세서, CODEC 칩셋, 가입자 식별 모듈(subscriber identity module; SIM) 카드, 메모리 등을 포함하지만 이들로 한정되지 않는, 이러한 기능들을 수행하기 위한 잘 알려진 회로를 포함한다. RF 회로(1070는 선택적으로 네트워크들, 예컨대 월드 와이드 웹(WWW)으로도 지칭되는 인터넷, 인트라넷, 및/또는 무선 네트워크, 예컨대 셀룰러 전화 네트워크, 무선 근거리 통신망(local area network; LAN) 및/또는 대도시 통신망(metropolitan area network; MAN), 및 다른 디바이스들과 무선 통신에 의해 통신한다. 무선 통신은, 선택적으로, GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), HSDPA(high-speed downlink packet access), HSUPA(high-speed uplink packet access), EV-DO(Evolution, Data-Only), HSPA, HSPA+, DC-HSPDA(Dual-Cell HSPA), LTE(long term evolution), NFC(near field communication), W-CDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), 블루투스, Wi-Fi(Wireless Fidelity)(예를 들어, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n), VoiP(voice over Internet Protocol), Wi-MAX, 이메일용 프로토콜(예를 들어, IMAP(Internet message access protocol) 및/또는 POP(post office protocol)), 인스턴트 메시징(예를 들어, XMPP(extensible messaging and presence protocol), SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS(Instant Messaging and Presence Service)), 및/또는 SMS(Short Message Service), 또는 본 문헌의 출원일 현재 아직 개발되지 않은 통신 프로토콜들을 포함하는 임의의 다른 적합한 통신 프로토콜을 포함하지만 이로 한정되지 않는 복수의 통신 표준들, 프로토콜들 및 기술들 중 임의의 것을 사용한다.
카메라시스템(150)은 사용자와 단말기(100) 사이에서 카메라 인터페이스를 제공한다. 카메라시스템(150)은 촬영된 영상을 전기 신호로 변환하고 전기 신호를 영상처리하여 디스플레이(110)나 메모리(190)로 송신한다. 카메라시스템(150)은 전기 신호를 영상 데이터로 변환하고, 처리를 위해 주변기기 인터페이스(120)로 송신한다. 영상 데이터는 선택적으로 주변기기 인터페이스(120)에 의해 메모리(190)로부터 인출되고/되거나 메모리(190)로 송신된다.
I/O 서브시스템(130)은 터치 스크린(110) 및 다른 입력 제어 디바이스들(140)과 같은, 단말기(100) 상의 입/출력 주변기기들을 주변기기 인터페이스(120)에 연결한다. I/O 서브시스템(130)은 선택적으로 디스플레이 제어기(111), 하나 이상의 입력 제어기(112)를 포함한다. 하나 이상의 입력 제어기(112)는 다른 입력 또는 제어 디바이스들(140)로부터/로 전기 신호들을 수신/송신한다. 다른 입력 제어 디바이스들(140)은 선택적으로 물리적 버튼들(예를 들어, 푸시 버튼, 로커 버튼(rocker button) 등), 다이얼, 슬라이더 스위치, 조이스틱, 클릭 휠 등을 포함한다. 일부 대안적인 실시예들에서, 입력 제어기(들)(160)는 선택적으로 키보드, 적외선 포트, USB 포트, 및 마우스와 같은 포인터 디바이스 중 임의의 것에 연결된다(또는 어떤 것에도 연결되지 않는다).
터치 감응형 디스플레이(110)는 단말기(100)와 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 제공한다.
디스플레이 제어기(111)는 터치 스크린(110)으로부터/으로 전기 신호들을 수신 및/또는 송신한다. 터치 스크린(110)은 사용자에게 시각적 출력을 표시한다. 시각적 출력은, 선택적으로, 그래픽, 텍스트, 아이콘들, 비디오 및 이들의 임의의 조합(총칭하여 "그래픽"으로 지칭함)을 포함한다. 일부 실시예들에서, 시각적 출력의 일부 또는 전부가 사용자 인터페이스 객체들에 대응한다.
터치 스크린(110)은 햅틱 및/또는 촉각적 접촉에 기초하여 사용자로부터의 입력을 수용하는 터치 감응형 표면, 센서 또는 센서들의 세트를 갖는다. 터치 스크린(110) 및 디스플레이 제어기(111)는 (메모리(190) 내의 임의의 연관된 모듈들 및/또는 명령어들의 세트들과 함께) 터치 스크린(110) 상의 접촉(및 접촉의 임의의 이동 또는 중단)을 검출하고, 검출된 접촉을 터치 스크린(110) 상에 표시되는 사용자 인터페이스 객체들(예를 들어, 하나 이상의 소프트 키, 아이콘, 웹 페이지 또는 이미지)과의 상호작용으로 변환한다. 예시적인 실시예에서, 터치 스크린(110)과 사용자 사이의 접촉 지점은 사용자의 손가락에 대응한다.
터치 스크린(110)은, 선택적으로, LCD(액정 디스플레이) 기술, LPD(발광 중합체 디스플레이) 기술, 또는 LED(발광 다이오드) 기술을 이용하지만, 다른 실시예들에서는 다른 디스플레이 기술들이 이용된다. 터치 스크린(110) 및 디스플레이 제어기(111)는, 선택적으로, 터치 스크린(110)과의 하나 이상의 접촉 지점들을 결정하기 위해 정전용량, 저항, 적외선 및 표면 음향파 기술들과 다른 근접 센서 어레이들 또는 다른 요소들을 포함하지만 이들로 제한되지는 않는, 현재 알려져 있거나 추후에 개발될 복수의 터치 감지 기술 중 임의의 것을 이용하여, 접촉 및 그의 임의의 이동 또는 중단을 검출한다.
터치 스크린(110)은, 선택적으로, 스타일러스, 손가락 등과 같은 임의의 적합한 물체 또는 부속물을 이용하여 터치 스크린(110)과 접촉한다. 일부 실시예들에서, 사용자 인터페이스는 손가락 기반 접촉 및 제스처를 주로 이용하여 동작하도록 설계되며, 이는 터치 스크린 상의 손가락의 더 넓은 접촉 면적으로 인해 스타일러스 기반 입력보다 덜 정밀할 수 있다. 일부 실시예들에서, 단말기(100)는 대략적인 손가락 기반 입력을 사용자가 원하는 동작들을 수행하기 위한 정밀한 포인터/커서 위치 또는 커맨드로 변환한다.
일부 실시예들에서, 터치 스크린 외에도, 단말기(100)는, 선택적으로, 특정 기능들을 활성화 또는 비활성화하기 위한 터치패드(도시되지 않음)를 포함한다. 일부 실시예들에서, 터치패드는 터치 스크린과는 다르게 시각적 출력을 표시하지 않는 디바이스의 터치 감응형 영역이다. 터치패드는, 선택적으로, 터치 스크린(110)으로부터분리된 터치 감응형 표면 또는 터치 스크린에 의해 형성된 터치 감응형 표면의 연장부이다.
단말기(100)는 또한 다양한 컴포넌트들에 전력을 공급하기 위한 전력 시스템(101)을 포함한다. 전력 시스템(101)은 선택적으로 전력 관리 시스템, 하나 이상의 전원(예를 들어, 배터리, 교류 전류(AC)), 재충전 시스템, 전력 고장 검출 회로, 전력 변환기 또는 인버터, 전력 상태 표시자(예를 들어, 발광 다이오드(LED)), 및 휴대용 단말기들 내에서의 전력의 생성, 관리 및 분배와 연관된 임의의 다른 컴포넌트들을 포함한다.
단말기(100)는 또한 선택적으로 하나 이상의 가속도계(102)를 포함한다. 도 2는 주변기기 인터페이스(120)에 연결된 가속도계(102)를 도시한다. 대안적으로, 가속도계(102)는 선택적으로 I/O 서브시스템(130) 내의 입력 제어기(112)에 연결된다. 일부 실시예들에서, 하나 이상의 가속도계로부터 수신된 데이터의 분석에 기초하여 터치 스크린 디스플레이 상에 세로보기(portrait view) 또는 가로보기(landscape view)로 정보가 표시된다.
단말기(100)는, 선택적으로, 가속도계(들)(102) 외에도 자력계(도시되지 않음), 및 단말기(100)의 위치 및 배향(예를 들어, 세로 또는 가로)에 관한 정보를 획득하기 위한 GPS(또는 GLONASS 또는 다른 글로벌 내비게이션 시스템) 수신기(103)를 포함한다.
또한, 단말기(100)는 단말기(100)의 위치 정보를 검출하기 위하여 GPS 수신기(103)를 이용할 수도 있다.
일부 실시예들에서, 메모리(190)에 저장된 소프트웨어 컴포넌트들은 운영 체제(192), 통신 모듈(또는 명령어들의 세트)(193), 접촉/모션 모듈(또는 명령어들의 세트)(194), 그래픽 모듈(또는 명령어들의 세트)(195), 텍스트 입력 모듈(또는 명령어들의 세트)(196), 위성 위치확인 시스템(GPS) 모듈(또는 명령어들의 세트)(197), 및 애플리케이션들(또는 명령어들의 세트들)(198)을 포함한다.
일부 실시예에서, 메모리(190)는 이벤트 분류기(199) 및 애플리케이션을 포함한다.
이벤트 분류기(199)는 이벤트 정보를 수신하고 그 이벤트 정보를 전달한 애플리케이션을 결정한다. 이벤트 분류기(199)는 이벤트 모니터(199a)를 포함한다. 일부 실시예들에서, 이벤트 모니터(199a)는 주변기기 인터페이스(120)로부터 이벤트 정보를 수신한다. 이벤트 정보는 단말기(100)의 특정 위치에 대한 정보를 포함한다. 따라서, 이벤트 모니터(199a)가 주변기기 인터페이스(120)로부터 수신하는 정보는 GPS 수신기(103)로부터의 정보를 포함한다.
도 3은 단말기에 대한 예시도이다.
도 3은 일부 실시예에 따른 터치스크린(110)을 갖는 단말기(100)를 예시한다. 터치 스크린(110)은 선택적으로 사용자 인터페이스(UI)(200) 내에 하나 이상의 그래픽을 표시한다. 이러한 실시예에서뿐만 아니라 아래에 기술되는 다른 실시예들에서, 사용자는 예를 들어 하나 이상의 손가락 (도면에서 축척대로 도시되지 않음) 또는 하나 이상의 스타일러스 (도면에서 축척대로 도시되지 않음)를 이용하여 그래픽 상에 제스처를 행함으로써 그래픽들 중 하나 이상을 선택하는 것이 가능하게 된다. 일부 실시예들에서, 하나 이상의 그래픽의 선택은 사용자가 하나 이상의 그래픽과의 접촉을 중단할 때 발생한다. 일부 실시예들에서, 제스처는 선택적으로 단말기(100)와 접촉한 손가락의 하나 이상의 탭, (좌에서 우로, 우에서 좌로, 위로 및/또는 아래로의) 하나 이상의 스와이프 및/또는 (우에서 좌로, 좌에서 우로, 위로 및/또는 아래로의) 롤링을 포함한다. 일부 구현예들 또는 상황들에서, 그래픽과의 의도하지 않은 접촉은 그래픽을 선택하지 않는다. 예를 들어, 선택에 대응하는 제스처가 탭인 경우에, 애플리케이션 아이콘 위에서 휩쓰는 스와이프 제스처는, 선택적으로, 대응하는 애플리케이션을 선택하지 않는다.
서버(200)는 단말기(100)와 네트워크를 통해 데이터를 송수신한다. 보다 상세하게는, 서버(200)는 단말기(100)의 애플리케이션의 실행에 필요한 각종 데이터를 송신할 수 있다. 또한, 단말기(100)로부터 수신된 정보를 데이터베이스화 할 수 있다. 또한, 서버(200)는 다른 단말기로부터 수신한 정보를 또 다른 단말기로 전송하는 중계 역할을 할 수도 있다. 또한, 서버(200)는 단말기(100)의 요청에 응답하여 애플리케이션 실행 파일을 단말기(100)로 제공하는 기능을 할 수 있다. 또한, 서버(200)는 단말기(100)에서 실행되는 애플리케이션의 전반적인 관리를 통신을 통해 수행할 수 있다.
이제 단말기(100) 상에서 선택적으로 구현되는 사용자 인터페이스들("UI")의 실시예들에 주목한다.
도 4 내지 도 8은 일부 실시예들에 따른, 단말기 상의 애플리케이션의 가상 공간 내에 텍스트 정보를 입력 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다. 일부 실시예들에서, 사용자 인터페이스(200)는 다음의 요소들을 포함한다.
타유저기록표시제어 어포던스(301), 인터페이스전환 어포던스(302), 거리조조절 어포던스(303), 락킹설정 어포던스(304), 텍스트입력 어포던스(310), 영상입력 어포던스(320), 영상불러오기 어포던스(321), 카메라제어 어포던스(322), 카메라방향전환 어포던스(323), 편지쓰기제어 어포던스(330), 제1 첨부영상입력 어포던스(331), 제2 첨부영상입력 어포던스(332), 취소실행 어포던스(305), 포스트 어포던스(306), 마이페이지 어포던스(307), 피플페이지 어포던스(308), 피플탐색 어포던스(309), 지구본페이지 어포던스(340) 및 스크롤 어포던스(350).
어포던스(Affordance)는 사용자 인터페이스 객체 또는 아이콘으로 지칭될 수 있다.
사용자 인터페이스(200)는 예시적으로 제1 내지 제6 사용자 인터페이스(210, 220, 230, 240, 250, 260)를 포함할 수 있다.
도 4를 참조하면, 단말기(100) 상에는 애플리케이션의 실행에 따라 제1 사용자 인터페이스(210)가 디스플레이될 수 있다. 제1 사용자 인터페이스(210)는 타유저기록표시제어 어포던스(301), 인터페이스전환 어포던스(302), 텍스트입력 어포던스(310), 영상입력 어포던스(320) 및 편지쓰기제어 어포던스(330)를 포함할 수 있다.
또한, 카메라시스템(150)에 의해 현재 촬영되는 영상이 배경(예시적으로 에펠탑 촬영 영상)으로 디스플레이 될 수 있다. 따라서, 단말기(100)의 위치나 카메라시스템(150)의 촬영 방향에 따라서 배경 영상은 달라질 수 있다. 그리고 배경 영상이 달라짐에 대응하여 디스플레이되는 배경 영상에 미리 저장된 입력 정보 또한 달라질 수 있다.
타유저기록표시제어 어포던스(301)는 배경 영상 내에 표시되는 정보들의 전환을 개시하는 일종의 버튼이다. 단말기(100)는 타유저기록표시제어 어포던스(301)에 대한 선택(예를 들어, 터치)에 응답하여 배경 영상내에 표시되는 정보를 결정할 수 있다. 상세하게는, 단말기(100)는 타유저기록표시제어 어포던스(301)에 대한 선택에 기초하여 유저가 입력한 정보만을 표시하거나, 유저와 타유저가 입력한 모든 정보를 표시할 수 있다. 타유저기록표시제어 어포던스(301)는 슬라이딩 타입의 어포던스가 될 수 있다. 따라서, 유저는 타유저기록표시제어 어포던스(301)를 예시적으로 좌에서 우로 이동시키거나 우에서 좌로 이동시키는 방식으로 타유저기록표시제어 어포던스(301)를 컨트롤 할 수 있고, 단말기(100)는 타유저기록표시제어 어포던스(301)의 이동 방향을 검출하여 배경 영상과 함께 표시되는 정보를 변환할 수 있다.
다른 실시예에서, 단말기(100)는 타유저기록표시제어 어포던스(301)에 대한 선택에 응답하여 제1 입력 정보 또는 제2 입력 정보를 표시할 수 있다. 제1 입력 정보와 제2 입력 정보는 정보 제공 목적에 따라 정보의 성격이 다를 수 있다. 예를 들면, 제1 입력 정보는 부동산이나 실내 인테리어에 대한 정보가 될 수 있고, 제2 입력 정보는 특정 장소나 특정 시설물에 대한 설명 정보 및/또는 목적지에 도달하기 위하여 경유하는 여러 장소들 각각에 저장된 이동 경로 정보가 될 수 있다(다만, 이에 제한되는 것은 아니다). 따라서, 유저는 특정 장소에 대한 촬영 영상에 저장된 입력 정보들 중 유저가 필요로하는 정보만을 선별하여 열람할 수 있다. 다른 측면에서, 타유저는 부동산이나 실내 인테리어를 소개하는 용도로 실시예를 이용하거나 특정 장소나 특정 시설물을 소개하는 등의 용도로 실시예를 이용할 수 있다.
또한, 단말기(100)는 GPS 수신기(103)로부터의 GPS 정보 그리고 가속도계(102)로부터의 검출 정보에 기초하여 카메라시스템(150)의 촬영 영역을 검출할 수 있다. 그리고 단말기(100)는 카메라시스템(150)으로부터 수신되는 영상이 어떤 영역을 촬영한 영상인지 분석한다. 그리고 단말기(100)는 분석된 영상을 배경 영상으로 표시함과 아울러 표시될 배경 영상 내에 미리 입력된 정보들을 함께 표시할 수 있다. 따라서, 카메라시스템(150)이 촬영하는 영역이 달라지면 표시될 배경 영상뿐만 아니라 배경 영상과 함께 표시될 입력 정보들도 자동으로 달라지게 된다.
인터페이스전환 어포던스(302)는 디스플레이되는 인터페이스의 전환을 개시하는 버튼이다. 단말기(100)는 인터페이스전환 어포던스(302)의 선택에 응답하여 미리 설정된 인터페이스를 디스플레이할 수 있다. 여기서의 미리 설정된 인터페이스란 인터페이스 내의 적어도 일부 구성 요소(어포던스 등)가 변경되거나 위치가 변경된 형태를 가지는 인터페이스를 의미할 수 있다.
텍스트입력 어포던스(310)는 배경 영상 내에 텍스트를 입력할 수 있도록 하는 제2 사용자 인터페이스(220)의 제공을 개시하는 버튼이다. 영상입력 어포던스(320)는 배경 영상 내에 영상 정보를 입력할 수 있도록 하는 기능 제공을 개시하는 버튼이다. 편지쓰기제어 어포던스(330)는 배경 영상 내에 편지 컨텐츠를 입력할 수 있도록 하는 기능 제공을 개시하는 버튼이다.
단말기(100)는 텍스트입력 어포던스(310), 영상입력 어포던스(320) 및 편지쓰기제어 어포던스(330) 중 어느 하나에 대한 선택에 응답하여 인터페이스를 전환할 수 있다.
본 발명의 실시예를 설명함에 있어서, 현실 세계 기반의 가상 공간 내에 입력될 컨텐츠로써 텍스트, 영상 그리고 편지에 대해서 설명하고 있으나 이에 한정하는 것은 아니다.
도 5 내지 도 8을 참조하면, 단말기(100)는 텍스트입력 어포던스(310)의 선택에 응답하여 제2 사용자 인터페이스(220)를 표시할 수 있다. 제2 사용자 인터페이스(220)는 제1 사용자 인터페이스(210)의 적어도 일 영역와 중첩하는 형태로 표시될 수 있다.
유저는 제2 사용자 인터페이스(220)가 제공하는 자판상의 글자 버튼을 선택함으로써, 텍스트 정보를 입력할 수 있다. 유저가 텍스트 정보 입력을 완료하면, 단말기(100)는 인터페이스를 전환하여 예시적으로 도 6과 같은 제1-1 사용자 인터페이스(210a)를 표시할 수 있다.
제1-1 사용자 인터페이스(210a)에는 배경 영상과 함께 유저가 입력한 입력 텍스트 정보가 배경 영상 내의 임의의 영역에 표시될 수 있다.
제1-1 사용자 인터페이스(210a)는 인터페이스전환 어포던스(302), 거리조조절 어포던스(303), 락킹설정 어포던스(304), 취소실행 어포던스(305) 및 포스트(POST) 어포던스(306)를 포함할 수 있다.
거리조조절 어포던스(303)는 카메라시스템(150)의 줌(Zoom) 조절을 개시하는 버튼이다.
락킹설정 어포던스(304)는 입력 텍스트 정보의 열람 권한 변경을 개시하는 버튼이다.
취소실행 어포던스(305)는 입력 텍스트 정보의 삭제를 개시하는 버튼이다.
포스트 어포던스(306)는 입력 텍스트 정보의 위치 정보를 검출하는 버튼이다.
단말기는 거리조조절 어포던스(303)의 이동에 응답하여 카메라시스템(150)의 줌을 조절할 수 있다. 예시적으로 거리조조절 어포던스(303)가 상에서 하로 향하는 경우 배경 영상은 확대될 수 있고, 거리조조절 어포던스(303)가 하에서 상으로 향하는 경우 배경 영상을 축소될 수 있다. 아울러 배경 영상에 미리 입력된 입력 정보들도 배경 영상의 확대 또는 축소에 대응하여 함께 확대 또는 축소될 수 있다.
유저는 거리조조절 어포던스(303)를 이동하여 배경 영상으로 표시되는 특정 사물의 특정 지점에 정보를 입력할 수 있다. 실시예는 촬영되고 있는 특정 사물의 매우 구체적인 특정 영역이나 촬영되는 배경 내의 매우 구체적인 특정 지점에 정보를 입력할 수 있도록 한다.
또한, 배경 영상의 특정 영역을 확대(즉, 뷰를 축소, 촬영 영역을 축소)한 상태에서 입력 정보를 저장하고 다시 배경 영상을 축소(즉, 뷰를 확대, 촬영 영역을 확대)하면 저장된 입력 정보 또한 축소되어 디스플레이될 수 있다. 또한, 배경 영상의 축소량이 기 설정치 이상이 되면 배경 영상에 저장된 입력 정보 중 일부의 표시가 제거될 수 있다. 예를 들어, 촬영 영역을 축소한 상태에서 저장한 제1 입력 정보가 있고, 촬영 영영을 확대한 상태에서 저장한 제2 입력 정보가 있는 경우 배경 영상의 축소량이 기 설정치 이상이 되면 제1 입력 정보의 표시는 제거될 수 있다. 다만, 이에 제한되는 것은 아니다.
도 7을 참조하면, 유저는 거리조조절 어포던스(303)를 이동시켜 촬영되는 영상의 특정 지점을 확대할 수 있다. 도시된 바에 따르면, 유저는 에펠탑의 영역 중 특정 지점에 정보를 입력할 수 있다.
도 8을 참조하면, 유저는 입력 텍스트 정보를 터치한 상태에서 터치를 이동시켜 입력 텍스트 정보를 이동시킬 수 있다. 다른 측면에서, 유저는 입력 텍스트 정보를 터치한 후 바로 터치를 중단할 수 있다. 단말기(100)는 유저가 입력한 입력 텍스트 정보에 대한 선택을 검출한다. 그리고 단말기(100)는 일회성의 터치를 인식하면 입력 텍스트 정보를 수정할 수 있도록 도 5에서 설명한 제2 사용자 인터페이스(220)를 표시할 수 있다. 다른 측면에서, 단말기(100)는 유저의 연속된 터치와 함께 터치의 이동에 응답하여 터치의 이동과 동일한 방향으로 입력 텍스트 정보를 이동시킬 수 있다. 즉, 단말기(100)는 입력 텍스트 정보의 검출에 응답하여 터치의 이동 방향에 대응하여 입력 텍스트 정보를 이동시킨다.
유저는 락킹설정 어포던스(304)를 선택하여 입력 텍스트 정보의 열람 권한 변경할 수 있다. 예를 들어, 유저는 락킹설정 어포던스(304)를 선택하여 입력 텍스트 정보를 타유저가 열람하지 못하도록 비공개 처리할 수 있다. 단말기(100)는 락킹설정 어포던스(304)의 선택에 응답하여 입력 텍스트 정보의 열람 권한을 설정한다.
유저는 취소실행 어포던스(305)를 선택하여 입력 텍스트 정보를 삭제할 수 있다. 단말기(100)는 취소실행 어포던스(305)에 대한 선택에 응답하여 표시된 입력 텍스트 정보를 제거할 수 있다.
유저는 포스트 어포던스(306)를 선택하여 입력 텍스트 정보를 가상 공간 상에 3차원 형태로 저장할 수 있다. 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 텍스트 정보와 배경 영상 내의 입력 텍스트 정보의 위치 정보 그리고 배경 영상의 척도 정보를 저장할 수 있다. 일부 실시예에서, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 텍스트 정보와 배경 영상 내의 입력 텍스트 정보의 위치 정보 그리고 배경 영상의 척도 정보를 서버(300)로 전송할 수 있다.
도 9 내지 도 13은 일부 실시예들에 따른, 단말기 상의 애플리케이션의 가상 공간 내에 영상 정보를 입력 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
도 9 내지 도 12를 참조하면, 유저는 제1 사용자 인터페이스(210)에 표시된 영상입력 어포던스(320)를 선택할 수 있다.
단말기(100)는 영상입력 어포던스(320)에 대한 선택에 응답하여 제1 사용자 인터페이스(210)를 제1-2 사용자 인터페이스(210b)로 전환할 수 있다.
제1-2 사용자 인터페이스(210b)는 영상불러오기 어포던스(321), 카메라제어 어포던스(322) 및 카메라방향전환 어포던스(323)를 포함할 수 있다.
영상불러오기 어포던스(321)는 제3 사용자 인터페이스(230)의 표시(도 11)를 개시하는 버튼이다.
카메라제어 어포던스(322)는 배경 영상에서 표시되는 영상과 카메라 기능의 동시 제어를 개시하는 버튼이다.
카메라방향전환 어포던스(323)는 단말기(100)의 전면 측의 카메라 시스템과 후면 측의 카메라 시스템의 구동 변경을 개시하는 버튼이다.
단말기(100)는 영상불러오기 어포던스(321)에 대한 선택에 응답하여 제3 사용자 인터페이스(230)를 표시한다. 제3 사용자 인터페이스(230)는 단말기(100)에 미리 저장된 사진이나 동영상을 표시할 수 있다. 그리고 단말기(100)는 제3 사용자 인터페이스(230)에서 표시되는 사진이나 동영상에 대한 선택에 응답하여 도 12의 예시된 바와 같이 제1-1 사용자 인터페이스(210a)의 표시로의 전환 동작 및 표시된 제1-1 사용자 인터페이스(210a) 상에 선택한 사진이나 동영상에 해당하는 입력 영상 정보가 표시되도록 할 수 있다.
또한, 유저는 입력 영상 정보의 위치를 변경할 수 있고, 거리조조절 어포던스(303)를 이용하여 배경 영상의 척도를 조절함으로써 배경 영상 내의 특정 지점에 입력 영상 정보를 3차원적으로 저장할 수 있다.
단말기(100)는 입력 영상 정보에 대한 연속되고 이동하는 터치에 응답하여 터치의 이동 방향에 따라 입력 영상 정보를 이동시킬 수 있다.
또한, 단말기(100)는 취소실행 어포던스(305)의 선택에 응답하여 표시된 입력 영상 정보를 제거할 수 있다.
또한, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 영상 정보와 배경 영상 내의 입력 영상 정보의 위치 정보 그리고 배경 영상의 척도 정보를 저장할 수 있다. 일부 실시예에서, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 영상 정보와 배경 영상 내의 입력 영상 정보의 위치 정보 그리고 배경 영상의 척도 정보를 서버(300)로 전송할 수 있다.
도 13을 참조하면, 단말기(100)는 카메라제어 어포던스(322)의 선택에 응답하여 배경 영상을 고정(카메라제어 어포던스(322)의 선택을 검출한 시점에 제1 사용자 인터페이스(210)에서 표시된 배경 영상을 단말기(100)의 위치가 변경되어도 그대로 고정)하면서, 제4 사용자 인터페이스(240)를 표시할 수 있다. 제4 사용자 인터페이스(240)는 제1 사용자 인터페이스(210) 상의 고정된 배경 영상의 적어도 일부 영역과 중첩하여 표시될 수 있다. 또한, 단말기(100)는 카메라시스템(150)의 촬영 위치에 따라 달라지는 촬영 영상을 제4 사용자 인터페이스(240) 상에 표시할 수 있다. 그리고 단말기(100)는 카메라제어 어포던스(322)의 선택에 응답하여 제4 사용자 인터페이스(240) 상에 표시되는 영상을 촬영할 수 있다. 그리고 단말기(100)는 제4 사용자 인터페이스(240을 종료시키고, 촬영된 영상을 도 12에서 설명한 입력 영상 정보와 같이 제1 사용자 인터페이스(210)의 배경 영상 영역 내의 임의의 영역에 표시할 수 있다. 그리고 유저는 입력 영상 정보를 이동시켜 고정된 배경 영상 내의 특정 지점에 입력 영상 정보를 저장할 수 있다.
또한, 단말기(100)는 취소실행 어포던스(305) 또는 포스트 어포던스(306)의 선택에 응답하여 제1 사용자 인터페이스(210)에서 표시되는 배경 영상을 현재 카메라시스템(150)이 촬영하는 영상에 연동하여 표시되도록 할 수 있다. 아울러, 단말기(100)는 취소실행 어포던스(305)의 선택에 응답하여 표시된 입력 영상 정보를 제거할 수 있다. 이와 달리, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 영상 정보와 배경 영상 내의 입력 영상 정보의 위치 정보 그리고 배경 영상의 척도 정보를 저장할 수 있다. 일부 실시예에서, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 영상 정보와 배경 영상 내의 입력 영상 정보의 위치 정보 그리고 배경 영상의 척도 정보를 서버(300)로 전송할 수 있다.
또한, 제4 사용자 인터페이스(240)가 실행된 상태에서 단말기(100)는 카메라방향전환 어포던스(323)에 대한 선택에 응답하여 단말기(100)의 전면에 마련된 카메라 시스템 또는 후면에 마련된 카메라 시스템 중 어느 하나를 구동하여 해당 카메라 시스템이 촬영하는 영상을 제4 사용자 인터페이스(240) 상에 표시할 수 있다. 예를 들어, 현재 후면의 카메라 시스템이 구동 중인 경우라면 단말기(100)는 후면의 카메라 시스템의 구동을 중단하고 전면의 카메라 시스템을 구동시킬 수 있다. 다른 측면에서, 현재 전면의 카메라 시스템이 구동 중인 경우라면 단말기(100)는 전면의 카메라 시스템의 구동을 중단하고 후면의 카메라 시스템을 구동시킬 수 있다.
일부 실시예에서, 제4 사용자 인터페이스(240)가 실행되지 않은 상태에서 단말기(100)는 카메라방향전환 어포던스(323)에 대한 선택에 응답하여 단말기(100)의 전면에 마련된 카메라 시스템 또는 후면에 마련된 카메라 시스템 중 어느 하나를 구동하여 해당 카메라 시스템이 촬영하는 영상을 제1 사용자 인터페이스(210)에 표시할 수 있다.
도 14 내지 도 16은 단말기 상의 애플리케이션의 가상 공간 내에 편지 정보를 입력 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
도 14 내지 도 16을 참조하면, 단말기(100)는 편지쓰기제어 어포던스(330)에 대한 선택에 응답하여 제2 사용자 인터페이스(220)와 제5 사용자 인터페이스(250)를 표시할 수 있다. 제2 및 제5 사용자 인터페이스(220, 250)는 제1 사용자 인터페이스(210)의 적어도 일부 영역과 중첩하여 표시될 수 있다. 또한, 제2 및 제5 사용자 인터페이스(220, 250)는 서로 중첩되지 않도록 표시될 수 있다.
제5 사용자 인터페이스(250)는 제1 첨부영상입력 어포던스(331) 및 제2 첨부영상입력 어포던스(332)를 포함하고, 제2 사용자 인터페이스(220)을 통해 입력된 정보가 입력되는 영역을 포함할 수 있다. 유저는 제2 사용자 인터페이스(220)에서 디스플레이된 자판 상의 문자 버튼을 터치하여 제5 사용자 인터페이스(250) 상에 정보를 입력할 수 있다.
또한, 단말기(100)는 제1 첨부영상입력 어포던스(331)에 대한 선택에 응답하여 도 13에서 설명한 제4 사용자 인터페이스(240)를 표시할 수 있다.
또한, 단말기(100)는 제2 첨부영상입력 어포던스(332)에 대한 선택에 응답하여 도 11에서 설명한 제3 사용자 인터페이스(230)를 표시할 수 있다. 그리고 유저는 제3 사용자 인터페이스(230)에서 표시되는 사진이나 동영상을 선택할 수 있다.
단말기(100)는 제4 사용자 인터페이스(240)를 통해 영상 촬영에 응답하여 또는 제3 사용자 인터페이스(230)에서 표시되는 사진이나 동영상에 대한 선택에 응답하여 촬영한 영상 또는 선택된 사진 또는 선택한 동영상을 포함한 제5 사용자 인터페이스(250)를 표시할 수 있다.
또한, 단말기(100)는 제5 사용자 인터페이스(250)를 통한 편지 작성 종료(추가적으로 디스플레이되는(미도시) 편지 작성 종료를 개시하는 어포던스에 대한 선택)에 응답하여 제2 및 제5 사용자 인터페이스(220, 250)를 종료시키고, 제1-1 사용자 인터페이스(210a)를 표시한다. 또한, 단말기(100)는 편지 아이콘 형태(예시적으로)로 표시되는 입력 편지 정보를 제1-1 사용자 인터페이스(210a)의 배경 영상 영역 중 임의의 영역에 표시할 수 있다.
또한, 유저는 입력 편지 정보를 이동시킬 수 있다. 즉, 단말기(100)는 입력 편지 정보에 대한 연속된 터치 및 터치의 이동에 응답하여 입력 편지 정보를 터치의 이동 방향에 따라 이동시킬 수 있다.
또한, 단말기(100)는 취소실행 어포던스(305)의 선택에 응답하여 입력 편지 정보를 제거할 수 있다.
또한, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 편지 정보와 배경 영상 내의 입력 편지 정보의 위치 정보 그리고 배경 영상의 척도 정보를 저장할 수 있다. 일부 실시예에서, 단말기(100)는 포스트 어포던스(306)에 대한 선택에 응답하여 입력 편지 정보와 배경 영상 내의 입력 편지 정보의 위치 정보 그리고 배경 영상의 척도 정보를 서버(300)로 전송할 수 있다.
도 17 내지 도 22는 단말기 상의 애플리케이션의 가상 공간 내의 입력 정보 서칭 기능 실행을 위한 예시적인 사용자 인터페이스를 예시한다.
단말기(100)는 제1 사용자 인터페이스(210) 상의 인터페이스전환 어포던스(302)에 대한 선택에 응답하여 제1-2 사용자 인터페이스(210b)를 표시할 수 있다. 다른 실시예에서, 단말기(100)는 제1 또는 제1-1 사용자 인터페이스(210)에 마련된 어포던스(미도시)에 대한 선택에 응답하여 제1-2 사용자 인터페이스(210b)를 표시할 수 있다.
도 17을 참조하면, 제1-2 사용자 인터페이스(210b)는 마이페이지 어포던스(307), 피플페이지 어포던스(308), 스크롤 어포던스(350) 그리고 기록 정보를 표시할 수 있다. 또한, 도 17은 단말기(100)가 마이페이지 어포던스(307)에 대한 선택을 검출하는 것에 응답하여 표시하는 화면과 같다.
마이페이지어포던스(307)는 요약 기록 정보에 대한 표시를 실행하는 버튼이다.
피플페이지 어포던스(308)는 타유저 정보를 표시를 실행하는 버튼이다.
단말기(100)는 마이페이지어포던스(307)에 대한 선택에 응답하여 유저의 모든 요약 기록 정보를 일괄적으로 표시할 수 있다. 요약 기록 정보란, 유저가 전술한 바와 같은 방식으로 가상 공간 상에 저장한 입력 정보가 있는 경우 해당 가상 공간의 배경이 되는 배경 영상에 대한 이미지를 작은 크기로 줄인 이미지 및 해당 이미지 내에 포함된 입력 정보이다. 다른 측면에서, 요약 기록 정보란, 유저가 전술한 바와 같은 방식으로 가상 공간 상에 저장한 입력 정보가 있는 경우 해당 가상 공간의 배경이 되는 배경 영상에 대한 이미지를 작은 사이즈로 줄인 이미지이다.
도 18을 참조하면, 제1-2 사용자 인터페이스(210b)는 마이페이지 어포던스(307), 피플페이지 어포던스(308), 피플탐색 어포던스(309), 지구본페이지 어포던스(340), 스크롤 어포던스(350)를 포함할 수 있다. 또한, 도 18은 단말기(100)가 피플페이지 어포던스(308)에 대한 선택을 검출하는 것에 응답하여 표시하는 화면과 같다.
피플탐색 어포던스(309)는 단말기(100)의 애플리케이션에 미리 등록된 타유저의 요약 기록 정보의 표시를 개시하는 버튼이다. 다른 측면에서, 피플탐색 어포던스(309)는 서버(200)에 저장된 타유저의 기록 정보의 표시를 개시하는 버튼이다.
지구본페이지 어포던스(340)는 제1-3 사용자 인터페이스(210c)로의 전환을 개시하는 버튼이다.
스크롤 어포던스(350)는 제1-2 사용자 인터페이스(210b)에서 표시되는 정보들의 탐색을 개시하는 버튼이다.
단말기(100)는 피플탐색 어포던스(309)에 대한 선택에 응답하여 미리 등록된 타유저 정보를 표시할 수 있다. 유저는 표시된 타유저들 중 어느 하나를 선택할 수 있다. 단말기(100)는 타유저들 중 유저에 의한 선택에 응답하여 타유저의 요약 기록 정보를 표시할 수 있다.
단말기(100)는 지구본페이지 어포던스(340)에 대한 선택에 응답하여 제1-3 사용자 인터페이스(210c)를 표시할 수 있다.
도 19를 참조하면, 제1-3 사용자 인터페이스(210c)는 예시적으로 3차원 형상의 지구본, 검색 영역을 표시할 수 있다. 그리고 3차원 형상의 지구본에는 유저가 입력한 정보가 있는 지역에 매칭하여 마커가 표시될 수 있다.
단말기(100)는 검색 영역 내에 입력된 검색어에 기초하여 3차원 형상의 지구본의 지구를 회전시킬 수 있다. 유저는 검색 영역에 특정 장소를 입력할 수 있다. 단말기(100)는 지구본에서 표시하는 복수의 지역 중 검색 영역 내에 입력된 특정 장소와 매칭되는 지역이 표시되도록 지구본을 회전시킬 수 있다.
또한, 단말기(100)는 슬라이딩 터치 감지 영역 내에서의 슬라이딩 터치를 검출할 수 있다. 단말기(100)는 슬라이딩 터치를 감지하고 터치의 이동 방향에 대응하여 지구본을 회전시킬 수 있다. 일부 실시예에서는, 단말기(100)는 슬라이딩 터치 감지 영역 상에서 두 지점에 대한 터치를 검출할 수 있고, 두 지점의 터치의 이동에 따라 두 지점의 터치가 가까워지는 경우 지구본을 축소할 수 있으며, 두 지점의 터치가 멀어지는 경우 지구본을 확대할 수 있다.
또한, 도 20을 참조하면, 단말기(100)는 지구본 상에 표시된 마커 들 중 어느 하나의 마커에 대한 선택에 응답하여 도 22와 같은 제1-4 사용자 인터페이스(210d)를 표시할 수 있다.
즉, 단말기(100)는 선택된 마커와 연동하여 미리 저장된 도 21와 같은 전체 기록 정보를 표시할 수 있다. 또한, 단말기(100)가 유저 또는 타 유저의 요약 기록 정보 들 중 어느 하나를 선택한 경우에도 도 22와 같은 전체 기록 정보를 표시할 수 있다.
또한, 제1-4 사용자 인터페이스(210d)는 타유저기록표시제어 어포던스(301)를 포함하므로 유저는 배경 영상에 기록된 입력 정보들 중 자신이 작성한 입력 정보만 배경 영상과 함께 표시되거나 자신이 입력한 입력 정보뿐만 아니라 타유저가 입력한 입력 정보 모두를 배경 영상과 함께 표시되도록 할 수 있다.
다른 측면에서, 단말기(100)는 지구본에 표시된 지도의 일 영역에 대한 선택에 응답하여 도 21에서 예시된 제6 사용자 인터페이스(260)를 표시할 수 있다. 제6 사용자 인터페이스(260)는 제1-3 사용자 인터페이스(210c)의 적어도 일부 영역과 중첩하여 표시될 수 있다. 또한, 제6 사용자 인터페이스(260)는 반 투명한 형태로 표시될 수 있으나 이에 제한되는 것은 아니다.
또한, 제6 사용자 인터페이스(260)는 적어도 하나의 장소 목록을 표시할 수 있다.
상세하게는, 단말기(100)는 지구본에 표시된 지도의 일 영역에 대한 선택에 응답하여 선택 지점을 중심으로 기 설정된 반경 내의 장소 목록 중에서, 기록 정보가 존재하는 장소에 대한 목록을 제6 사용자 인터페이스(260)를 통해 표시할 수 있다.
또한, 단말기(100)는 제6 사용자 인터페이스(260) 내의 장소 목록 중 어느 하나의 장소에 대한 선택에 응답하여 선택된 장소에 대응하는 도 22와 같은 전체 기록 정보를 표시할 수 있다.
일부 실시예에 따르면, 유저는 애플리케이션에 입력 정보 알림 기능을 설정할 수 있다.
단말기(100)는 입력 정보 알림 기능의 설정에 응답하여, 단말기(100)의 위치 정보를 주기적으로 수집할 수 있다. 그리고, 단말기(100)가 위치한 장소에 기록 정보가 존재하는 경우 디스플레이(110)를 통해 시각적 또는 오디오와 스피커 장치를 통한 청각적 또는 미리 마련된 진동 장치를 통해 촉각적 알림 방식을 이용하여 유저에게 알람을 제공할 수도 있다.
한편, 실시예를 설명함에 있어서, 디스플레이된 배경 영상 내에 컨텐츠를 입력하는 것으로 설명하였으나 이에 한정하는 것은 아니, 미리 저장된 입력 정보에 댓글 형태로 입력 정보를 저장할 수도 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.
단말기(100)
전력 시스템(101)
가속도계(102)
GPS 수신기(103)
디스플레이(110)
디스플레이 제어기(111)
입력 제어기(112)
주변기기 인터페이스(120)
입/출력(I/O) 서브시스템(130)
카메라시스템(150)
센서(160)
RF 회로(170)
프로세서(180)
메모리(190)
메모리 제어기(191)
운영 체제(192)
통신 모듈(또는 명령어들의 세트)(193)
접촉/모션 모듈(또는 명령어들의 세트)(194)
그래픽 모듈(또는 명령어들의 세트)(195)
텍스트 입력 모듈(또는 명령어들의 세트)(196)
위성 위치확인 시스템(GPS) 모듈(또는 명령어들의 세트)(197)
애플리케이션들(또는 명령어들의 세트들)(198)
이벤트 분류기(199)
이벤트 모니터(199a)
사용자 인터페이스(UI)(200)
제1 사용자 인터페이스(210)
제1-1 사용자 인터페이스(210a)
제1-2 사용자 인터페이스(210b)
제2 사용자 인터페이스(220)
제3 사용자 인터페이스(230)
제4 사용자 인터페이스(240)
제5 사용자 인터페이스(250)
제6 사용자 인터페이스(260)
서버(300)
타유저기록표시제어 어포던스(301)
인터페이스전환 어포던스(302)
거리조조절 어포던스(303)
락킹설정 어포던스(304)
텍스트입력 어포던스(310)
영상입력 어포던스(320)
사진첩불어오기 어포던스(321)
카메라제어 어포던스(322)
카메라방향전환 어포던스(323)
편지쓰기제어 어포던스(330)
제1 첨부영상입력 어포던스(331)
제2 첨부영상입력 어포던스(332)
취소실행 어포던스(305)
포스트 어포던스(306)
마이페이지 어포던스(307)
피플페이지 어포던스(308)
피플탐색 어포던스(309)
지구본페이지 어포던스(340)
스크롤 어포던스(350)

Claims (8)

  1. 방법으로서,
    GPS(Global Positioning System) 수신기, 가속도계, 카메라 시스템과 디스플레이를 구비한 단말기에서,
    애플리케이션을 실행하는 단계;
    제1 어포던스를 포함하는 제1 사용자 인터페이스를 표시하는 단계;
    상기 제1 사용자 인터페이스에 상기 카메라 시스템이 현재 촬영 중인 촬영 영상을 표시하는 단계;
    상기 GPS 수신기로부터의 GPS 정보 및 상기 가속도계의 검출 정보에 기초하여 상기 카메라 시스템이 현재 촬영 중인 영역을 분석하는 단계;
    상기 분석 결과에 기초하여 현재 표시되는 촬영 영상 내의 특정 위치에 매칭하여 입력된 미리 저장된 컨텐츠들 중 적어도 하나를 표시하되 상기 표시되는 상기 미리 저장된 컨텐츠가 저장될 때의 촬영 영상의 척도 정보에 따라 상기 미리 저장된 컨텐츠의 표시 사이즈가 결정되어 표시되는 단계;
    제1 컨텐츠를 입력 기능을 개시하는 상기 제1 어포던스에 대한 선택을 검출하는 것에 응답하여 제2 사용자 인터페이스를 표시하는 단계;
    상기 제2 사용자 인터페이스를 통해 입력된 제1 컨텐츠를 표시되는 촬영 영상 내에서 사용자가 지정한 위치에 표시하는 단계; 및
    상기 제1 컨텐츠와 상기 표시되는 촬영 영상 내의 제1 컨텐츠의 위치 정보 및 상기 촬영 영상의 척도 정보를 저장하는 단계;를 포함하고,
    상기 현재 촬영 중인 영역의 변동에 대응하여 표시되는 미리 저장된 컨텐츠가 변경되는
    가상 공간 상에 정보를 입력하는 방법.
  2. 제1 항에 있어서,
    상기 제1 컨텐츠에 대한 터치 및 상기 터치의 이동을 검출하는 것에 응답하여 상기 터치의 이동 방향으로 상기 제1 컨텐츠를 이동시켜 상기 사용자가 지정한 위치에 표시하는
    가상 공간 상에 정보를 입력하는 방법.
  3. 제1 항에 있어서,
    상기 카메라 시스템의 촬영 영상의 확대 또는 축소에 대응하여 상기 촬영 영상 내의 컨텐츠를 확대 또는 축소하는
    가상 공간 상에 정보를 입력하는 방법.
  4. 제1 항에 있어서,
    상기 미리 저장된 컨텐츠들 중 적어도 일부는 다른 단말기에서 저장된 제2 컨텐츠가 상기 촬영 영상 내에 표시되는
    가상 공간 상에 정보를 입력하는 방법.
  5. 제4 항에 있어서,
    상기 제1 사용자 인터페이스에 포함된 제2 어포던스에 대한 선택을 검출하는 것에 응답하여 상기 미리 저장된 컨텐츠들 중 표시될 컨텐츠를 조절하는
    가상 공간 상에 정보를 입력하는 방법.
  6. 제1 항에 있어서,
    상기 사용자의 요청에 응답하여 컨텐츠가 저장된 장소들에 대한 지도 정보를 표시하는 단계; 및
    상기 장소들 중 어느 하나의 장소에 대한 선택을 검출하는 것에 응답하여 선택된 장소의 촬영 영상 및 상기 선택된 장소의 촬영 영상 내에 미리 저장된 컨텐츠를 표시하는 단계;를 더 포함하는
    가상 공간 상에 정보를 입력하는 방법.
  7. 삭제
  8. 제1 항에 있어서,
    상기 단말기의 위치 정보를 수집하는 단계; 및
    상기 위치 정보에 기초하여 컨텐츠가 저장된 장소에 상기 단말기가 위치하는 것으로 판단하는 것에 응답하여 알람을 표시하는 단계;를 더 포함하는
    가상 공간 상에 정보를 입력하는 방법.
KR1020170173027A 2017-12-15 2017-12-15 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템 KR101979918B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170173027A KR101979918B1 (ko) 2017-12-15 2017-12-15 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170173027A KR101979918B1 (ko) 2017-12-15 2017-12-15 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190053432A Division KR20190072499A (ko) 2019-05-08 2019-05-08 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템

Publications (1)

Publication Number Publication Date
KR101979918B1 true KR101979918B1 (ko) 2019-05-20

Family

ID=66678475

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170173027A KR101979918B1 (ko) 2017-12-15 2017-12-15 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템

Country Status (1)

Country Link
KR (1) KR101979918B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120137543A (ko) 2011-04-11 2012-12-24 삼성전자주식회사 가상 공간에서의 정보 공유 장치 및 방법
JP2013058186A (ja) * 2011-08-18 2013-03-28 Dainippon Printing Co Ltd 画像出力受付端末および画像出力受付方法、並びにプログラム
JP2015106234A (ja) * 2013-11-29 2015-06-08 アルパイン株式会社 コンテンツ情報の表示制御装置および表示制御方法
KR101733230B1 (ko) * 2015-05-21 2017-05-08 네이버 주식회사 컨텐츠 공유 서비스 제공 방법, 표시 제어 방법 및 컴퓨터 프로그램

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120137543A (ko) 2011-04-11 2012-12-24 삼성전자주식회사 가상 공간에서의 정보 공유 장치 및 방법
JP2013058186A (ja) * 2011-08-18 2013-03-28 Dainippon Printing Co Ltd 画像出力受付端末および画像出力受付方法、並びにプログラム
JP2015106234A (ja) * 2013-11-29 2015-06-08 アルパイン株式会社 コンテンツ情報の表示制御装置および表示制御方法
KR101733230B1 (ko) * 2015-05-21 2017-05-08 네이버 주식회사 컨텐츠 공유 서비스 제공 방법, 표시 제어 방법 및 컴퓨터 프로그램

Similar Documents

Publication Publication Date Title
US11868159B2 (en) Device, method, and graphical user interface for navigation of information in a map-based interface
US9141200B2 (en) Device, method, and graphical user interface for entering characters
KR101749235B1 (ko) 동시에 열린 소프트웨어 애플리케이션들을 관리하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9591221B2 (en) Magnetic camera component mounting in cameras
US9772759B2 (en) Device, method, and graphical user interface for data input using virtual sliders
US9032338B2 (en) Devices, methods, and graphical user interfaces for navigating and editing text
US8543905B2 (en) Device, method, and graphical user interface for automatically generating supplemental content
AU2010340101B2 (en) Device, method, and graphical user interface for location-based data collection
US20110242138A1 (en) Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards
US20120032891A1 (en) Device, Method, and Graphical User Interface with Enhanced Touch Targeting
US20130055119A1 (en) Device, Method, and Graphical User Interface for Variable Speed Navigation
US20120038668A1 (en) Method for display information and mobile terminal using the same
US20100079405A1 (en) Touch Screen Device, Method, and Graphical User Interface for Moving On-Screen Objects Without Using a Cursor
US20140006994A1 (en) Device, Method, and Graphical User Interface for Displaying a Virtual Keyboard
CN105190520A (zh) 用于使能触摸的设备的悬停手势
US9836211B2 (en) Device, method, and graphical user interface for selection of views in a three-dimensional map based on gesture inputs
US9568604B2 (en) Optically gated detector arrangement
KR101979918B1 (ko) 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템
KR20190072499A (ko) 가상 공간 상에 정보를 입력하는 방법 및 이를 위한 단말기와 시스템

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant