KR20150022079A - 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 - Google Patents

사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 Download PDF

Info

Publication number
KR20150022079A
KR20150022079A KR20130099381A KR20130099381A KR20150022079A KR 20150022079 A KR20150022079 A KR 20150022079A KR 20130099381 A KR20130099381 A KR 20130099381A KR 20130099381 A KR20130099381 A KR 20130099381A KR 20150022079 A KR20150022079 A KR 20150022079A
Authority
KR
South Korea
Prior art keywords
virtual object
user device
effect
user
augmented reality
Prior art date
Application number
KR20130099381A
Other languages
English (en)
Inventor
주성환
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR20130099381A priority Critical patent/KR20150022079A/ko
Publication of KR20150022079A publication Critical patent/KR20150022079A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 개시한다. 즉, 본 발명은 이미지, 텍스트, 동영상 등과 같이 고정된 표현방식을 통해 고정된 내용을 전달하기 위해 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 사용자 장치에 구성된 센서부를 통해 인식될 때, 인식된 동작에 대응하여 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하여 가상 객체의 고정된 표현이나 내용을 벗어난 새로운 감성적 자극을 사용자에게 제공하거나 또는, 미리 설정된 동작이 인식될 때 인식된 동작에 대응되도록 대응 텍스트나 음성 혹은 식별자가 미리 설정된 하나 이상의 가상 객체 또는 특정 폴더 내의 하나 이상의 가상 객체를 선별한 후 해당 가상 객체에 미리 설정된 증강 현실이나 애니메이션 효과를 적용함으로써, 가상 객체의 활용성을 높이고 사용자의 만족감을 향상시키고, 간단한 조작을 통해 원하는 가상 객체에 대해 앞선 효과를 빠르고 쉽게 적용하여 표시할 수 있어 사용자의 흥미를 증가시키고 사용자의 편의성을 향상시킬 수 있다.

Description

사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체{User equipment, control method thereof and computer readable medium having computer program recorded therefor}
본 발명은 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 인식될 때, 인식된 동작에 대응하는 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하거나 또는 미리 설정된 동작이 인식될 때 인식된 동작에 대응하여 미리 저장된 하나 이상의 가상 객체 또는 특정 폴더 내의 하나 이상의 가상 객체에 미리 설정된 증강 현실이나 애니메이션 효과를 적용하는 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.
이동 단말기(Mobile Terminal)는 GPS(Global Positioning System) 기능, 통화 기능(또는 호(call) 기능) 및 콘텐츠(메시지, 파일 등 포함) 송수신 기능을 수행하여, 그 수행 결과를 사용자에게 제공하는 장치이다.
이러한 이동 단말기는 해당 이동 단말기에 저장된 사진을 단일 이미지로 보고 편집하거나 여러 사진을 모아서 보고 정렬하는 기능 등을 제공하고 있는데, 단순히 정적인 이미지를 그대로 제공하고 있을 뿐 이러한 이미지를 생동감 있게 표현하거나 현재 환경을 반영하여 표현하는 등, 정적인 이미지를 동적으로 활용하는 매시업 서비스는 찾아볼 수 없다.
한국공개특허 제10-2005-0087464호 [명칭: 동적 이미지가 적용되는 디지털 전자액자 및 그 동적이미지 처리방법]
본 발명의 목적은 이미지, 텍스트, 동영상 등과 같이 고정된 표현방식을 통해 고정된 내용을 전달하기 위해 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 사용자 장치에 구성된 센서부를 통해 인식될 때, 인식된 동작에 대응하는 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하여 설정된 시간 동안 가상 객체에 적용된 증강 현실 표현이나 애니메이션 표현을 사용자에게 제공하는 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.
본 발명의 다른 목적은 미리 설정된 동작이 인식될 때 인식된 동작에 대응되도록 대응 텍스트나 음성 혹은 식별자가 미리 설정된 하나 이상의 가상 객체 또는 특정 폴더 내의 하나 이상의 가상 객체를 선별한 후 해당 가상 객체에 미리 설정된 증강 현실이나 애니메이션 효과를 적용하여 사용자에게 표시하는 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.
본 발명의 실시예에 따른 사용자 장치는 가상 객체를 표시하는 표시부; 표시부에 가상 객체가 표시된 상태에서 사용자 장치의 움직임을 감지하는 센서부; 및 사용자 장치의 움직임에 따른 특징 정보를 검출하고, 특징 정보를 반영하는 증강 현실 효과 또는 애니메이션 효과를 가상 객체에 적용하고, 증강 현실 효과 또는 애니메이션 효과가 적용된 가상 객체를 표시부에 표시하는 제어부;를 포함할 수 있다.
본 발명과 관련된 일 예로서 사용자 장치의 움직임은 센서부를 통해 감지되는 물리적인 움직임, 소리 또는 영상으로 확인되는 제스처 중 하나일 수 있다.
본 발명의 실시예에 따른 사용자 장치의 제어 방법은 저장부를 통해 하나 이상의 가상 객체 또는 가상 객체를 포함하는 특정 폴더를 저장하는 단계; 센서부를 통해 사용자 장치의 움직임을 감지하는 단계; 제어부를 통해 사용자 장치의 움직임에 따른 특징 정보를 검출하는 단계; 제어부를 통해 특징 정보를 반영하는 증강 현실 효과 또는 애니메이션 효과를 하나 이상의 가상 객체 또는 특정 폴더 내에 저장된 하나 이상의 가상 객체에 적용하는 단계; 및 표시부를 통해 증강 현실 효과 또는 애니메이션 효과가 적용된 하나 이상의 가상 객체 또는 특정 폴더 내에 저장된 하나 이상의 가상 객체를 표시하는 단계;를 포함할 수 있다.
본 발명의 실시예에 따른 컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 사용자 장치의 제어 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.
본 발명은 이미지, 텍스트, 동영상 등과 같이 고정된 표현방식을 통해 고정된 내용을 전달하기 위해 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 사용자 장치에 구성된 센서부를 통해 인식될 때, 인식된 동작에 대응하여 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하여 가상 객체의 고정된 표현이나 내용을 벗어난 새로운 감성적 자극을 사용자에게 제공함으로써, 가상 객체의 활용성을 높이고 사용자의 만족감을 향상시키는 효과가 있다.
또한, 본 발명은 미리 설정된 동작이 인식될 때 인식된 동작에 대응되도록 대응 텍스트나 음성 혹은 식별자가 미리 설정된 하나 이상의 가상 객체 또는 특정 폴더 내의 하나 이상의 가상 객체를 선별한 후 해당 가상 객체에 미리 설정된 증강 현실이나 애니메이션 효과를 적용함으로써, 간단한 조작을 통해 원하는 가상 객체에 대해 앞선 효과를 빠르고 쉽게 적용하여 표시할 수 있어 사용자의 흥미를 증가시키고 사용자의 편의성을 향상시키는 효과가 있다.
도 1은 본 발명의 실시예에 따른 사용자 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 사용자 장치의 제 1 실시예에 따른 제어 방법을 나타낸 흐름도이다.
도 3 및 도 4는 본 발명의 사용자 장치의 제 1 실시예에 따른 화면을 나타낸 도이다.
도 5는 본 발명의 사용자 장치의 제 2 실시예에 따른 제어 방법을 나타낸 흐름도이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
도 1은 본 발명의 실시예에 따른 사용자 장치(100)의 구성을 나타낸 블록도이다.
도 1에 도시된 바와 같이, 사용자 장치(100)는 표시부(110), 저장부(120), 센서부(130) 및 제어부(140)로 구성된다. 도 1에 도시된 사용자 장치(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 사용자 장치(100)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 사용자 장치(100)가 구현될 수도 있다.
표시부(110)는 제어부(140)의 제어에 의해 저장부(120)에 저장된 사용자 인터페이스 또는 그래픽 사용자 인터페이스를 이용하여 메뉴 화면 등과 같은 콘텐츠를 표시할 수 있다. 여기서, 표시부(110)에 표시되는 콘텐츠는 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 표시부(110)는 터치 스크린 일 수 있다.
저장부(120)는 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.
또한, 저장부(120)는 사용자 장치(100)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
또한, 저장부(120)는 사용자 장치(100)에 설치된 갤러리 앱(미도시)과 연동하여, 하나 이상의 가상 객체 등의 콘텐츠를 저장한다. 여기서, 가상 객체는 이미지, 텍스트, 동영상 등과 같이 고정된 표현을 통해 고정된 내용을 전달하기 위해 사용자 장치(100)에 저장되거나 연동되는 콘텐츠를 의미한다. 예를 들어, 이미지의 경우 이미지 뷰어를 통해서 이미지 내용을 표시하기 위한 고정된 용도의 콘텐츠이고, 텍스트나 동영상 역시 해당 내용을 뷰어를 통해서 표시하기 위한 고정된 용도의 콘텐츠이다.
또한, 저장부(120)는 증강현실 효과, 애니메이션 효과를 제공하기 위한 정보를 저장한다. 일 예로, 저장부(120)는 증강현실 효과를 제공하기 위해 사용자의 움직임을 가상 객체에 반영하는 규칙이나 설정에 관한 정보를 저장할 수 있고, 카메라(미도시)의 영상을 배경으로 제공하기 위한 설정에 관한 정보를 저장할 수도 있다. 또한, 애니메이션 효과를 제공하기 위해 제공할 애니메이션의 유형별 표현 방식이나 표현 패턴에 대한 설정 정보를 저장할 수 있다.
센서부(130)는 사용자 장치(100)의 미리 설정된 일부 위치에 구비되며, 사용자 장치(100)의 움직임을 감지하는 동작 인식 센서(Motion Recognition Sensor)를 포함한다. 여기서, 동작 인식 센서는 물체의 움직임이나 위치를 인식하는 센서, 지자기 센서(Geomagnetism Sensor), 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서 등의 센서를 포함하며, 그 외 동작 인식에 관련된 센서들이 추가로 포함될 수 있다.
또한, 센서부(130)는 구비된 동작 인식 센서를 통해서 사용자 장치(100)의 움직임을 정량적으로 감지하는데, 예를 들면 사용자 장치(100)의 기울어진 방향, 기울어진 각도, 기울어지는 속도, 상하/좌우/대각선 방향으로의 진동 방향, 진동 횟수 등을 포함하는 정보를 감지할 수 있다. 여기서, 감지되는 정보들(기울어진 방향, 기울어진 각도, 기울어지는 속도, 진동 방향, 진동 횟수)은 디지털 신호 처리 과정을 통해 디지털화되며, 디지털화된 정보들이 제어부(140)에 전달된다.
또한, 센서부(130)는 오디오 신호 또는 비디오 신호를 입력받기 위한 적어도 하나 이상의 마이크(미도시)와 카메라(미도시)를 포함할 수 있다. 마이크는 통화 모드, 녹음 모드, 음성 인식 모드, 영상 회의 모드, 영상 통화 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호(사용자의 음성(음성 신호 또는 음성 정보) 포함)를 수신하여 전기적인 음성 데이터로 처리한다. 또한, 처리된 음성 데이터는 음성 출력부(미도시)(예를 들어 스피커)를 통해 출력되거나 통신부(미도시)를 통하여 외부 사용자 장치로 송신 가능한 형태로 변환되어 출력될 수 있다. 또한, 마이크는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음을 제거하기 위한 잡음 제거 알고리즘이 구현될 수도 있다.
제어부(140)는 사용자 장치(100)의 전반적인 제어 기능을 실행한다.
또한, 사용자 장치(100) 내에 설치된(또는 구비된/포함된) 특정 앱이 실행되면, 제어부(140)는 특정 앱 실행 결과 화면을 표시부(110)에 표시하는데, 특정 앱의 일 예로서 갤러리 앱은 센서부(130)에 구비된 카메라(미도시)를 통해 촬영된 영상(예를 들어 정지 영상, 동영상 등 포함) 및 사용자 장치(100)에 구비된 통신부(미도시)를 통해 수신된 영상 등을 검색하여 표시부(110)에 표시한다.
즉, 사용자 장치(100)에서 갤러리 앱이 실행되면, 제어부(140)는 하나 이상의 가상 객체 또는 하나 이상의 가상 객체가 포함된 그룹(또는 폴더) 내의 하나 이상의 콘텐츠를 표시부(110)에 표시한다. 이때, 그룹(또는 폴더)의 이름(또는 그룹명/폴더명)은 사용자에 의해 또는 자동으로 미리 설정된다.
또한, 제어부(140)는 표시부(110)에 표시되는 특정 앱 실행 결과 화면 중에서 어느 하나의 가상 객체가 선택되면, 선택된 가상 객체를 표시부(110)의 전체 영역 또는 일부 영역에 표시(또는 확대하여 표시)한다.
또한, 표시부(110)에 선택된 가상 객체가 표시되고 있는 상태에서 센서부(130)를 통해 미리 설정된 사용자 장치(100)의 움직임이 감지 또는 인식되면, 제어부(140)는 감지 또는 인식된 움직임의 특징에 대응하여 미리 설정된 효과(또는 기능)를 선택된 가상 객체에 적용하고, 효과가 적용된 상태를 표시부(110)에 표시한다. 여기서, 센서부(130)를 통해 미리 설정된 사용자 장치(100)의 움직임이 감지되는 경우는 센서부(130)에 포함된 동작 인식 센서를 통해 사용자 장치(100)의 기울어진 방향, 기울어진 각도, 기울어지는 속도, 진동 방향, 진동 횟수를 감지하거나, 표시부(110)에 표시되는 미리 설정된 특정 버튼 또는 사용자 장치(100)에 구비된 특정 버튼이 선택(또는 터치)되는 것을 감지하거나, 센서부(130)에 포함된 마이크를 통해 미리 설정된 소리(예를 들어 "후/호/아" 등의 바람소리) 또는 미리 설정된 음성이 인식되거나, 센서부(130)에 포함된 카메라를 통해 영상 변화에 따른 미리 설정된 패턴이 인식되는 경우 등을 포함한다. 이때, 미리 설정된 효과는 증강 현실(Augmented Reality: AR) 효과와 애니메이션 효과 중 적어도 하나일 수 있다. 여기서, 증강현실 효과는 예를 들어 사용자 장치(100)의 움직임을 기준으로 가상 객체의 표현을 변경하거나 카메라를 통해 제공되는 영상에 가상 객체를 표시하는 효과일 수 있는데, 사용자 장치(100)를 물리적으로 움직이거나 마이크에 바람을 불거나 카메라에 제스처를 취함에 따라 가상 객체가 왜곡되거나 움직이는 방향이 결정될 수 있고 카메라를 통해 제공되는 영상을 배경으로 가상 객체가 표시될 수 있다.
애니메이션 효과는 예를 들어 가상 객체를 특정한 형태로 왜곡하거나 잘라내거나 혹은 미리 설정된 입체 형상에 맵핑하여 표시부(110) 내에서 움직이도록 하는 것일 수 있는데, 이동뿐만 아니라 특정 형태에 맞추어 그에 따른 고유의 제스처를 취할 수도 있다. 일 예로, 나비 유형, 구름 유형, 종이 비행기 유형, 벚꽃 유형 등이 있을 수 있으며, 이러한 각 형상에 맞추어 가상 객체의 표현 상태를 변경한 후 변경된 가상 객체를 미리 설정된 패턴에 따라 움직이거나 증강 현실 효과와 연동하여 사용자 장치(100)의 움직임을 반영하여 움직이도록 할 수 있다.
예를 들어, 사용자가 갤러리 앱에서 하나 이상의 이미지를 선택한 후 사용자 장치(100)를 한번 흔들면 각 이미지가 나비 형상으로 왜곡되어 날갯짓을 하면서 화면을 돌아다니거나(나비 유형), 사용자 장치(100)를 회전시키면 각 이미지가 구름이 되어 형상을 변화시키면서 서로 다른 속도로 화면을 지나가거나(구름 유형), 마이크에 바람을 불면 그 세기와 사용자 장치(100)의 기울어진 방향에 따라 각 이미지가 종이 비행기가 되어 날아가거나(종이 비행기 유형), 카메라 전방에서 손을 흔들면 각 이미지가 벚꽃이 되어 흔들거리는(벚꽃 유형) 등의 효과가 제공될 수 있다. 물론, 이미지가 아닌 텍스트인 경우 특정 영역의 텍스트 내용을 이미지처럼 이용하여 위의 효과를 적용할 수 있고, 동영상인 경우에도 대표 이미지를 이용하거나 동영상이 재생되는 상황에서 위의 효과를 적용할 수 있다.
앞서 설명된 실시예는 가상 객체를 선정한 후 움직임에 따라 설정된 효과를 제공하는 것인데, 특정한 움직임에 대응되는 가상 객체를 미리 설정한 후 움직임만으로 가상 객체를 별도로 선택하는 절차를 생략하고 미리 설정된 가상 객체에 효과를 적용할 수도 있다.
즉, 미리 설정된 사용자 장치(100)의 움직임이 감지되면, 제어부(140)는 해당 움직임에 대응하여 미리 설정된 가상 객체에 대해서 해당 움직임에 따른 효과를 적용한다. 이때, 사용자 장치(100)의 동작 상태가 미리 설정된 효과 모드(예를 들어 증강현실 모드)인 상태에서 미리 설정된 사용자 장치(100)의 움직임이 감지될 때, 제어부(140)는 감지된 사용자 장치(100)의 움직임에 대응하여 미리 설정된 효과를 수행할 수도 있다. 즉, 효과 모드를 선택하여 가상 객체에 대한 증강현실 효과나 애니메이션 효과 혹은 이들이 결합된 효과를 제공하기 위한 상태임을 제어부(140)에 인지시킬 수 있는데, 이를 통해 효과 적용을 위한 의도적인 움직임과 노이즈를 구별하도록 하여 의도하지 않은 효과 적용의 불편함을 줄일 수 있다.
움직임만으로 미리 설정된 가상 객체에 대해 동적 효과를 제공하는 예로서, 센서부(130)를 통해 미리 설정된 사용자 장치(100)의 물리적 움직임이 감지되는 경우, 표시부(110)에 표시되는 미리 설정된 특정 버튼 또는 사용자 장치(100)에 구비된 특정 버튼이 선택(또는 터치)되는 경우, 마이크를 통한 미리 설정된 소리가 감지되는 경우 제어부(140)는 감지된 사용자 장치(100)의 움직임에 대응하여 미리 설정된 하나 이상의 가상 객체 또는 미리 설정된 특정 폴더(또는 카테고리) 내에 저장되거나 연동된 하나 이상의 가상 객체에 미리 설정된 증강 현실 효과 및 애니메이션 효과 중 적어도 하나의 효과를 적용하고, 증강 현실 효과 및 애니메이션 효과 중 적어도 하나의 효과가 적용된 미리 설정된 하나 이상의 가상 객체 또는 미리 설정된 특정 폴더(또는 카테고리) 내에 저장된 하나 이상의 가상 객체를 표시부(110)에 표시한다. 특정한 움직임에 대응하는 가상 객체를 선택하는 방식의 예로서, 특정한 가상 객체를 미리 선택해 두는 방식, 특정한 폴더나 카테고리 내의 가상 객체가 자동으로 선택되도록 하는 방식, 특정한 움직임과 특정한 가상 객체의 종류(예를 들어 물리적 움직임과 이미지, 마이크를 통한 소리와 텍스트 등)를 대응시키는 방식이 있을 수 있다. 다른 예로서 대응 텍스트나 음성 혹은 식별자를 가상 객체에 연동시켜 이를 통해 움직임에 대응되는 가상 객체를 특정하는 방법이 있을 수 있는데 일 예로 가상 객체의 파일명에 특정한 식별자를 포함하는 방식(예를 들어, -S(흔듬), -R(회전), -V(소리나 음성) 등), 음성 인식을 통해 파일명이나 식별자를 특정시키고 추가 움직임을 제공하거나 해당 음성 자체를 움직임으로 간주하는 방식(예를 들어 '여자친구'가 파일명에 포함된 가상 객체의 경우 음성 인식만으로 해당 가상 객체들에 나비효과를 주거나, 음성인식을 통해 객체가 선택되면 움직임을 통해 그에 따른 개별 효과를 제공) 등이 있을 수 있다.
한편, 미리 설정된 시간이 지나면, 제어부(140)는 선택되거나 설정된 가상 객체 또는 특정 폴더(또는 카테고리) 내에 저장된 하나 이상의 가상 객체에 적용되는 미리 설정된 증강 현실 효과 및 애니메이션 효과 중 적어도 하나의 효과의 적용을 중지하고, 이전 상태 또는 증강 현실 효과나 애니메이션 효과의 적용이 중지된 가상 객체 또는 폴더를 표시부(110)에 표시한다.
또한, 사용자 장치(100)는 유/무선 통신망을 통해 내부의 구성 요소 또는 외부의 적어도 하나의 사용자 장치와 통신하는 통신부(미도시)를 더 포함할 수 있다. 이때, 외부의 사용자 장치는 서비스 장치 등을 포함할 수 있는데, 이 경우 통신부는 서비스 장치로부터 전송되는 이미지, 텍스트 또는 동영상을 포함하는 가상 객체, 증강 현실 효과 또는 애니메이션 효과를 제공하기 위한 설정이나 정보 혹은 소프트웨어 모듈 등을 수신한다.
이와 같이, 이미지, 텍스트, 동영상 등과 같이 고정된 표현방식을 통해 고정된 내용을 전달하기 위해 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 사용자 장치에 구성된 센서부를 통해 인식될 때, 인식된 동작에 대응하여 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하여 가상 객체의 고정된 표현이나 내용을 벗어난 새로운 감성적 자극을 사용자에게 제공할 수 있다.
또한, 이와 같이, 미리 설정된 동작이 인식될 때 인식된 동작에 대응되도록 대응 텍스트나 음성 혹은 식별자가 미리 설정된 하나 이상의 가상 객체 또는 특정 폴더 내의 하나 이상의 가상 객체를 선별한 후 해당 가상 객체에 미리 설정된 증강 현실이나 애니메이션 효과를 적용할 수 있다.
이하에서는, 본 발명에 따른 사용자 장치의 제어 방법을 도 1 내지 도 5를 참조하여 상세히 설명한다.
도 2는 본 발명의 사용자 장치의 제 1 실시예에 따른 제어 방법을 나타낸 흐름도이다.
먼저, 사용자 장치(100) 내에 설치된 특정 앱(예를 들어 갤러리 앱)이 실행되면, 제어부(140)는 특정 앱과 관련된 특정 앱 실행 결과 화면을 표시부(110)에 표시한다. 여기서, 특정 앱 실행 결과 화면은 가상 객체를 포함한다. 이때, 가상 객체는 이미지, 텍스트 또는 동영상일 수 있다.
일 예로, 사용자 선택(또는 터치)에 따라 사용자 장치(100)에 미리 설치된 갤러리 앱이 실행되면, 도 3에 도시된 바와 같이, 제어부(140)는 갤러리 앱 실행 결과 화면(310)을 표시부(110)에 표시한다. 여기서, 도 3에 도시된 바와 같이, 갤러리 앱 실행 결과 화면(310)은 하나 이상의 이미지(311) 또는 동영상(312)의 가상 객체, 하나 이상의 가상 객체를 포함하는 그룹(또는 폴더)(313) 등을 포함한다. 이때, 그룹(또는 폴더)의 이름(또는 그룹명/폴더명)은 사용자에 의해 또는 자동으로 미리 설정된다(S210).
이후, 표시부(110)에 표시되는 특정 앱 실행 결과 화면 중에서 어느 하나의 가상 객체가 선택되면, 제어부(140)는 선택된 가상 객체인 콘텐츠를 표시부(110)의 전체 영역 또는 일부 영역에 표시(또는 확대하여 표시)한다.
일 예로, 도 3에 도시된 하나 이상의 이미지(311), 동영상(312) 및 그룹(또는 폴더)(313) 중에서 특정 이미지가 선택되면, 도 4에 도시된 바와 같이, 제어부(140)는 선택된 특정 이미지(410)를 표시부(110)에 표시한다(S220).
이후, 표시부(110)에 선택된 가상 객체가 표시되고 있는 상태에서 미리 설정된 사용자 장치(100)의 움직임이 감지되면, 제어부(140)는 감지된 움직임에 대응하여 미리 설정된 효과(또는 기능)를 선택된 가상 객체에 적용하고, 적용 결과를 표시부(110)에 표시한다. 여기서, 미리 설정된 사용자 장치(100)의 움직임은 센서부(130)를 통해 미리 설정된 사용자 장치(100)의 물리적 움직임이 감지되는 경우, 표시부(110)에 표시되는 미리 설정된 특정 버튼 또는 사용자 장치(100)에 구비된 특정 버튼이 선택(또는 터치)되는 경우, 센서부(130)에 포함된 마이크를 통해 미리 설정된 소리(또는 소리 신호)가 감지되는 경우 등을 포함한다. 이때, 미리 설정된 효과는 증강 현실 효과나 애니메이션 효과 등일 수 있다.
일 예로, 도 4에 도시된 특정 이미지(410)가 표시부(110)에 표시되고 있는 상태에서 센서부(130)를 통해 사용자 장치(100)의 대각선 방향으로의 움직임이 감지될 때, 제어부(140)는 특정 이미지에 애니메이션 효과(예를 들어 특정 이미지가 나비처럼 훨훨 날아가는 효과)를 적용하여 표시부(110)에 표시한다.
다른 일 예로, 도 4에 도시된 특정 이미지(410)가 표시부(110)에 표시되고 있는 상태에서 센서부(130)를 통해 사용자 장치(100)의 회전에 의한 뒤집기의 움직임이 감지될 때, 제어부(140)는 특정 이미지에 애니메이션 효과(예를 들어 특정 이미지가 구름 형상으로 둥둥 떠가는 효과)를 적용하여 표시부(110)에 표시한다(S230).
이후, 미리 설정된 시간이 지나면, 제어부(140)는 특정 가상 객체에 적용되는 미리 설정된 증강 현실 효과, 애니메이션 효과 중 적어도 하나의 효과의 적용을 중지(또는 중단/해지)하고, 표시부(110)에 선택된 가상 객체를 표시하는 이전 상태로 복귀한다.
일 예로, 특정 이미지에 대한 애니메이션 효과 적용 이후 미리 설정된 시간(예를 들어 5초)이 경과할 때, 제어부(140)는 애니메이션 효과 적용을 중지하고, 해당 특정 이미지를 표시부(110)에 표시한다(S240).
도 5는 본 발명의 사용자 장치의 제 2 실시예에 따른 제어 방법을 나타낸 흐름도이다.
먼저, 미리 설정된 사용자 장치(100)의 움직임이 감지되면, 제어부(140)는 감지된 움직임에 대응하여 미리 설정된 효과(또는 기능)를 수행한다. 여기서, 미리 설정된 사용자 장치(100)의 기능은 앞서 설명했던 바와 같이 센서부(130)의 동작 인식 센서를 통한 물리적 움직임, 표시부(110)에 표시되는 버튼 또는 사용자 장치(100)에 구비된 버튼의 선택, 센서부(130)에 포함된 마이크를 통한 소리의 감지 등이 포함될 수 있다. 이때, 미리 설정된 효과는 증강 현실 효과나 애니메이션 효과 등일 수 있다. 또한, 사용자 장치(100)의 동작 상태가 미리 설정된 모드인 상태에서 미리 설정된 사용자 장치(100)의 기능이 발생할 때, 제어부(140)는 발생된 사용자 장치(100)의 기능에 대응하여 미리 설정된 효과를 수행할 수도 있다.
앞서 언급했던 사용자 장치(100)의 움직임이 감지될 경우 제어부(140)는 감지된 사용자 장치(100)의 움직임에 대응하여 미리 설정된 하나 이상의 가상 객체 또는 미리 설정된 특정 폴더(또는 카테고리) 내에 저장된 하나 이상의 가상 객체에 미리 설정된 증강 현실 효과 및 애니메이션 효과 중 적어도 하나의 효과를 적용하고, 적용 결과를 표시부(110)에 표시한다. 여기서 특정한 움직임에 대응하는 가상 객체를 선택하는 방식의 예로서, 특정한 가상 객체를 미리 선택해 두는 방식, 특정한 폴더나 카테고리 내의 가상 객체가 자동으로 선택되도록 하는 방식, 특정한 움직임과 특정한 가상 객체의 종류를 대응시키는 방식, 또는 대응 텍스트나 음성 혹은 식별자를 가상 객체에 연동시켜 이를 통해 움직임에 대응되는 가상 객체를 특정하는 방식 등이 있을 수 있다.
위와 같은 방식의 예로, 센서부(130)를 통해 사용자 장치(100)의 미리 설정된 움직임인 시계 방향으로의 움직임(또는 회전/이동)이 감지될 때, 제어부(140)는 시계 방향으로의 움직임에 대응하여 미리 설정된 제 1 이미지에 애니메이션 효과(예를 들어 미리 설정된 제 1 이미지가 종이 비행기처럼 날아가는 효과)를 적용하여 표시부(110)에 표시할 수 있다.
다른 일 예로, 사용자 장치(100)의 동작 상태가 미리 설정된 증강현실 모드인 상태에서 센서부(130)에 포함된 마이크를 통해 미리 설정된 소리(예를 들어 "아" 소리)가 감지(또는 인식)될 때, 제어부(140)는 감지된 소리에 대응하여 미리 설정된 특정 폴더에 포함된 제 2, 제 3 및 제 4 이미지에 애니메이션 효과(예를 들어 특정 폴더에 위치한 제 2, 제 3 및 제 4 이미지가 벚꽃 형상으로 표시되는 효과)를 적용하여 표시부(110)에 표시한다(S510).
이후, 미리 설정된 시간이 지나면, 제어부(140)는 미리 설정된 하나 이상의 가상 객체 또는 미리 설정된 특정 폴더(또는 카테고리) 내에 저장된 하나 이상의 가상 객체에 적용되는 미리 설정된 증강 현실 효과 및 애니메이션 효과 중 적어도 하나의 효과의 적용을 중지하고, 표시부(110)에 선택된 가상 객체를 표시하는 이전 상태로 복귀한다(S520).
본 발명의 실시예에 따른 사용자 장치의 제어 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 사용자 장치 등에 의하여 읽혀지고 실행됨으로써 사용자 장치의 제어 방법을 구현할 수 있다.
정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 사용자 장치의 제어 방법을 구현하는 컴퓨터 프로그램은 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 사용자 장치의 제어 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 사용자 장치 등에 장착될 수도 있다.
본 발명의 실시예는 앞서 설명된 바와 같이, 이미지, 텍스트, 동영상 등과 같이 고정된 표현방식을 통해 고정된 내용을 전달하기 위해 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 사용자 장치에 구성된 센서부를 통해 인식될 때, 인식된 동작에 대응하여 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하여 가상 객체의 고정된 표현이나 내용을 벗어난 새로운 감성적 자극을 사용자에게 제공하여, 가상 객체의 활용성을 높이고 사용자의 만족감을 향상시키는 효과가 있다.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 미리 설정된 동작이 인식될 때 인식된 동작에 대응되도록 대응 텍스트나 음성 혹은 식별자가 미리 설정된 하나 이상의 가상 객체 또는 특정 폴더 내의 하나 이상의 가상 객체를 선별한 후 해당 가상 객체에 미리 설정된 증강 현실이나 애니메이션 효과를 적용하여, 간단한 조작을 통해 원하는 가상 객체에 대해 앞선 효과를 빠르고 쉽게 적용하여 표시할 수 있어 사용자의 흥미를 증가시키고 사용자의 편의성을 향상시키는 효과가 있다.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명은 이미지, 텍스트, 동영상 등과 같이 고정된 표현을 통해 고정된 내용을 전달하기 위해 사용자 장치 내에 저장된 가상 객체에 대해 미리 설정된 동작이 사용자 장치에 구성된 센서부를 통해 인식될 때, 인식된 동작에 대응하여 미리 설정된 증강 현실이나 애니메이션 효과를 가상 객체에 적용하여 가상 객체의 고정된 표현이나 내용을 벗어난 새로운 감성적 자극을 사용자에게 제공하는 것이므로 애플리케이션 제공 분야, 가상 객체 제공 분야, 콘텐츠 제공 분야, 사용자 장치 제공 분야 등에서 광범위하게 이용될 수 있다.
100: 사용자 장치 110: 표시부
120: 저장부 130: 센서부
140: 제어부

Claims (4)

  1. 가상 객체를 표시하는 표시부;
    상기 표시부에 가상 객체가 표시된 상태에서 사용자 장치의 움직임을 감지하는 센서부; 및
    상기 사용자 장치의 움직임에 따른 특징 정보를 검출하고, 상기 특징 정보를 반영하는 증강 현실 효과 또는 애니메이션 효과를 상기 가상 객체에 적용하고, 상기 증강 현실 효과 또는 애니메이션 효과가 적용된 가상 객체를 상기 표시부에 표시하는 제어부;를 포함하는 사용자 장치.
  2. 제 1항에 있어서,
    상기 사용자 장치의 움직임은 상기 센서부를 통해 감지되는 물리적인 움직임, 소리 또는 영상으로 확인되는 제스처 중 하나인 것을 특징으로 하는 사용자 장치.
  3. 저장부를 통해 하나 이상의 가상 객체 또는 상기 가상 객체를 포함하는 특정 폴더를 저장하는 단계;
    센서부를 통해 사용자 장치의 움직임을 감지하는 단계;
    제어부를 통해 상기 사용자 장치의 움직임에 따른 특징 정보를 검출하는 단계;
    상기 제어부를 통해 상기 특징 정보를 반영하는 증강 현실 효과 또는 애니메이션 효과를 상기 하나 이상의 가상 객체 또는 상기 특정 폴더 내에 저장된 하나 이상의 가상 객체에 적용하는 단계; 및
    표시부를 통해 상기 증강 현실 효과 또는 애니메이션 효과가 적용된 상기 하나 이상의 가상 객체 또는 상기 특정 폴더 내에 저장된 하나 이상의 가상 객체를 표시하는 단계;를 포함하는 사용자 장치의 제어 방법.
  4. 제 3항에 있어서, 사용자 장치의 제어 방법을 수행하는 컴퓨터 프로그램이 기록된 기록매체.
KR20130099381A 2013-08-22 2013-08-22 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 KR20150022079A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130099381A KR20150022079A (ko) 2013-08-22 2013-08-22 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130099381A KR20150022079A (ko) 2013-08-22 2013-08-22 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체

Publications (1)

Publication Number Publication Date
KR20150022079A true KR20150022079A (ko) 2015-03-04

Family

ID=53020154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130099381A KR20150022079A (ko) 2013-08-22 2013-08-22 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체

Country Status (1)

Country Link
KR (1) KR20150022079A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109005401A (zh) * 2017-06-06 2018-12-14 汤姆逊许可公司 消费沉浸内容项时激励观看者转向参考方向的方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109005401A (zh) * 2017-06-06 2018-12-14 汤姆逊许可公司 消费沉浸内容项时激励观看者转向参考方向的方法和装置
US10964085B2 (en) 2017-06-06 2021-03-30 Interdigital Ce Patent Holdings Method and apparatus for inciting a viewer to rotate toward a reference direction when consuming an immersive content item

Similar Documents

Publication Publication Date Title
US11030813B2 (en) Video clip object tracking
CN108776568B (zh) 网页页面的显示方法、装置、终端及存储介质
KR102577968B1 (ko) 증강 현실 객체 조작
CN108694073B (zh) 虚拟场景的控制方法、装置、设备及存储介质
CN111701238A (zh) 虚拟画卷的显示方法、装置、设备及存储介质
CA2838878C (en) Method and apparatus for controlling contents in electronic device
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
WO2021073293A1 (zh) 动画文件的生成方法、装置及存储介质
CN113157172A (zh) 弹幕信息显示方法、发送方法、装置、终端及存储介质
CN112348929A (zh) 帧动画的渲染方法、装置、计算机设备及存储介质
CN110543350A (zh) 一种生成页面组件的方法及装置
CN113409427B (zh) 动画播放方法、装置、电子设备及计算机可读存储介质
KR20160065673A (ko) 디바이스를 제어하는 방법, 시스템 및 그 디바이스
CN113325983A (zh) 虚拟形象处理方法、装置、终端及存储介质
KR20150110319A (ko) 영상을 디스플레이 하는 방법 및 디바이스
US11226731B1 (en) Simulated interactive panoramas
CN111459363A (zh) 信息展示方法、装置、设备及存储介质
CN110675473A (zh) 生成gif动态图的方法、装置、电子设备及介质
CN108228052B (zh) 触发界面组件运行的方法、装置、存储介质及终端
CN112822544A (zh) 视频素材文件生成方法、视频合成方法、设备及介质
CN110300275B (zh) 视频录制、播放方法、装置、终端及存储介质
KR20150022079A (ko) 사용자 장치, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP2019075126A (ja) 情報処理装置及びプログラム
CN113209610B (zh) 虚拟场景画面展示方法、装置、计算机设备及存储介质
CN112689190B (zh) 弹幕显示方法、装置、终端及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application