KR20110034740A - Portable device and related control method for video content through manipulation of object in the video content - Google Patents

Portable device and related control method for video content through manipulation of object in the video content Download PDF

Info

Publication number
KR20110034740A
KR20110034740A KR1020090092138A KR20090092138A KR20110034740A KR 20110034740 A KR20110034740 A KR 20110034740A KR 1020090092138 A KR1020090092138 A KR 1020090092138A KR 20090092138 A KR20090092138 A KR 20090092138A KR 20110034740 A KR20110034740 A KR 20110034740A
Authority
KR
South Korea
Prior art keywords
touch
moving picture
control command
mapping table
input signal
Prior art date
Application number
KR1020090092138A
Other languages
Korean (ko)
Other versions
KR101151301B1 (en
Inventor
홍상우
유병철
김경진
서승교
임민주
김건오
양재모
박명순
강석훈
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090092138A priority Critical patent/KR101151301B1/en
Publication of KR20110034740A publication Critical patent/KR20110034740A/en
Application granted granted Critical
Publication of KR101151301B1 publication Critical patent/KR101151301B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A portable device and a related control method for video content through manipulation of an object in the video content are provided to control a video intuitively by controlling an object within the video while reproducing video contents. CONSTITUTION: A touch sensing unit(112) senses a touch input on a display unit(114), and a storage unit(120) stores a control command mapping table(126) and video contents(122). A control unit(130) judges the input type based on a touch input signal of the touch sensing unit while reproducing the video contents video through a reproduction unit. Based on the control command mapping table, the control unit controls a reproduction-related function of the video contents according to the control command corresponding to the judged input type.

Description

휴대기기에서 재생 중인 동영상 내의 오브젝트 조작을 통한 동영상 제어 방법과 그 휴대기기{Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content}[0001] The present invention relates to a moving picture control method for moving objects in a moving picture being played back on a mobile device,

본 발명은 휴대기기에서 재생 중인 동영상 제어 인터페이스에 관한 것으로서, 좀더 구체적으로는 터치스크린 인터페이스를 채택하고 있는 휴대기기를 통해 동영상 컨텐츠를 재생하는 중에 동영상에 포함된 특정 오브젝트를 사용자가 터치스크린을 통해 직접 조작함으로써 재생 중인 동영상 관련 기능을 제어할 수 있도록 하는 방법과 그 휴대기기에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a moving picture control interface that is being played back on a mobile device, and more particularly, And controlling a moving picture related function during playback by operating the portable terminal.

정보통신 기술의 발전에 따라 휴대폰이 상용화된 지는 이미 오래되었으며, 근래에는 MP3 플레이어, PMP(Portable Multimedia Player) 등 다양한 유형의 휴대용 멀티미디어 기기들도 젊은 사용자 층을 중심으로 널리 사용되고 있다. 이와 같이 각종 휴대기기들의 보급이 늘면서 사용자의 요구는 점점 다양해지고 있고, 이를 충족시키기 위한 제조업체들의 경쟁은 갈수록 치열해지고 있다. 이에 따라 더 많은 기능을 더 편리하게 쓸 수 있는 휴대기기들이 지속적으로 개발되고 있으며, 각종 멀티미디어 기능, 무선인터넷 기능 등이 추가되면서 휴대기기의 동작환경은 점차 PC 수준으로 나아가고 있다.In recent years, various types of portable multimedia devices such as an MP3 player and a portable multimedia player (PMP) have been widely used by young users. As the popularity of various portable devices has increased, users' demands are becoming more diverse, and the competition of manufacturers to meet them is becoming more and more intense. Accordingly, portable devices that can use more functions more conveniently are continuously being developed, and various multimedia functions and wireless Internet functions are added, and the operating environment of the portable devices is gradually moving to the PC level.

휴대기기는 기본적으로 사용자가 간편하게 휴대할 수 있어야 하기 때문에 그 크기가 상대적으로 소형이다. 따라서 통상적으로 키패드(keypad)와 액정화면(LCD screen)으로 대표되는 입력장치와 출력장치의 크기 또한 제한적일 수밖에 없다. 이러한 제약 하에서 휴대기기에 다양하고 복잡한 기능을 부여함과 동시에 그 기능을 수행하기 위한 사용자의 접근성과 편의성을 향상시키려면, 이들을 고려한 사용자 인터페이스(user interface)의 개발이 필수적이다. 더구나 전통적인 휴대기기의 동작환경과 다른 PC 수준의 동작환경이 요구되면서 그에 적합한 사용자 인터페이스의 필요성은 더욱 커지고 있다.Portable devices are basically small in size because they must be easily portable by the user. Therefore, the size of an input device and an output device typically represented by a keypad and a liquid crystal screen (LCD screen) are limited. Under these constraints, it is essential to develop a user interface that takes various and complex functions into a portable device and improves the accessibility and convenience of the user to perform the functions. Moreover, as the operating environment of a conventional portable device is different from that of a PC-level operating environment, a need for a suitable user interface is increasing.

이에 다양한 방식의 사용자 인터페이스가 개발되고 있는데, 그 중의 하나가 터치 인터페이스(touch interface)이다. 예를 들어, 기존의 키패드와 더불어 터치패드를 입력부에 채용하는 기술, 키패드 영역에 터치센서를 장착하여 키패드 겸 터치패드를 형성하는 기술, 키패드를 완전히 없애고 터치스크린을 도입하는 기술 등이 그것이다.Accordingly, various types of user interfaces have been developed, one of which is a touch interface. For example, there is a technique of employing a touch pad in an input unit in addition to a conventional keypad, a technique of forming a keypad and a touch pad by attaching a touch sensor to the keypad area, and a technique of completely removing the keypad and introducing a touch screen.

이 중에서 터치스크린은 휴대기기와 사용자 사이에 입력 인터페이스 및 출력 인터페이스를 동시에 제공한다. 터치스크린은 기존의 키패드를 없앨 수 있으므로 표시 면적을 증가시킬 수 있고, 입력 측면에서도 사용자로 하여금 직관적인 조작이 가능하도록 하는 이점이 있다.Among them, the touch screen simultaneously provides an input interface and an output interface between the portable device and the user. The touch screen can eliminate the existing keypad, thereby increasing the display area, and has an advantage in that the user can intuitively operate on the input side.

한편, 최근의 휴대기기들은 언제 어디서나 간편하게 동영상을 재생하여 감상할 수 있는 기능을 제공하고 있다. 그런데 터치스크린을 구비한 휴대기기에서 동영 상 재생 중에 동영상을 제어하려면 해당 메뉴 또는 아이콘이 화면에 표시된 상태에서 조작해야 한다. 따라서 메뉴나 아이콘을 화면상에 띄워야 하는 다소 번거로운 과정이 필요할 뿐만 아니라, 화면상에 메뉴나 아이콘이 나타나면 재생 중인 영상을 가리게 되어 다소 불편하게 느끼지는 문제점이 있다.On the other hand, recent portable devices provide a function to easily view and play a video anytime and anywhere. However, in order to control video during video playback on a mobile device equipped with a touch screen, the menu or icon must be displayed on the screen. Therefore, not only a troublesome process of displaying a menu or an icon on the screen is required, but also a menu or an icon appears on the screen, which hides the image being reproduced and feels a little uncomfortable.

이에 터치스크린 방식의 휴대기기에서 동영상을 재생할 때 화면상에 제어관련 메뉴나 아이콘을 표시하지 않고 동영상 자체에서 직접 직관적으로 제어기능을 수행할 수 있는 기술에 대한 필요성이 대두되고 있다.Therefore, there is a need for a technology that can intuitively control the video directly from the video without displaying the control-related menus or icons on the screen when the video is played on the touch-screen portable device.

따라서 본 발명의 목적은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 터치스크린 인터페이스를 채택하고 있는 휴대기기를 통해 동영상 컨텐츠를 재생하는 중에 제어관련 메뉴나 아이콘을 띄우지 않고 동영상 자체에서 직접 직관적으로 동영상을 제어하기 위한 것이다.Accordingly, an object of the present invention is to solve the above-mentioned problems of the related art, and it is an object of the present invention to provide a touch screen interface, .

본 발명의 다른 목적은 휴대기기를 통해 재생 중인 동영상을 가리지 않고 동영상 재생 및 음량조절 등과 관련된 각종 제어기능을 직관적으로 수행할 수 있도록 하기 위한 것이다.It is another object of the present invention to intuitively perform various control functions related to video playback and volume control without selecting a moving picture being played back through a portable device.

이러한 목적을 달성하기 위하여, 본 발명에 따른 휴대기기는 표시부, 터치감지부, 저장부, 동영상 재생기, 제어부를 포함하여 구성된다.To achieve these and other advantages and in accordance with the purpose of the present invention, as embodied and broadly described herein, a portable device includes a display unit, a touch sensing unit, a storage unit, a moving picture player, and a control unit.

상기 터치감지부는 상기 표시부 위에 장착되어 터치를 감지하고 상기 터치에 따른 입력신호를 생성한다. 상기 저장부는 오브젝트가 포함된 동영상 컨텐츠, 상기 터치에 의한 입력유형과 제어명령 간의 대응관계가 정의된 제어명령 매핑 테이블을 저장한다. 상기 동영상 재생기는 상기 동영상 컨텐츠를 재생하여 상기 표시부를 통해 출력한다. 상기 제어부는 상기 동영상 재생기에 의한 상기 동영상컨텐츠의 재생 중에 상기 터치감지부로부터 특정 오브젝트에 대한 터치 입력신호를 수신하여 상기 입력유형을 판별하고, 상기 제어명령 매핑 테이블을 조회하여 상기 판별된 입력유형에 대응하는 제어명령을 인식하며, 상기 인식된 제어명령에 따라 상기 동영상 컨텐츠의 재생과 관련된 기능을 제어한다.The touch sensing unit is mounted on the display unit to sense a touch and generate an input signal corresponding to the touch. The storage unit stores a control command mapping table in which a correspondence relation between moving image content including an object and an input type by the touch and a control command is defined. The moving picture player reproduces the moving picture content and outputs the reproduced moving picture through the display unit. The control unit receives the touch input signal for a specific object from the touch sensing unit during the reproduction of the moving picture content by the moving picture player, identifies the input type, inquires the control command mapping table, Recognizes a corresponding control command, and controls a function related to reproduction of the moving picture content according to the recognized control command.

본 발명에 따른 휴대기기에 있어서, 상기 저장부는 동영상 제어가 가능한 오브젝트를 규정하는 오브젝트 매핑 테이블을 더 저장할 수 있으며, 상기 제어부는 상기 오브젝트 매핑 테이블을 조회하여 상기 터치 입력신호가 수신된 특정 오브젝트가 동영상 제어가 가능한 오브젝트인지 판단할 수 있다.In the portable device according to the present invention, the storage unit may further store an object mapping table for defining an object that can be motion-controlled, and the controller inquires the object mapping table, It is possible to determine whether or not the object is controllable.

또한, 상기 입력유형은 n회 터치(단, n은 1 이상의 자연수), 특정 방향의 드래그 중 적어도 하나를 포함할 수 있다.Further, the input type may include at least one of n-touches (where n is a natural number of 1 or more) and a drag in a specific direction.

또한, 상기 제어명령 매핑 테이블에 정의된 상기 제어명령은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 중 적어도 하나를 포함할 수 있다.Also, the control command defined in the control command mapping table may include at least one of playback, stop, pause, fast forward, fast forward, skip forward, skip backward, double speed, and volume control.

한편, 본 발명에 따른 오브젝트 조작을 통한 동영상 제어 방법은, 오브젝트가 포함된 동영상 컨텐츠를 재생하여 표시부를 통해 출력하는 단계; 상기 표시부 위에 장착된 터치감지부를 통해 특정 오브젝트에 대한 터치 입력신호를 수신하여 입력유형을 판별하는 단계; 제어명령 매핑 테이블을 조회하여 상기 판별된 입력유형에 대응하는 제어명령을 인식하는 단계; 및 상기 인식된 제어명령에 따라 상기 동영상 컨텐츠의 재생과 관련된 기능을 제어하는 단계를 포함하여 구성된다.According to another aspect of the present invention, there is provided a method of controlling a moving image through object manipulation, comprising: reproducing moving image content including an object and outputting the reproduced moving image content through a display unit; Receiving a touch input signal for a specific object through the touch sensing unit mounted on the display unit and determining an input type; Inquiring a control command mapping table to recognize a control command corresponding to the determined input type; And controlling a function related to reproduction of the moving picture content according to the recognized control command.

본 발명에 따른 동영상 재생장면 제어 방법에서, 상기 입력유형의 판별 단계는, 상기 특정 오브젝트에 대한 제n 터치에 따른 상기 터치 입력신호를 수신한 후 제(n+1) 터치의 발생 여부를 판단하는 단계(단, n은 1 이상의 자연수); 상기 제(n+1) 터치에 따른 터치 입력신호가 수신되지 않으면 n회 터치로 인식하는 단계; 상기 제(n+1) 터치에 따른 터치 입력신호가 수신되면 상기 제(n+1) 터치의 동일 영역 발생 여부를 판단하는 단계; 상기 제(n+1) 터치가 동일 영역에서 발생하면 (n+1)회 터치로 인식하는 단계; 및 상기 제(n+1) 터치가 동일 영역에서 발생하지 않으면 드래그로 인식하는 단계를 포함할 수 있다.In the moving picture playback scene control method according to the present invention, the input type determination step may include determining whether the (n + 1) -th touch is generated after receiving the touch input signal according to the n-th touch for the specific object (Wherein n is a natural number of 1 or more); If the touch input signal corresponding to the (n + 1) -th touch is not received, recognizing the touch input signal by touching it n times; Determining whether the same area of the (n + 1) th touch is generated when the touch input signal corresponding to the (n + 1) -th touch is received; If the (n + 1) th touch occurs in the same area, (n + 1) touches; And if the (n + 1) th touch does not occur in the same area, recognizing it as a drag.

이 경우, 상기 드래그로 인식하는 단계는 상기 드래그의 방향을 추출하는 단계를 포함할 수 있다.In this case, the step of recognizing with the drag may include extracting the direction of the drag.

또한, 본 발명의 동영상 제어 방법은, 상기 입력유형의 판별 단계 전에, 상기 특정 오브젝트가 동영상 제어가 가능한 오브젝트인지 판단하는 단계를 더 포함할 수 있다.In addition, the moving picture control method of the present invention may further include, before the input type determination step, determining whether the specific object is an object capable of moving picture control.

이 경우, 본 발명의 방법은 상기 특정 오브젝트가 동영상 제어가능 오브젝트가 아니면 제어불가 메시지를 출력하는 단계를 더 포함할 수 있다.In this case, the method of the present invention may further comprise the step of outputting an uncontrollable message if the specific object is not a motion controllable object.

또한, 본 발명의 방법에서, 상기 제어명령은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 중 적어도 하 나를 포함할 수 있다.Further, in the method of the present invention, the control command may include at least one of playback, stop, pause, fast forward, fast reverse, skip forward, skip backward, speed up, and volume control.

본 발명에 따르면, 터치스크린 인터페이스를 채택하고 있는 휴대기기에서 동영상 컨텐츠를 재생하는 도중에 제어관련 메뉴나 아이콘을 띄우지 않고도 동영상에 포함된 오브젝트의 조작을 통해 직접 직관적으로 동영상을 제어할 수 있는 이점이 있다.According to the present invention, there is an advantage that a moving picture intuitively can be directly controlled through manipulation of an object included in a moving picture without displaying a control-related menu or icon during playback of moving picture contents in a mobile device adopting a touch screen interface .

또한, 본 발명은 휴대기기를 통해 재생 중인 동영상 화면을 가리지 않고 동영상 재생 및 음량조절 등과 관련된 각종 제어기능을 직관적으로 수행할 수 있는 이점이 있다.In addition, the present invention has an advantage in that various control functions related to video playback and volume control can be intuitively performed without selecting a video screen being reproduced through a portable device.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 가급적 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. 한편, 첨부 도면을 통틀어 동일하거나 대응하는 구성요소에는 동일한 참조번호를 부여한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the embodiments, descriptions of techniques which are well known in the technical field to which the present invention belongs and which are not directly related to the present invention will not be described as much as possible. This is to omit the unnecessary description so as to convey the key of the present invention more clearly without fading. In the meantime, the same reference numerals are assigned to the same or corresponding components throughout the accompanying drawings.

본 발명은 터치스크린 인터페이스를 채택하고 있는 휴대기기를 통해 동영상 컨텐츠를 재생하는 중에 동영상에 포함된 특정 오브젝트를 사용자가 터치스크린을 통해 직접 조작함으로써 동영상 관련 제어기능을 수행할 수 있는 기술이다. 제어기능은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너 뛰기, 배속, 음량조절 등이 가능하다.The present invention relates to a technology capable of performing a video related control function by allowing a user to directly manipulate a specific object included in a moving picture through a touch screen during playback of moving picture contents through a portable device adopting a touch screen interface. Control functions include play, stop, pause, fast forward, fast reverse, skip forward, skip backward, speed, and volume control.

도 1a 및 도 1b는 본 발명에 따른 오브젝트 조작을 통한 동영상 제어 방법을 직관적으로 설명하기 위한 예시도이다. 도 1a와 도 1b는 단지 이해를 돕기 위한 하나의 예일 뿐, 본 발명이 반드시 이러한 구성으로 한정되는 것은 아니다.FIGS. 1A and 1B are diagrams for intuitively explaining a moving picture control method through object manipulation according to the present invention. 1A and 1B are merely examples for facilitating understanding, and the present invention is not necessarily limited to such a configuration.

도 1a에 도시된 바와 같이, 휴대기기(100)는 터치스크린(110)을 포함하며, 터치스크린(110)을 통해 동영상 컨텐츠(예컨대, 영화)가 재생 중이라 가정한다. 재생 중인 동영상에는 오브젝트(10a, 10b)가 포함되어 나타난다.1A, the portable device 100 includes a touch screen 110, and it is assumed that moving picture content (e.g., a movie) is being played through the touch screen 110. [ The moving picture being reproduced includes the objects 10a and 10b.

본 명세서에서 '오브젝트(object)'란 동영상에 포함되어 화면상에 나타나는 여러 시각적 요소들 중에서 두드러지게 식별이 가능한 것을 의미하며, 오브젝트의 대표적인 예로는 인물, 동물, 집, 자동차, 비행기 등이 있다. 이러한 오브젝트(10a, 10b)들은 본 발명의 동영상 제어가 가능한 오브젝트와 그렇지 않은 오브젝트로 구분되며, 이러한 구분은 휴대기기(100)에 미리 저장된다. 이에 대해서는 뒤에서 다시 구체적으로 설명할 것이다.In the present specification, an 'object' means that a visual image can be clearly distinguished from a plurality of visual elements included in a moving image, and examples of the object include a person, an animal, a house, a car, an airplane, and the like. These objects 10a and 10b are classified into an object capable of controlling the moving image of the present invention and an object not having the moving image control, and the distinction is stored in the portable device 100 in advance. This will be explained later in detail.

도 1b에 도시된 바와 같이, 동영상 재생 중에 사용자가 손가락(20)으로 특정 오브젝트(10a)를 1회 터치(22, touch)하거나, 2회 터치(22, 23)하거나, 1회 터치(22) 후 드래그(24, drag)하면, 사용자가 선택한 오브젝트(10a)가 동영상 제어 가능한 오브젝트인 경우 사용자 입력에 대응하는 제어명령이 수행된다. 제어명령은 1회 터치, 2회 터치, 드래그 방향에 따라 다르게 설정되며, 이들 대응관계는 미리 휴대기기(100)에 저장된다. 이에 대해서도 뒤에서 다시 구체적으로 설명한다. 예를 들어, 1회 터치는 '일시정지', 2회 터치는 '정지', 왼쪽 드래그는 '뒤로 감기', 위 쪽 드래그는 '음량 증가'로 각각 서로 다른 제어명령이 할당된다. 그러나 이는 이해를 돕기 위해 예시한 것일 뿐, 본 발명이 이에 국한되는 것은 아니다. 또한, 제어명령과 매핑되는 터치 유형도 1회 터치와 2회 터치를 예시하였으나, 3회 이상의 터치도 얼마든지 가능하고 여기에 또 다른 제어명령을 추가로 할당할 수 있음은 물론이다.1B, when a user touches (22, touch), touches (22, 23), touches (22) or touches a specific object (10a) When dragging (24, drag), if the object 10a selected by the user is an object capable of motion control, a control command corresponding to the user input is performed. The control command is set differently according to one-time touch, two-time touch, and drag direction, and these correspondence relationships are stored in the portable device 100 in advance. This is explained in detail later. For example, a different control command is assigned to each of "touch" for one touch, "stop" for touch twice, "backward" for the left drag, and "volume up" for the upper drag. However, this is for illustrative purposes only, and the present invention is not limited thereto. In addition, although the touch type mapped to the control command is exemplified as one touch and two touches, it is also possible to touch three or more times, and another control command can be additionally assigned thereto.

이와 같이, 본 발명에 따른 제어 방법은 터치스크린(110) 상에서 화면에 보여지는 특정 인물이나 사물을 사용자가 직접 터치하거나 드래그 동작을 취함으로써 그 터치 유형이나 드래그 방향에 미리 설정되어 있는 제어명령에 따라 동영상을 제어할 수 있도록 하는 것이다.As described above, according to the control method of the present invention, the user directly touches or drags a specific person or object displayed on the screen on the touch screen 110, thereby performing a drag operation according to a control command preset in the touch type or drag direction So that the user can control the video.

이어서, 도 2를 참조하여 본 발명에 따른 휴대기기의 구성 및 작용에 대하여 설명한다. 도 2는 본 발명의 실시예에 따른 휴대기기의 구성을 나타내는 블록도이다.Next, the configuration and operation of the portable device according to the present invention will be described with reference to FIG. 2 is a block diagram showing a configuration of a portable device according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 휴대기기(100)는 터치스크린(110), 저장부(120), 제어부(130)를 포함하여 구성된다. 터치스크린(110)은 터치감지부(112)와 표시부(114)를 포함하며, 저장부(120)는 동영상 컨텐츠(122) 및 오브젝트 매핑 테이블(124)과 제어명령 매핑 테이블(126)을 포함한다. 제어부(130)는 동영상 재생기(132)를 포함한다.As shown in FIG. 2, the portable device 100 includes a touch screen 110, a storage unit 120, and a control unit 130. The touch screen 110 includes a touch sensing unit 112 and a display unit 114. The storage unit 120 includes a moving picture content 122 and an object mapping table 124 and a control command mapping table 126 . The control unit 130 includes a moving picture player 132.

본 발명에 따른 휴대기기(100)는 예컨대 휴대폰, 스마트 폰(smart phone), PDA(personal digital assistant), DMB(digital multimedia broadcasting) 수신기와 같은 이동방송 수신기, MP3 플레이어(MP3 player)나 PMP(portable multimedia player)와 같은 멀티미디어 플레이어 등이다. 그러나 본 발명의 휴대기기(100)가 이러한 예만으로 국한되는 것은 아니며, 터치스크린(110)을 구비하고 있고 동영상 재생이 가능한 휴대형 전자기기라면 모두 본 발명이 적용 가능하다.The portable device 100 according to the present invention can be used for a mobile broadcasting receiver such as a mobile phone, a smart phone, a PDA (personal digital assistant), a DMB (digital multimedia broadcasting) receiver, an MP3 player, multimedia player). However, the portable device 100 of the present invention is not limited to this example, and the present invention can be applied to any portable electronic device having a touch screen 110 and capable of reproducing moving pictures.

터치스크린(110)은 입력 인터페이스와 출력 인터페이스를 동시에 제공한다. 즉, 터치스크린(110)은 입력장치로서 터치감지부(112)를 구비하며, 표시장치로서 표시부(114)를 구비한다. 한편, 본 발명에 따른 휴대기기(100)는 터치스크린(110) 외에 통상적인 입력장치(예컨대 키패드나 휠 키 등의 각종 포인팅 입력장치)를 추가로 더 구비할 수 있다. 음성출력부(즉, 스피커)와 같이 통상적인 휴대기기(100)에 기본적으로 구비되는 구성요소는 설명 및 도시를 생략한다.The touch screen 110 provides an input interface and an output interface at the same time. That is, the touch screen 110 includes a touch sensing unit 112 as an input device, and a display unit 114 as a display device. Meanwhile, the portable device 100 according to the present invention may further include a conventional input device (e.g., various pointing input devices such as a keypad or a wheel key) in addition to the touch screen 110. And a voice output unit (i.e., a speaker) are omitted from the description and illustration of components that are basically provided in a conventional portable device 100. [

터치감지부(112)는 사용자의 터치 행위를 감지하고 그에 따른 입력신호를 생성하여 제어부(130)로 전달한다. 터치감지부(112)는 예컨대 표시부(114) 상에 장착되는 터치패널 또는 터치센서로서, 터치가 발생하면 그에 따른 물리량의 변화를 검출하여 전기신호로 변환한다.The touch sensing unit 112 senses a touch action of the user and generates an input signal according to the sensed touch action and transmits the input signal to the control unit 130. The touch sensing unit 112 is, for example, a touch panel or a touch sensor mounted on the display unit 114. When a touch occurs, the touch sensing unit 112 detects a change in the physical quantity and converts it into an electrical signal.

표시부(114)는 제어부(130)의 제어 하에 휴대기기(100)의 각종 메뉴를 비롯하여 사용자가 입력한 정보 또는 사용자에게 제공하는 정보를 표시한다. 표시부(114)는 예컨대 액정표시장치(LCD) 또는 그에 상응하는 다른 표시장치로 이루어질 수 있다.The display unit 114 displays various types of menus of the portable device 100 under the control of the control unit 130, and displays information input by the user or information provided to the user. The display unit 114 may be composed of, for example, a liquid crystal display (LCD) or other display device corresponding thereto.

저장부(120)는 휴대기기(100)의 기능과 관련된 각종 프로그램과 어플리케이션을 저장하며, 기능 수행에 필요한 데이터 및 기능 수행 중에 발생하는 데이터를 저장한다. 저장부(120)는 데이터를 일시 저장하는 하나 이상의 버퍼를 포함할 수 있으며, 별도의 외부저장매체를 더 포함할 수도 있다. 특히, 본 발명에서 저장부(120)는 동영상 컨텐츠(122) 및 오브젝트 매핑 테이블(124)과 제어명령 매핑 테이블(126)을 포함한다.The storage unit 120 stores various programs and applications related to the functions of the portable device 100 and stores data necessary for performing the functions and data generated during the performance of the functions. The storage unit 120 may include one or more buffers for temporarily storing data, and may further include a separate external storage medium. Particularly, in the present invention, the storage unit 120 includes the moving picture content 122, the object mapping table 124, and the control command mapping table 126.

오브젝트 매핑 테이블(124)은 각각의 동영상 컨텐츠(122)에 대하여 오브젝트 관련 데이터를 포함한다. 특히, 오브젝트 매핑 테이블(124)은 동영상 제어가 가능한 오브젝트를 규정하고, 동영상 장면별로 해당 장면에 포함된 오브젝트 및 그 좌표영역 정보를 포함한다. 다음 표 1은 동영상 AAA에 대한 오브젝트 매핑 테이블(124)의 예이다.The object mapping table 124 includes object related data for each moving picture content 122. [ In particular, the object mapping table 124 defines an object that can be motion-controlled, and includes an object included in the corresponding scene and its coordinate area information for each moving scene. Table 1 below is an example of the object mapping table 124 for moving image AAA.

동영상 이름Video name AAAAAA 제어가능 오브젝트Controllable object A_01, A_02, B_01, C_01, D_01, D_02, D_03A_01, A_02, B_01, C_01, D_01, D_02, D_03 장면scene 포함된 오브젝트Embedded Objects 오브젝트 좌표영역Object coordinate area S-001S-001 A_01A_01 X121~X129, Y87~Y115X121 to X129, Y87 to Y115 B_01B_01 X389~X456, Y104~Y125X389 to X456, Y104 to Y125 S-002S-002 A_01A_01 X135~X148, Y36~Y90X135 to X148, Y36 to Y90 A_02A_02 X29~X79, Y248~Y276X29 to X79, Y248 to Y276 C_01C_01 X589~X792, Y204~Y254X589 to X792, Y204 to Y254 S-003S-003 A_02A_02 X109~X131, Y269~Y301X109 to X131, Y269 to Y301 C_01C_01 X600~X762, Y279~Y302X600 to X762, Y279 to Y302 D_01D_01 X190~X234, Y309~Y361X190 to X234, Y309 to Y361 S-004S-004 D_01D_01 X244~X278, Y311~Y389X244 to X278, Y311 to Y389 D_02D_02 X772~X790, Y155~Y190X772 to X790, Y155 to Y190 D_03D_03 X547~X588, Y401~Y442X547 to X588, Y401 to Y442

표 1에 대하여 간단히 설명하면, 동영상 AAA에서 제어가능한 오브젝트는 A_01, A_02, B_01, C_01, D_01, D_02, D_03으로 미리 정해져 있다. 오브젝트 매핑 테이블(124)에 규정되지 않은 오브젝트는 사용자가 선택하더라도 동영상 제어가 불가능하다. 장면 S-001에는 오브젝트 A_01, B_01이 포함되어 나타나며, 이들의 화면상 좌표영역은 각각 (X121~X129, Y87~Y115), (X389~X456, Y104~Y125)이다. 또한, 장면 S-001에서 장면 S-002로 바뀌면서 오브젝트 B_01은 사라지고 오브젝트 A_02와 C_01이 새로 등장한다. 표 1에서 좌표영역은 오브젝트마다 화면상에서 차지하고 있는 픽셀 범위를 의미한다. 표 1은 좌표영역을 사각형으로 단순화하여 예시하였지만, 좌표영역이 반드시 사각형만으로 한정되는 것은 아니며 다양한 변형이 가능하다.Briefly described with reference to Table 1, objects controllable in the moving picture AAA are predetermined in A_01, A_02, B_01, C_01, D_01, D_02, and D_03. An object not defined in the object mapping table 124 can not be controlled even if the user selects the object. In the scene S-001, the objects A_01 and B_01 are shown and their on-screen coordinate areas are (X121 to X129, Y87 to Y115), (X389 to X456, Y104 to Y125), respectively. Also, as the scene S-001 changes to the scene S-002, the object B_01 disappears and the objects A_02 and C_01 newly appear. In Table 1, the coordinate area means a pixel range occupied on the screen for each object. Table 1 exemplifies the coordinate area as a rectangle, but the coordinate area is not necessarily limited to a rectangle, and various modifications are possible.

오브젝트 매핑 테이블(124)은 제어가능한 오브젝트가 어떤 것인지 규정하고 있고, 각 장면마다 어떤 오브젝트가 포함되어 있으며 그 좌표영역이 어떤지에 대한 정보를 포함하고 있다. 따라서 동영상 제어를 위해 사용자가 특정 장면에서 특정 오브젝트를 터치하면, 후술할 제어부(130)는 오브젝트 매핑 테이블(124)을 참조하여 사용자가 선택한 오브젝트를 인식하고 그 오브젝트의 제어가능 여부를 판별하게 된다. 이에 대해서는 뒤에서 다시 설명한다.The object mapping table 124 defines which object is controllable, and includes information about which object is included in each scene and whose coordinate area is. Accordingly, when the user touches a specific object in a specific scene for moving picture control, the control unit 130, which will be described later, recognizes the object selected by the user with reference to the object mapping table 124 and determines whether or not the object can be controlled. This will be explained later.

제어명령 매핑 테이블(126)은 사용자 입력유형을 규정하며 입력유형과 제어명령 간의 대응관계를 정의한다. 다음 표 2는 제어명령 매핑 테이블(126)의 예이다.The control command mapping table 126 defines the user input type and defines the correspondence between the input type and the control command. Table 2 below is an example of the control command mapping table 126.

입력유형Input Type 제어명령Control command 1회 터치Touch once 일시정지Pause 2회 터치Touch twice 정지stop 왼쪽 드래그Drag left 뒤로 감기Rewind 오른쪽 드래그Drag right 앞으로 감기Fast forward 위쪽 드래그Drag up 음량 증가Increase volume 아래쪽 드래그Drag down 음량 감소Volume down

사용자가 오브젝트를 터치하거나 드래그하면, 제어부(130)는 제어명령 매핑 테이블(124)을 참조하여 사용자의 입력유형을 결정하며 입력유형에 해당하는 제어명령을 인식하게 된다. 표 2의 예에서는 입력유형이 1회 터치, 2회 터치, 상하좌우 드래그로 예시되었으나, 반드시 이에 한정되는 것은 아니다. 다른 예로 1회 터치, 2회 터치, 상하 또는 좌우 두 방향의 드래그로 입력유형이 정해질 수도 있고, 또 다른 예로 1회 터치와 네 방향 드래그로 입력유형이 정해질 수도 있다. 또한, 3회 이상의 터치가 입력유형에 포함되는 것도 가능하다. 다만, 이러한 입력유형은 사용자가 직관적으로 이해할 수 있고 번거로움을 주지 않도록 가급적이면 단순화하여 정하는 것이 바람직하다.When the user touches or drags the object, the control unit 130 determines the input type of the user by referring to the control command mapping table 124 and recognizes the control command corresponding to the input type. In the example of Table 2, the input type is illustrated as one touch, two touches, and up / down / left / right drag, but the present invention is not limited thereto. In another example, an input type may be determined by a single touch, a double touch, an up or down or a left or right directional drag, or another type of input by one touch and four directional drag. It is also possible that three or more touches are included in the input type. However, it is desirable to simplify such an input type as much as possible so that the user can understand it intuitively and do not inconvenience it.

또한, 제어명령은 표 2의 예에 한정되지 않으며, 동영상 제어와 관련된 각종 제어기능이라면 모두 가능하다. 예를 들어, 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 등이 제어명령 매핑 테이블(124)에 제어명령으로 할당 가능하다.The control command is not limited to the example shown in Table 2, and can be any control function related to moving picture control. For example, it is possible to assign a control command to the control command mapping table 124 by playing, stopping, pausing, fast forwarding, fast forwarding, skipping forward, skipping backward,

제어부(130)는 휴대기기(100)에 대한 전반적인 제어 기능을 수행한다. 특히, 본 발명의 제어부(130)는 동영상 재생기(132)를 포함한다. 동영상 재생기(132)는 소프트웨어의 형태로 구현되어 저장부(120)에 저장될 수 있고, 동영상 재생기능이 실행될 때 제어부(130)에 의해 활성화되어 저장부(120)에 저장된 동영상 컨텐츠(122)를 재생한다.The control unit 130 performs an overall control function for the portable device 100. In particular, the controller 130 of the present invention includes a moving picture player 132. The moving picture player 132 may be realized in the form of software and stored in the storage unit 120. When the moving picture reproducing function is executed, the moving picture player 122 is activated by the control unit 130 and stored in the storage unit 120 Playback.

또한, 본 발명의 제어부(130)는 동영상 재생기(132)에 의한 동영상 재생 중에 터치감지부(112)로부터 특정 오브젝트에 대한 터치 입력신호를 수신하여 사용자에 의한 입력유형을 판별하고, 제어명령 매핑 테이블(126)을 조회하여 사용자 입력유형에 대응하는 제어명령을 인식하며, 제어명령에 따라 동영상 컨텐츠의 재생과 관련된 기능을 제어한다.In addition, the controller 130 of the present invention receives a touch input signal for a specific object from the touch sensing unit 112 during motion picture reproduction by the motion picture player 132, determines an input type by a user, (126), recognizes a control command corresponding to a user input type, and controls a function related to playback of moving picture content according to a control command.

이하, 본 발명의 휴대기기를 이용한 동영상 제어 방법을 설명한다. 이하의 설명으로부터, 전술한 휴대기기(100)의 구성과 작용 역시 보다 명료해질 것이다. 도 3은 본 발명의 실시예에 따른 오브젝트 조작을 통한 동영상 제어 방법을 나타내는 흐름도이다.Hereinafter, a moving image control method using the portable device of the present invention will be described. From the following description, the structure and operation of the above-described portable device 100 will become clearer as well. 3 is a flowchart illustrating a moving image control method through object manipulation according to an embodiment of the present invention.

도 2와 도 3을 참조하면, 먼저 동영상 재생기(132)는 저장부(120)에 저장된 특정 동영상 컨텐츠(122)를 재생한다(S11 단계). 이에 따라 표시부(114)에는 재생 중인 동영상 컨텐츠(122)가 시각적으로 출력된다.Referring to FIGS. 2 and 3, the moving picture reproducer 132 reproduces the specific moving picture content 122 stored in the storage unit 120 (step S11). Accordingly, the moving picture contents 122 being reproduced are visually output on the display unit 114. [

동영상 재생 중에 제어부(130)는 제1 터치에 의해 특정 오브젝트가 선택됨을 인식한다(S12 단계). 즉, 사용자가 터치스크린(110)을 터치하면, 터치감지부(112)는 이를 감지하여 입력신호를 생성하고 제어부(130)로 전송한다. 제어부(130)는 터치감지부(112)가 전송한 입력신호를 수신하여 터치 좌표를 추출한다. 이어서, 제어부(130)는 표 1에서 설명한 오브젝트 매핑 테이블(124)을 조회하여 터치 좌표가 터치 발생시의 장면에 포함된 오브젝트와 그 좌표영역에 속하는지를 판단한다. 표 1의 예를 들면, 사용자 터치가 장면 S-001에서 발생했고 추출된 터치 좌표가 (X123~X125, Y95~Y99)일 경우, 이 터치 좌표는 장면 S-001에서 오브젝트 A_01의 좌표영역 (X121~X129, Y87~Y115)에 속한다. 따라서 제어부(130)는 사용자가 오브젝트 A_01을 터치한 것으로 판단하게 된다.During playback of the moving image, the controller 130 recognizes that the specific object is selected by the first touch (step S12). That is, when the user touches the touch screen 110, the touch sensing unit 112 detects the touch and generates an input signal and transmits the input signal to the controller 130. The control unit 130 receives the input signal transmitted from the touch sensing unit 112 and extracts touch coordinates. Then, the control unit 130 inquires the object mapping table 124 described in Table 1 to determine whether the touch coordinates belong to the object included in the scene at the time of touch generation and the coordinate area thereof. For example, in the example of Table 1, when the user touch occurs in the scene S-001 and the extracted touch coordinate is (X123 to X125, Y95 to Y99), this touch coordinate corresponds to the coordinate area X121 ~ X129, Y87 ~ Y115). Accordingly, the control unit 130 determines that the user has touched the object A_01.

아울러, 제어부(130)는 사용자가 선택한 오브젝트가 제어가능 오브젝트인지 판별한다(S13 단계). 즉, 제어부(130)는 오브젝트 매핑 테이블(124)을 조회함으로써 사용자가 터치한 오브젝트가 오브젝트 매핑 테이블(124)에서 규정한 제어가능 오브젝트에 속하는지 확인한다. 여기서는 편의상 S12 단계와 S13 단계를 구별하여 설명하였지만, 제어부(130)는 S12 단계에서 터치 좌표 추출 후 오브젝트 매핑 테이블(124)의 조회를 통해 사용자가 오브젝트를 터치했는지, 터치한 오브젝트가 제어가능한 것인지, 한번에 판단할 수 있다.In addition, the controller 130 determines whether the object selected by the user is a controllable object (step S13). That is, the control unit 130 checks whether the object touched by the user belongs to the controllable object defined in the object mapping table 124 by inquiring the object mapping table 124. [ Although the steps S12 and S13 are separately described for convenience, the control unit 130 determines whether the user touches the object through the inquiry of the object mapping table 124 after extracting the touch coordinates in step S12, You can judge at once.

만일 사용자가 터치한 오브젝트가 제어가능 오브젝트가 아니면, 제어부(130)는 표시부(114)를 통해 제어불가 메시지를 출력한다(S14 단계). 즉, 사용자가 동영상을 감상하면서 동영상에 포함된 수많은 오브젝트들 중 어떤 오브젝트가 제어가능한지 알 수 없으므로, 오브젝트 터치 시 사용자에게 시각적으로 피드백을 줌으로써 사용자 편의성을 증대시킨다.If the object touched by the user is not a controllable object, the control unit 130 outputs a controllable message through the display unit 114 (step S14). That is, since the user can not know which object among a large number of objects included in the moving picture is controllable while viewing the moving image, the user can visually feedback the user when the object is touched, thereby enhancing user convenience.

사용자가 터치한 오브젝트가 제어가능 오브젝트이면, 제어부(130)는 소정 시간 내에 제2 터치가 발생하는지 판단한다(S15 단계). 제2 터치는 전술한 제1 터치가 특정 지점에서 발생한 후 미리 설정된 시간 내에 다시 발생하는 후속 터치를 의미한다. 제2 터치는 제1 터치가 해제되고 다시 발생하는 터치, 즉 동일한 지점에서 연달아 발생하는 터치가 될 수도 있고, 제1 터치가 해제되지 않은 상태에서 터치 지점이 이동하는 터치가 될 수도 있다. 전자는 2회 터치, 후자는 드래그를 의미한다.If the object touched by the user is a controllable object, the control unit 130 determines whether a second touch occurs within a predetermined time (S15). The second touch means a subsequent touch that occurs again within a predetermined time after the first touch occurs at a specific point. The second touch may be a touch that is released again after the first touch is released, that is, a touch that occurs consecutively at the same point, or a touch that the touch point moves in a state where the first touch is not released. The former means touch twice, and the latter means drag.

따라서 제어부(130)는 터치감지부(112)로부터 제1 터치에 따른 입력신호를 수신한 후 소정 시간 동안 후속 입력신호를 기다려 제2 터치의 발생 여부를 판단한다. 제1 터치의 경우와 마찬가지로, 제2 터치에 따른 입력신호를 수신한 제어부(130)는 수신한 입력신호로부터 터치 좌표를 추출한다.Accordingly, the controller 130 receives an input signal corresponding to the first touch from the touch sensing unit 112 and waits for a next input signal for a predetermined time to determine whether or not the second touch is generated. As in the case of the first touch, the controller 130 receiving the input signal according to the second touch extracts touch coordinates from the received input signal.

만일 소정의 시간 동안 제2 터치가 발생하지 않으면, 제어부(130)는 사용자의 입력유형을 1회 터치인 것으로 인식한다(S16 단계). 그리고 후술할 S21 단계로 진행한다.If the second touch does not occur for a predetermined time, the controller 130 recognizes the input type of the user as one touch (step S16). Then, the process proceeds to step S21 to be described later.

제2 터치가 발생한 경우, 제어부(130)는 제2 터치가 제1 터치와 동일 영역에서 발생했는지 판단한다(S17 단계). 동일 영역 발생 여부는 터치 입력신호로부터 추출한 터치 좌표의 비교를 통해 간단히 수행할 수 있다. 다만, 이때 제1 터치와 제2 터치가 완전히 동일한 영역에서 발생하기는 실제로 어려우므로, 어느 정도 허용범위를 설정하고 그 범위 안에 터치 좌표가 속할 경우 동일 영역 터치인 것으로 판정한다.If the second touch occurs, the controller 130 determines whether the second touch has occurred in the same area as the first touch (step S17). Whether or not the same area is generated can be easily performed by comparing the touch coordinates extracted from the touch input signal. However, since it is actually difficult for the first touch and the second touch to occur in exactly the same area at this time, it is determined that the allowable range is set to some extent, and when the touch coordinates are included in the range, the touch of the same area is determined.

제2 터치가 제1 터치와 동일 영역에서 발생한 경우, 제어부(130)는 사용자의 입력유형을 2회 터치인 것으로 인식한다(S18 단계). 그리고 후술할 S21 단계로 진행한다.If the second touch occurs in the same area as the first touch, the control unit 130 recognizes the input type of the user twice as touch (S18). Then, the process proceeds to step S21 to be described later.

제2 터치가 제1 터치와 동일 영역에서 발생하지 않은 경우, 제어부(130)는 사용자의 입력유형을 드래그로 인식한다(S19 단계). 그리고 제어부(130)는 드래그 방향을 추출한다(S20 단계). 즉, 제어부(130)는 제1 터치와 제2 터치의 좌표 변화를 확인하여 드래그 방향을 추출한다. 다만, 사용자의 실제 드래그 행위는 일반적으로 임의 방향으로의 성분들을 포함하고 있으므로, 드래그 방향을 결정할 때에는 상하 방향으로의 변화율과 좌우 방향으로의 변화율 중에서 어느 것이 큰 지를 판단하여 결정할 수 있다.If the second touch does not occur in the same area as the first touch, the controller 130 recognizes the input type of the user as a drag (step S19). Then, the controller 130 extracts the drag direction (step S20). That is, the controller 130 checks the coordinate change of the first touch and the second touch to extract the drag direction. However, since the user's actual dragging behavior generally includes components in an arbitrary direction, when determining the drag direction, it is possible to determine by determining which of the rate of change in the vertical direction and the rate of change in the horizontal direction is the largest.

전술한 S16 단계에서 입력유형을 1회 터치로 인식하거나, S18 단계에서 입력유형을 2회 터치로 인식하거나, S20 단계에서 입력유형을 특정 방향의 드래그로 인식한 후, 제어부(130)는 제어명령 매핑 테이블(126)을 조회하여 입력유형에 해당하는 제어명령을 인식한다(S21 단계). 그리고 제어부(130)는 제어명령에 해당하는 제어기능을 수행한다(S22 단계).In step S16, the input type is recognized as a single touch. In step S18, the input type is recognized twice as a touch. In step S20, the input type is recognized as a drag in a specific direction. Then, The mapping table 126 is inquired to recognize a control command corresponding to the input type (step S21). Then, the control unit 130 performs a control function corresponding to the control command (step S22).

지금까지 실시예를 통하여 휴대기기에서 재생 중인 동영상 내의 오브젝트 조작을 통한 동영상 제어 방법과 그 휴대기기에 대하여 설명하였다. 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.The moving picture control method and the portable device through the object manipulation in the moving picture being reproduced by the portable device have been described through the embodiments. Although the present invention has been described with reference to preferred embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It is not intended to limit the scope. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

본 발명에 따른 휴대기기에서 재생 중인 동영상 내의 오브젝트 조작을 통한 동영상 제어 방법과 그 휴대기기는 동영상 재생기능을 구비하고 터치 인터페이스를 채용한 각종 휴대기기, 이동통신단말, 무선단말 등에 유용하게 적용할 수 있다.A method for controlling a moving picture through manipulation of an object in a moving picture being reproduced in a portable device according to the present invention and a portable device having the moving picture reproducing function and applicable to various portable devices, mobile communication terminals, and wireless terminals employing a touch interface have.

도 1a 및 도 1b는 본 발명에 따른 오브젝트 조작을 통한 동영상 제어 방법을 직관적으로 설명하기 위한 예시도이다.FIGS. 1A and 1B are diagrams for intuitively explaining a moving picture control method through object manipulation according to the present invention.

도 2는 본 발명의 실시예에 따른 휴대기기의 구성을 나타내는 블록도이다.2 is a block diagram showing a configuration of a portable device according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 오브젝트 조작을 통한 동영상 제어 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a moving image control method through object manipulation according to an embodiment of the present invention.

<도면의 주요부분에 대한 설명>DESCRIPTION OF THE EMBODIMENTS

10a, 10b: 오브젝트 22: 제1 터치 지점10a, 10b: object 22: first touch point

23: 제2 터치 지점 24: 드래그 방향23: second touch point 24: drag direction

100: 휴대기기 110: 터치스크린100: portable device 110: touch screen

112: 터치감지부 114: 표시부112: touch sensing unit 114:

120: 저장부 122: 동영상 컨텐츠120: storage unit 122: video content

124: 오브젝트 매핑 테이블 126: 제어명령 매핑 테이블124: Object mapping table 126: Control command mapping table

130: 제어부 132: 동영상 재생기130: control unit 132:

Claims (10)

표시부;A display section; 상기 표시부 위에 장착되어 터치를 감지하고 상기 터치에 따른 입력신호를 생성하는 터치감지부;A touch sensing unit mounted on the display unit for sensing a touch and generating an input signal corresponding to the touch; 오브젝트가 포함된 동영상 컨텐츠, 상기 터치에 의한 입력유형과 제어명령 간의 대응관계가 정의된 제어명령 매핑 테이블을 저장하는 저장부;A storage unit storing moving picture contents including objects, a control command mapping table in which a correspondence relation between the input type by the touch and a control command is defined; 상기 동영상 컨텐츠를 재생하여 상기 표시부를 통해 출력하는 동영상 재생기; 및A moving picture player for reproducing the moving picture content and outputting the reproduced moving picture through the display unit; And 상기 동영상 재생기에 의한 상기 동영상 컨텐츠의 재생 중에 상기 터치감지부로부터 특정 오브젝트에 대한 터치 입력신호를 수신하여 상기 입력유형을 판별하고, 상기 제어명령 매핑 테이블을 조회하여 상기 판별된 입력유형에 대응하는 제어명령을 인식하며, 상기 인식된 제어명령에 따라 상기 동영상 컨텐츠의 재생과 관련된 기능을 제어하는 제어부;And a controller for receiving the touch input signal for a specific object from the touch sensing unit during the reproduction of the moving picture content by the moving picture player to inquire the control command mapping table, A control unit for recognizing a command and controlling a function related to reproduction of the moving picture content according to the recognized control command; 를 포함하는 휴대기기.. 청구항 1에 있어서,The method according to claim 1, 상기 저장부는 동영상 제어가 가능한 오브젝트를 규정하는 오브젝트 매핑 테이블을 더 저장하며, 상기 제어부는 상기 오브젝트 매핑 테이블을 조회하여 상기 터치 입력신호가 수신된 특정 오브젝트가 동영상 제어가 가능한 오브젝트인지 판단 하는 것을 특징으로 하는 휴대기기.Wherein the storage unit further stores an object mapping table for defining an object that can be motion-controlled, and the controller inquires the object mapping table to determine whether the specific object received the touch input signal is an object capable of moving- Mobile devices. 청구항 1에 있어서,The method according to claim 1, 상기 입력유형은 n회 터치(단, n은 1 이상의 자연수), 특정 방향의 드래그 중 적어도 하나를 포함하는 것을 특징으로 하는 휴대기기.Wherein the input type includes at least one of an n-touch (n is a natural number equal to or greater than 1) and a drag in a specific direction. 청구항 1에 있어서,The method according to claim 1, 상기 제어명령 매핑 테이블에 정의된 상기 제어명령은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 중 적어도 하나를 포함하는 것을 특징으로 하는 휴대기기.Wherein the control command defined in the control command mapping table includes at least one of playback, stop, pause, fast forward, fast forward, skip forward, skip backward, speed up, and volume control. 오브젝트가 포함된 동영상 컨텐츠를 재생하여 표시부를 통해 출력하는 단계;Reproducing moving picture contents including an object and outputting the reproduced moving picture contents through a display unit; 상기 표시부 위에 장착된 터치감지부를 통해 특정 오브젝트에 대한 터치 입력신호를 수신하여 입력유형을 판별하는 단계;Receiving a touch input signal for a specific object through the touch sensing unit mounted on the display unit and determining an input type; 제어명령 매핑 테이블을 조회하여 상기 판별된 입력유형에 대응하는 제어명령을 인식하는 단계; 및Inquiring a control command mapping table to recognize a control command corresponding to the determined input type; And 상기 인식된 제어명령에 따라 상기 동영상 컨텐츠의 재생과 관련된 기능을 제어하는 단계;Controlling a function related to reproduction of the moving picture content according to the recognized control command; 를 포함하는 오브젝트 조작을 통한 동영상 제어 방법.And controlling the moving of the object through the object manipulation. 청구항 5에 있어서,The method of claim 5, 상기 입력유형의 판별 단계는,Wherein the step of discriminating the input type comprises: 상기 특정 오브젝트에 대한 제n 터치에 따른 상기 터치 입력신호를 수신한 후 제(n+1) 터치의 발생 여부를 판단하는 단계(단, n은 1 이상의 자연수);Determining whether an (n + 1) -th touch is generated after receiving the touch input signal according to the n-th touch on the specific object (n is a natural number of 1 or more); 상기 제(n+1) 터치에 따른 터치 입력신호가 수신되지 않으면 n회 터치로 인식하는 단계;If the touch input signal corresponding to the (n + 1) -th touch is not received, recognizing the touch input signal by touching it n times; 상기 제(n+1) 터치에 따른 터치 입력신호가 수신되면 상기 제(n+1) 터치의 동일 영역 발생 여부를 판단하는 단계;Determining whether the same area of the (n + 1) th touch is generated when the touch input signal corresponding to the (n + 1) -th touch is received; 상기 제(n+1) 터치가 동일 영역에서 발생하면 (n+1)회 터치로 인식하는 단계; 및If the (n + 1) th touch occurs in the same area, (n + 1) touches; And 상기 제(n+1) 터치가 동일 영역에서 발생하지 않으면 드래그로 인식하는 단계;Recognizing the (n + 1) th touch as a drag if the touch does not occur in the same area; 를 포함하는 것을 특징으로 하는 오브젝트 조작을 통한 동영상 제어 방법.And controlling the motion of the moving object. 청구항 6에 있어서,The method of claim 6, 상기 드래그로 인식하는 단계는 상기 드래그의 방향을 추출하는 단계를 포함하는 것을 특징으로 하는 오브젝트 조작을 통한 동영상 제어 방법.Wherein the step of recognizing by the drag includes extracting the direction of the drag. 청구항 5에 있어서,The method of claim 5, 상기 입력유형의 판별 단계 전에, 상기 특정 오브젝트가 동영상 제어가 가능 한 오브젝트인지 판단하는 단계;Determining whether the specific object is a video-controlable object before the input type determination step; 를 더 포함하는 것을 특징으로 하는 오브젝트 조작을 통한 동영상 제어 방법.Further comprising the steps of: determining whether the object is a moving object; 청구항 8에 있어서,The method of claim 8, 상기 특정 오브젝트가 동영상 제어가능 오브젝트가 아니면 제어불가 메시지를 출력하는 단계;Outputting an uncontrollable message if the specific object is not a video controllable object; 를 더 포함하는 것을 특징으로 하는 오브젝트 조작을 통한 동영상 제어 방법.Further comprising the steps of: determining whether the object is a moving object; 청구항 5에 있어서,The method of claim 5, 상기 제어명령은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 중 적어도 하나를 포함하는 것을 특징으로 하는 오브젝트 조작을 통한 동영상 제어 방법.Wherein the control command includes at least one of playback, stop, pause, fast forward, fast forward, skip forward, skip backward, fast speed, and volume control.
KR1020090092138A 2009-09-29 2009-09-29 Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content KR101151301B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090092138A KR101151301B1 (en) 2009-09-29 2009-09-29 Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090092138A KR101151301B1 (en) 2009-09-29 2009-09-29 Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content

Publications (2)

Publication Number Publication Date
KR20110034740A true KR20110034740A (en) 2011-04-06
KR101151301B1 KR101151301B1 (en) 2012-06-08

Family

ID=44043190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090092138A KR101151301B1 (en) 2009-09-29 2009-09-29 Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content

Country Status (1)

Country Link
KR (1) KR101151301B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013039314A2 (en) * 2011-09-16 2013-03-21 주식회사 고려미디어 Method for playing mapped audio file or video file in portable terminal having touch screen
KR101352201B1 (en) * 2012-09-11 2014-01-22 넥스트리밍(주) Apparatus and method for controlling media player of mdia file
KR101457351B1 (en) * 2013-05-27 2014-11-03 강원대학교산학협력단 multi-meida apparatus using transparent control area and gesture pattern information based on touch screen and multi-meida control Method using the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4968587B2 (en) * 2007-11-21 2012-07-04 横河電機株式会社 Object moving device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013039314A2 (en) * 2011-09-16 2013-03-21 주식회사 고려미디어 Method for playing mapped audio file or video file in portable terminal having touch screen
WO2013039314A3 (en) * 2011-09-16 2013-05-10 주식회사 고려미디어 Method for playing mapped audio file or video file in portable terminal having touch screen
KR101352201B1 (en) * 2012-09-11 2014-01-22 넥스트리밍(주) Apparatus and method for controlling media player of mdia file
WO2014042379A1 (en) * 2012-09-11 2014-03-20 넥스트리밍(주) Method for controlling media player and information device employing same
KR101457351B1 (en) * 2013-05-27 2014-11-03 강원대학교산학협력단 multi-meida apparatus using transparent control area and gesture pattern information based on touch screen and multi-meida control Method using the same

Also Published As

Publication number Publication date
KR101151301B1 (en) 2012-06-08

Similar Documents

Publication Publication Date Title
US10007424B2 (en) Mobile client device, operation method, recording medium, and operation system
US11054988B2 (en) Graphical user interface display method and electronic device
EP2224321B1 (en) Information processing apparatus and display control method
CN103391469B (en) Mobile terminal and controlling method thereof
JP5398719B2 (en) User command input method, and video equipment and input equipment to which the method is applied
US9170722B2 (en) Display control device, display control method, and program
US20150193036A1 (en) User terminal apparatus and control method thereof
EP2680124B1 (en) Apparatus and method for displaying menu in mobile device
US20130271404A1 (en) Remote controller equipped with touch pad and method for controlling the same
JP2015007949A (en) Display device, display controlling method, and computer program
CN108920069B (en) Touch operation method and device, mobile terminal and storage medium
US20150363091A1 (en) Electronic device and method of controlling same
US11567725B2 (en) Data processing method and mobile device
WO2021037074A1 (en) Audio output method and electronic apparatus
WO2018120768A1 (en) Remote control method and terminal
KR20150144641A (en) user terminal apparatus and control method thereof
KR20100033716A (en) Method and system for controlling media displaying using by portable terminal
KR101151301B1 (en) Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content
KR20140131051A (en) electro device comprising pressure sensor and method for controlling thereof
KR101150727B1 (en) Portable Device and Related Control Method for Video Content by Manipulation of Object in the Video Content
KR101150731B1 (en) Portable Device and Related Control Method for Scenes of Video Content through Manipulation of Object in the Video Content
KR102303286B1 (en) Terminal device and operating method thereof
KR101104730B1 (en) Terminal and method for control object into video content thereof
JP6362824B2 (en) Electronics
JP2023106270A (en) Display device and operating method thereof

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190422

Year of fee payment: 8