KR20110034740A - Portable device and related control method for video content through manipulation of object in the video content - Google Patents
Portable device and related control method for video content through manipulation of object in the video content Download PDFInfo
- Publication number
- KR20110034740A KR20110034740A KR1020090092138A KR20090092138A KR20110034740A KR 20110034740 A KR20110034740 A KR 20110034740A KR 1020090092138 A KR1020090092138 A KR 1020090092138A KR 20090092138 A KR20090092138 A KR 20090092138A KR 20110034740 A KR20110034740 A KR 20110034740A
- Authority
- KR
- South Korea
- Prior art keywords
- touch
- moving picture
- control command
- mapping table
- input signal
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 휴대기기에서 재생 중인 동영상 제어 인터페이스에 관한 것으로서, 좀더 구체적으로는 터치스크린 인터페이스를 채택하고 있는 휴대기기를 통해 동영상 컨텐츠를 재생하는 중에 동영상에 포함된 특정 오브젝트를 사용자가 터치스크린을 통해 직접 조작함으로써 재생 중인 동영상 관련 기능을 제어할 수 있도록 하는 방법과 그 휴대기기에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a moving picture control interface that is being played back on a mobile device, and more particularly, And controlling a moving picture related function during playback by operating the portable terminal.
정보통신 기술의 발전에 따라 휴대폰이 상용화된 지는 이미 오래되었으며, 근래에는 MP3 플레이어, PMP(Portable Multimedia Player) 등 다양한 유형의 휴대용 멀티미디어 기기들도 젊은 사용자 층을 중심으로 널리 사용되고 있다. 이와 같이 각종 휴대기기들의 보급이 늘면서 사용자의 요구는 점점 다양해지고 있고, 이를 충족시키기 위한 제조업체들의 경쟁은 갈수록 치열해지고 있다. 이에 따라 더 많은 기능을 더 편리하게 쓸 수 있는 휴대기기들이 지속적으로 개발되고 있으며, 각종 멀티미디어 기능, 무선인터넷 기능 등이 추가되면서 휴대기기의 동작환경은 점차 PC 수준으로 나아가고 있다.In recent years, various types of portable multimedia devices such as an MP3 player and a portable multimedia player (PMP) have been widely used by young users. As the popularity of various portable devices has increased, users' demands are becoming more diverse, and the competition of manufacturers to meet them is becoming more and more intense. Accordingly, portable devices that can use more functions more conveniently are continuously being developed, and various multimedia functions and wireless Internet functions are added, and the operating environment of the portable devices is gradually moving to the PC level.
휴대기기는 기본적으로 사용자가 간편하게 휴대할 수 있어야 하기 때문에 그 크기가 상대적으로 소형이다. 따라서 통상적으로 키패드(keypad)와 액정화면(LCD screen)으로 대표되는 입력장치와 출력장치의 크기 또한 제한적일 수밖에 없다. 이러한 제약 하에서 휴대기기에 다양하고 복잡한 기능을 부여함과 동시에 그 기능을 수행하기 위한 사용자의 접근성과 편의성을 향상시키려면, 이들을 고려한 사용자 인터페이스(user interface)의 개발이 필수적이다. 더구나 전통적인 휴대기기의 동작환경과 다른 PC 수준의 동작환경이 요구되면서 그에 적합한 사용자 인터페이스의 필요성은 더욱 커지고 있다.Portable devices are basically small in size because they must be easily portable by the user. Therefore, the size of an input device and an output device typically represented by a keypad and a liquid crystal screen (LCD screen) are limited. Under these constraints, it is essential to develop a user interface that takes various and complex functions into a portable device and improves the accessibility and convenience of the user to perform the functions. Moreover, as the operating environment of a conventional portable device is different from that of a PC-level operating environment, a need for a suitable user interface is increasing.
이에 다양한 방식의 사용자 인터페이스가 개발되고 있는데, 그 중의 하나가 터치 인터페이스(touch interface)이다. 예를 들어, 기존의 키패드와 더불어 터치패드를 입력부에 채용하는 기술, 키패드 영역에 터치센서를 장착하여 키패드 겸 터치패드를 형성하는 기술, 키패드를 완전히 없애고 터치스크린을 도입하는 기술 등이 그것이다.Accordingly, various types of user interfaces have been developed, one of which is a touch interface. For example, there is a technique of employing a touch pad in an input unit in addition to a conventional keypad, a technique of forming a keypad and a touch pad by attaching a touch sensor to the keypad area, and a technique of completely removing the keypad and introducing a touch screen.
이 중에서 터치스크린은 휴대기기와 사용자 사이에 입력 인터페이스 및 출력 인터페이스를 동시에 제공한다. 터치스크린은 기존의 키패드를 없앨 수 있으므로 표시 면적을 증가시킬 수 있고, 입력 측면에서도 사용자로 하여금 직관적인 조작이 가능하도록 하는 이점이 있다.Among them, the touch screen simultaneously provides an input interface and an output interface between the portable device and the user. The touch screen can eliminate the existing keypad, thereby increasing the display area, and has an advantage in that the user can intuitively operate on the input side.
한편, 최근의 휴대기기들은 언제 어디서나 간편하게 동영상을 재생하여 감상할 수 있는 기능을 제공하고 있다. 그런데 터치스크린을 구비한 휴대기기에서 동영 상 재생 중에 동영상을 제어하려면 해당 메뉴 또는 아이콘이 화면에 표시된 상태에서 조작해야 한다. 따라서 메뉴나 아이콘을 화면상에 띄워야 하는 다소 번거로운 과정이 필요할 뿐만 아니라, 화면상에 메뉴나 아이콘이 나타나면 재생 중인 영상을 가리게 되어 다소 불편하게 느끼지는 문제점이 있다.On the other hand, recent portable devices provide a function to easily view and play a video anytime and anywhere. However, in order to control video during video playback on a mobile device equipped with a touch screen, the menu or icon must be displayed on the screen. Therefore, not only a troublesome process of displaying a menu or an icon on the screen is required, but also a menu or an icon appears on the screen, which hides the image being reproduced and feels a little uncomfortable.
이에 터치스크린 방식의 휴대기기에서 동영상을 재생할 때 화면상에 제어관련 메뉴나 아이콘을 표시하지 않고 동영상 자체에서 직접 직관적으로 제어기능을 수행할 수 있는 기술에 대한 필요성이 대두되고 있다.Therefore, there is a need for a technology that can intuitively control the video directly from the video without displaying the control-related menus or icons on the screen when the video is played on the touch-screen portable device.
따라서 본 발명의 목적은 전술한 종래기술의 문제점을 해결하기 위한 것으로, 터치스크린 인터페이스를 채택하고 있는 휴대기기를 통해 동영상 컨텐츠를 재생하는 중에 제어관련 메뉴나 아이콘을 띄우지 않고 동영상 자체에서 직접 직관적으로 동영상을 제어하기 위한 것이다.Accordingly, an object of the present invention is to solve the above-mentioned problems of the related art, and it is an object of the present invention to provide a touch screen interface, .
본 발명의 다른 목적은 휴대기기를 통해 재생 중인 동영상을 가리지 않고 동영상 재생 및 음량조절 등과 관련된 각종 제어기능을 직관적으로 수행할 수 있도록 하기 위한 것이다.It is another object of the present invention to intuitively perform various control functions related to video playback and volume control without selecting a moving picture being played back through a portable device.
이러한 목적을 달성하기 위하여, 본 발명에 따른 휴대기기는 표시부, 터치감지부, 저장부, 동영상 재생기, 제어부를 포함하여 구성된다.To achieve these and other advantages and in accordance with the purpose of the present invention, as embodied and broadly described herein, a portable device includes a display unit, a touch sensing unit, a storage unit, a moving picture player, and a control unit.
상기 터치감지부는 상기 표시부 위에 장착되어 터치를 감지하고 상기 터치에 따른 입력신호를 생성한다. 상기 저장부는 오브젝트가 포함된 동영상 컨텐츠, 상기 터치에 의한 입력유형과 제어명령 간의 대응관계가 정의된 제어명령 매핑 테이블을 저장한다. 상기 동영상 재생기는 상기 동영상 컨텐츠를 재생하여 상기 표시부를 통해 출력한다. 상기 제어부는 상기 동영상 재생기에 의한 상기 동영상컨텐츠의 재생 중에 상기 터치감지부로부터 특정 오브젝트에 대한 터치 입력신호를 수신하여 상기 입력유형을 판별하고, 상기 제어명령 매핑 테이블을 조회하여 상기 판별된 입력유형에 대응하는 제어명령을 인식하며, 상기 인식된 제어명령에 따라 상기 동영상 컨텐츠의 재생과 관련된 기능을 제어한다.The touch sensing unit is mounted on the display unit to sense a touch and generate an input signal corresponding to the touch. The storage unit stores a control command mapping table in which a correspondence relation between moving image content including an object and an input type by the touch and a control command is defined. The moving picture player reproduces the moving picture content and outputs the reproduced moving picture through the display unit. The control unit receives the touch input signal for a specific object from the touch sensing unit during the reproduction of the moving picture content by the moving picture player, identifies the input type, inquires the control command mapping table, Recognizes a corresponding control command, and controls a function related to reproduction of the moving picture content according to the recognized control command.
본 발명에 따른 휴대기기에 있어서, 상기 저장부는 동영상 제어가 가능한 오브젝트를 규정하는 오브젝트 매핑 테이블을 더 저장할 수 있으며, 상기 제어부는 상기 오브젝트 매핑 테이블을 조회하여 상기 터치 입력신호가 수신된 특정 오브젝트가 동영상 제어가 가능한 오브젝트인지 판단할 수 있다.In the portable device according to the present invention, the storage unit may further store an object mapping table for defining an object that can be motion-controlled, and the controller inquires the object mapping table, It is possible to determine whether or not the object is controllable.
또한, 상기 입력유형은 n회 터치(단, n은 1 이상의 자연수), 특정 방향의 드래그 중 적어도 하나를 포함할 수 있다.Further, the input type may include at least one of n-touches (where n is a natural number of 1 or more) and a drag in a specific direction.
또한, 상기 제어명령 매핑 테이블에 정의된 상기 제어명령은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 중 적어도 하나를 포함할 수 있다.Also, the control command defined in the control command mapping table may include at least one of playback, stop, pause, fast forward, fast forward, skip forward, skip backward, double speed, and volume control.
한편, 본 발명에 따른 오브젝트 조작을 통한 동영상 제어 방법은, 오브젝트가 포함된 동영상 컨텐츠를 재생하여 표시부를 통해 출력하는 단계; 상기 표시부 위에 장착된 터치감지부를 통해 특정 오브젝트에 대한 터치 입력신호를 수신하여 입력유형을 판별하는 단계; 제어명령 매핑 테이블을 조회하여 상기 판별된 입력유형에 대응하는 제어명령을 인식하는 단계; 및 상기 인식된 제어명령에 따라 상기 동영상 컨텐츠의 재생과 관련된 기능을 제어하는 단계를 포함하여 구성된다.According to another aspect of the present invention, there is provided a method of controlling a moving image through object manipulation, comprising: reproducing moving image content including an object and outputting the reproduced moving image content through a display unit; Receiving a touch input signal for a specific object through the touch sensing unit mounted on the display unit and determining an input type; Inquiring a control command mapping table to recognize a control command corresponding to the determined input type; And controlling a function related to reproduction of the moving picture content according to the recognized control command.
본 발명에 따른 동영상 재생장면 제어 방법에서, 상기 입력유형의 판별 단계는, 상기 특정 오브젝트에 대한 제n 터치에 따른 상기 터치 입력신호를 수신한 후 제(n+1) 터치의 발생 여부를 판단하는 단계(단, n은 1 이상의 자연수); 상기 제(n+1) 터치에 따른 터치 입력신호가 수신되지 않으면 n회 터치로 인식하는 단계; 상기 제(n+1) 터치에 따른 터치 입력신호가 수신되면 상기 제(n+1) 터치의 동일 영역 발생 여부를 판단하는 단계; 상기 제(n+1) 터치가 동일 영역에서 발생하면 (n+1)회 터치로 인식하는 단계; 및 상기 제(n+1) 터치가 동일 영역에서 발생하지 않으면 드래그로 인식하는 단계를 포함할 수 있다.In the moving picture playback scene control method according to the present invention, the input type determination step may include determining whether the (n + 1) -th touch is generated after receiving the touch input signal according to the n-th touch for the specific object (Wherein n is a natural number of 1 or more); If the touch input signal corresponding to the (n + 1) -th touch is not received, recognizing the touch input signal by touching it n times; Determining whether the same area of the (n + 1) th touch is generated when the touch input signal corresponding to the (n + 1) -th touch is received; If the (n + 1) th touch occurs in the same area, (n + 1) touches; And if the (n + 1) th touch does not occur in the same area, recognizing it as a drag.
이 경우, 상기 드래그로 인식하는 단계는 상기 드래그의 방향을 추출하는 단계를 포함할 수 있다.In this case, the step of recognizing with the drag may include extracting the direction of the drag.
또한, 본 발명의 동영상 제어 방법은, 상기 입력유형의 판별 단계 전에, 상기 특정 오브젝트가 동영상 제어가 가능한 오브젝트인지 판단하는 단계를 더 포함할 수 있다.In addition, the moving picture control method of the present invention may further include, before the input type determination step, determining whether the specific object is an object capable of moving picture control.
이 경우, 본 발명의 방법은 상기 특정 오브젝트가 동영상 제어가능 오브젝트가 아니면 제어불가 메시지를 출력하는 단계를 더 포함할 수 있다.In this case, the method of the present invention may further comprise the step of outputting an uncontrollable message if the specific object is not a motion controllable object.
또한, 본 발명의 방법에서, 상기 제어명령은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 중 적어도 하 나를 포함할 수 있다.Further, in the method of the present invention, the control command may include at least one of playback, stop, pause, fast forward, fast reverse, skip forward, skip backward, speed up, and volume control.
본 발명에 따르면, 터치스크린 인터페이스를 채택하고 있는 휴대기기에서 동영상 컨텐츠를 재생하는 도중에 제어관련 메뉴나 아이콘을 띄우지 않고도 동영상에 포함된 오브젝트의 조작을 통해 직접 직관적으로 동영상을 제어할 수 있는 이점이 있다.According to the present invention, there is an advantage that a moving picture intuitively can be directly controlled through manipulation of an object included in a moving picture without displaying a control-related menu or icon during playback of moving picture contents in a mobile device adopting a touch screen interface .
또한, 본 발명은 휴대기기를 통해 재생 중인 동영상 화면을 가리지 않고 동영상 재생 및 음량조절 등과 관련된 각종 제어기능을 직관적으로 수행할 수 있는 이점이 있다.In addition, the present invention has an advantage in that various control functions related to video playback and volume control can be intuitively performed without selecting a video screen being reproduced through a portable device.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 잘 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 가급적 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 핵심을 흐리지 않고 더욱 명확히 전달하기 위함이다. 한편, 첨부 도면을 통틀어 동일하거나 대응하는 구성요소에는 동일한 참조번호를 부여한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the embodiments, descriptions of techniques which are well known in the technical field to which the present invention belongs and which are not directly related to the present invention will not be described as much as possible. This is to omit the unnecessary description so as to convey the key of the present invention more clearly without fading. In the meantime, the same reference numerals are assigned to the same or corresponding components throughout the accompanying drawings.
본 발명은 터치스크린 인터페이스를 채택하고 있는 휴대기기를 통해 동영상 컨텐츠를 재생하는 중에 동영상에 포함된 특정 오브젝트를 사용자가 터치스크린을 통해 직접 조작함으로써 동영상 관련 제어기능을 수행할 수 있는 기술이다. 제어기능은 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너 뛰기, 배속, 음량조절 등이 가능하다.The present invention relates to a technology capable of performing a video related control function by allowing a user to directly manipulate a specific object included in a moving picture through a touch screen during playback of moving picture contents through a portable device adopting a touch screen interface. Control functions include play, stop, pause, fast forward, fast reverse, skip forward, skip backward, speed, and volume control.
도 1a 및 도 1b는 본 발명에 따른 오브젝트 조작을 통한 동영상 제어 방법을 직관적으로 설명하기 위한 예시도이다. 도 1a와 도 1b는 단지 이해를 돕기 위한 하나의 예일 뿐, 본 발명이 반드시 이러한 구성으로 한정되는 것은 아니다.FIGS. 1A and 1B are diagrams for intuitively explaining a moving picture control method through object manipulation according to the present invention. 1A and 1B are merely examples for facilitating understanding, and the present invention is not necessarily limited to such a configuration.
도 1a에 도시된 바와 같이, 휴대기기(100)는 터치스크린(110)을 포함하며, 터치스크린(110)을 통해 동영상 컨텐츠(예컨대, 영화)가 재생 중이라 가정한다. 재생 중인 동영상에는 오브젝트(10a, 10b)가 포함되어 나타난다.1A, the
본 명세서에서 '오브젝트(object)'란 동영상에 포함되어 화면상에 나타나는 여러 시각적 요소들 중에서 두드러지게 식별이 가능한 것을 의미하며, 오브젝트의 대표적인 예로는 인물, 동물, 집, 자동차, 비행기 등이 있다. 이러한 오브젝트(10a, 10b)들은 본 발명의 동영상 제어가 가능한 오브젝트와 그렇지 않은 오브젝트로 구분되며, 이러한 구분은 휴대기기(100)에 미리 저장된다. 이에 대해서는 뒤에서 다시 구체적으로 설명할 것이다.In the present specification, an 'object' means that a visual image can be clearly distinguished from a plurality of visual elements included in a moving image, and examples of the object include a person, an animal, a house, a car, an airplane, and the like. These
도 1b에 도시된 바와 같이, 동영상 재생 중에 사용자가 손가락(20)으로 특정 오브젝트(10a)를 1회 터치(22, touch)하거나, 2회 터치(22, 23)하거나, 1회 터치(22) 후 드래그(24, drag)하면, 사용자가 선택한 오브젝트(10a)가 동영상 제어 가능한 오브젝트인 경우 사용자 입력에 대응하는 제어명령이 수행된다. 제어명령은 1회 터치, 2회 터치, 드래그 방향에 따라 다르게 설정되며, 이들 대응관계는 미리 휴대기기(100)에 저장된다. 이에 대해서도 뒤에서 다시 구체적으로 설명한다. 예를 들어, 1회 터치는 '일시정지', 2회 터치는 '정지', 왼쪽 드래그는 '뒤로 감기', 위 쪽 드래그는 '음량 증가'로 각각 서로 다른 제어명령이 할당된다. 그러나 이는 이해를 돕기 위해 예시한 것일 뿐, 본 발명이 이에 국한되는 것은 아니다. 또한, 제어명령과 매핑되는 터치 유형도 1회 터치와 2회 터치를 예시하였으나, 3회 이상의 터치도 얼마든지 가능하고 여기에 또 다른 제어명령을 추가로 할당할 수 있음은 물론이다.1B, when a user touches (22, touch), touches (22, 23), touches (22) or touches a specific object (10a) When dragging (24, drag), if the
이와 같이, 본 발명에 따른 제어 방법은 터치스크린(110) 상에서 화면에 보여지는 특정 인물이나 사물을 사용자가 직접 터치하거나 드래그 동작을 취함으로써 그 터치 유형이나 드래그 방향에 미리 설정되어 있는 제어명령에 따라 동영상을 제어할 수 있도록 하는 것이다.As described above, according to the control method of the present invention, the user directly touches or drags a specific person or object displayed on the screen on the
이어서, 도 2를 참조하여 본 발명에 따른 휴대기기의 구성 및 작용에 대하여 설명한다. 도 2는 본 발명의 실시예에 따른 휴대기기의 구성을 나타내는 블록도이다.Next, the configuration and operation of the portable device according to the present invention will be described with reference to FIG. 2 is a block diagram showing a configuration of a portable device according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 휴대기기(100)는 터치스크린(110), 저장부(120), 제어부(130)를 포함하여 구성된다. 터치스크린(110)은 터치감지부(112)와 표시부(114)를 포함하며, 저장부(120)는 동영상 컨텐츠(122) 및 오브젝트 매핑 테이블(124)과 제어명령 매핑 테이블(126)을 포함한다. 제어부(130)는 동영상 재생기(132)를 포함한다.As shown in FIG. 2, the
본 발명에 따른 휴대기기(100)는 예컨대 휴대폰, 스마트 폰(smart phone), PDA(personal digital assistant), DMB(digital multimedia broadcasting) 수신기와 같은 이동방송 수신기, MP3 플레이어(MP3 player)나 PMP(portable multimedia player)와 같은 멀티미디어 플레이어 등이다. 그러나 본 발명의 휴대기기(100)가 이러한 예만으로 국한되는 것은 아니며, 터치스크린(110)을 구비하고 있고 동영상 재생이 가능한 휴대형 전자기기라면 모두 본 발명이 적용 가능하다.The
터치스크린(110)은 입력 인터페이스와 출력 인터페이스를 동시에 제공한다. 즉, 터치스크린(110)은 입력장치로서 터치감지부(112)를 구비하며, 표시장치로서 표시부(114)를 구비한다. 한편, 본 발명에 따른 휴대기기(100)는 터치스크린(110) 외에 통상적인 입력장치(예컨대 키패드나 휠 키 등의 각종 포인팅 입력장치)를 추가로 더 구비할 수 있다. 음성출력부(즉, 스피커)와 같이 통상적인 휴대기기(100)에 기본적으로 구비되는 구성요소는 설명 및 도시를 생략한다.The
터치감지부(112)는 사용자의 터치 행위를 감지하고 그에 따른 입력신호를 생성하여 제어부(130)로 전달한다. 터치감지부(112)는 예컨대 표시부(114) 상에 장착되는 터치패널 또는 터치센서로서, 터치가 발생하면 그에 따른 물리량의 변화를 검출하여 전기신호로 변환한다.The
표시부(114)는 제어부(130)의 제어 하에 휴대기기(100)의 각종 메뉴를 비롯하여 사용자가 입력한 정보 또는 사용자에게 제공하는 정보를 표시한다. 표시부(114)는 예컨대 액정표시장치(LCD) 또는 그에 상응하는 다른 표시장치로 이루어질 수 있다.The
저장부(120)는 휴대기기(100)의 기능과 관련된 각종 프로그램과 어플리케이션을 저장하며, 기능 수행에 필요한 데이터 및 기능 수행 중에 발생하는 데이터를 저장한다. 저장부(120)는 데이터를 일시 저장하는 하나 이상의 버퍼를 포함할 수 있으며, 별도의 외부저장매체를 더 포함할 수도 있다. 특히, 본 발명에서 저장부(120)는 동영상 컨텐츠(122) 및 오브젝트 매핑 테이블(124)과 제어명령 매핑 테이블(126)을 포함한다.The
오브젝트 매핑 테이블(124)은 각각의 동영상 컨텐츠(122)에 대하여 오브젝트 관련 데이터를 포함한다. 특히, 오브젝트 매핑 테이블(124)은 동영상 제어가 가능한 오브젝트를 규정하고, 동영상 장면별로 해당 장면에 포함된 오브젝트 및 그 좌표영역 정보를 포함한다. 다음 표 1은 동영상 AAA에 대한 오브젝트 매핑 테이블(124)의 예이다.The object mapping table 124 includes object related data for each moving
표 1에 대하여 간단히 설명하면, 동영상 AAA에서 제어가능한 오브젝트는 A_01, A_02, B_01, C_01, D_01, D_02, D_03으로 미리 정해져 있다. 오브젝트 매핑 테이블(124)에 규정되지 않은 오브젝트는 사용자가 선택하더라도 동영상 제어가 불가능하다. 장면 S-001에는 오브젝트 A_01, B_01이 포함되어 나타나며, 이들의 화면상 좌표영역은 각각 (X121~X129, Y87~Y115), (X389~X456, Y104~Y125)이다. 또한, 장면 S-001에서 장면 S-002로 바뀌면서 오브젝트 B_01은 사라지고 오브젝트 A_02와 C_01이 새로 등장한다. 표 1에서 좌표영역은 오브젝트마다 화면상에서 차지하고 있는 픽셀 범위를 의미한다. 표 1은 좌표영역을 사각형으로 단순화하여 예시하였지만, 좌표영역이 반드시 사각형만으로 한정되는 것은 아니며 다양한 변형이 가능하다.Briefly described with reference to Table 1, objects controllable in the moving picture AAA are predetermined in A_01, A_02, B_01, C_01, D_01, D_02, and D_03. An object not defined in the object mapping table 124 can not be controlled even if the user selects the object. In the scene S-001, the objects A_01 and B_01 are shown and their on-screen coordinate areas are (X121 to X129, Y87 to Y115), (X389 to X456, Y104 to Y125), respectively. Also, as the scene S-001 changes to the scene S-002, the object B_01 disappears and the objects A_02 and C_01 newly appear. In Table 1, the coordinate area means a pixel range occupied on the screen for each object. Table 1 exemplifies the coordinate area as a rectangle, but the coordinate area is not necessarily limited to a rectangle, and various modifications are possible.
오브젝트 매핑 테이블(124)은 제어가능한 오브젝트가 어떤 것인지 규정하고 있고, 각 장면마다 어떤 오브젝트가 포함되어 있으며 그 좌표영역이 어떤지에 대한 정보를 포함하고 있다. 따라서 동영상 제어를 위해 사용자가 특정 장면에서 특정 오브젝트를 터치하면, 후술할 제어부(130)는 오브젝트 매핑 테이블(124)을 참조하여 사용자가 선택한 오브젝트를 인식하고 그 오브젝트의 제어가능 여부를 판별하게 된다. 이에 대해서는 뒤에서 다시 설명한다.The object mapping table 124 defines which object is controllable, and includes information about which object is included in each scene and whose coordinate area is. Accordingly, when the user touches a specific object in a specific scene for moving picture control, the
제어명령 매핑 테이블(126)은 사용자 입력유형을 규정하며 입력유형과 제어명령 간의 대응관계를 정의한다. 다음 표 2는 제어명령 매핑 테이블(126)의 예이다.The control command mapping table 126 defines the user input type and defines the correspondence between the input type and the control command. Table 2 below is an example of the control command mapping table 126.
사용자가 오브젝트를 터치하거나 드래그하면, 제어부(130)는 제어명령 매핑 테이블(124)을 참조하여 사용자의 입력유형을 결정하며 입력유형에 해당하는 제어명령을 인식하게 된다. 표 2의 예에서는 입력유형이 1회 터치, 2회 터치, 상하좌우 드래그로 예시되었으나, 반드시 이에 한정되는 것은 아니다. 다른 예로 1회 터치, 2회 터치, 상하 또는 좌우 두 방향의 드래그로 입력유형이 정해질 수도 있고, 또 다른 예로 1회 터치와 네 방향 드래그로 입력유형이 정해질 수도 있다. 또한, 3회 이상의 터치가 입력유형에 포함되는 것도 가능하다. 다만, 이러한 입력유형은 사용자가 직관적으로 이해할 수 있고 번거로움을 주지 않도록 가급적이면 단순화하여 정하는 것이 바람직하다.When the user touches or drags the object, the
또한, 제어명령은 표 2의 예에 한정되지 않으며, 동영상 제어와 관련된 각종 제어기능이라면 모두 가능하다. 예를 들어, 재생, 정지, 일시정지, 앞으로 감기, 뒤로 감기, 앞으로 건너뛰기, 뒤로 건너뛰기, 배속, 음량조절 등이 제어명령 매핑 테이블(124)에 제어명령으로 할당 가능하다.The control command is not limited to the example shown in Table 2, and can be any control function related to moving picture control. For example, it is possible to assign a control command to the control command mapping table 124 by playing, stopping, pausing, fast forwarding, fast forwarding, skipping forward, skipping backward,
제어부(130)는 휴대기기(100)에 대한 전반적인 제어 기능을 수행한다. 특히, 본 발명의 제어부(130)는 동영상 재생기(132)를 포함한다. 동영상 재생기(132)는 소프트웨어의 형태로 구현되어 저장부(120)에 저장될 수 있고, 동영상 재생기능이 실행될 때 제어부(130)에 의해 활성화되어 저장부(120)에 저장된 동영상 컨텐츠(122)를 재생한다.The
또한, 본 발명의 제어부(130)는 동영상 재생기(132)에 의한 동영상 재생 중에 터치감지부(112)로부터 특정 오브젝트에 대한 터치 입력신호를 수신하여 사용자에 의한 입력유형을 판별하고, 제어명령 매핑 테이블(126)을 조회하여 사용자 입력유형에 대응하는 제어명령을 인식하며, 제어명령에 따라 동영상 컨텐츠의 재생과 관련된 기능을 제어한다.In addition, the
이하, 본 발명의 휴대기기를 이용한 동영상 제어 방법을 설명한다. 이하의 설명으로부터, 전술한 휴대기기(100)의 구성과 작용 역시 보다 명료해질 것이다. 도 3은 본 발명의 실시예에 따른 오브젝트 조작을 통한 동영상 제어 방법을 나타내는 흐름도이다.Hereinafter, a moving image control method using the portable device of the present invention will be described. From the following description, the structure and operation of the above-described
도 2와 도 3을 참조하면, 먼저 동영상 재생기(132)는 저장부(120)에 저장된 특정 동영상 컨텐츠(122)를 재생한다(S11 단계). 이에 따라 표시부(114)에는 재생 중인 동영상 컨텐츠(122)가 시각적으로 출력된다.Referring to FIGS. 2 and 3, the moving
동영상 재생 중에 제어부(130)는 제1 터치에 의해 특정 오브젝트가 선택됨을 인식한다(S12 단계). 즉, 사용자가 터치스크린(110)을 터치하면, 터치감지부(112)는 이를 감지하여 입력신호를 생성하고 제어부(130)로 전송한다. 제어부(130)는 터치감지부(112)가 전송한 입력신호를 수신하여 터치 좌표를 추출한다. 이어서, 제어부(130)는 표 1에서 설명한 오브젝트 매핑 테이블(124)을 조회하여 터치 좌표가 터치 발생시의 장면에 포함된 오브젝트와 그 좌표영역에 속하는지를 판단한다. 표 1의 예를 들면, 사용자 터치가 장면 S-001에서 발생했고 추출된 터치 좌표가 (X123~X125, Y95~Y99)일 경우, 이 터치 좌표는 장면 S-001에서 오브젝트 A_01의 좌표영역 (X121~X129, Y87~Y115)에 속한다. 따라서 제어부(130)는 사용자가 오브젝트 A_01을 터치한 것으로 판단하게 된다.During playback of the moving image, the
아울러, 제어부(130)는 사용자가 선택한 오브젝트가 제어가능 오브젝트인지 판별한다(S13 단계). 즉, 제어부(130)는 오브젝트 매핑 테이블(124)을 조회함으로써 사용자가 터치한 오브젝트가 오브젝트 매핑 테이블(124)에서 규정한 제어가능 오브젝트에 속하는지 확인한다. 여기서는 편의상 S12 단계와 S13 단계를 구별하여 설명하였지만, 제어부(130)는 S12 단계에서 터치 좌표 추출 후 오브젝트 매핑 테이블(124)의 조회를 통해 사용자가 오브젝트를 터치했는지, 터치한 오브젝트가 제어가능한 것인지, 한번에 판단할 수 있다.In addition, the
만일 사용자가 터치한 오브젝트가 제어가능 오브젝트가 아니면, 제어부(130)는 표시부(114)를 통해 제어불가 메시지를 출력한다(S14 단계). 즉, 사용자가 동영상을 감상하면서 동영상에 포함된 수많은 오브젝트들 중 어떤 오브젝트가 제어가능한지 알 수 없으므로, 오브젝트 터치 시 사용자에게 시각적으로 피드백을 줌으로써 사용자 편의성을 증대시킨다.If the object touched by the user is not a controllable object, the
사용자가 터치한 오브젝트가 제어가능 오브젝트이면, 제어부(130)는 소정 시간 내에 제2 터치가 발생하는지 판단한다(S15 단계). 제2 터치는 전술한 제1 터치가 특정 지점에서 발생한 후 미리 설정된 시간 내에 다시 발생하는 후속 터치를 의미한다. 제2 터치는 제1 터치가 해제되고 다시 발생하는 터치, 즉 동일한 지점에서 연달아 발생하는 터치가 될 수도 있고, 제1 터치가 해제되지 않은 상태에서 터치 지점이 이동하는 터치가 될 수도 있다. 전자는 2회 터치, 후자는 드래그를 의미한다.If the object touched by the user is a controllable object, the
따라서 제어부(130)는 터치감지부(112)로부터 제1 터치에 따른 입력신호를 수신한 후 소정 시간 동안 후속 입력신호를 기다려 제2 터치의 발생 여부를 판단한다. 제1 터치의 경우와 마찬가지로, 제2 터치에 따른 입력신호를 수신한 제어부(130)는 수신한 입력신호로부터 터치 좌표를 추출한다.Accordingly, the
만일 소정의 시간 동안 제2 터치가 발생하지 않으면, 제어부(130)는 사용자의 입력유형을 1회 터치인 것으로 인식한다(S16 단계). 그리고 후술할 S21 단계로 진행한다.If the second touch does not occur for a predetermined time, the
제2 터치가 발생한 경우, 제어부(130)는 제2 터치가 제1 터치와 동일 영역에서 발생했는지 판단한다(S17 단계). 동일 영역 발생 여부는 터치 입력신호로부터 추출한 터치 좌표의 비교를 통해 간단히 수행할 수 있다. 다만, 이때 제1 터치와 제2 터치가 완전히 동일한 영역에서 발생하기는 실제로 어려우므로, 어느 정도 허용범위를 설정하고 그 범위 안에 터치 좌표가 속할 경우 동일 영역 터치인 것으로 판정한다.If the second touch occurs, the
제2 터치가 제1 터치와 동일 영역에서 발생한 경우, 제어부(130)는 사용자의 입력유형을 2회 터치인 것으로 인식한다(S18 단계). 그리고 후술할 S21 단계로 진행한다.If the second touch occurs in the same area as the first touch, the
제2 터치가 제1 터치와 동일 영역에서 발생하지 않은 경우, 제어부(130)는 사용자의 입력유형을 드래그로 인식한다(S19 단계). 그리고 제어부(130)는 드래그 방향을 추출한다(S20 단계). 즉, 제어부(130)는 제1 터치와 제2 터치의 좌표 변화를 확인하여 드래그 방향을 추출한다. 다만, 사용자의 실제 드래그 행위는 일반적으로 임의 방향으로의 성분들을 포함하고 있으므로, 드래그 방향을 결정할 때에는 상하 방향으로의 변화율과 좌우 방향으로의 변화율 중에서 어느 것이 큰 지를 판단하여 결정할 수 있다.If the second touch does not occur in the same area as the first touch, the
전술한 S16 단계에서 입력유형을 1회 터치로 인식하거나, S18 단계에서 입력유형을 2회 터치로 인식하거나, S20 단계에서 입력유형을 특정 방향의 드래그로 인식한 후, 제어부(130)는 제어명령 매핑 테이블(126)을 조회하여 입력유형에 해당하는 제어명령을 인식한다(S21 단계). 그리고 제어부(130)는 제어명령에 해당하는 제어기능을 수행한다(S22 단계).In step S16, the input type is recognized as a single touch. In step S18, the input type is recognized twice as a touch. In step S20, the input type is recognized as a drag in a specific direction. Then, The mapping table 126 is inquired to recognize a control command corresponding to the input type (step S21). Then, the
지금까지 실시예를 통하여 휴대기기에서 재생 중인 동영상 내의 오브젝트 조작을 통한 동영상 제어 방법과 그 휴대기기에 대하여 설명하였다. 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.The moving picture control method and the portable device through the object manipulation in the moving picture being reproduced by the portable device have been described through the embodiments. Although the present invention has been described with reference to preferred embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It is not intended to limit the scope. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.
본 발명에 따른 휴대기기에서 재생 중인 동영상 내의 오브젝트 조작을 통한 동영상 제어 방법과 그 휴대기기는 동영상 재생기능을 구비하고 터치 인터페이스를 채용한 각종 휴대기기, 이동통신단말, 무선단말 등에 유용하게 적용할 수 있다.A method for controlling a moving picture through manipulation of an object in a moving picture being reproduced in a portable device according to the present invention and a portable device having the moving picture reproducing function and applicable to various portable devices, mobile communication terminals, and wireless terminals employing a touch interface have.
도 1a 및 도 1b는 본 발명에 따른 오브젝트 조작을 통한 동영상 제어 방법을 직관적으로 설명하기 위한 예시도이다.FIGS. 1A and 1B are diagrams for intuitively explaining a moving picture control method through object manipulation according to the present invention.
도 2는 본 발명의 실시예에 따른 휴대기기의 구성을 나타내는 블록도이다.2 is a block diagram showing a configuration of a portable device according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 오브젝트 조작을 통한 동영상 제어 방법을 나타내는 흐름도이다.3 is a flowchart illustrating a moving image control method through object manipulation according to an embodiment of the present invention.
<도면의 주요부분에 대한 설명>DESCRIPTION OF THE EMBODIMENTS
10a, 10b: 오브젝트 22: 제1 터치 지점10a, 10b: object 22: first touch point
23: 제2 터치 지점 24: 드래그 방향23: second touch point 24: drag direction
100: 휴대기기 110: 터치스크린100: portable device 110: touch screen
112: 터치감지부 114: 표시부112: touch sensing unit 114:
120: 저장부 122: 동영상 컨텐츠120: storage unit 122: video content
124: 오브젝트 매핑 테이블 126: 제어명령 매핑 테이블124: Object mapping table 126: Control command mapping table
130: 제어부 132: 동영상 재생기130: control unit 132:
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090092138A KR101151301B1 (en) | 2009-09-29 | 2009-09-29 | Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090092138A KR101151301B1 (en) | 2009-09-29 | 2009-09-29 | Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110034740A true KR20110034740A (en) | 2011-04-06 |
KR101151301B1 KR101151301B1 (en) | 2012-06-08 |
Family
ID=44043190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090092138A KR101151301B1 (en) | 2009-09-29 | 2009-09-29 | Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101151301B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013039314A2 (en) * | 2011-09-16 | 2013-03-21 | 주식회사 고려미디어 | Method for playing mapped audio file or video file in portable terminal having touch screen |
KR101352201B1 (en) * | 2012-09-11 | 2014-01-22 | 넥스트리밍(주) | Apparatus and method for controlling media player of mdia file |
KR101457351B1 (en) * | 2013-05-27 | 2014-11-03 | 강원대학교산학협력단 | multi-meida apparatus using transparent control area and gesture pattern information based on touch screen and multi-meida control Method using the same |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4968587B2 (en) * | 2007-11-21 | 2012-07-04 | 横河電機株式会社 | Object moving device |
-
2009
- 2009-09-29 KR KR1020090092138A patent/KR101151301B1/en active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013039314A2 (en) * | 2011-09-16 | 2013-03-21 | 주식회사 고려미디어 | Method for playing mapped audio file or video file in portable terminal having touch screen |
WO2013039314A3 (en) * | 2011-09-16 | 2013-05-10 | 주식회사 고려미디어 | Method for playing mapped audio file or video file in portable terminal having touch screen |
KR101352201B1 (en) * | 2012-09-11 | 2014-01-22 | 넥스트리밍(주) | Apparatus and method for controlling media player of mdia file |
WO2014042379A1 (en) * | 2012-09-11 | 2014-03-20 | 넥스트리밍(주) | Method for controlling media player and information device employing same |
KR101457351B1 (en) * | 2013-05-27 | 2014-11-03 | 강원대학교산학협력단 | multi-meida apparatus using transparent control area and gesture pattern information based on touch screen and multi-meida control Method using the same |
Also Published As
Publication number | Publication date |
---|---|
KR101151301B1 (en) | 2012-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10007424B2 (en) | Mobile client device, operation method, recording medium, and operation system | |
US11054988B2 (en) | Graphical user interface display method and electronic device | |
EP2224321B1 (en) | Information processing apparatus and display control method | |
CN103391469B (en) | Mobile terminal and controlling method thereof | |
JP5398719B2 (en) | User command input method, and video equipment and input equipment to which the method is applied | |
US9170722B2 (en) | Display control device, display control method, and program | |
US20150193036A1 (en) | User terminal apparatus and control method thereof | |
EP2680124B1 (en) | Apparatus and method for displaying menu in mobile device | |
US20130271404A1 (en) | Remote controller equipped with touch pad and method for controlling the same | |
JP2015007949A (en) | Display device, display controlling method, and computer program | |
CN108920069B (en) | Touch operation method and device, mobile terminal and storage medium | |
US20150363091A1 (en) | Electronic device and method of controlling same | |
US11567725B2 (en) | Data processing method and mobile device | |
WO2021037074A1 (en) | Audio output method and electronic apparatus | |
WO2018120768A1 (en) | Remote control method and terminal | |
KR20150144641A (en) | user terminal apparatus and control method thereof | |
KR20100033716A (en) | Method and system for controlling media displaying using by portable terminal | |
KR101151301B1 (en) | Portable Device and Related Control Method for Video Content through Manipulation of Object in the Video Content | |
KR20140131051A (en) | electro device comprising pressure sensor and method for controlling thereof | |
KR101150727B1 (en) | Portable Device and Related Control Method for Video Content by Manipulation of Object in the Video Content | |
KR101150731B1 (en) | Portable Device and Related Control Method for Scenes of Video Content through Manipulation of Object in the Video Content | |
KR102303286B1 (en) | Terminal device and operating method thereof | |
KR101104730B1 (en) | Terminal and method for control object into video content thereof | |
JP6362824B2 (en) | Electronics | |
JP2023106270A (en) | Display device and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150429 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160428 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180427 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190422 Year of fee payment: 8 |