KR20090116435A - Method and apparatus processing image based on the first inputted command - Google Patents

Method and apparatus processing image based on the first inputted command Download PDF

Info

Publication number
KR20090116435A
KR20090116435A KR1020080042372A KR20080042372A KR20090116435A KR 20090116435 A KR20090116435 A KR 20090116435A KR 1020080042372 A KR1020080042372 A KR 1020080042372A KR 20080042372 A KR20080042372 A KR 20080042372A KR 20090116435 A KR20090116435 A KR 20090116435A
Authority
KR
South Korea
Prior art keywords
image
coordinate
editing
touch
user
Prior art date
Application number
KR1020080042372A
Other languages
Korean (ko)
Other versions
KR100952306B1 (en
Inventor
전재욱
박종현
진승훈
박재형
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020080042372A priority Critical patent/KR100952306B1/en
Publication of KR20090116435A publication Critical patent/KR20090116435A/en
Application granted granted Critical
Publication of KR100952306B1 publication Critical patent/KR100952306B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

PURPOSE: A method and an apparatus for processing an image based on first input are provided to be applied to mobile devices such as a mobile phone, a PDA and a smart phone which needs multi touch and an embedded system based on a touch panel. CONSTITUTION: A method for processing an image based on first input comprises the following steps. An apparatus for processing an image based on first input selects an image editing mode by analyzing a touch locus on a touch screen(S103). The touch locus is set as a base coordinate(S104). The apparatus for processing an image based on first input edits an original image according to an image editing gesture inputted from a user(S109).

Description

선 입력 기반 영상 처리 방법 및 그 장치{Method and Apparatus Processing Image Based on the First Inputted Command}Line input based image processing method and apparatus therefor {Method and Apparatus Processing Image Based on the First Inputted Command}

본 발명은 선 입력 기반 영상 처리 방법 및 그 장치에 관한 것으로, 특히 단일 터치 장치를 이용하여 멀티 터치 패드의 기능을 구현할 수 있는 멀티 터치 장치 및 그 방법에 관한 것이다.The present invention relates to a line input based image processing method and a device thereof, and more particularly, to a multi-touch device and a method of realizing a function of a multi-touch pad using a single touch device.

기존의 마우스, 터치 패드, 터치 패널 등과 같이 디스플레이의 좌표계를 지정하는 포인팅 장치에서는 특정 시점에서 단일 좌표만을 추적하는 것이 가능하다.In a pointing device that designates a coordinate system of a display, such as a mouse, a touch pad, and a touch panel, it is possible to track only a single coordinate at a specific point in time.

즉, 장치 디스플레이 상에서 GUI(Graphical User Interface)를 클릭하거나 드래그 등의 동작을 할 경우 한 개의 좌표값 또는 한 개 좌표의 궤적의 집합이 발생하게 된다. 따라서 2개 이상의 좌표를 동시에 추적하는 것을 통한 응용이나 다양한 기능을 수행할 수 있는 멀티 터치 방식이 불가능하였다. 이러한 터치스크린의 단점을 보완하기 위하여 터치 패드의 영역을 분할하여 드래그 이벤트가 스크롤 이벤트로 변경되도록 한 스크롤링 응용이 있지만 그 한계점은 분명 존재한다.That is, when a user clicks or drags a graphical user interface (GUI) on the device display, one coordinate value or a set of one coordinates is generated. Therefore, it was not possible to apply an application through tracking two or more coordinates at the same time or a multi-touch method that can perform various functions. In order to make up for the drawbacks of the touch screen, there is a scrolling application in which a drag event is changed to a scroll event by dividing an area of the touch pad, but a limitation thereof is clearly present.

최근 이슈가 되고 있는 멀티 터치 기술을 구현하기 위해서는 다중으로 동시에 발생하는 터치 포인트들을 인식하는 소프트웨어뿐만 아니라, 이를 위한 멀티 터치스크린 또는 멀티 터치 패드라는 하드웨어적 요소가 필요하다. 멀티 터치 기술은 열, 입력되는 사용자 손가락의 압력, 높은 캡처 비율을 가지는 카메라, 적외선, 광학 캡처 등의 다양한 수단에 의해서 이루어지는데, 이러한 멀티 터치 기술의 응용 가능성이 매우 넓은 반면에 이를 구현하기 위해서는 고가의 하드웨어적 요소가 필요하게 되고 멀티 터치를 감지하기 위한 터치 레이어의 추가로 인한 중량 증가, 선명도 향상을 위하여 전용 스타일러스 펜을 사용하는 등의 문제점이 있다. In order to implement the multi-touch technology, which is an issue recently, not only software for recognizing multiple simultaneous touch points, but also a hardware element such as a multi-touch screen or a multi-touch pad is required. Multi-touch technology is achieved by various means such as heat, pressure of user's finger input, camera with high capture ratio, infrared ray, optical capture, etc. There is a problem in that a hardware element is required, and a weight increase due to the addition of a touch layer for sensing multi-touch, and a dedicated stylus pen for improving sharpness are used.

따라서 본 발명은 상기한 종래 기술에 따른 문제점을 해결하기 위한 것으로, 사용자의 선 입력된 명령을 통하여 영상 편집 모드를 선택하고, 이에 대하여 사용자의 추가적인 제스처 입력을 산출하여 멀티 터치 방법을 구현하는 선 입력 기반 영상 처리 방법 및 그 장치의 제공을 그 목적으로 한다.Accordingly, the present invention is to solve the above problems according to the prior art, a line input for implementing a multi-touch method by selecting the image editing mode through the user's pre-input command, calculate the additional gesture input of the user for this It is an object of the present invention to provide a method and a device based image processing.

본 발명의 일 측면에 따른 선 입력 기반 영상 처리 방법은 터치스크린 상의 터치 궤적을 분석하여 영상 편집 모드를 선택하고 상기 터치 궤적을 기준 좌표로 설정하는 단계, 상기 영상 편집 모드 선택 후 상기 선 입력 기반 영상 처리 장치는 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계를 포함한다.According to an aspect of the present invention, a line input based image processing method includes selecting an image editing mode by analyzing a touch trace on a touch screen and setting the touch trace as a reference coordinate, after selecting the image editing mode, the line input based image The processing device may include editing the original video according to the video editing gesture received from the user.

이 경우 상기 영상 편집 모드 선택 단계는 상기 터치스크린 상의 터치 궤적이 단일 좌표인 경우 이차원 영상 편집 모드를 선택하고, 상기 터치스크린 상의 터치 궤적이 터치 궤적인 경우 삼차원 영상 편집 모드를 선택하는 것을 특징으로 할 수 있다.In this case, the selecting of the image editing mode may include selecting a two-dimensional image editing mode when the touch trace on the touch screen is a single coordinate, and selecting a three-dimensional image editing mode when the touch trace on the touch screen is a touch trace. Can be.

또한, 상기 터치 궤적을 기준 좌표로 설정하는 단계는 상기 터치스크린 상의 터치 궤적이 단일점인 경우 상기 단일점을 이차원 영상 편집 모드의 기준 좌표로 설정하는 것을 특징으로 한다.The setting of the touch trajectory as the reference coordinate may include setting the single point as the reference coordinate of the two-dimensional image editing mode when the touch trajectory on the touch screen is the single point.

상기 이차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는 상기 사용자로부터 X, Y 좌표의 절대값이 모두 증가하는 방향이거나, X 좌표의 절대값이 증가하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 증가하는 방향의 영상 편집 제스처를 입력받는 단계와 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 확대 편집하는 단계를 포함할 수 있다.When the two-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user may be a direction in which both absolute values of the X and Y coordinates are increased from the user, or the absolute value of the X coordinate is increased. The absolute value of the Y coordinate is in the direction of maintaining 0, or on the contrary, receiving an image editing gesture in a direction in which the absolute value of the X coordinate is 0 and the absolute value of the Y coordinate is increased and the original image based on the reference coordinate. May be enlarged and edited at a predetermined ratio.

또한, 상기 이차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는 사용자로부터 X, Y 좌표의 절대값이 모두 감소하는 방향이거나, X 좌표의 절대값이 감소하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 감소하는 방향의 영상 편집 제스처를 입력받는 단계와 선 입력 기반 영상 처리 장치는 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 축소 편집하는 단계를 포함할 수도 있다.In addition, when the two-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user is the direction in which the absolute values of the X and Y coordinates all decrease or the absolute value of the X coordinates decreases. And receiving an image editing gesture in a direction in which the absolute value of the Y coordinate is 0 or the direction in which the absolute value of the X coordinate is 0 and the absolute value of the Y coordinate is decreased. The method may include reducing and editing the original image at a predetermined ratio based on the reference coordinates.

나아가 상기 이차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는 사용자로부터 원호 형태의 영상 편집 제스처를 입력받는 단계와 상기 선 입력 기반 영상 처리 장치는 상기 기준 좌표를 중심으로 원본 영상을 회전 편집하는 단계를 포함할 수도 있다.Furthermore, when the two-dimensional image editing mode is selected, editing the original image according to the image editing gesture received from the user may include receiving an image editing gesture in the form of an arc from the user, and the line input based image processing apparatus may use the reference coordinates. It may include a step of rotating and editing the original image around the.

한편, 상기 터치 궤적을 기준 좌표로 설정하는 단계는 3D 영상 편집 모드 선택을 위하여 상기 터치스크린 상의 입력된 터치 궤적에 근사한 직선을 구하고, 상기 직선을 상기 원본 영상에 접하도록 터치스크린의 수직 방향으로 평행 이동시킨 직선을 삼차원 영상 편집 모드의 기준선으로 설정하는 것을 특징으로 할 수 있다.In the setting of the touch trajectory as a reference coordinate, a straight line approximating the input touch trajectory on the touch screen is selected to select a 3D image editing mode, and the straight line is parallel to the vertical direction of the touch screen to contact the original image. The moved straight line may be set as a reference line in the 3D image editing mode.

이 경우 상기 삼차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는 사용자로부터 원호 형태의 영상 편집 제스처를 입력받는 단계, 상기 기준선을 중심으로 삼차원 원본 영상의 객체를 회전 편집하는 단계를 포함할 수 있다.In this case, when the three-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user is the step of receiving an image editing gesture in the form of an arc from the user, the object of the three-dimensional original image around the reference line Rotating editing may include.

원본 영상의 회전 편집 과정은 상기 사용자로부터 입력된 영상 편집 제스처 원호의 방향에 따라 원본 영상을 회전 편집하는 방향이 결정되는 것을 특징으로 할 수 있다.The rotation editing process of the original image may be characterized in that the direction of rotation editing the original image is determined according to the direction of the image editing gesture arc input from the user.

또한, 원본 영상의 회전 편집 과정은 사용자로부터 원본 영상을 회전할 각도를 입력받는 단계를 수행하고, 상기 입력받은 회전 각도만큼 원본 영상을 회전하는 것을 특징으로 할 수 있다.In addition, the rotation editing process of the original image may be performed by receiving an input angle for rotating the original image from the user, and may rotate the original image by the input rotation angle.

본 발명의 다른 측면에 따른 선 입력 기반 영상 처리 장치는 사용자로부터 터치 궤적을 입력받기 위한 터치스크린과 상기 터치스크린에 입력된 터치 궤적을 분석하여 영상 편집 모드를 선택하고 상기 터치 궤적을 기준 좌표로 설정하는 한편, 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 중앙처리장치를 포함한다.The line input based image processing apparatus according to another aspect of the present invention selects an image editing mode by analyzing a touch screen for receiving a touch trace from a user and a touch trace input on the touch screen, and sets the touch trace as a reference coordinate. On the other hand, it includes a central processing unit for editing the original image according to the image editing gesture received from the user.

이 경우 상기 중앙처리장치는 터치스크린 상의 터치 궤적이 단일 좌표인 경우 이차원 영상 편집 모드를 선택하고, 상기 터치스크린 상의 터치 궤적이 터치 궤적인 경우 삼차원 영상 편집 모드를 선택할 수 있다.In this case, the CPU may select a two-dimensional image editing mode when the touch trajectory on the touch screen is a single coordinate, and select a three-dimensional image editing mode when the touch trajectory on the touch screen is a touch trajectory.

또한, 상기 중앙처리장치는 상기 터치스크린 상의 터치 궤적이 단일점인 경우 상기 단일점을 이차원 영상 편집 모드의 기준 좌표로 설정하는 것을 특징으로 할 수 있다.The CPU may set the single point as a reference coordinate of a two-dimensional image editing mode when the touch trace on the touch screen is a single point.

이 경우 상기 중앙처리장치는 사용자로부터 X, Y 좌표의 절대값이 모두 증가하는 방향이거나, X 좌표의 절대값이 증가하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 증가하는 방향의 영상 편집 제스처를 입력받은 경우 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 확대 편집하는 것을 특징으로 할 수 있다.In this case, the central processing unit is a direction in which the absolute values of the X and Y coordinates all increase from the user, or the absolute value of the X coordinate is increased and the absolute value of the Y coordinate is 0 or the absolute value of the X coordinate. In the case where the image editing gesture is maintained in the direction in which the absolute value of the Y coordinate is increased while maintaining the zero, the original image may be enlarged and edited at a predetermined ratio around the reference coordinate.

또한, 상기 중앙처리장치는 사용자로부터 X, Y 좌표의 절대값이 모두 감소하는 방향이거나, X 좌표의 절대값이 감소하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 감소하는 방향 의 영상 편집 제스처를 입력받은 경우 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 축소 편집하는 것을 특징으로 할 수 있다.In addition, the CPU may be a direction in which the absolute values of the X and Y coordinates are all decreased from the user, or the absolute value of the X coordinate is decreased and the absolute value of the Y coordinate is 0 or the absolute value of the X coordinate is conversely. In the case where the image editing gesture in the direction in which the absolute value of the Y coordinate is decreased while maintaining this 0 is received, the original image may be reduced and edited at a predetermined ratio based on the reference coordinate.

나아가 상기 중앙처리장치는 사용자로부터 원호 형태의 영상 편집 제스처를 입력받은 경우 상기 기준 좌표를 중심으로 원본 영상을 회전 편집하는 것을 특징으로 할 수 있다.Further, when the central processing apparatus receives an image editing gesture in the form of an arc from a user, the CPU may rotate and edit the original image based on the reference coordinate.

한편, 상기 중앙처리장치는 터치스크린 상의 입력된 터치 궤적에 근사한 직선을 구하고, 상기 직선을 상기 원본 영상에 접하도록 터치스크린의 수직 방향으로 평행 이동시킨 직선을 삼차원 영상 편집 모드의 기준선으로 설정할 수도 있다. 이 경우 상기 중앙처리장치는 상기 사용자로부터 원호 형태의 영상 편집 제스처를 입력받고, 이에 따라 상기 기준선을 중심으로 삼차원 원본 영상의 객체를 회전 편집할 수 있다.Meanwhile, the CPU may obtain a straight line approximating the input touch trajectory on the touch screen, and set a straight line in which the straight line is moved in parallel in the vertical direction of the touch screen to contact the original image as a reference line in the 3D image editing mode. . In this case, the CPU receives an arc-shaped image editing gesture from the user, and accordingly rotates and edits an object of a 3D original image based on the reference line.

상기한 바와 같이 본 발명에 따른 선 입력 기반 영상 처리 방법 및 그 장치는 사용자가 먼저 입력한 명령을 통하여 멀티 터치 방법을 구현한 것이므로, 멀티 터치 기능을 위한 별도의 하드웨어 장비를 구비할 필요가 없이 기존의 특정 시점에 단일 포인팅 좌표만을 추적 가능한 터치 패널 또는 터치 패드 기반의 장치에 적용이 가능하다.As described above, since the line input-based image processing method and apparatus according to the present invention implement the multi-touch method through a command input by a user first, there is no need to provide a separate hardware device for the multi-touch function. Applicable to a touch panel or a touch pad-based device that can track only a single pointing coordinate at a specific time point.

또한, 본 발명에 따른 선 입력 기반 영상 처리 방법 및 그 장치는 터치 패널의 디스플레이 상의 2차원 또는 3차원 영상의 조작을 위한 실시예 이외에도 멀티 터치가 필요한 휴대폰, PDA(Personal Digital Assistants), 스마트폰과 같은 모바일 장치나 터치 패널 기반의 임베디드 시스템 등 다양한 응용 분야에서 활용하는 것이 가능하다.In addition, the line input-based image processing method and apparatus according to the present invention and the mobile phone, PDA (Personal Digital Assistants), smart phones that require multi-touch in addition to the embodiment for the operation of two-dimensional or three-dimensional image on the display of the touch panel and It can be used in various applications such as mobile devices or touch panel based embedded systems.

이하, 본 발명에 따른 선 입력 기반 영상 처리 장치 및 그 방법에 대하여 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, a line input based image processing apparatus and a method thereof according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 선 입력 기반 멀티 터치 방법을 나타낸 도면이다. 1 is a diagram illustrating a line input based multi-touch method according to an embodiment of the present invention.

본 발명에 따른 선(先) 입력 기반 영상 처리 장치는 먼저 편집 대상이 되는 원본 이미지(source image)를 입력받는다(S101). 선 입력 기반 영상 처리 장치는 입력받은 원본 이미지를 디스플레이에 출력하여 사용자로 하여금 확인할 수 있도록 할 수 있다.The pre-input based image processing apparatus according to the present invention first receives a source image to be edited (S101). The pre-input-based image processing apparatus may output the input original image to the display so that the user can check it.

디스플레이에 출력된 원본 영상을 확인한 사용자는 선 입력 기반 영상 처리 장치와 연결된 터치스크린(touch screen) 상에 영상 편집 모드 선택을 위한 터치를 입력하며, 선 입력 기반 영상 처리 장치는 이를 감지한다(S102). S102 과정에서 선택할 수 있는 영상 편집 모드로는 2D 영상 편집 모드와 3D 영상 편집 모드가 존재한다. 이에 대하여는 추후 더 자세히 살펴보기로 한다.After checking the original image output on the display, the user inputs a touch for selecting an image editing mode on a touch screen connected to the line input based image processing apparatus, and the line input based image processing apparatus detects this (S102). . The image editing mode selectable in step S102 includes a 2D image editing mode and a 3D image editing mode. This will be discussed in more detail later.

선 입력 기반 영상 처리 장치는 사용자가 터치스크린 상에서 터치한 좌표 값 을 저장하고, 영상 모드 선택을 위하여 상기 저장된 좌표를 분석한다(S103). 선 입력 기반 영상 처리 장치는 S103의 분석 결과를 토대로 터치된 형태가 단일점 형태인지 선형태인지 판단한다(S104). The line input based image processing apparatus stores coordinate values touched by the user on the touch screen, and analyzes the stored coordinates to select an image mode (S103). The line input based image processing apparatus determines whether the touched form is a single point form or a line form based on the analysis result of S103 (S104).

만일 터치 입력 형태가 단일점 형태인 경우 선 입력 기반 영상 처리 장치는 2D 영상 편집 모드를 수행하며, 상기 단일점의 좌표를 2D 영상 편집의 기준 좌표로 설정한다.If the touch input type is a single point type, the line input based image processing apparatus performs a 2D image editing mode, and sets the coordinates of the single point as reference coordinates for 2D image editing.

한편, 터치 입력 형태가 선 형태인 경우 선 입력 기반 영상 처리 장치는 3D 영상 편집 모드를 수행하며, 입력된 선을 3D 영상 편집의 기준축으로 설정한다. 이때, 입력된 선이 곡선일 수도 있는데 이 경우 상기 곡선궤적에 근사치에 해당하는 직선을 계산하고, 이를 이용하여 기준축을 생성하게 된다. 기준축의 생성과정에 대하여는 도 7에서 자세히 살펴보기로 한다.Meanwhile, when the touch input form is in the form of a line, the line input based image processing apparatus performs a 3D image editing mode and sets the input line as a reference axis for 3D image editing. In this case, the input line may be a curve. In this case, a straight line corresponding to the curve trajectory is calculated and a reference axis is generated using the straight line. The generation of the reference axis will be described in detail with reference to FIG. 7.

S105, S107의 과정에서 선 입력 기반 영상 처리 장치 각각의 영상 편집 모드로 진입하게 된다. 선 입력 기반 영상 처리 장치는 각각의 모드에서 사용자로부터 영상 편집을 위한 터치를 입력받는다(S106, S108). 영상 편집을 위한 터치를 제스처라고 칭하기로 한다.In the process of S105 and S107, each of the line input-based image processing apparatus enters the image editing mode. The line input based image processing apparatus receives a touch for image editing from a user in each mode (S106 and S108). The touch for editing the image is referred to as a gesture.

선 입력 기반 영상 처리 장치는 현재 영상 편집 모드와 그에 따라 입력된 제스처가 지시하는 원본 영상 편집을 수행한다(S109). 선 입력 기반 영상 처리 장치는 편집된 결과 영상을 디스플레이에 출력한다(S110).The pre-input based image processing apparatus performs the original image editing indicated by the current image editing mode and the gesture input according to the present image editing mode (S109). The line input based image processing apparatus outputs the edited result image to the display (S110).

이하, 사용자로부터 영상 편집 값에 따라 선 입력 기반 영상 처리 장치가 지원하는 원본 영상 편집 예에 대하여 보다 자세히 살펴보기로 한다.Hereinafter, an example of editing an original image supported by a pre-input-based image processing apparatus according to an image editing value from a user will be described in more detail.

도 2는 본 발명에 따른 원본 영상의 2차원 확대 및 축소 편집을 위한 제스처 입력을 나타낸 도면이다.2 is a diagram illustrating a gesture input for two-dimensional enlargement and reduction editing of an original image according to the present invention.

도 2의 (A)는 사용자가 먼저 터치스크린의 (X0, Y0) 좌표에 터치를 한 후, (X1, Y1), (X2, Y2)의 좌표 등을 경유하여 (Xn,Yn) 좌표로 드래그한 동작, 즉 제스처를 나타내고 있다.In FIG. 2A, the user first touches the (X0, Y0) coordinates of the touch screen, and then drags the coordinates to the (Xn, Yn) coordinates via the coordinates of (X1, Y1), (X2, Y2), and the like. One action, or gesture, is shown.

도 2의 (A)에 도시된 좌표 변화를 분석하면, X 좌표 및 Y 좌표의 절대값이 모두 증가하는 방향으로 사용자가 드래그한 것임을 알 수 있다. 이와 같은 형태로 사용자가 드래그를 한 경우 본 발명에 따른 선 입력 기반 영상 처리 장치는 원본 대상을 2차원 확대하는 편집을 수행할 수 있다.Analyzing the coordinate change shown in FIG. 2A, it can be seen that the user drags in a direction in which both absolute values of the X coordinate and the Y coordinate increase. When the user drags in this manner, the line input based image processing apparatus according to the present invention may perform editing to enlarge the original object two-dimensionally.

구체적으로, 선 입력 기반 영상 처리 장치는 입력되는 터치 좌표들을 저장하고, |Xn| - |Xn-1| > 0, |Yn| - |Yn-1| > 0 또는 |Xn| - |Xn-1| > 0, |Yn| - |Yn-1| = 0 또는 |Xn| - |Xn-1| = 0, |Yn| - |Yn-1| > 0의 조건을 만족하는지 판단하여 원본 대상 확대 편집 명령이 입력되는지 알 수 있다. 상기 두 수식들을 만족하는 경우 선 입력 기반 영상 처리 장치는 현재 원본 영상을 2차원 확대하는 것이다.In detail, the line input based image processing apparatus stores the input touch coordinates, and | Xn | -| Xn-1 | > 0, | Yn | -| Yn-1 | > 0 or | Xn | -| Xn-1 | > 0, | Yn | -| Yn-1 | = 0 or | Xn | -| Xn-1 | = 0, | Yn | -| Yn-1 | Determine whether the condition of> 0 is satisfied to see if an original target enlargement editing command is input. If the two equations are satisfied, the line input-based image processing apparatus enlarges the current original image two-dimensionally.

도 2의 (B)도 사용자가 먼저 터치스크린의 (X0, Y0) 좌표에 터치를 한 후, (X1, Y1), (X2, Y2) 좌표 등을 거쳐 (Xn, Yn) 좌표로 드래그한 경우의 동작을 나타낸다.FIG. 2B also illustrates a case where the user first touches the (X0, Y0) coordinates of the touch screen and then drags the coordinates through the (X1, Y1), (X2, Y2) coordinates, and the like to the (Xn, Yn) coordinates. Indicates the operation of.

도 2의 (B)에 도시된 좌표를 분석하면 X 좌표 및 Y 좌표의 절대값이 모두 감 소하는 방향으로 사용자가 드래그한 것임을 알 수 있다. 이러한 형태로 사용자가 제스처를 입력한 경우 본 발명에 따른 선 입력 기반 영상 처리 장치는 원본 대상을 축소하는 2차원 편집을 수행할 수 있다.Analyzing the coordinates illustrated in FIG. 2B, it can be seen that the user drags in a direction in which both absolute values of the X coordinate and the Y coordinate decrease. When the user inputs a gesture in this form, the line input based image processing apparatus according to the present invention may perform two-dimensional editing to reduce the original object.

도 2의 (B)에서 살펴볼 수 있듯이 선 입력 기반 영상 처리 장치는 입력되는 터치 좌표들을 저장하고, |Xn| - |Xn-1| < 0, |Yn| - |Yn-1| < 0 또는 |Xn| - |Xn-1| < 0, |Yn| - |Yn-1| = 0 또는 |Xn| - |Xn-1| = 0, |Yn| - |Yn-1| < 0의 조건을 만족하는 경우 원본 대상을 2차원 축소하는 편집을 수행하고, 그 결과 영상을 디스플레이하게 된다.As shown in FIG. 2B, the line input based image processing apparatus stores the input touch coordinates, and | Xn | -| Xn-1 | <0, | Yn | -| Yn-1 | <0 or | Xn | -| Xn-1 | <0, | Yn | -| Yn-1 | = 0 or | Xn | -| Xn-1 | = 0, | Yn | -| Yn-1 | If the condition of <0 is satisfied, editing is performed to reduce the original object two-dimensionally, and as a result, an image is displayed.

도 3은 도 2의 제스처에 따른 2차원 확대 편집 방법의 일 예를 나타낸 도면이다.3 is a diagram illustrating an example of a 2D enlargement editing method according to the gesture of FIG. 2.

도 3의 (A)는 도 2 중 (A)에 따른 영상 확대를 위한 터치 동작을 수행한 모습을 나타낸다. 3A illustrates a state in which a touch operation for expanding an image according to FIG. 2A is performed.

도 3의 (A) 이미지에 도시된 바와 같이 사용자는 점 (가)를 찍어서 2D 영상 편집 모드를 선택하였다. 이와 같이 영상 편집 모드를 선택하기 위하여 터치한 점 (가)가 원본 영상을 편집할 기준 좌표가 되는 것이다.As shown in (A) image of FIG. 3, the user selects a 2D image editing mode by taking a dot (a). In this way, the point touched to select the image editing mode (a) becomes the reference coordinate for editing the original image.

2D 영상 편집 모드 선택 후 사용자는 궤적 (나)에 따른 드래그, 즉 제스처를 입력한 것임을 알 수 있다. (나) 제스처를 분석하면, 궤적 (나)에 따른 드래그는 드래그 시작 지점으로부터 X, Y 좌표가 모두 증가하는 방향으로 이루어졌음을 알 수 있다.After selecting the 2D image editing mode, the user may know that the user inputs a drag, i.e., a gesture according to the trajectory (b). (B) Analyzing the gesture, it can be seen that the drag along the trajectory (b) is made in a direction in which both the X and Y coordinates increase from the drag start point.

그 결과 선 입력 기반 영상 처리 장치는 도 3의 (B) 이미지에서 살펴볼 수 있듯이, 원본 영상인 자동차의 옆 모습을 소정의 비율로 2차원 확대하게 된다. 이 때 원본 영상을 확대하기 위한 기준 좌표는 2D 영상 편집 모드를 선택하기 위하여 입력한 점 (가)이다.As a result, as shown in the image (B) of FIG. 3, the line input-based image processing apparatus enlarges the side view of the vehicle, which is the original image, at a predetermined ratio by two dimensions. In this case, the reference coordinate for enlarging the original image is a point (a) entered to select a 2D image editing mode.

도 4는 도 2의 제스처에 따른 2차원 축소 편집 방법의 일 예를 나타낸 도면이다.4 is a diagram illustrating an example of a 2D reduction editing method according to the gesture of FIG. 2.

도 4의 (A)는 도 2 중 (B)에 따른 영상 축소를 위한 터치 동작을 수행하는 방법을 나타낸 것이다. 4A illustrates a method of performing a touch operation for reducing an image according to FIG. 2B.

도 4의 (A)에 도시된 바와 같이 사용자는 점 (다)를 찍어서 2D 영상 편집 모드를 선택한다. 마찬가지로 2D 영상 편집 모드를 선택하기 위하여 터치한 점 (다)는 원본 영상을 편집할 기준 좌표가 된다.As shown in FIG. 4A, the user selects a 2D image editing mode by taking a dot (C). Similarly, the point touched to select the 2D image editing mode (c) becomes a reference coordinate for editing the original image.

2D 영상 편집 모드 수행 후 사용자는 궤적 (라)에 따른 드래그, 제스처를 입력한다. (라) 제스처를 분석하면, 궤적 (라)에 따른 드래그는 드래그 시작 지점으로부터 X, Y 좌표가 모두 감소하는 방향으로 이루어졌음을 알 수 있다.After performing the 2D image editing mode, the user inputs a drag and a gesture according to the trajectory (d). (D) Analyzing the gesture, it can be seen that the drag along the trajectory (D) is made in a direction in which both the X and Y coordinates decrease from the drag start point.

그 결과 도 4의 (B)에서 살펴볼 수 있듯이, 선 입력 기반 영상 처리 장치는 원본 영상인 자동차 이미지를 소정의 비율로 2차원 축소하게 된다. 물론, 도 3과 마찬가지로 영상이 2차원 축소 편집되기 위한 기준 좌표는 점 (다)이다.As a result, as shown in FIG. 4B, the line input-based image processing apparatus reduces two-dimensionally the car image, which is the original image, by a predetermined ratio. Of course, as in FIG. 3, the reference coordinate for the 2D reduction editing is a point (c).

도 5는 본 발명에 따른 2차원 회전 편집 방법의 일 예를 나타낸 도면이다.5 is a diagram illustrating an example of a two-dimensional rotation editing method according to the present invention.

도 5의 (A)를 살펴보면 점 (마)와 (바)의 제스처가 존재하는 것을 알 수 있다. 여기서 점 (마)는 도 1의 S102 단계에서 2D 영상 편집 모드를 설정하기 위하여 사용자가 입력한 단일점에 해당한다. 한편, (바)의 제스처는 도 1의 S106 단계에서의 영상 편집을 위한 제스처로서, 원본 영상의 2차원 회전 편집을 명령하는 제스처에 해당한다.Looking at Figure 5 (A) it can be seen that the gesture of the point (e) and (bar) exist. Here, the point (e) corresponds to a single point input by the user in order to set the 2D image editing mode in step S102 of FIG. 1. Meanwhile, the gesture (bar) is a gesture for image editing in step S106 of FIG. 1 and corresponds to a gesture for commanding two-dimensional rotation editing of the original image.

(바) 제스처 또는 (바) 터치 궤적의 형태를 분석하면, 사용자는 터치스크린의 (X0, Y0) 좌표에 터치를 한 후, (X1, Y1), (X2, Y2) 등을 거쳐 (Xn,Yn)으로 드래그하여 반원형의 터치 궤적을 입력하였음을 알 수 있다.When analyzing the shape of the (bar) gesture or (bar) touch trajectory, the user touches the (X0, Y0) coordinates of the touch screen, and then (X1, Y1), (X2, Y2), and the like (Xn, It can be seen that a semi-circular touch trajectory is input by dragging to Yn).

도 5의 궤적 (바)를 분석하면 X 좌표와 Y 좌표가 일정한 방향성을 가지지 않음을 알 수 있다. 다만, 궤적 (바)는 시계 방향의 원호 형태의 특성을 가지는 경우에 해당한다. 선 입력 기반 영상 처리 장치는 궤적 (바)의 입력에 대응하여 원본 대상을 시계 방향으로 회전하는 편집을 수행한다. Analyzing the trajectory (bar) of Figure 5 it can be seen that the X coordinate and Y coordinate does not have a constant direction. However, the trajectory (bar) corresponds to the case having the characteristic of the arc shape in the clockwise direction. The line input based image processing apparatus performs editing to rotate the original object clockwise in response to the input of the trajectory (bar).

도 5의 (B)는 도 5 (A)의 원본 영상이 180도 회전되어 있는 결과 영상에 해당한다. 이때 180도 회전의 중심점은 점 (마), 즉 2D 영상 편집 모드를 설정하기 위하여 입력한 단일점이다. FIG. 5B corresponds to a resultant image in which the original image of FIG. 5A is rotated 180 degrees. At this time, the center point of the 180 degree rotation is a single point input for setting a point (e), that is, a 2D image editing mode.

정리하면, 선 입력 기반 영상 처리 장치는 (바)의 제스처 입력에 따라 현재 입력되어 있는 원본 영상을 영상 편집 모드를 선택하기 위하여 입력한 점을 중심으로 시계 방향으로 회전하는 편집을 수행하는 것이다. In summary, the line input based image processing apparatus performs editing that rotates the original image currently input according to the gesture input in the clockwise direction about the input point to select the image editing mode.

여기서 원본 영상이 회전되는 각도의 조절 방법으로는 아래와 같은 방법들이 존재한다. 먼저 일률적으로 (바)의 제스처가 입력되면 원본 영상을 시계 방향으로 90도 회전하는 방법이 있다. 나아가 궤적 (바)의 길이에 따라 회전 각도를 조절하는 방법을 생각할 수도 있다. 뿐만 아니라, 보다 정확한 회전 각도를 설정할 수 있도록 사용자에게 회전 각도 값을 별도로 입력받는 방법도 고려할 수 있다. 본 발명에 따른 선 입력 기반 영상 처리 장치는 위와 같은 방법 중 적어도 하나를 선택하여 회전 각도를 조절할 수 있다.Here, the following methods exist as a way of adjusting the angle at which the original image is rotated. First, when a gesture of (bar) is uniformly input, there is a method of rotating the original image 90 degrees clockwise. Furthermore, a method of adjusting the rotation angle according to the length of the trajectory (bar) may be considered. In addition, a method of receiving a rotation angle value separately from the user may be considered in order to set a more accurate rotation angle. The line input based image processing apparatus according to the present invention may adjust the rotation angle by selecting at least one of the above methods.

한편, 도 5에서는 시계 방향으로 회전하는 동작에 대하여 살펴보았다. 그러나 원본 이미지를 시계 반대 방향으로 회전하는 동작도 이와 유사하게 구현할 수 있다. 즉, 선 입력 기반 영상 처리 장치는 입력되는 터치 좌표들을 저장하여 반시계 방향의 원호 형태를 가지는지 판단한다. 이러한 조건이 만족되는 경우 선 입력 기반 영상 처리 장치는 현재 입력되어 있는 원본 영상을 반시계 방향으로 회전하는 편집을 수행하게 된다. 물론, 이때 회전의 중심이 되는 좌표도 점 (마)와 같이 영상 편집 모드를 선택하기 위하여 입력된 단일점이다.Meanwhile, in FIG. 5, the operation of rotating in the clockwise direction has been described. However, the operation of rotating the original image counterclockwise can be similarly implemented. That is, the line input-based image processing apparatus stores the input touch coordinates and determines whether the line input-based image processing apparatus has an anticlockwise arc shape. When such a condition is satisfied, the pre-input-based image processing apparatus performs editing to rotate the original image currently input counterclockwise. Of course, the coordinate that is the center of rotation is also a single point input to select the image editing mode as point (e).

도 6은 본 발명에 따른 원본 영상의 3D 영상 편집 모드 선택을 위한 터치 형태를 나타낸 도면이다.6 is a diagram illustrating a touch form for selecting a 3D image editing mode of an original image according to the present invention.

도 6의 (A)는 도 1의 S101 단계에서 원본 영상으로 이루어진 3차원 이미지를 나타낸 것이다. 도 6의 (A)가 디스플레이된 상태에서 선 입력 기반 영상 처리 장치는 사용자로부터 영상 편집 모드를 선택하기 위한 터치를 입력받게 된다.FIG. 6 (A) shows a three-dimensional image made up of an original image in step S101 of FIG. 1. In the state in which FIG. 6A is displayed, the line input-based image processing apparatus receives a touch for selecting an image editing mode from a user.

도 6의 (B)는 도 1의 S102 단계에서 입력된 사용자의 터치 형태가 단일 좌표가 아닌 선궤적인 경우를 나타낸다. FIG. 6B illustrates a case in which a user's touch type input in step S102 of FIG. 1 is linear rather than a single coordinate.

도 6 (B)에 나타낸 바와 같이 선 입력 기반 영상 처리 장치는 영상 편집 모드의 선택을 위하여 입력된 선궤적을 분석한다. 만일 입력된 선궤적이 직선이라면 입력된 직선의 궤적을 기준 축으로 설정한다. 만일 입력된 선궤적이 정확한 직선이 아니라면, 그 좌표 궤적의 근사치에 해당하는 특정한 직선을 산출하게 된다. 이와 같이 산출된 직선은 도 7의 평행이동 과정을 거쳐 3D 영상 편집 모드의 기준축으로 이용된다.As shown in FIG. 6B, the line input based image processing apparatus analyzes an input line trajectory for selecting an image editing mode. If the input line trajectory is a straight line, the trajectory of the input line is set as the reference axis. If the input line trajectory is not an exact straight line, a specific straight line corresponding to an approximation of the coordinate trajectory is calculated. The straight line calculated as described above is used as a reference axis of the 3D image editing mode through the parallel moving process of FIG. 7.

도 7은 본 발명에 따른 원본 영상의 3D 영상 편집 모드의 기준 축의 평행 이동을 나타낸 도면이다.7 is a diagram illustrating parallel movement of a reference axis of a 3D image editing mode of an original image according to the present invention.

먼저 선 입력 기반 영상 처리 장치의 3차원을 이루는 직교축을 설명한다. 먼저, X축과 Y축은 위에서도 살펴본 바와 같이 선 입력 기반 영상 처리 장치의 스크린을 이루는 직교축에 해당한다. 즉, 스크린의 가로를 X축, 스크린의 세로를 Y축으로 생각하게 된다.First, an orthogonal axis constituting three dimensions of the line input based image processing apparatus will be described. First, as described above, the X and Y axes correspond to orthogonal axes that form a screen of the line input based image processing apparatus. In other words, the width of the screen is regarded as the X axis, and the length of the screen is regarded as the Y axis.

3차원 영상을 편집하기 위하여는 Z축이 필요로 하는데, 본 발명에 따른 선 입력 기반 영상 처리 장치는 스크린과 직각을 이루고, 영상 처리 장치의 사용자쪽으로 나오는 방향을 양의 Z축으로 생각하기로 한다. 이상의 X, Y, Z 축을 기초로 하여 기준 축의 평행 이동을 설명하기로 한다.In order to edit a 3D image, a Z axis is required. The line input based image processing apparatus according to the present invention forms a right angle with the screen, and considers the direction toward the user of the image processing apparatus as a positive Z axis. . Based on the above X, Y, and Z axes, the parallel movement of the reference axis will be described.

도 6 (B)에서 살펴본 바와 같이 선 입력 기반 영상 처리 장치는 사용자로부터 입력받은 직선 또는 좌표 궤적의 근사치에 해당하는 특정 직선을 산출하였다. 도 7의 (A)에는 입력된 3D 영상과 함께 선 입력 기반 영상 처리 장치가 산출한 직 선이 도시되어 있는 것을 알 수 있다. As illustrated in FIG. 6B, the line input based image processing apparatus has calculated a specific straight line corresponding to an approximation of a straight line or a coordinate trajectory input from a user. FIG. 7A shows a straight line calculated by the line input-based image processing device together with the input 3D image.

이 때 산출된 직선의 Z 좌표는 선 입력 기반 영상 처리 장치가 설정한 3차원 공간의 Z 좌표 중 가장 큰 값(Zmax)을 가지는 것으로 생각한다. 선 입력 기반 영상 처리 장치는 산출된 직선을 Zmax로부터 음의 Z 축 방향으로 평행 이동시킨다. The calculated Z coordinate of the straight line is considered to have the largest value Zmax among the Z coordinates of the three-dimensional space set by the line input based image processing apparatus. The line input based image processing apparatus moves the calculated straight line in parallel in the negative Z axis direction from Zmax.

상기 Z축 방향으로 평행 이동은 터치 패널의 디스플레이 상의 원본 영상에 존재하는 물체와 처음으로 접하는 지점까지 이루어진다. 이 지점의 Z 좌표를 Ztan으로 정의하기로 한다. The parallel movement in the Z-axis direction is made up to the point of first contact with the object existing in the original image on the display of the touch panel. The Z coordinate of this point is defined as Ztan.

이와 같이 평행 이동 결과에 따른 직선이 3차원 영상 편집을 위한 기준 선이 되는 것이다. 즉, 3차원 영상 편집을 위한 기준 선은 사용자로부터 입력받은 터치에 의하여 Y= aX +B (여기서, a, b는 임의의 실수) 수식과 Z=Ztan의 관계에 의하여 특정된다.As such, a straight line according to the result of the parallel movement becomes a reference line for 3D image editing. That is, the reference line for the 3D image editing is specified by the relationship between Y = aX + B (where a and b are arbitrary real numbers) and Z = Ztan by a touch input from the user.

도 8은 본 발명에 따른 원본 영상의 3D 영상의 회전 편집 방법을 나타낸 도면이다.8 is a diagram illustrating a rotation editing method of a 3D image of an original image according to the present invention.

도 8의 (A)에서 도시된 바와 같이 선 입력 기반 영상 처리 장치는 사용자로부터 시계방향으로 원호를 그리는 제스처 입력을 입력받는다.As shown in FIG. 8A, the line input based image processing apparatus receives a gesture input of drawing an arc in a clockwise direction from a user.

이와 같은 제스처 입력을 받은 선 입력 기반 영상 처리 장치는 도 7등에서 특정된 기준 축을 기준으로 원본 영상을 시계 방향으로 회전이동하는 편집을 수행한다. The line input-based image processing apparatus that receives the gesture input performs an edit that rotates the original image clockwise based on the reference axis specified in FIG. 7.

즉, 터치 패널에 디스플레이된 영상의 물체 중에서 Z축에 대하여 평행 이동 한 기준 축과 최초로 접한 물체는 기준 축에 대하여 시계 방향으로 3차원 공간에서 회전하게 된다. That is, among the objects of the image displayed on the touch panel, an object first contacted with the reference axis parallel to the Z axis rotates in a three-dimensional space in a clockwise direction with respect to the reference axis.

이러한 3D 영상 회전 편집과 관련하여 원본 영상이 회전되는 각도의 조절 방법으로는 위에서 설명한 2D 영상 회전 편집 방법들이 동일하게 적용될 수 있다. 예를 들어, 일률적으로 원본 영상을 시계 방향으로 90도 회전하는 방법이 있다. 또한, 입력된 궤적의 길이에 따라 회전 각도를 조절하는 방법을 생각할 수도 있다. 뿐만 아니라, 보다 정확한 회전 각도를 설정할 수 있도록 사용자에게 회전 각도값을 별도로 입력받는 방법도 존재한다. In relation to the 3D image rotation editing, the above-described 2D image rotation editing methods may be applied to the method of adjusting the angle at which the original image is rotated. For example, there is a method of uniformly rotating the original image 90 degrees clockwise. In addition, a method of adjusting the rotation angle according to the length of the input trajectory may be considered. In addition, there is a method of receiving a rotation angle value separately from the user so that a more accurate rotation angle can be set.

물론, 위에서 설명한 바와 같이 원본 영상을 시계 반대 방향으로 회전하는 동작도 이와 유사하게 구현할 수 있다.Of course, as described above, the operation of rotating the original image counterclockwise may be similarly implemented.

도 9는 본 발명의 다른 실시예에 따른 선 입력 기반 영상 처리 장치의 구성을 나타낸 도면이다.9 is a diagram illustrating a configuration of a line input based image processing apparatus according to another embodiment of the present invention.

도 9에 도시된 바와 같이 선 입력 기반 영상 처리 장치(1)는 중앙처리장치(10), I/O 제어부(20), 터치 센싱부(30), 터치스크린(40), 디스플레이(50), 키보드(60), 마우스(70), 주메모리(80), 보조처리장치(90) 등으로 구성될 수 있다.As shown in FIG. 9, the line input based image processing apparatus 1 includes a central processing unit 10, an I / O control unit 20, a touch sensing unit 30, a touch screen 40, a display 50, The keyboard 60, the mouse 70, the main memory 80, the auxiliary processor 90, and the like may be configured.

중앙처리장치(10)는 선 입력 기반 영상 처리 장치(1)의 구성 요소 간의 제어 및 데이터 입출력 등을 수행하는 구성 요소이다. 이러한, 중앙처리장치(10)는 단일 칩 프로세서이거나, 멀티 칩 프로세서 등일 수 있다. The CPU 10 is a component that performs control and data input / output between components of the line input based image processing apparatus 1. The central processing unit 10 may be a single chip processor or a multi chip processor.

중앙처리장치(10)는 운영체제(OS : operating system) 등과 함께 응용 프로 그램(application)을 수행하고 데이터를 생성하고 이용하는 동작을 수행한다. 이러한 응용 프로그램은 보조처리장치(90) 또는 주메모리(80) 내에 상주할 수 있다. The CPU 10 performs an application along with an operating system (OS) and generates and uses data. Such an application program may reside in the coprocessor 90 or main memory 80.

여기서, 주메모리(80)는 일반 PC 등의 RAM(random access memory)과 같은 메모리 등을 의미하며, 보조처리장치(90)는 CD-ROM(compact disk - read only memory), 플로피 디스크, 하드 디스크 등의 구성 요소 장치를 의미한다. Here, the main memory 80 refers to a memory such as random access memory (RAM) such as a general PC, and the auxiliary processing unit 90 may include a compact disk-read only memory (CD-ROM), a floppy disk, a hard disk. It means a component device such as.

선 입력 기반 영상 처리 장치(1)의 중앙처리장치(10)는 입력과 출력을 제어하는 I/O 제어부(20)를 통하여 터치스크린(40), 디스플레이(50), 키보드(60), 마우스(70) 등의 입출력 장치들과 연결되어 있다. I/O 제어부(20)는 하나 이상의 입출력 장치를 제어하기 위한 구성 요소에 해당한다. I/O 제어부(20)와 입출력 장치 간의 데이터 링킹 방식으로는 PS/2, USB(universal serial bus), IR(infrared), RF(radio frequency), 블루투스(bluetooth) 방식들이 존재한다.The central processing unit 10 of the line input based image processing apparatus 1 may include a touch screen 40, a display 50, a keyboard 60, and a mouse through an I / O control unit 20 that controls input and output. 70) is connected to the input and output devices. The I / O control unit 20 corresponds to a component for controlling one or more input / output devices. Data linking methods between the I / O control unit 20 and the input / output device include PS / 2, universal serial bus (USB), infrared (IR), radio frequency (RF), and Bluetooth (Bluetooth) methods.

디스플레이(50)는 사용자에게 각종 정보를 표시하도록 구성되는 구성 요소에 해당한다. 예로서, 디스플레이는 CRT(cathode ray tube) 디스플레이, PDP(plasma display panel) 디스플레이, LCD(liquid crystal display) 디스플레이 등이 있다. The display 50 corresponds to a component configured to display various information to a user. As an example, the display may be a cathode ray tube (CRT) display, a plasma display panel (PDP) display, a liquid crystal display (LCD) display, or the like.

선 입력 기반 영상 처리 장치(1)는 터치 센싱부(30)와 결합되어 동작하는 터치스크린(40)을 포함한다. 터치스크린(40)은 일반적으로 디스플레이(50)의 전면에 위치되는 투명 패널에 해당하나, 본 발명은 이러한 위치에 한정되지 않는다. 터치스크린(40)은 터치 센싱부(30)와 결합하여 그 스크린(40) 상에서 사용자 등으로부 터 입력되는 터치들의 위치와 그 크기 등을 인식한다. The line input based image processing apparatus 1 includes a touch screen 40 that is operated in combination with the touch sensing unit 30. The touch screen 40 generally corresponds to a transparent panel located in front of the display 50, but the present invention is not limited to this position. The touch screen 40 is combined with the touch sensing unit 30 to recognize the position and size of touches input from the user and the like on the screen 40.

이와 같이 입력되는 터치들의 위치 및 그 크기 등은 I/O 제어부(20) 등을 통하여 중앙처리장치(10)로 전달된다. 중앙처리장치(10)는 주메모리(80) 또는 보조기억장치(90)에 저장되어 있는 각종 응용 프로그램의 요청에 따라 전달된 터치들의 위치 및 크기 등의 정보에 따른 처리를 수행한다.The position and size of the touches input as described above are transmitted to the CPU 10 through the I / O controller 20 or the like. The central processing unit 10 performs processing according to information such as the position and size of touches transmitted according to a request of various application programs stored in the main memory 80 or the auxiliary storage device 90.

이러한 구성 요소를 구비하고 있는 선 입력 기반 영상 처리 장치(1)의 동작에 대하여 살펴본다.An operation of the line input based image processing apparatus 1 having such components will be described.

중앙처리장치(10)는 주메모리(80) 또는 보조기억장치(90)에 상주하고 있는 응용 프로그램의 제어 하에 편집 대상이 되는 원본 이미지(source image)를 입력받는다. 사용자는 키보드(60), 마우스(70), 스캐너(비도시) 등의 입력 장치를 이용하여 원본 이미지를 선택하거나 또는 직접 작성할 수 있다.The CPU 10 receives a source image to be edited under the control of an application program residing in the main memory 80 or the auxiliary memory device 90. The user may select the original image or directly create it by using an input device such as a keyboard 60, a mouse 70, a scanner (not shown), or the like.

또한, 디스플레이(50)에 출력된 원본 이미지를 확인한 사용자는 선 입력 기반 영상 처리 장치(1)의 터치스크린(touch screen)(40) 상에 영상 편집 모드 선택을 위한 터치를 입력한다.In addition, the user who checks the original image output on the display 50 inputs a touch for selecting an image editing mode on the touch screen 40 of the line input based image processing apparatus 1.

중앙처리장치(10)는 터치스크린(40) 상에서 입력된 터치의 형태가 단일점인 경우 2D 영상 편집 모드를 수행하는 한편, 그 단일 터치 좌표를 2D 영상 편집 모드의 기준 좌표로 설정한다.The central processing unit 10 performs the 2D image editing mode when the type of touch input on the touch screen 40 is a single point, and sets the single touch coordinate as the reference coordinate of the 2D image editing mode.

2D 영상 편집 모드 동안 사용자는 터치스크린(40)에 영상 편집을 명령하는 제스처를 입력할 수 있다. 2D 영상 편집 모드 중 입력된 터치 궤적, 즉 2D 터치 제스처에 따라 중앙처리장치(10)는 원본 이미지를 2차원적으로 확대, 축소 또는 회 전하는 등의 그래픽 작업을 수행한다. During the 2D image editing mode, the user may input a gesture for commanding image editing on the touch screen 40. According to the touch trajectory input in the 2D image editing mode, that is, the 2D touch gesture, the CPU 10 performs graphic operations such as enlarging, reducing or rotating the original image in two dimensions.

영상 편집 모드 선택 단계에서 터치스크린(40) 상에 입력된 터치가 선궤적일 경우, 중앙처리장치(10)는 3D 영상 편집 모드를 수행하는 한편, 터치 궤적에 가장 근사한 직선을 산출한다. When the touch input on the touch screen 40 is a pre trajectory in the step of selecting an image editing mode, the CPU 10 performs a 3D image editing mode and calculates a straight line that is closest to the touch trajectory.

또한, 중앙처리장치(10)는 산출한 직선을 원본 이미지와 접할 때까지 Z축 방향으로 평행 이동한다. 이러한 평행 이동 결과 처음으로 원본 영상과 접할 때의 직선을 3D 영상 편집의 기준선으로 설정한다.Further, the central processing unit 10 moves in parallel in the Z-axis direction until the calculated straight line is in contact with the original image. As a result of such a parallel movement, a straight line at the first contact with the original image is set as a reference line for 3D image editing.

3D 영상 편집 모드 동안 사용자는 터치스크린(40)에 소정의 터치 궤적을 입력할 수 있다. 3D 영상 편집 모드 중의 입력된 터치 궤적, 즉 3D 터치 제스처에 따라 중앙처리장치(10)는 상기 기준선을 축으로 하여 원본 영상의 객체를 회전하는 등의 그래픽 작업을 수행한다. During the 3D image editing mode, the user may input a predetermined touch trace on the touch screen 40. According to the input touch trajectory during the 3D image editing mode, that is, the 3D touch gesture, the CPU 10 performs a graphic operation such as rotating an object of the original image based on the reference line.

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의하여 정해져야 한다.Although the present invention has been described in detail through the representative embodiments, those skilled in the art to which the present invention pertains can make various modifications without departing from the scope of the present invention. I will understand. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims below and equivalents thereof.

도 1은 본 발명의 일 실시예에 따른 선 입력 기반 멀티 터치 방법을 나타낸 도면.1 is a diagram illustrating a line input based multi-touch method according to an embodiment of the present invention.

도 2는 본 발명에 따른 원본 영상의 2차원 확대 및 축소 편집을 위한 제스처 입력을 나타낸 도면.2 is a view showing a gesture input for two-dimensional enlargement and reduction editing of the original image according to the present invention.

도 3은 도 2의 제스처에 따른 2차원 확대 편집 방법의 일 예를 나타낸 도면.3 is a diagram illustrating an example of a two-dimensional enlargement editing method according to the gesture of FIG. 2.

도 4는 도 2의 제스처에 따른 2차원 축소 편집 방법의 일 예를 나타낸 도면.4 is a diagram illustrating an example of a two-dimensional reduction editing method according to the gesture of FIG. 2.

도 5는 본 발명에 따른 2차원 회전 편집 방법의 일 예를 나타낸 도면.5 is a view showing an example of a two-dimensional rotation editing method according to the present invention.

도 6은 본 발명에 따른 원본 영상의 3D 영상 편집 모드 선택을 위한 터치 형태를 나타낸 도면.6 is a view showing a touch form for selecting a 3D image editing mode of the original image according to the present invention.

도 7은 본 발명에 따른 원본 영상의 3D 영상 편집 모드의 기준 축의 평행 이동을 나타낸 도면.7 is a view showing the parallel movement of the reference axis of the 3D image editing mode of the original image according to the present invention.

도 8은 본 발명에 따른 원본 영상의 3D 영상의 회전 편집 방법을 나타낸 도면.8 is a view showing a rotation editing method of a 3D image of an original image according to the present invention.

도 9는 본 발명의 다른 실시예에 따른 선 입력 기반 영상 처리 장치의 구성을 나타낸 도면.9 is a diagram illustrating a configuration of a line input based image processing apparatus according to another embodiment of the present invention.

<도면의 주요 부분에 대한 부호 설명><Description of the symbols for the main parts of the drawings>

1 : 선 입력 기반 영상 처리 장치1: Line input based image processing device

10 : 중앙처리장치10: central processing unit

20 : I/O 제어부20: I / O control

30 : 터치 센싱부30: touch sensing unit

40 터치스크린40 touch screen

50 : 디스플레이50: display

60 : 키보드60: keyboard

70 : 마우스70: mouse

80 : 주메모리80: main memory

90 : 보조기억장치90: auxiliary memory device

Claims (20)

선 입력된 명령 기반의 영상 처리 방법에 있어서,In the pre-input command-based image processing method, 선 입력 기반 영상 처리 장치는 터치스크린 상의 터치 궤적을 분석하여 영상 편집 모드를 선택하고 상기 터치 궤적을 기준 좌표로 설정하는 단계;The line input based image processing apparatus may include: analyzing a touch trace on a touch screen, selecting an image editing mode, and setting the touch trace as reference coordinates; 상기 영상 편집 모드 선택 후 상기 선 입력 기반 영상 처리 장치는 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계를 포함하는 선 입력 기반 영상 처리 방법.And selecting, by the line input based image processing apparatus, editing the original image according to an image editing gesture received from a user. 제1항에 있어서,The method of claim 1, 상기 영상 편집 모드 선택 단계는,The image editing mode selection step, 상기 터치스크린 상의 터치 궤적이 단일 좌표인 경우 이차원 영상 편집 모드를 선택하고, 상기 터치스크린 상의 터치 궤적이 터치 궤적인 경우 삼차원 영상 편집 모드를 선택하는 것을 특징으로 하는 선 입력 기반 영상 처리 방법.And selecting a two-dimensional image editing mode when the touch trajectory on the touch screen is a single coordinate, and selecting a three-dimensional image editing mode when the touch trajectory on the touch screen is a touch trajectory. 제2항에 있어서,The method of claim 2, 상기 터치 궤적을 기준 좌표로 설정하는 단계는,The setting of the touch trace as reference coordinates may include: 상기 터치스크린 상의 터치 궤적이 단일점인 경우 상기 단일점을 이차원 영 상 편집 모드의 기준 좌표로 설정하는 것을 특징으로 하는 선 입력 기반 영상 처리 방법.And the single point is set as a reference coordinate of a two-dimensional image editing mode when the touch trace on the touch screen is a single point. 제3항에 있어서,The method of claim 3, 상기 이차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는,When the two-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user, 상기 사용자로부터 X, Y 좌표의 절대값이 모두 증가하는 방향이거나, X 좌표의 절대값이 증가하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 증가하는 방향의 영상 편집 제스처를 입력받는 단계;From the user, the direction in which the absolute values of the X and Y coordinates all increase, or the absolute value of the X coordinate increases and the absolute value of the Y coordinate is 0, or, on the contrary, the absolute value of the X coordinate is 0 and Y Receiving an image editing gesture in a direction in which an absolute value of coordinates increases; 상기 선 입력 기반 영상 처리 장치는 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 확대 편집하는 단계를 포함하는 선 입력 기반 영상 처리 방법.The line input based image processing apparatus includes expanding and editing the original image at a predetermined ratio around the reference coordinate. 제3항에 있어서,The method of claim 3, 상기 이차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는,When the two-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user, 상기 사용자로부터 X, Y 좌표의 절대값이 모두 감소하는 방향이거나, X 좌표의 절대값이 감소하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표 의 절대값이 0을 유지하고 Y 좌표의 절대값이 감소하는 방향의 영상 편집 제스처를 입력받는 단계;The direction in which the absolute values of the X and Y coordinates all decrease from the user, or the absolute value of the X coordinate decreases and the absolute value of the Y coordinate is 0, or, on the contrary, the absolute value of the X coordinate is 0 and Y Receiving an image editing gesture in a direction in which an absolute value of coordinates decreases; 상기 선 입력 기반 영상 처리 장치는 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 축소 편집하는 단계를 포함하는 선 입력 기반 영상 처리 방법.The line input based image processing apparatus includes reducing and editing the original image at a predetermined ratio based on the reference coordinate. 제3항에 있어서,The method of claim 3, 상기 이차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는,When the two-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user, 상기 사용자로부터 원호 형태의 영상 편집 제스처를 입력받는 단계;Receiving an image editing gesture in the form of an arc from the user; 상기 선 입력 기반 영상 처리 장치는 상기 기준 좌표를 중심으로 원본 영상을 회전 편집하는 단계를 포함하는 선 입력 기반 영상 처리 방법.The line input based image processing apparatus includes rotating and editing the original image based on the reference coordinate. 제2항에 있어서,The method of claim 2, 상기 터치 궤적을 기준 좌표로 설정하는 단계는,The setting of the touch trace as reference coordinates may include: 상기 터치스크린 상의 입력된 터치 궤적에 근사한 직선을 구하고, 상기 직선을 상기 원본 영상에 접하도록 터치스크린의 수직 방향으로 평행 이동시킨 직선을 삼차원 영상 편집 모드의 기준선으로 설정하는 것을 특징으로 하는 선 입력 기반 영상 처리 방법.Based on the line input, a straight line approximating the input touch trajectory on the touch screen is obtained, and a straight line in which the straight line is moved in parallel in the vertical direction of the touch screen to be in contact with the original image is set as a reference line of a 3D image editing mode. Image processing method. 제7항에 있어서,The method of claim 7, wherein 상기 삼차원 영상 편집 모드가 선택된 경우 상기 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 단계는,When the three-dimensional image editing mode is selected, the step of editing the original image according to the image editing gesture received from the user, 상기 사용자로부터 원호 형태의 영상 편집 제스처를 입력받는 단계;Receiving an image editing gesture in the form of an arc from the user; 상기 선 입력 기반 영상 처리 장치는 상기 기준선을 중심으로 삼차원 원본 영상의 객체를 회전 편집하는 단계를 포함하는 선 입력 기반 영상 처리 방법.The line input based image processing apparatus includes rotating and editing an object of a 3D original image based on the reference line. 제6항 또는 제8항에 있어서,The method according to claim 6 or 8, 상기 사용자로부터 입력된 영상 편집 제스처 원호의 방향에 따라 원본 영상을 회전 편집하는 방향이 결정되는 것을 특징으로 하는 선 입력 기반 영상 처리 방법.And a direction in which the original image is rotated and edited is determined according to the direction of the image editing gesture arc input from the user. 제6항 또는 제8항에 있어서,The method according to claim 6 or 8, 상기 사용자로부터 원본 영상을 회전할 각도를 입력받는 단계를 더 포함하고, And receiving an angle for rotating the original image from the user. 상기 원본 영상 회전 편집 단계는 상기 입력받은 회전 각도만큼 원본 영상을 회전하는 것을 특징으로 하는 선 입력 기반 영상 처리 방법.And editing the original image by rotating the original image by the input rotation angle. 선 입력된 명령 기반의 영상 처리 장치에 있어서,In the pre-input command-based image processing apparatus, 사용자로부터 터치 궤적을 입력받기 위한 터치스크린; 과A touch screen for receiving a touch trace from a user; and 상기 터치스크린에 입력된 터치 궤적을 분석하여 영상 편집 모드를 선택하고 상기 터치 궤적을 기준 좌표로 설정하는 한편, 사용자로부터 입력받은 영상 편집 제스처에 따라 원본 영상을 편집하는 중앙처리장치를 포함하는 선 입력 기반 영상 처리 장치.Line input including a central processing unit for selecting an image editing mode by analyzing a touch trace input on the touch screen, setting the touch trace as a reference coordinate, and editing an original image according to an image editing gesture received from a user. Based image processing device. 제11항에 있어서,The method of claim 11, 상기 중앙처리장치는,The central processing unit, 상기 터치스크린 상의 터치 궤적이 단일 좌표인 경우 이차원 영상 편집 모드를 선택하고, 상기 터치스크린 상의 터치 궤적이 터치 궤적인 경우 삼차원 영상 편집 모드를 선택하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.And selecting a two-dimensional image editing mode when the touch trajectory on the touch screen is a single coordinate, and selecting a three-dimensional image editing mode when the touch trajectory on the touch screen is a touch trajectory. 제12항에 있어서,The method of claim 12, 상기 중앙처리장치는, The central processing unit, 상기 터치스크린 상의 터치 궤적이 단일점인 경우 상기 단일점을 이차원 영상 편집 모드의 기준 좌표로 설정하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.And the single point is set as a reference coordinate of a two-dimensional image editing mode when the touch trajectory on the touch screen is a single point. 제13항에 있어서,The method of claim 13, 상기 중앙처리장치는,The central processing unit, 상기 사용자로부터 X, Y 좌표의 절대값이 모두 증가하는 방향이거나, X 좌표의 절대값이 증가하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 증가하는 방향의 영상 편집 제스처를 입력받은 경우 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 확대 편집하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.From the user, the direction in which the absolute values of the X and Y coordinates all increase, or the absolute value of the X coordinate increases and the absolute value of the Y coordinate is 0, or, on the contrary, the absolute value of the X coordinate is 0 and Y The line input-based image processing apparatus according to claim 1, wherein the original image is enlarged and edited at a predetermined ratio based on the reference coordinate when the image editing gesture in the direction in which the absolute value of the coordinate is increased is input. 제13항에 있어서,The method of claim 13, 상기 중앙처리장치는,The central processing unit, 상기 사용자로부터 X, Y 좌표의 절대값이 모두 감소하는 방향이거나, X 좌표의 절대값이 감소하고 Y 좌표의 절대값은 0을 유지하는 방향이거나, 반대로 X 좌표의 절대값이 0을 유지하고 Y 좌표의 절대값이 감소하는 방향의 영상 편집 제스처를 입력받은 경우 상기 기준 좌표를 중심으로 원본 영상을 소정의 비율로 축소 편집하 는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.The direction in which the absolute values of the X and Y coordinates all decrease from the user, or the absolute value of the X coordinate is decreased and the absolute value of the Y coordinate is 0, or the absolute value of the X coordinate is 0 and Y is maintained. The line input-based image processing apparatus according to claim 1, wherein the original image is reduced and edited at a predetermined ratio based on the reference coordinate when the image editing gesture in the direction in which the absolute value of the coordinate is decreased is input. 제13항에 있어서,The method of claim 13, 상기 중앙처리장치는,The central processing unit, 상기 사용자로부터 원호 형태의 영상 편집 제스처를 입력받은 경우 상기 기준 좌표를 중심으로 원본 영상을 회전 편집하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.Line input based image processing apparatus, characterized in that for rotating the original image around the reference coordinates when the user receives an image editing gesture in the form of an arc. 제12항에 있어서,The method of claim 12, 상기 중앙처리장치는,The central processing unit, 상기 터치스크린 상의 입력된 터치 궤적에 근사한 직선을 구하고, 상기 직선을 상기 원본 영상에 접하도록 터치스크린의 수직 방향으로 평행 이동시킨 직선을 삼차원 영상 편집 모드의 기준선으로 설정하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.Based on the line input, a straight line approximating the input touch trajectory on the touch screen is obtained, and a straight line in which the straight line is moved in parallel in the vertical direction of the touch screen to be in contact with the original image is set as a reference line of a 3D image editing mode. Image processing device. 제17항에 있어서,The method of claim 17, 상기 중앙처리장치는,The central processing unit, 상기 사용자로부터 원호 형태의 영상 편집 제스처를 입력받은 경우, 상기 선 입력 기반 영상 처리 장치는 상기 기준선을 중심으로 삼차원 원본 영상의 객체를 회전 편집하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.The line input based image processing apparatus of claim 3, wherein the line input based image processing apparatus rotates and edits an object of a 3D original image based on the reference line when the image editing gesture in the form of an arc is received from the user. 제16항 또는 제18항에 있어서,The method according to claim 16 or 18, 상기 중앙처리장치는,The central processing unit, 상기 사용자로부터 입력된 영상 편집 제스처 원호의 방향에 따라 원본 영상을 회전 편집하는 방향을 결정하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.And a direction of rotating and editing the original image according to the direction of the image editing gesture arc input from the user. 제16항 또는 제18항에 있어서,The method according to claim 16 or 18, 상기 중앙처리장치는,The central processing unit, 상기 사용자로부터 원본 영상을 회전할 각도를 입력받아 그 각도만큼 원본 영상을 회전하는 것을 특징으로 하는 선 입력 기반 영상 처리 장치.And receiving an angle to rotate the original image from the user, and rotating the original image by the angle.
KR1020080042372A 2008-05-07 2008-05-07 Method and Apparatus Processing Image Based on the First Inputted Command KR100952306B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080042372A KR100952306B1 (en) 2008-05-07 2008-05-07 Method and Apparatus Processing Image Based on the First Inputted Command

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080042372A KR100952306B1 (en) 2008-05-07 2008-05-07 Method and Apparatus Processing Image Based on the First Inputted Command

Publications (2)

Publication Number Publication Date
KR20090116435A true KR20090116435A (en) 2009-11-11
KR100952306B1 KR100952306B1 (en) 2010-04-13

Family

ID=41601206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080042372A KR100952306B1 (en) 2008-05-07 2008-05-07 Method and Apparatus Processing Image Based on the First Inputted Command

Country Status (1)

Country Link
KR (1) KR100952306B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086028A (en) * 2009-10-14 2011-04-28 Sony Corp Input apparatus, display apparatus with input function, input method, and control method of display apparatus with input function
KR101032446B1 (en) * 2009-11-26 2011-05-03 광주과학기술원 Apparatus and method for detecting a vertex on the screen of a mobile terminal
WO2013133895A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Fanning user interface controls for a media editing application
WO2013133893A1 (en) * 2012-03-06 2013-09-12 Apple Inc. User interface tools for cropping and straightening image
WO2014065462A1 (en) * 2012-10-25 2014-05-01 You Wonkee Multi-touch control system
US9105121B2 (en) 2012-03-06 2015-08-11 Apple Inc. Image editing with user interface controls overlaid on image
US9189876B2 (en) 2012-03-06 2015-11-17 Apple Inc. Fanning user interface controls for a media editing application
US9851889B2 (en) 2011-09-16 2017-12-26 Kt Corporation Apparatus and method for rotating a displayed image by using multi-point touch inputs
US9886931B2 (en) 2012-03-06 2018-02-06 Apple Inc. Multi operation slider
US10936173B2 (en) 2012-03-06 2021-03-02 Apple Inc. Unified slider control for modifying multiple image properties
KR102447307B1 (en) * 2021-07-09 2022-09-26 박재범 Composing method for multimedia works using touch interface

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102030754B1 (en) 2012-03-08 2019-10-10 삼성전자주식회사 Image edting apparatus and method for selecting region of interest

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030071080A (en) * 2002-02-27 2003-09-03 주식회사 엘지이아이 Display zoom apparatus and method for personal digital assistant
JP4100195B2 (en) * 2003-02-26 2008-06-11 ソニー株式会社 Three-dimensional object display processing apparatus, display processing method, and computer program
KR100791287B1 (en) * 2005-10-26 2008-01-04 삼성전자주식회사 Apparatus and method for controlling three-dimensional motion of graphic object
KR20070113025A (en) * 2006-05-24 2007-11-28 엘지전자 주식회사 Apparatus and operating method of touch screen

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086028A (en) * 2009-10-14 2011-04-28 Sony Corp Input apparatus, display apparatus with input function, input method, and control method of display apparatus with input function
KR101032446B1 (en) * 2009-11-26 2011-05-03 광주과학기술원 Apparatus and method for detecting a vertex on the screen of a mobile terminal
US9851889B2 (en) 2011-09-16 2017-12-26 Kt Corporation Apparatus and method for rotating a displayed image by using multi-point touch inputs
US9299168B2 (en) 2012-03-06 2016-03-29 Apple Inc. Context aware user interface for image editing
WO2013133895A1 (en) * 2012-03-06 2013-09-12 Apple Inc. Fanning user interface controls for a media editing application
GB2513766A (en) * 2012-03-06 2014-11-05 Apple Inc User interface tools for cropping and straightening image
GB2513763A (en) * 2012-03-06 2014-11-05 Apple Inc Fanning user interface controls for a media editing application
US8971623B2 (en) 2012-03-06 2015-03-03 Apple Inc. Overlaid user interface tools for applying effects to image
US9041727B2 (en) 2012-03-06 2015-05-26 Apple Inc. User interface tools for selectively applying effects to image
US9105121B2 (en) 2012-03-06 2015-08-11 Apple Inc. Image editing with user interface controls overlaid on image
US9159144B2 (en) 2012-03-06 2015-10-13 Apple Inc. Color adjustors for color segments
US9189876B2 (en) 2012-03-06 2015-11-17 Apple Inc. Fanning user interface controls for a media editing application
WO2013133893A1 (en) * 2012-03-06 2013-09-12 Apple Inc. User interface tools for cropping and straightening image
US9569078B2 (en) 2012-03-06 2017-02-14 Apple Inc. User interface tools for cropping and straightening image
US11481097B2 (en) 2012-03-06 2022-10-25 Apple Inc. User interface tools for cropping and straightening image
US9886931B2 (en) 2012-03-06 2018-02-06 Apple Inc. Multi operation slider
US10282055B2 (en) 2012-03-06 2019-05-07 Apple Inc. Ordered processing of edits for a media editing application
GB2513766B (en) * 2012-03-06 2019-05-29 Apple Inc User interface tools for cropping and straightening image
US10545631B2 (en) 2012-03-06 2020-01-28 Apple Inc. Fanning user interface controls for a media editing application
US10552016B2 (en) 2012-03-06 2020-02-04 Apple Inc. User interface tools for cropping and straightening image
US10936173B2 (en) 2012-03-06 2021-03-02 Apple Inc. Unified slider control for modifying multiple image properties
US10942634B2 (en) 2012-03-06 2021-03-09 Apple Inc. User interface tools for cropping and straightening image
US11119635B2 (en) 2012-03-06 2021-09-14 Apple Inc. Fanning user interface controls for a media editing application
WO2014065462A1 (en) * 2012-10-25 2014-05-01 You Wonkee Multi-touch control system
KR102447307B1 (en) * 2021-07-09 2022-09-26 박재범 Composing method for multimedia works using touch interface
WO2023282519A1 (en) * 2021-07-09 2023-01-12 박재범 Touch input-based multimedia work creation method

Also Published As

Publication number Publication date
KR100952306B1 (en) 2010-04-13

Similar Documents

Publication Publication Date Title
KR100952306B1 (en) Method and Apparatus Processing Image Based on the First Inputted Command
US7451408B2 (en) Selecting moving objects on a system
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
US20180067572A1 (en) Method of controlling virtual object or view point on two dimensional interactive display
EP2256614B1 (en) Display control apparatus, display control method, and computer program
US8525854B2 (en) Display device and screen display method
US9524097B2 (en) Touchscreen gestures for selecting a graphical object
US20170178284A1 (en) Apparatus and method for controlling motion-based user interface
KR20120109464A (en) A user interface
WO2010032354A1 (en) Image object control system, image object control method, and program
EP2390777A2 (en) Touch interface for three-dimensional display control
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
JP2011028524A (en) Information processing apparatus, program and pointing method
US20130321350A1 (en) Virtual ruler for stylus input
CN111033572A (en) Method and apparatus for detecting planes and/or quadtrees used as virtual substrates
TW201319921A (en) Method for screen control and method for screen display on a touch screen
JP5657866B2 (en) Input device, pointer display position adjustment method and program
JP5275429B2 (en) Information processing apparatus, program, and pointing method
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
JP5993072B1 (en) Electronic device user interface, input processing method, and electronic device
EP2669783A1 (en) Virtual ruler for stylus input
JP2000020243A (en) Cursor control method, storage medium and information processor
KR20140131072A (en) Electronic device and method for manipulaton screen of electronic device based control motion
JP6021460B2 (en) Drawing method, program, and apparatus
KR102392675B1 (en) Interfacing method for 3d sketch and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130401

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140402

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee