KR20110066880A - 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템 - Google Patents

터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템

Info

Publication number
KR20110066880A
KR20110066880A KR1020100126290A KR20100126290A KR20110066880A KR 20110066880 A KR20110066880 A KR 20110066880A KR 1020100126290 A KR1020100126290 A KR 1020100126290A KR 20100126290 A KR20100126290 A KR 20100126290A KR 20110066880 A KR20110066880 A KR 20110066880A
Authority
KR
South Korea
Prior art keywords
touch
user
user interaction
sensitive display
movement
Prior art date
Application number
KR1020100126290A
Other languages
English (en)
Other versions
KR101794498B1 (ko
Inventor
세드릭 수브리에
Original Assignee
다솔 시스템므
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 다솔 시스템므 filed Critical 다솔 시스템므
Publication of KR20110066880A publication Critical patent/KR20110066880A/ko
Application granted granted Critical
Publication of KR101794498B1 publication Critical patent/KR101794498B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/17Mechanical parametric or variational design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명은 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 컴퓨터 구현 방법에 관한 것이다. 이 방법은,
- 터치-감지형 디스플레이상에 선택된 제 1 오브젝트 (12) 를 디스플레이하는 단계 (10);
- 선택된 제 1 오브젝트상에서의 제 1 사용자 상호작용과 제 2 사용자 상호작용을 검출하는 단계 (14);
- 선택된 제 1 오브젝트 외부의 상기 제 1 사용자 상호작용의 이동을 검출하는 단계 (16);
- 터치-감지형 디스플레이상에, 제 1 사용자 상호작용의 이동을 트랙킹하는 제 2 오브젝트를 디스플레이하는 단계 (20) 로서, 제 2 오브젝트는 상기 제 1 오브젝트의 복제인, 상기 제 2 오브젝트를 디스플레이하는 단계 (20); 및
- 터치-감지형 디스플레이상에, 제 1 사용자 상호작용의 최종 검출된 위치에 따라 제 2 오브젝트를 포지셔닝하는 단계 (26) 를 포함한다.

Description

터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템{METHOD AND SYSTEM FOR DUPLICATING AN OBJECT USING A TOUCH-SENSITIVE DISPLAY}
본 발명은 일반적으로 컴퓨터 프로그램 및 시스템의 분야에 관한 것으로, 더욱 구체적으로는, 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법에 관한 것이다.
컴퓨터 분야에서, 그래픽 사용자 인터페이스 (GUI) 는 예를 들어, 개인 컴퓨터, 랩탑, 음악 플레이어, 셀 폰, 휴대 정보 단말기와 같은 디바이스와 사용자 사이의 상호작용의 효율성에 관하여 중요한 역할을 한다. 이들 디바이스는 기능을 수행하는 다양한 애플리케이션 및 프로그램을 실행한다.
일반적으로, 사용자는 GUI 상에 디스플레이되는 메뉴, 툴바, 아이콘 및 다른 그래픽을 통해 애플리케이션 및 프로그램과 상호작용한다. 예를 들어, 컴퓨터-이용 기술 분야에서, 상표명 CATIA 하에서 다솔 시스템므에 의해 제공된 것과 같은, 다수의 시스템 및 프로그램이 제품을 형성하는 오브젝트 (부품) 의 설계 또는 오브젝트의 어셈블리에 대한 시장에 제공된다. 이들 CAD 시스템은 사용자가 GUI 를 통해 오브젝트의 복잡한 3차원 (3D) 모델 또는 오브젝트의 어셈블리를 구성 및 조작할 수 있게 한다.
종래, 조작은 사용자에 의해 조작된 커서에 의해 그래픽적으로 수행된다. 커서는 디바이스의 GUI 상에 디스플레이되며, 마우스, 트랙볼, 그래픽 태블릿 등과 같은 포인팅 디바이스를 통해 조작된다. 또한, 물리적 버튼 (예를 들어, 푸시 버튼) 또는 키보드와 같은 입력 주변 디바이스를 통해 조작을 수행하는 것이 가능하다. 더욱 최근에는, 터치-감지형 디스플레이가 개발되었다. 이들은 사용자와 디바이스 사이에 새로운 유형의 상호작용을 제공한다. 터치-감지형 디스플레이는, 디스플레이 영역상에서 상호작용의 존재 및 위치, 예를 들어, 디스플레이상의 사용자의 손가락의 접촉을 검출할 수 있다. 따라서, 터치-감지형 디스플레이는 종래의 포인팅 디바이스를 대체하는 입력 인터페이스를 제공한다. 또한, 이것은 출력 인터페이스를 제공한다.
터치-감지형 디스플레이는 터치-감지형 표면을 포함하는데, 이 터치-감지형 표면은 이러한 표면과 사용자의 임의의 상호작용을 검출할 수 있다. 저항성, 표면 음향파, 적외선, 및 용량성 기술을 포함하지만, 이에 제한되지 않는 여러 타입의 터치-감지형 디스플레이 기술이 개발되었다. 상호작용은 예를 들어, 오브젝트 (예를 들어, 스타일러스) 및/또는 부속물 (예를 들어, 사용자의 손의 손가락) 을 통해 제공될 수도 있다. 따라서, 디스플레이되는 것과의 직접 상호작용이 가능하다.
일반적으로, 터치-감지형 디스플레이를 포함하는 디바이스는 이제는 포인팅 디바이스 및/또는 입력 주변 디바이스를 포함하지 않는다. 그러나, 이것은 포인팅 디바이스 및/또는 입력 주변 디바이스와 종래에 행해지던 어떤 조작을 사용자가 수행하는 것을 방지할 수 있다. 예를 들어, 어떤 조작은 디바이스에 정보를 입력하는 키보드의 문자숫자식 키의 세트의 조합으로 수행되며, 이러한 조합은 터치-감지형 디스플레이로 재생되는 것이 어렵다.
미국 특허 출원 공개 번호 2009/0079700 A1 은, 그래픽 사용자 인터페이스내의 사용을 위한 원-터치 회전 방법을 기재한다. 원-터치 회전 방법은, 사용자가 가상 작업공간내에서 가상 오브젝트를 회전시키고, 때때로 이동시킬 수 있게 한다. 가상 오브젝트의 회전은 하나의-손가락 제스처 (one-finger gesture) 와 같은 원-터치 사용자 입력을 사용하여 달성될 수 있다. 원-터치 회전 방법은, 원-터치 사용자 입력을 인식하고 트랙킹하는 것과, 원-터치 사용자 입력의 트랙킹된 이동에 응답하여 가상 오브젝트를 회전시키는 것을 포함한다.
미국 특허 출원 공개 번호 2009/0184939 A1 은, 2개 이상의 사용자 상호작용을 사용하여 터치-감지형 스크린과 직접 상호작용함으로써 터치-감지형 스크린상에 디스플레이된 하나 이상의 그래픽 오브젝트의 포지션, 사이즈 및/또는 배향을 조작하는 방법을 기재한다. 조작된 그래픽 오브젝트에 관한 사용자 상호작용의 상대적 위치는 조작 동안 내내 유지된다. 조작은 궤적을 분석하고/하거나 사용자 상호작용의 이동 경로를 특징화하는 것을 요구하지 않아서, 조작은 비교적 저렴한 프로세싱 비용으로 수행될 수 있다.
미국 특허 출원 공개 번호 2009/0153492 A1 은, 그래픽 맵을 디스플레이하고, 그래픽 맵이 디스플레이되는 동안 터치-감지형 디스플레이 표면상에 사용자에 의해 생성된 제스처 입력을 수신하도록 구성된 터치-감지형 디스플레이 표면을 기재하고, 제스처 입력은 그래픽 맵상에 선택된 지리적 영역을 정의한다. 사용자의 엄지손가락과 집게 손가락으로 이루어진 손가락-핀치 (finger-pinch) 는, 선택된 지리적 영역을 정의하는 엄지손가락과 집게 손가락 사이의 공간에서 직사각형 형상의 지리적 경계를 포함하는 손가락-핀치 지정 경계 박스 제스처 입력을 생성한다.
복사하기 (copy) 및 붙여넣기 (paste) 커맨드 (또한 복제 커맨드라 칭함) 는 매우 일반적인 기능이다. 예를 들어, 이것은 키보드의 키-조합 Ctrl+C 및 Ctrl+V 로 수행될 수도 있다. 그럼에도 불구하고, 이러한 키-조합은 터치-감지형 디스플레이상에 실현할 수 없거나 달성하는 것이 적어도 어렵다. 상기 언급한 제한을 바이패스하기 위해, 그래픽 복사하기/붙여넣기 커맨드가 개발되었다.
제 1 방법은, 포인팅 디바이스로 복사하기를 할 오브젝트를 선택한 후, 사용자가 복사하기를 원하는 오브젝트상에 액션 (예를 들어, 마우스의 우측 버튼으로 우측 클릭) 을 수행하고, 우측 클릭에 연속하여 나타나는 'Copy' 메뉴를 선택함으로써 복사하기/붙여넣기 커맨드를 수행하는 단계로 이루어진다. 다음으로, 사용자는 그가 오브젝트를 복사하기를 원하는 위치에서 다른 액션 (예를 들어, 우측 클릭) 을 수행하며, 'Paste' 메뉴 (예를 들어, 좌측 클릭) 를 선택한다. 그러나, 이러한 방법은 터치-감지형 디바이스에 대해 항상 이용가능하지 않은 적어도 2개의 버튼을 갖는 포인팅 디바이스를 요구한다.
미국 특허 출원 공개 번호 2009/0228842 A1 은, 윈도우상에서 2개의 골라진 포인트에 의해 정의된 거리와 방향에 의해 선택된 아이템을 사용자가 복사하는 것을 허용하는 복사하기 툴을 기재한다. 사용자가 복사하기 툴을 선택한 이후에, 사용자는 복사된 아이템의 포지션에 대응하는 거리와 방향을 정의하는 2개의 포인트를 입력할 수 있다. 복사하기 커맨드를 수행할 때, 제 1 선택된 포인트는 오브젝트를 복사하는 기본 기준 포인트로서 작용하고, 제 2 선택된 포인트는 복사된 아이템에 대한 거리와 방향을 정의한다.
다른 공지된 방법은, 선택하기 위한 오브젝트상에 더블 탭을 수행한 후, 선택을 행하기 위해 손가락을 누르고 홀딩하는 단계로 이루어진다. 그 후, 사용자는 전자의 제스처 때문에 선택된 오브젝트 근처에 나타나는 메뉴 'Copy' 를 선택한다. 다음으로, 사용자는 그/그녀가 복사하기를 원하는 포지션상에서 2회 탭한다. 최종으로, 사용자는 선택된 포지션 근처에 나타나는 메뉴 'Paste' 를 클릭한다.
이러한 방법은 복사하기 툴이 선택되는 결점으로 손실을 받고, 이것은 사용자가 복사하기/붙여넣기 조작을 여러 번 행할 필요가 있을 때 시간 소모적이고 귀찮을 수도 있다. 이 때문에, 제스처에 기초하는 방법이 제안되었다.
공지된 방법은 복사하기 위한 오브젝트를 선택하고 선택에 대한 복사하기 제스처를 행하는 것으로 이루어진다. 예를 들어, 제스처는 터치-감지형 표면상에서 엄지손가락과 가운데 손가락을 동시에 탭핑할 수도 있다. 붙여넣기 제스처는, 사용자가 오브젝트를 붙여넣기를 원하는 장소에서 실행된다.
복사하기/붙여넣기 조작을 수행하는 이들 다양한 방법은 여러 결점에 손실을 받는다. 예를 들어, 이들 방법의 달성은 시간 소모적이다. 예를 들어, 메뉴 'Copy' 는 메뉴를 호출하기 위해 특정한 제스처를 수행하는 것을 수반하는 복사하기/붙여넣기 기능을 트리거하기 위해 호출될 필요가 있다. 또한, 복사하기/붙여넣기를 트리거하기 위해 요구된 제스처는 사용자에 대해 자연스럽지 못하고 인체공학적이지 않다. 또한, 복사된 오브젝트를 정밀한 포지션에 포지셔닝하는 것이 사용자에 대해서는 상당히 어렵고, 특히, 이것은 비인체공학적 제스처의 결과이다.
따라서, 상기 간략히 논의된 기존의 솔루션의 제한에 따르면, 터치-감지형 디스플레이에서 오브젝트를 복제하기 위한 개선된 방법이 필요하다. 바람직하게는, 이 방법은 사용자에 대해 직관적으로 인식되어야 하는 제스처의 정밀도를 개선시켜야 한다.
따라서, 본 발명은 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 컴퓨터 구현 방법을 제공한다. 이 방법은, 터치-감지형 디스플레이상에 선택된 제 1 오브젝트를 디스플레이하는 단계; 선택된 제 1 오브젝트상의 제 1 사용자 상호작용과 제 2 사용자 상호작용을 검출하는 단계; 선택된 제 1 오브젝트 외부의 제 1 사용자 상호작용의 이동을 검출하는 단계; 터치-감지형 디스플레이상에, 제 1 사용자 상호작용의 이동을 트랙킹하는 제 2 오브젝트를 디스플레이하는 단계로서, 제 2 오브젝트는 제 1 오브젝트의 복제인, 상기 제 2 오브젝트를 디스플레이하는 단계; 및 제 1 사용자 상호작용의 최종 검출된 위치에 따라 제 2 오브젝트를 터치-감지형 디스플레이상에 포지셔닝하는 단계를 포함한다.
본 발명에 따른 방법은,
- 제 1 사용자 상호작용의 이동을 검출하는 단계 이후에, 선택된 오브젝트에 대한 제 2 사용자 상호작용의 종료를 검출하는 단계,
- 제 1 사용자 상호작용과 제 2 사용자 상호작용이 선택된 제 1 오브젝트상에서의 제 1 및 제 2 사용자 상호작용의 검출의 순서에 관계없이, 연속적으로 또는 동시에 수행되는 것,
- 제 1 사용자 상호작용의 최종 검출된 위치가, 터치-감지형 디스플레이상의 제 1 사용자 상호작용의 종료가 검출되는 위치인 것,
- 선택된 제 1 오브젝트를 디스플레이하는 단계 및 제 2 오브젝트를 포지셔닝하는 단계는 그래픽 사용자 인터페이스의 동일한 윈도우내에서 수행되는 것,
- 제 2 오브젝트를 디스플레이하는 단계에서, 제 2 오브젝트의 렌더링은 제 1 오브젝트의 렌더링과 비교하여 변경되는 것,
- 제 1 사용자 상호작용과 제 2 사용자 상호작용이,
- 스타일러스,
- 손가락
중 적어도 하나 또는 이들의 조합에 의한 터치-감지형 디스플레이에 대한 접촉에 의해 수행되는 것, 및
- 제 1 사용자 상호작용과 제 2 사용자 상호작용이 사용자의 2개의 손의 각각의 손가락의 터치-감지형 디스플레이에 대한 접촉에 의해 수행되는 것
중 하나 이상을 포함할 수도 있다.
본 발명은, 컴퓨터로 하여금 상기 방법의 단계들을 취하게 하는 코드 수단을 포함하는, 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는, 컴퓨터 판독가능한 매체상에 저장된 컴퓨터 프로그램을 더 제안한다.
본 발명은 또한, 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 장치에 관한 것으로, 이 장치는 상기 방법의 단계들을 구현하는 수단을 포함한다.
이제, 본 발명을 구현하는 시스템을 첨부한 도면을 참조하여 제한하지 않는 예를 통해 설명할 것이다.
도 1 은 터치-감지형 디스플레이상에 디스플레이된 그래픽 사용자 인터페이스의 예이다.
도 2 는 본 발명에 따른 오브젝트의 복제를 나타내는 플로우차트이다.
도 3 내지 도 8 은 본 발명에 따른 오브젝트의 복제의 개략도를 도시한다.
도 9 는 본 발명을 수행하기 위해 구성된 클라이언트 디바이스의 개략도이다.
본 발명은 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 컴퓨터 구현 방법에 관한 것이다. 이 방법은, 선택된 제 1 오브젝트를 터치-감지형 디스플레이상에 디스플레이하는 단계를 포함한다. 오브젝트는, 사용자에 의해 부분적으로 또는 전체적으로 선택될 수도 있는 그래픽 컴포넌트이다. 용어 오브젝트는, 아이콘, 모델링된 오브젝트, 메뉴, 및 다른 그래픽 등을 포함하지만 이에 제한되지 않는다. 아래의 설명에서, 선택된 오브젝트는, 오브젝트의 어셈블리 (제품), 오브젝트의 부품 (또는 엘리먼트) 일 수도 있다. 다음으로, 이 방법은 선택된 제 1 오브젝트에 대한 제 1 사용자 상호작용과 제 2 사용자 상호작용을 검출하는 단계를 포함한다. 그 후, 제 1 사용자 상호작용의 이동이 선택된 제 1 오브젝트 외부에서 검출된다. 그 후, 터치-감지형 디스플레이상에 제 1 사용자 상호작용의 이동을 트랙킹하는 제 2 오브젝트가 디스플레이된다. 제 2 오브젝트는 제 1 오브젝트의 복제이다. 복제는, 제 2 오브젝트가 제 1 오브젝트와 동일하다는 것, 즉, 제 2 오브젝트가 선택된 오브젝트의 복사물이다는 것을 의미한다. 그 후, 제 2 오브젝트는, 터치-감지형 디스플레이상에 제 1 사용자 상호작용의 최종 검출된 위치에 따라 포지셔닝된다. 따라서, 복제된 오브젝트는 최종 검출된 위치에 붙여넣기 된다. 바람직하게는, 본 발명에 따른 복제는 사용자에 대해 자연스러운 사용자 상호작용을 수반한다. 예를 들어, 선택된 제 1 오브젝트 외부에서 검출된 제 1 사용자 상호작용의 이동은, 제 1 사용자 상호작용과 연속성이 있다. 따라서, 복제 제스처는 사용자에 대해 단순하고 스무스하며, 터치-감지형 디스플레이상에서 보충 상호작용에 의해 방해받지 않는다. 또한, GUI 에서 디스플레이된 오브젝트(들)에 대한 사용자의 뷰는, 그것을 방해하는 메뉴가 없기 때문에 개선된다. 또한, 사용자는 복제된 오브젝트의 위치를 아무때나 볼 수 있고, 따라서, 복제 제스처의 정밀도가 개선된다.
도 1 을 참조하면, 예시된 그래픽 사용자 인터페이스 (또는 GUI; 100) 는 바닥 및 측면 툴바 (140, 150) 뿐만 아니라 표준 메뉴 바 (110, 120) 를 갖는 통상의 CAD-형 인터페이스일 수도 있다. 이러한 메뉴 및 툴바는 사용자-선택가능한 아이콘들의 세트를 포함하고, 각 아이콘은 당업계에 공지되어 있는 하나 이상의 조작 또는 기능과 관련된다. 따라서, 사용자는 GUI 상에 디스플레이되는 메뉴, 툴바, 아이콘 및 다른 그래픽을 통해 애플리케이션 또는 프로그램과 상호작용할 수 있다. 본 발명이 CAD-형 인터페이스에 제한되지 않으며, 본 발명이 임의의 종류의 그래픽 인터페이스에 적용된다는 것을 이해할 것이다.
이들 아이콘 중 일부는, 소프트웨어 툴과 관련되고, GUI (100) 에 디스플레이된 것과 같은 모델링된 제품 (200) 또는 그 제품 (200) 의 부품에 대해 편집하고/하거나 작업하기 위해 구성된다. 아래의 설명에서, "제품", "부품", "어셈블리" 등은 "오브젝트" 를 칭할 수도 있다. 사실, "오브젝트" 의 개념은, 사용자에 의해 부분적으로 또는 전체적으로 선택될 수도 있는 임의의 그래픽 컴포넌트가 오브젝트이도록 일반화될 수 있다.
소프트웨어 툴은 워크벤치 (workbench) 로 그룹화될 수도 있다. 각 워크벤치는 소프트웨어 툴의 서브세트를 포함한다. 특히, 워크벤치 중 하나가, 모델링된 제품 (200) 의 기하학적 특징을 편집하는데 적합한 편집 워크벤치이다. 조작 중에, 설계자는 예를 들어, 오브젝트 (200) 의 부품을 사전 선택할 수도 있고, 그 후, 적절한 아이콘을 선택함으로써 조작을 개시 (예를 들어, 치수, 컬러 등을 변경) 할 수도 있거나 기하학적 특징을 편집할 수도 있다. 예를 들어, 통상의 CAD 조작은 스크린상에 디스플레이된 3D 모델링된 오브젝트의 펀칭 또는 폴딩의 모델링이다.
예를 들어, GUI 는 디스플레이된 제품 (200) 에 관한 데이터 (250) 를 디스플레이할 수도 있다. 도 1 의 예에서, "특징 트리 (feature tree)" 로서 디스플레이된 데이터 (250), 및 그들의 3D 표현 (200) 은 브레이크 캘리퍼스 및 디스크를 포함하는 브레이크 어셈블리에 관한 것이다. GUI 는 예를 들어, 디스플레이된 제품 (200) 의 다양한 속성을 렌더링하거나 편집된 제품의 조작의 시뮬레이션을 트리거링하기 위해 오브젝트의 3D 배향을 용이하게 하는 다양한 타입의 그래픽 툴 (130) 을 또한 도시한다.
도 2 는 본 발명의 실시형태를 나타내는 플로우차트를 도시한다. 방법은 단계 10 (제 1 오브젝트가 디스플레이됨) 에서 시작한다. 오브젝트의 디스플레이는 당업계에 공지되어 있는 바와 같이 수행된다. 통상적으로, 오브젝트는, 사용자에 의해 부분적으로 또는 전체적으로 선택될 수도 있는 그래픽 컴포넌트 (또한 그래픽으로서 칭함) 이다. 용어 오브젝트는 아이콘, 모델링된 오브젝트, 메뉴, 및 다른 그래픽 등을 포함하지만, 이에 제한되지 않는다. 아래의 설명에서, 선택된 오브젝트는 오브젝트의 어셈블리 (제품), 오브젝트의 부품 (또는 엘리먼트) 일 수도 있다.
단계 12 에서, 디스플레이된 제 1 오브젝트가 사용자에 의해 선택된다. 다시 말해, 사용자는, 그/그녀가 조작(들)을 수행하기를 원하는 오브젝트를 식별한다. 제 1 오브젝트의 선택은, 사용자 액션시에 또는 자동으로 시스템에 의해 이루어질 수도 있다. 선택은, 포인팅 디바이스, 주변 디바이스를 통하거나, (터치-감지형 디스플레이에 터치시에) 터치-감지형 디스플레이를 직접적으로 통해 수행될 수도 있지만, 이에 제한되지는 않는다. 또한, 선택된 제 1 오브젝트는, 선택된 오브젝트가 어느 것인지 사용자가 쉽게 볼 수 있도록 강조될 수도 있다. 예를 들어, 선택된 제 1 오브젝트의 강조는 선택된 제 1 오브젝트의 하이라이트로 인해 수행될 수도 있다. 하이라이트는, 포지션의 표현에 발광 컬러를 적용하는 것으로 이루어진다. 강조는 또한, 선택된 제 1 오브젝트의 블링킹 (blinking), 강조된 선택 제 1 오브젝트의 윤곽을 두껍게 하기, 또는 강조된 선택 제 1 오브젝트의 윤곽을 형성하는 포인트의 밀도를 증가시키기와 같은 시각 효과에 의해 수행될 수도 있다. 예로서, 설계자가 다른 것들 중에서 선택된 제 1 오브젝트를 구별할 수 있게 하는 임의의 수단의 사용될 수도 있다.
이러한 스테이지에서, 선택된 제 1 오브젝트 (12) 는 터치-감지형 디스플레이상에 디스플레이된다 (10). 특히, 선택된 제 1 오브젝트는 복제하기 위한 오브젝트이다.
단계 14 에서, 각각 제 1 사용자 상호작용 및 제 2 사용자 상호작용인 2개의 사용자 상호작용이 선택된 제 1 오브젝트상에서 검출된다. 사용자 상호작용은 터치-감지형 디스플레이상에 사용자에 의해 제공된 입력이다. 입력은 터치-감지형 디스플레이에 의해 디바이스로 송신되는 신호를 생성한다. 디바이스, 예를 들어, 개인 컴퓨터, 랩탑, 음악 플레이어, 셀 폰, 휴대 정보 단말기는 송신된 신호에 따라 트리거링될 수도 있는 기능을 계산하고 수행한다. 터치-감지형 디스플레이는 임의의 입력 또는 이동 또는 터치-감지형 디스플레이상에 적용된 입력의 중단을 검출할 수 있다.
특히, 제 1 및 제 2 사용자 상호작용은, 오브젝트 (예를 들어, 스타일러스) 또는 부속물 (예를 들어, 사용자의 손의 손가락) 의 터치-감지형 디스플레이에 대한 접촉에 의해 수행될 수도 있다. 다수의 오브젝트 또는 부속물이 가능하고 본 발명의 범위내에 있다.
이제, 도 3 을 참조하면, 제 1 선택된 오브젝트 (30) 는 도 1 을 참조하여 나타낸 바와 같이, GUI (100) 상에 디스플레이된다. 이러한 오브젝트는 단순한 그래픽 : 아이콘이다. 사용자의 손의 손가락 (40) 은 오브젝트 (30) 상에 있고, 손가락 (40) 은 터치-감지형 디스플레이와 접촉하고 있으며, 제 1 사용자 상호작용이 그 결과로서 오브젝트 (30) 상에서 검출된다.
이제, 도 4 를 참조하면, 사용자의 제 2 손의 손가락 (42) 이 오브젝트 (30) 상에 있고, 따라서, 제 2 사용자 상호작용이 오브젝트 (30) 상에서 검출된다.
특히, 제 1 사용자 상호작용 및 제 2 사용자 상호작용은, 2개의 손가락 (40, 42) 의 터치-감지형 디스플레이상의 접촉에 의해 수행되고, 각 손가락은 도 3 내지 도 7 에 나타낸 바와 같이, 사용자의 각각의 손에 속한다. 반대로, 사용자는 하나의 손에 속하는 손가락만을 사용할 수도 있다. 다르게는, 2명의 사용자가 예를 들어, 모델링된 오브젝트의 설계 프로세스 동안 동일한 GUI 상에서 함께 작업할 수도 있고 협력할 수도 있고, 제 1 사용자 상호작용은 하나의 사용자에 의해 수행될 수도 있으며, 제 2 사용자 상호작용은 제 2 사용자에 의해 수행될 수도 있다.
또한, 제 1 및 제 2 사용자 상호작용은 선택된 제 1 오브젝트상에서의 제 1 및 제 2 사용자 상호작용의 검출의 순서에 관계없이, 연속적으로 또는 동시에 수행될 수도 있다. 따라서, 사용자는 그/그녀의 필요에 따라 제 1 및 제 2 상호작용을 수행하는데 자유롭고, 바람직하게는, 본 발명의 복제의 방법은 사용자에 대해 직관적으로 인식되고, 따라서 그 획득이 더 용이하다.
다시 도 2 를 참조하면, 단계 16 에서, 선택된 제 1 오브젝트 외부의 사용자 상호작용의 이동이 검출된다. 특히, 검출된 이동은 2개의 사용자 상호작용 중 하나의 슬라이딩에 연속되고, 검출은 선택된 제 1 오브젝트의 윤곽 외부의 이동에 대해 수행된다. 선택된 오브젝트의 윤곽은 터치-감지형 디스플레이상의 선택된 오브젝트의 투영의 실루엣이다. 따라서, 2개의 사용자 상호작용 중 하나의 슬라이딩이 선택된 제 1 오브젝트의 경계내에서 수행되는 동안 이동은 검출된 것으로서 고려되지 않고, 경계는 선택된 제 1 오브젝트의 윤곽에 의해 구체화된다.
또한, 제 1 사용자 상호작용의 이동이 선택된 제 1 오브젝트의 외부 및 내부에서 연속적으로 검출되면, 이동은 검출된 것으로서 고려되지 않을 수도 있다. 따라서, 사용자는, 선택된 제 1 오브젝트가 복제되기 이전에 복제 프로세스를 중지할 수 있다. 바람직하게는, 사용자는 실수로 생성되는 오브젝트의 복제를 삭제할 필요가 없다. 다르게는, 외부 및 내부에서 연속적으로 검출된 이동은 검출된 것으로 고려될 수도 있으며, 복제 프로세스는 선택된 제 1 오브젝트상에서 연속적이다. 따라서, 사용자는 선택된 제 1 오브젝트상에 선택된 제 1 오브젝트의 복제를 드롭할 수도 있다.
다음으로, 단계 20 에서, 제 1 오브젝트의 복제인 제 2 오브젝트가 터치-감지형 디스플레이상에 디스플레이된다. 이러한 제 2 오브젝트는 제 1 사용자 상호작용의 이동을 트랙킹한다. 즉, 제 2 오브젝트는, 터치-감지형 디스플레이상에서 이동하면서 제 1 사용자 상호작용의 위치를 따른다. 위치는 터치-감지형 디스플레이상의 포지션이며, 여기서, 사용자 상호작용을 야기하는 입력이 수행된다. 일반적으로, 터치-감지형 디스플레이는, 선택된 제 1 오브젝트가 위치되는 공간과 사용자 사이의 2차원 (2D) 인터페이스이다. 공간은 2D 또는 3D 공간일 수도 있다. 따라서, 사용자 상호작용을 야기하는 입력은 2D 또는 3D 공간을 향해 2D 인터페이스상에서 수행된다. 2D 공간에서, 제 1 사용자 상호작용의 위치는 예를 들어, 터치-감지형 디스플레이상의 좌표계에 따라 결정될 수도 있다. 3D 공간에서, 3D 공간에서의 제 1 사용자 상호작용의 3D 위치가 계산될 수도 있다. 3D 공간에서의 이러한 3D 위치의 계산은 예를 들어, 당업계에 공지되어 있는 바와 같은 픽킹 (picking) 하는 기술, 예를 들어, 레이 트레이싱 (ray tracing) 에 의해 달성될 수도 있다.
도 5 를 참조하면, 손가락 (42) 은 오브젝트 (30) 외부로 이동하고, 제 1 오브젝트 (30) 의 경계가 손가락 (42) 에 의해 교차된다. 따라서, 손가락 (42) 의 이동이 검출되고, 그 결과로서, 제 2 오브젝트 (32) 가 디스플레이된다. 도면의 명확화를 위해, 제 2 오브젝트 (32) 는 오브젝트 (30) 와 동일한 컬러로 표현되지 않는다. 손가락 (42) 에 의해 생성된 사용자 상호작용은, 화살표 50 으로 표현되는 손가락의 슬라이딩 동안에도 터치-감지형 디스플레이와 연속 접촉을 수행한다. 손가락 (42) 이 제 1 오브젝트 (30) 의 윤곽을 벗어나면, 제 1 오브젝트 (30) 의 복제인 제 2 오브젝트 (32) 가 디스플레이된다.
이제, 도 6 을 참조하면, 손가락 (42) 의 이동 (52) 이 계속되고, 제 2 오브젝트 (32) 는 여전히 손가락 (42) 의 이동 (52) 을 따른다. 제 2 오브젝트 (32) 는 터치-감지형 디스플레이상의 손가락 (42) 의 위치에 어떻게든 고정된다. 따라서, 사용자가 터치-감지형 디스플레이상의 복제된 오브젝트의 정밀한 위치의 시각적 피드백을 갖는다는, 본 발명의 다른 이점을 이해할 것이다. 따라서, 사용자와 디바이스 사이의 인터액티비티 (interactivity) 가 매우 개선된다.
검출된 이동이 제 1 사용자 상호작용 또는 제 2 사용자 상호작용의 이동에 의해 야기될 수도 있다는 것에 주목할 수 있고, 실제로, 이전에 언급한 바와 같이, 제 1 및 제 2 사용자 상호작용은 선택된 제 1 오브젝트상에서의 제 1 및 제 2 사용자 상호작용의 검출의 순서에 관계없다. 예를 들어, 도 3 내지 도 7 에서, 제 1 사용자 상호작용은 제 1 손가락 (40) 에 의해 야기되고, 제 2 사용자 상호작용 및 검출된 이동은, 제 1 사용자 상호작용이 손가락 (40) 에 의해 야기된다는 사실에 관계없이 손가락 (42) 에 의해 야기된다. 바람직하게는, 사용자는 검출된 이동을 야기하는 제 1 사용자 상호작용과 제 2 사용자 상호작용 중 어느 하나를 선택할 수 있다. 그 결과, 본 발명에 따른 방법은, 터치-감지형 디스플레이상의 선택된 제 1 오브젝트의 위치가 무엇이든지 수행될 수도 있다. 예를 들어, 도 5 에서, 선택된 제 1 오브젝트 (30) 가 터치-감지형 디스플레이의 좌측 경계에 위치되면, 선택된 제 1 오브젝트 외부의 이동은 사용자의 우측 손의 손가락 (42) 에 의해 수행될 수 있다. 반대로, 선택된 제 1 오브젝트 외부의 이동은, 선택된 제 1 오브젝트 (30) 가 터치-감지형 디스플레이의 우측 경계에 위치되면 사용자의 좌측 손의 손가락 (40) 에 의해 수행될 수 있다.
제 2 사용자 상호작용의 종료의 검출은, 선택된 제 1 오브젝트 외부의 사용자 상호작용의 이동의 검출에 후속하여 각 단계에서 행해질 수도 있다. 바람직하게는, 이것은 단계 18 에서 도 2 에 도시된 바와 같이, 선택된 제 1 오브젝트 외부의 사용자 상호작용의 이동의 검출 이후에 검출된다. 실제로, 제 2 사용자 상호작용의 종료는, 선택된 제 1 오브젝트상에서 제 2 접촉을 야기하는 오브젝트 또는 부속물을 사용자가 터치-감지형 디스플레이로부터 제거하면 검출된다. 실제로, 제 2 오브젝트의 복제의 프로세스가 개시되고, 즉, 터치-감지형 디스플레이와 관련된 디바이스는, 제 1 오브젝트가 복제될 것이라는 것을 인식한다. 따라서, 제 2 사용자 상호작용이 더 이상 요구되지 않는다. 이것은, GUI 의 동일한 윈도우에서 오브젝트를 복제하는 것이 가능하기 때문에, 이전에 공지된 솔루션과 비교하여 바람직하고, 실제로, 제 1 사용자 상호작용의 검출된 이동은, 예를 들어, 윈도우에서의 오브젝트의 단순한 변위가 아닌 제 1 선택된 오브젝트의 복제에 관련될 때 디바이스에 의해 알려진다. 윈도우는 어떤 종류의 사용자 인터페이스를 포함하는 시각적 영역이고, 애플리케이션의 입력 및 출력, 예를 들어, 아이콘이 디스플레이될 수도 있다. 단계 14 및 16 의 결과로서, 디바이스는, 제 1 오브젝트가 복제될 것이며, 따라서 선택된 제 1 오브젝트가 이동되지 않는다는 것을 인식한다. 따라서, 단계 14 및 16 의 제스처는 선택된 제 1 오브젝트의 복제를 개시한다.
이들 제스처의 다른 이점은, 복제된 제 2 오브젝트가 제 1 사용자 상호작용의 이동을 트랙킹하는 동안 사용자가 새로운 사용자 상호작용을 제공할 가능성을 갖는다는 것이다. 예를 들어, 도 5 및 도 6 을 다시 참조하면, 손가락 (42) 의 슬라이딩 (50, 52) 이 계속되는 동안 손가락 (40) 에 의해 이루어진 사용자 상호작용을 사용자가 릴리즈할 수도 있다. 따라서, 사용자의 제 1 손 (40) 은, 제 1 오브젝트를 복제하는 동안 다른 조작을 수행하는데 자유롭고, 예를 들어, 사용자는 그/그녀가 제 2 오브젝트를 레이 다운 (lay down) 하기를 원하는 윈도우를 개방할 수도 있다.
제 2 오브젝트의 렌더링은, 제 2 오브젝트의 디스플레이 동안 제 1 오브젝트의 렌더링과 비교하여 변경될 수도 있다. 통상적으로, 렌더링된, 복제된 오브젝트를 디스플레이하기 위한 디바이스의 계산 리소스의 소모를 감소시키기 위해 정정된다. 예를 들어, 제 2 오브젝트의 디테일의 레벨은 감소될 수도 있거나, 제 2 오브젝트의 윤곽만이 디스플레이될 수도 있다.
단계 22 및 24 에서, 제 1 사용자 상호작용의 종료가 그것의 최종 위치와 함께 검출된다. 검출된 최종 위치는, 터치-감지형 디스플레이상의 제 1 사용자 상호작용의 종료가 검출되는 위치이다. 상기 언급한 바와 같이, 제 1 사용자 상호작용의 위치는, 사용자 상호작용을 야기하는 입력이 수행되는 터치-감지형 디스플레이상의 포지션이다.
마지막으로, 단계 26 에서, 제 2 오브젝트는, 터치-감지형 디스플레이상에 제 1 사용자 상호작용의 최종 검출된 위치에 따라 포지셔닝된다. 이러한 제 2 오브젝트의 포지셔닝은 본 발명의 방법을 종료하고, 오브젝트는 사용자에 의해 선택된 포지션에서 복제된다. 다시 말해, 제 1 오브젝트의 복사하기/붙여넣기가 수행된다.
이제, 도 7 을 참조하면, 사용자는 터치-감지형 디스플레이로부터 손가락 (42) 을 제거한다. 그 결과, 제 2 오브젝트 (32) 가 도 6 에 도시된 손가락 (42) 의 최종 검출된 포지션에 포지셔닝된다. 이러한 단계에서, 오브젝트를 복제하는 방법이 종료된다.
최종으로, 사용자는, 이전에 수행되지 않았으면, 터치-감지형 디스플레이로부터 손가락 (40) 을 제거할 수도 있다. 도 8 에서, 2개의 오브젝트 (30 및 32) 가 GUI 상에 디스플레이된다.
전술한 방법이 오브젝트를 디스플레이할 수 있는 임의의 구성 또는 오브젝트를 디스플레이하기 위해 사용된 임의의 디바이스에서 임의의 오브젝트에 적용될 수 있다는 것을 이해할 것이다. 본 발명은 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에서 구현될 수도 있다. 본 발명의 장치는, 프로그래머블 프로세서에 의한 실행을 위해 머신-판독가능한 저장 디바이스에 유형적으로 수록된 컴퓨터 프로그램 제품에서 구현될 수도 있고, 본 발명의 방법은 입력 데이터에 대해 조작하고 출력을 생성함으로써 본 발명의 기능을 수행하기 위해 명령들의 프로그램을 실행하는 프로그래머블 프로세서에 의해 수행될 수도 있다.
본 발명은 바람직하게는, 데이터 저장 시스템, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스로부터 데이터 및 명령들을 수신하고, 거기에 데이터 및 명령들을 송신하도록 커플링된 적어도 하나의 프로그래머블 프로세서를 포함하는 프로그래머블 시스템상에서 실행가능한 하나 이상의 컴퓨터 프로그램에서 구현될 수도 있다. 애플리케이션 프로그램은, 원하는 경우에, 하이-레벨 절차형 또는 오브젝트-지향 프로그래밍 언어에서 또는 어셈블리 또는 기계 언어에서 구현될 수도 있고, 임의의 경우에서, 이 언어는 컴파일러형 또는 해석형 언어일 수도 있다.
도 9 는 본 발명을 실행하도록 구성된 클라이언트 디바이스, 예를 들어, 컴퓨터 시스템을 도시한다. 클라이언트 시스템은, 내부 통신 버스 (800) 에 접속된 중앙 처리 유닛 (CPU; 801), 버스에 또한 접속된 랜덤 액세스 메모리 (807) 를 포함한다. 클라이언트 디바이스에는, 버스에 접속된 비디오 랜덤 액세스 메모리 (810) 와 관련되는 그래픽 프로세싱 유닛 (GPU; 811) 이 더 제공된다. 비디오 RAM (810) 은 또한 프레임 버퍼로서 공지되어 있다. 대용량 저장 디바이스 제어기 (802) 는 하드 드라이브 (803) 와 같은 대용량 메모리 디바이스로의 액세스를 관리한다. 컴퓨터 프로그램 명령들 및 데이터를 유형적으로 수록하는데 적합한 대용량 메모리 디바이스는, 예로서, EPROM, EEPROM, 및 플래시 메모리 디바이스와 같은 반도체 메모리 디바이스; 내부 하드 디스크 및 착탈식 디스크와 같은 자기 디스크; 자기-광학 디스크; 및 CD-ROM 디스크 (804) 를 포함하는 모든 형태의 비휘발성 메모리를 포함한다. 임의의 상술한 바는, 특수하게 설계된 ASIC (응용 주문형 집적 회로) 에 의해 구현될 수도 있거나 ASIC 에 통합될 수도 있다. 네트워크 어댑터 (805) 가 네트워크 (806) 에 대한 액세스를 관리한다. 터치-감지형 디스플레이 (808) 는, 그 디스플레이 (808) 상의 임의의 원하는 위치에서 사용자가 상호작용하는 것을 허용하도록 클라이언트 컴퓨터에서 사용된다. 또한, 터치-감지형 디스플레이는, 사용자가 다양한 커맨드를 선택하는 것과 제어 신호를 입력하는 것을 허용한다. 터치-감지형 디스플레이는, 시스템에 대한 제어 신호를 입력하기 위한 신호를 생성할 수도 있다.
본 발명의 바람직한 실시형태를 설명하였다. 본 발명의 사상 및 범위로부터 벗어나지 않고 다양한 변경이 이루어질 수도 있다는 것을 이해할 것이다. 따라서, 다른 구현들은 아래의 청구항들의 범위내에 있다. 예를 들어, 본 발명의 방법은, 유선 글러브와 같은 멀티모달 디바이스의 사용을 통해 사용자가 컴퓨터-시뮬레이션된 환경과 상호작용하는 것을 허용하는 가상 현실 기술로 적용될 수도 있다. 따라서, 본 발명에 따른 복제는 사용자에 대해 디스플레이된 가상 오브젝트상에서 수행될 수도 있다.

Claims (10)

  1. 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하기 위한 컴퓨터 구현 방법으로서,
    - 상기 터치-감지형 디스플레이상에 선택된 제 1 오브젝트 (12) 를 디스플레이하는 단계 (10);
    - 상기 선택된 제 1 오브젝트상의 제 1 사용자 상호작용과 제 2 사용자 상호작용을 검출하는 단계 (14);
    - 상기 선택된 제 1 오브젝트 외부의 상기 제 1 사용자 상호작용의 이동을 검출하는 단계 (16);
    - 상기 터치-감지형 디스플레이상에, 상기 제 1 사용자 상호작용의 상기 이동을 트랙킹하는 제 2 오브젝트를 디스플레이하는 단계 (20) 로서, 상기 제 2 오브젝트는 상기 제 1 오브젝트의 복제인, 상기 제 2 오브젝트를 디스플레이하는 단계 (20); 및
    - 상기 터치-감지형 디스플레이상에, 상기 제 1 사용자 상호작용의 최종 검출된 위치에 따라 상기 제 2 오브젝트를 포지셔닝하는 단계 (26) 를 포함하는, 컴퓨터 구현 방법.
  2. 제 1 항에 있어서,
    상기 제 1 사용자 상호작용의 이동을 검출하는 단계 이후에,
    - 상기 선택된 오브젝트에 대한 상기 제 2 사용자 상호작용의 종료를 검출하는 단계 (18) 를 더 포함하는, 컴퓨터 구현 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 제 1 사용자 상호작용 및 상기 제 2 사용자 상호작용은, 상기 선택된 제 1 오브젝트상에서의 상기 제 1 및 제 2 사용자 상호작용의 검출의 순서에 관계없이, 연속적으로 또는 동시에 수행되는, 컴퓨터 구현 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 제 1 사용자 상호작용의 상기 최종 검출된 위치 (24) 는, 상기 터치-감지형 디스플레이상에서 상기 제 1 사용자 상호작용의 종료가 검출되는 위치인, 컴퓨터 구현 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 선택된 제 1 오브젝트를 디스플레이하는 단계 및 상기 제 2 오브젝트를 포지셔닝하는 단계는, 그래픽 사용자 인터페이스의 동일한 윈도우내에서 수행되는, 컴퓨터 구현 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 제 2 오브젝트를 디스플레이하는 단계에서, 상기 제 2 오브젝트의 렌더링이 상기 제 1 오브젝트의 렌더링과 비교하여 변경되는, 컴퓨터 구현 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 제 1 사용자 상호작용 및 상기 제 2 사용자 상호작용은,
    - 스타일러스; 및
    - 손가락
    중 적어도 하나 또는 이들의 조합에 의한 상기 터치-감지형 디스플레이에 대한 접촉에 의해 수행되는, 컴퓨터 구현 방법.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 제 1 사용자 상호작용 및 상기 제 2 사용자 상호작용은, 사용자의 2개의 손의 각각의 손가락의 상기 터치-감지형 디스플레이에 대한 접촉에 의해 수행되는, 컴퓨터 구현 방법.
  9. 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하기 위해 컴퓨터 판독가능한 매체상에 저장된 컴퓨터 프로그램으로서,
    컴퓨터로 하여금, 제 1 항 내지 제 8 항 중 어느 한 항에 기재된 방법의 단계들을 취하게 하는 코드 수단을 포함하는, 컴퓨터 프로그램.
  10. 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 장치로서,
    제 1 항 내지 제 8 항 중 어느 한 항에 기재된 방법의 단계들을 구현하는 수단을 포함하는, 오브젝트를 복제하는 장치.
KR1020100126290A 2009-12-11 2010-12-10 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템 KR101794498B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP09306214.9A EP2333651B1 (en) 2009-12-11 2009-12-11 Method and system for duplicating an object using a touch-sensitive display
EP09306214.9 2009-12-11

Publications (2)

Publication Number Publication Date
KR20110066880A true KR20110066880A (ko) 2011-06-17
KR101794498B1 KR101794498B1 (ko) 2017-11-07

Family

ID=42174617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100126290A KR101794498B1 (ko) 2009-12-11 2010-12-10 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템

Country Status (6)

Country Link
US (1) US8896549B2 (ko)
EP (1) EP2333651B1 (ko)
JP (1) JP2011123896A (ko)
KR (1) KR101794498B1 (ko)
CN (1) CN102096548B (ko)
CA (1) CA2724893A1 (ko)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8773378B2 (en) * 2010-10-01 2014-07-08 Z124 Smartpad split screen
JP5203797B2 (ja) * 2008-05-13 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及び情報処理装置の表示情報編集方法
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US8786639B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating a collection of objects
KR101763263B1 (ko) * 2010-12-24 2017-07-31 삼성전자주식회사 3d 디스플레이 단말 장치 및 그 조작 방법
GB2505403A (en) * 2012-08-06 2014-03-05 Ibm Efficient usage of screen real estate on the electronic device
CN102878978B (zh) * 2012-08-31 2014-12-24 深圳华盛昌机械实业有限公司 遥控测距生成工程蓝图的方法
JP2014112335A (ja) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd 情報処理装置及びプログラム
EP2887199B1 (en) * 2013-12-20 2020-06-03 Dassault Systèmes A device with a touch-sensitive display comprising a mecanism to copy and manipulate modeled objects
EP3040839B1 (en) * 2014-12-31 2020-08-12 Dassault Systèmes Selection of a graphical element
US9910572B2 (en) 2015-04-15 2018-03-06 International Business Machines Corporation Duplication of objects with positioning based on object distance
JP2017076207A (ja) * 2015-10-14 2017-04-20 株式会社リコー 画像処理装置及び画像処理システム
IL310337A (en) * 2016-08-11 2024-03-01 Magic Leap Inc Automatic positioning of a virtual object in 3D space
JP6249073B2 (ja) * 2016-09-28 2017-12-20 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6446108B2 (ja) * 2017-10-02 2018-12-26 シャープ株式会社 情報処理装置、情報処理方法及びプログラム
US10739891B2 (en) * 2017-11-30 2020-08-11 Innolux Corporation Touch display device
DK180359B1 (en) 2019-04-15 2021-02-03 Apple Inc Accelerated scrolling and selection
WO2021102114A1 (en) * 2019-11-19 2021-05-27 New York Blood Center, Inc. Substituted heterocyclics with therapeutic activity in hiv
US11816759B1 (en) * 2020-09-24 2023-11-14 Apple Inc. Split applications in a multi-user communication session
CN113515228A (zh) * 2021-06-09 2021-10-19 华为技术有限公司 一种虚拟标尺显示方法以及相关设备
EP4198697A1 (en) * 2021-12-20 2023-06-21 Dassault Systèmes Method for duplicating a graphical user interface (gui) element in a 3d scene

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69430967T2 (de) * 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
US5732227A (en) * 1994-07-05 1998-03-24 Hitachi, Ltd. Interactive information processing system responsive to user manipulation of physical objects and displayed images
US6266057B1 (en) * 1995-07-05 2001-07-24 Hitachi, Ltd. Information processing system
GB9614837D0 (en) * 1996-07-12 1996-09-04 Rank Xerox Ltd Interactive desktop system with multiple image capture and display modes
CA2318815C (en) * 1998-01-26 2004-08-10 Wayne Westerman Method and apparatus for integrating manual input
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US6331840B1 (en) * 1998-03-27 2001-12-18 Kevin W. Nielson Object-drag continuity between discontinuous touch screens of a single virtual desktop
US6545669B1 (en) * 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6670894B2 (en) * 2001-02-05 2003-12-30 Carsten Mehring System and method for keyboard independent touch typing
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6570557B1 (en) * 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
JP2003005912A (ja) * 2001-06-20 2003-01-10 Hitachi Ltd タッチパネル付きディスプレイ装置及び表示方法
GB2382879A (en) * 2001-12-06 2003-06-11 Hewlett Packard Co Image capture device with capture field illumination
US7158123B2 (en) * 2003-01-31 2007-01-02 Xerox Corporation Secondary touch contextual sub-menu navigation for touch screen interface
US7185291B2 (en) * 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7650575B2 (en) * 2003-03-27 2010-01-19 Microsoft Corporation Rich drag drop user interface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
JP4713177B2 (ja) * 2005-02-24 2011-06-29 博章 出口 情報入力システム及び情報入力プログラム
US7665028B2 (en) * 2005-07-13 2010-02-16 Microsoft Corporation Rich drag drop user interface
US8042065B2 (en) * 2005-11-17 2011-10-18 Microsoft Corporation Smart copy/paste of graphical nodes
US7620901B2 (en) * 2006-03-21 2009-11-17 Microsoft Corporation Simultaneous input across multiple applications
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US7777732B2 (en) * 2007-01-03 2010-08-17 Apple Inc. Multi-event input system
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US7936341B2 (en) * 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US7916126B2 (en) * 2007-06-13 2011-03-29 Apple Inc. Bottom-up watershed dataflow method and region-specific segmentation based on historic data to identify patches on a touch sensor panel
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8122384B2 (en) * 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
US8201109B2 (en) * 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
JP5203797B2 (ja) * 2008-05-13 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 情報処理装置及び情報処理装置の表示情報編集方法
JP5164675B2 (ja) * 2008-06-04 2013-03-21 キヤノン株式会社 ユーザインターフェースの制御方法及び情報処理装置及びプログラム
US20090327975A1 (en) * 2008-06-27 2009-12-31 Stedman Roy W Multi-Touch Sorting Gesture
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
US8269736B2 (en) * 2009-05-22 2012-09-18 Microsoft Corporation Drop target gestures
US8762886B2 (en) * 2009-07-30 2014-06-24 Lenovo (Singapore) Pte. Ltd. Emulating fundamental forces of physics on a virtual, touchable object
US8243983B2 (en) * 2009-08-14 2012-08-14 Microsoft Corporation Graphically encoded data copy and paste
KR101484826B1 (ko) * 2009-08-25 2015-01-20 구글 잉크. 직접적인 조작 제스처들
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US8473870B2 (en) * 2010-02-25 2013-06-25 Microsoft Corporation Multi-screen hold and drag gesture

Also Published As

Publication number Publication date
CA2724893A1 (en) 2011-06-11
EP2333651B1 (en) 2016-07-20
US20110141043A1 (en) 2011-06-16
CN102096548A (zh) 2011-06-15
US8896549B2 (en) 2014-11-25
JP2011123896A (ja) 2011-06-23
KR101794498B1 (ko) 2017-11-07
CN102096548B (zh) 2016-01-27
EP2333651A1 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
KR101794498B1 (ko) 터치-감지형 디스플레이를 사용하여 오브젝트를 복제하는 방법 및 시스템
EP3491506B1 (en) Systems and methods for a touchscreen user interface for a collaborative editing tool
JP2012511774A (ja) ソフトウェアキーボード制御方法
JP2019087284A (ja) ユーザインタフェースのための対話方法
Radhakrishnan et al. Finger-based multitouch interface for performing 3D CAD operations
Lopes et al. Combining bimanual manipulation and pen-based input for 3d modelling
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
JP6563649B2 (ja) モデル化オブジェクトをコピーおよび操作する機構を備えるタッチセンサ式ディスプレイ付きデバイス
JP6711616B2 (ja) グラフィック要素の選択
US10019127B2 (en) Remote display area including input lenses each depicting a region of a graphical user interface
Pfeuffer et al. Bi-3D: Bi-Manual Pen-and-Touch Interaction for 3D Manipulation on Tablets
JP6401046B2 (ja) 3次元モデル化オブジェクトを設計するためのコンピュータ実装方法
JP6021460B2 (ja) 描画方法、プログラム、及び装置
Xiao et al. Research on visual programming system of gesture interaction interface in VR
Jackson et al. From Painting to Widgets, 6-DOF and Bimanual Input Beyond Pointing.
Declec et al. Tech-note: Scruticam: Camera manipulation technique for 3d objects inspection
US20230196704A1 (en) Method for duplicating a graphical user interface (gui) element in a 3d scene
Kwon et al. Designing 3D menu interfaces for spatial interaction in virtual environments
McMullen et al. Meaningful touch and gestural interactions with simulations interfacing via the dart programming language
Chen A hybrid direct visual editing method for architectural massing study in virtual environments
Sharma et al. MozArt: an immersive multimodal CAD system for 3D modeling
Rodríguez et al. Towards a natural interaction for rapid prototyping of parametric closets
Diehl et al. A new approach for gesture-based sketching

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant