KR101735442B1 - 표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법 - Google Patents

표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법 Download PDF

Info

Publication number
KR101735442B1
KR101735442B1 KR1020157025662A KR20157025662A KR101735442B1 KR 101735442 B1 KR101735442 B1 KR 101735442B1 KR 1020157025662 A KR1020157025662 A KR 1020157025662A KR 20157025662 A KR20157025662 A KR 20157025662A KR 101735442 B1 KR101735442 B1 KR 101735442B1
Authority
KR
South Korea
Prior art keywords
view
touch screen
dimensional object
touch
determining
Prior art date
Application number
KR1020157025662A
Other languages
English (en)
Other versions
KR20150121098A (ko
Inventor
데이비드 딘 리틀
Original Assignee
헥사곤 테크놀로지 센터 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 헥사곤 테크놀로지 센터 게엠베하 filed Critical 헥사곤 테크놀로지 센터 게엠베하
Publication of KR20150121098A publication Critical patent/KR20150121098A/ko
Application granted granted Critical
Publication of KR101735442B1 publication Critical patent/KR101735442B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

삼차원 객체를 조작하는 방법은 삼차원 객체에 대한 제1 뷰를 터치스크린 상에 표시한다. 상기 터치스크린은 상기 터치스크린의 적어도 하나의 미리 특정된 묘사되지 않은 영역과 연관된 삼차원 뷰들을 갖는다. 상기 방법은 시각적으로 묘사되지 않은 영역 내의 터치스크린 상의 터치 입력을 수신하고, 상기 터치 입력을 수신한 상기 시각적으로 묘사되지 않은 영역에 할당된 뷰에 기초하여 상기 삼차원 객체에 대한 제2 뷰를 결정한다. 상기 방법은 상기 터치스크린 상에 상기 삼차원 객체에 대한 상기 제2 뷰를 표시한다.

Description

표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법{APPARATUS AND METHOD FOR MANIPULATING THE ORIENTATION OF AN OBJECT ON A DISPLAY DEVICE}
이 출원은 "표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법"이라는 명칭으로, 2013년 5월 29일 출원된 미합중국 출원번호 13/904,470에 대한 우선권을 주장한다. 미합중국 출원번호 13/904,470의 전체 내용은 이 출원에 참조로 포함된다.
본 발명은 개괄적으로 컴퓨팅 장치에서 삼차원 객체를 표시하는 것에 관한 것이다. 보다 구체적으로, 본 발명은 터치 입력들에 기초하여 표준 뷰들을 표시하는 것에 관한 것이다.
현대의 컴퓨팅 장치들 또는 컴퓨터 시스템들은 공통적으로 사용자로 하여금 표시되는 삼차원 객체를 거의 어떠한 관점(viewpoint)에서도 볼 수 있게 한다. 예를 들어, 건축가는 컴퓨터 지원 설계 패키지를 이용하여 새로운 집이나 건물을 설계한 후, 그 집을 상면과 측면들과 같은 다양한 임의의 각도로 표시할 수 있다. 이를 위하여, 널리 사용되는 많은 컴퓨터 설계 패키지들은 객체에 대한 사용자 제어를 가능케하는 툴바들(toolbars)과 팰릿들(pallets)을 표시한다. 여러 가지 가운데서, 툴바는, 사용자에 의해 선택되거나 조작되었을 때, 객체 또는 관점(viewpoint)을 원하는 방식으로 이동하게 하는 버튼들(buttons), 슬라이더들(sliders), 또는 다른 시각적 표지(visual indicia)를 가질 수 있다.
이런 유형의 사용자 인터페이스/표시 제어는, 특히 데스크톱 컴퓨터 공간과 고성능 컴퓨팅 공간에서, 다년간 효과적이었다. 그러나, 바람직하지 않게, 스마트폰들과 태블릿들과 같은 더 작은 휴대용 장치들로의 가속화된 추세에 있어, 이 중요한 툴바들과 팰릿들은 화면 공간의 상당 부분을 차지할 수 있다. 사실상, 그것들은 너무 많은 공간을 차지할 수 있어서 표시되는 최종 객체는 조작을 위한 여유 공간을 거의 갖지 못하고 중대한 크기 제한들을 가질 수 있다.
객체의 오리엔테이션을 조작하는 성능을 가진 컴퓨터 장치들 상에서 이용할 수 있는 실제 화면을 최대화한다.
본 발명의 일 실시예에 따르면, 삼차원 객체를 조작하는 방법은 삼차원 객체에 대한 제1 뷰를 터치스크린 상에 표시한다. 상기 터치스크린은 상기 터치스크린의 적어도 하나의 미리 특정되고 시각적으로 묘사되지 않은 영역(undelineated)과 연관된 삼차원 뷰들을 갖는다. 상기 방법은 시각적으로 묘사되지 않은 영역 내의 터치스크린 상의 터치 입력을 수신하고, 상기 터치 입력을 수신하는 시각적으로 묘사되지 않은 영역에 할당된 뷰에 기초하여 상기 삼차원 객체에 대한 제2 뷰를 결정한다. 상기 방법은 상기 삼차원 객체에 대한 제2 뷰를 상기 터치스크린 상에 표시한다.
시각적으로 묘사된 영역은 상기 삼차원 객체에 대한 조작과 연관된 시각적 표지(indicia)로부터 자유로울 수 있다. 더욱이, 상기 터치스크린의 일부만이 시각적으로 묘사되지 않은 영역들을 갖고, 이 영역들은 연관된 뷰들을 갖는다.
상기 방법은 상기 터치 입력의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정할 수 있다. 상기 방법은 게다가 세 손가락 두드림의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정할 수 있다. 여러 가지 중에서, 상기 제2 뷰는 상기 터치 입력의 상기 터치스크린 상에서의 위치에 기초한 보수의 표준 뷰들 중의 하나일 수 있다. 예시적인 표준 뷰들은 북서 등각 뷰, 북동 등각 뷰, 남서 등각 뷰, 남동 등각 뷰, 배면 뷰, 좌측면 뷰, 우측면 뷰, 정면 뷰, 및 상면 뷰를 포함한다.
본 발명의 다른 실시예에 따르면, 컴퓨터 프로그램 제품은 삼차원 객체를 조작하기 위한 컴퓨터 코드가 기록되어 있는 컴퓨터 판독 가능한 비일시적 기록매체를 포함한다. 상기 컴퓨터 코드는 삼차원 객체에 대한 제1 뷰를 터치스크린 상에 표시하기 위한 프로그램 코드를 포함한다. 상기 터치스크린은 상기 터치스크린의 적어도 하나의 미리 특정되고 시각적으로 묘사되지 않은 영역과 연관된 삼차원 뷰들을 갖는다. 상기 컴퓨터 코드는 상기 시각적으로 묘사되지 않은 영역 내의 터치스크린 상의 터치 입력을 수신하기 위한 프로그램 코드와, 상기 터치 입력을 수신하는 시각적으로 묘사되지 않은 영역에 할당된 뷰에 기초하여 상기 삼차원 객체에 대한 제2 뷰를 결정하기 위한 프로그램 코드를 포함한다. 상기 컴퓨터 코드는 상기 삼차원 객체에 대한 제2 뷰를 상기 터치스크린 상에 표시하기 위한 프로그램 코드를 더 포함한다.
다른 실시예에 따르면, 장치는 삼차원 객체에 대한 복수의 뷰들을 표시하기 위한 터치스크린을 갖는다. 이를 위하여, 상기 터치스크린은 상기 삼차원 객체를 표시할 때 복수의 묘사되지 않은 터치스크린 영역들을 갖도록 구성된다. 추가적으로, 상기 장치는 또한 터치 입력에 응답하여 상기 터치 스크린의 묘사되지 않은 영역들을 감지하고 결정하도록 구성된 센서와, 상기 센서와 동작적으로 결합된 뷰 제어기를 포함한다. 상기 뷰 제어기는 각각의 묘사되지 않은 영역을 상기 삼차원 객체에 대한 복수의 서로 다른 뷰들 중의 하나와 연관시키도록 구성된다. 더욱이, 상기 뷰 제어기는 또한 (묘사되지 않은 영역들 중의 하나에 대한 선택 후에) 상기 터치스크린이 상기 선택된 묘사되지 않은 영역과 연관된 상기 삼차원 객체에 대한 상기 뷰를 표시하도록 구성된다.
다른 실시예에 따르면, 삼차원 객체를 조작하는 방법은 삼차원 객체에 대한 제1 뷰를 표시장치에 표시한다. 상기 표시장치는 상기 터치스크린의 적어도 하나의 미리 특정되고 시각적으로 묘사되지 않은 영역과 연관된 삼차원 뷰를 표시하도록 구성된다. 상기 방법은 또한 상기 적어도 하나의 시각적으로 묘사되지 않은 영역과 연관된 입력을 상기 표시장치에서 수신한다. 상기 방법은 뿐만 아니라 상기 수신 입력에 연관된 적어도 하나의 시각적으로 묘사되지 않은 영역에 할당된 뷰에 기초하여 상기 삼차원 객체에 대한 제2 뷰를 결정한다. 추가적으로, 상기 방법은 상기 삼차원 객체에 대한 제2 뷰를 상기 표시장치에 표시한다.
여러 실시예들에 있어서, 상기 입력은 마우스에 의한 선택을 포함할 수 있고, 상기 표시장치는 터치스크린을 포함할 수 있다.
본 발명의 예시적인 실시예들은 컴퓨터 판독 가능한 프로그램 코드가 기록된 컴퓨터 이용 가능한 기록매체를 포함하는 컴퓨터 프로그램 제품으로 구현된다. 상기 컴퓨터 판독 가능한 코드는 종래의 절차에 따라 컴퓨터 시스템에 의해 판독되고 이용될 수 있다.
객체의 오리엔테이션을 조작하는 성능을 가진 컴퓨터 장치들 상에서 이용할 수 있는 실제 화면을 최대화한다.
통상의 기술자는, 바로 아래에 요약된 도면들을 참조하여 논의되는, 다음의 "예시적인 실시예들에 대한 설명"으로부터, 본 발명의 여러 실시예들의 이점들을 보다 충분하게 이해할 수 있을 것이다.
도 1A 내지 1E는 컴퓨팅 장치가 미리 특정된 입력들을 수신한 이후 객체에 대한 서로 다른 뷰들을 표시하는 컴퓨팅 장치를 나타낸다.
도 2는 여기서 기술되는 3D 모델링 프로그램을 이용하는 컴퓨팅 장치에 대한 예시적인 기능적 블록도를 나타낸다.
도 3 내지 도 9는 각각이 서로 다른 터치 입력 명령에 대응하는 영역들로 분할되어 있는 예시적인 터치스크린들을 나타낸다. 상기 영역들은 정상적으로는 상기 터치스크린 상에 묘사되어 있지 않지만, 경계들이 명확성을 위해 여기 묘사되어 있다.
도 10은 객체에 대한 표준 뷰들과 터치스크린 상의 3×3 그리드(grid) 영역들 간의 예시적인 연관관계를 묘사한다.
도 11은 터치스크린의 묘사되지 않은 영역들 상에서 수신된 터치 입력들에 기초하여 삼차원 객체를 서로 다른 뷰들로 표시하기 위한 예시적인 흐름도를 묘사한다.
예시적인 실시예들은 디스플레이가 표시하는 객체의 오리엔테이션을 조작하는 성능을 가진 컴퓨터 장치들 상에서 이용할 수 있는 실제 화면을 최대화한다. 따라서, 태블릿들, 휴대용 컴퓨터들, 랩톱들(laptops), 및 스마트폰들과 같은 더 작은 표시장치들은 화면의 많은 부분을 가리지 않으면서 객체에 대한 뷰포인트를 변경하기 위한 중요한 기능성을 제공할 수 있다. 이를 위하여, 상기 컴퓨터 시스템/컴퓨팅 장치는 시각적으로 묘사되지 않은 복수의 영역들로 분할된 표시장치(예, 터치스크린 표시장치)를 갖는다. 상기 영역들 중의 임의의 영역에서, 터치 입력과 같은, 어떤 미리 정해진 입력에 대한 수신은 상기 객체가 상기 객체의 오리엔테이션을 어떤 방식으로 변경하게 한다. 예를 들어, 터치스크린 장치의 위쪽 사분면에 대한 두드림은 표시되는 객체가 180도 회전하게 할 수 있다. 여러 실시예들의 세부사항들은 아래에 논의된다.
도 1A는 본 발명의 여러 실시예들에 따라 구성될 수 있는 컴퓨터 장치를 도식적으로 나타낸다. 구체적으로, 도 1A에 나타난 장치는 객체를 제1 오리엔테이션에서 표시하는 터치스크린을 가진 태블릿이다. 이 예에서의 터치스크린은 상기 객체 이외에는 거의 아무것도 나타내지 않는다는 것에 주의하라. 훈련된 사용자는 그럼에도 불구하고 상기 태블릿이 상기 표시장치에 관하여 어떤 입력(아래에 논의됨)의 수신에 의존하여 상기 객체의 오리엔테이션을 변경하는 로직(logic)을 가진다는 것을 이해한다.
도 1B는 이와 같이 상기 태블릿이 상기 미리 특정된 입력(아래에 논의됨)을 수신한 이후의 상기 객체에 대한 다른 뷰를 도식적으로 나타낸다. 이 경우에, 상기 객체는 상면을 나타내도록 회전되었다. 도 1C 내지 1E는 앞서 언급된 입력에 응답하여 생성된 상기 객체에 대한 가능성이 있는 복수의 다른 뷰들을 나타낸다. 이 뷰들은 어떤 소위 "표준 뷰들"을 포함하는데, 이 표준 뷰들은, 다른 방법들 중에서, 잘 알려진 어떤 표준 기관, 또는 상기 사용자 또는 어떤 다른 사람에 의해 미리 정의될 수 있다. 하나의 예로, 이 뷰들은 북서 등각 뷰, 북동 등각 뷰, 남서 등각 뷰, 남동 등각 뷰, 배면 뷰, 좌측면 뷰, 우측면 뷰, 정면 뷰, 및 상면 뷰를 포함할 수 있다. 다른 뷰들도 가능하기 때문에, 논의된 뷰들은 단지 임의의 수의 서로 다른 뷰들에 대한 예시일 뿐이다.
예시적인 실시예들은 다양한 다른 분야에서 이용될 수 있다. 예를 들어, 삼차원(3D) 모델링은 컴퓨터 지원 설계와 삼차원 프린팅과 같은 많은 기술들에 적용가능한 유용한 설계 툴(tool)이다. 예를 들어, 제품 설계자들은 소비 제품을 위한 원형들을 시각화하고 개선하기 위하여 3D 모델링을 이용할 수 있고, 엔지니어들은 산업 건물을 위한 내부 기반시설을 개발하기 위하여 모델링을 이용할 수 있다. 3D 모델링을 위한 프로그램들은 설계 과정에서 도움이 되도록 사용자들이 객체에 대한 자신의 뷰를 조정할 수 있도록 한다. 예를 들어, 사용자는 상기 객체의 한 영역에 집중해서, 그 특정한 뷰에서 특징들을 추가, 삭제, 또는 조정할 수 있다. 다른 예와 예시적인 실시예들에서, 상기 사용자는 객체가 다른 관점에서 보이도록 조정할 수 있다.
도 2는 여기서 기술되는 3D 모델링 프로그램을 사용하는 컴퓨팅 장치(200)에 대한 예시적인 블록도를 나타낸다. 상기 컴퓨팅 장치(200)는 여기서 기술되는 모델링 프로그램에 대응하는 프로그램 코드를 실행하는 프로세서(203)를 포함한다. 상기 프로그램 코드는 메모리(205)에 저장될 수 있다. 객체에 대한 파일도 상기 메모리(205)에 저장될 수 있다. 상기 프로세서(203)는 상기 객체에 대한 뷰에 대응하는 데이터를 뷰 제어기(207)로 전송한다. 상기 뷰 제어기(207)는 이 뷰를 표시를 위해 터치스크린에 구동한다. 사용자가 터치 입력을 상기 터치스크린(209)에 적용할 때, 상기 터치스크린(209)의 또는 상기 터치스크린(209)에 결합된 센서(211)는 상기 터치 입력(예, 위치, 터치의 유형)을 상기 프로세서(203)로 전달한다. 상기 터치 입력이 상기 객체를 다른 뷰로 표시하는 명령을 작동시키면, 상기 프로세서(203)는 상기 객체에 대한 다른 뷰에 대응하는 데이터를 상기 뷰 제어기(207)로 전달한다.
3D 모델링 프로그램이, 터치스크린을 갖거나 갖지 않은 태블릿 또는 랩톱과 같은, 촉각 컴퓨팅 장치에서 실행될 때, 상기 프로그램은 일반적으로 상기 객체를, 예를 들어, 테스크톱 컴퓨터들에서 이용 가능한 표시 화면보다 작은 영역 안에 표시한다. 주어진 한정된 표시 공간에서, 본 발명자는 관심 객체를 표시하기 위한 공간의 양을 극대화하는 것이 이롭다는 것을 인식하였다. 따라서, 다양한 실시예들은 터치스크린 상의 미리 결정되고, 시각적으로 묘사되지 않은 터치 입력 위치를 통해 객체를 조작하기 위한 숨겨진 명령 수단들을 구현한다. 예를 들어, 상기 객체의 오리엔테이션을 조작하기 위한, 특정된 툴바 또는 팰릿과 같은, 특정된 그래픽 사용자 인터페이스 표지가 필요 없다. 따라서, 예시적인 실시예들은 그래픽 명령 수단들과 객체들을 표시하기 위해 필요한 화면 공간의 양을 줄인다.
추가적으로, 사용자는 또한 상기 객체를 다른 방식으로 제어하는 다른 터치 입력들을 사용할 수 있다(예를 들어, 확대, 회전, 부분 삭제). 또한 미리 결정된 터치 입력들을 표준 뷰들(예를 들어, 상면 뷰, 측면 뷰 등)을 획득하기 위한 명령들로 인코딩함으로써, 사용자는 일련의 서로 다른 터치 입력들을 퉁하여 상기 객체와 원활하게 상호 작용할 수 있다.
뷰잉 제어(viewing control)는 터치 입력의 유형, 상기 터치 입력이 수신된 위치, 또는 두가지 모두와 같은 많은 다른 기준들에 기초할 수 있다. 예를 들어, 뷰잉 제어는 상기 터치스크린의 미리 특정된 영역에서 수신된 터치 입력의 특정한 유형에 대응할 수 있다. 예시적인 실시예들에서, 상기 3D 객체를 표시할 때, 상기 미리 특정된 영역들은 상기 터치스크린 상에서 시각적으로 묘사되지 않고, 그런 까닭으로 상기 표시되는 3D 객체가 뚜렷해진다. 다시 말해서, 상기 3D 객체를 표시할 때, 상기 표시장치는 상기 터치스크린의 서로 다른 영역들 간의 묘사를 가리키는 어떠한 경계선들이나 다른 표지를 표시하지 않는다.
3D 모델링 프로그램은, 객체를 표시하지 않을 때와 같은, 특정한 때에 상기 묘사되지 않은 영역들에 관한 정보를 표시할 수 있다. 예를 들어, 특정한 실시예들을 구현하는 3D 모델링 프로그램이 촉각 컴퓨터 장치에 처음 설치되었을 때, 상기 프로그램은, 터치 입력의 유형에 의해 체계화된, 각각의 묘사되지 않은 영역의 경계들과 그것들과 연관된 뷰잉 제어명령들을 표시할 수 있다. 설치 후에, 어떤 실시예들은, 터치스크린의 한쪽 모서리에서 반대쪽 모서리로의 사용자 스와이프(swipe)에 응답하는 것과 같은, 어떤 사용자 상호작용에 응답하여 상기 서로 다른 영역들의 경계들을 나타낼 수 있다. 상기 프로그램은 또한 온라인 도움 매뉴얼로의 연결뿐만 아니라, 어떻게 도움 메뉴에 접근하는지에 대한 정보를 표시할 수 있다. 어떤 실시예들에서, 표시된 경계들은 일정 시간(예를 들어, 5초) 경과 후 희미해지거나, 상기 경계들은 사용자가 상기 미리 결정된 터치 입력을 반복할 때, 사라질 수 있다.
앞서 기술된 바와 같이, 모델링 프로그램은 상기 묘사되지 않은 영역들 중의 하나에 대한 단순한 터치에 의해서는 상기 객체에 대한 뷰포인트를 변경하지 않을 수 있다. 그 대신, 시스템은 가급적 어떤 미리 결정된 터치 입력 유형에 응답하도록 프로그램된다. 예를 들어, 상기 미리 결정된 터치 입력은 단일의 다섯 손가락 두드림( 즉, 터치스크린 상의 다섯 손가락의 동시 두드림), 네 손가락 두드림, 세 손가락 두드림, 두 손가락 두드림, 또는 한 손가락 두드림일 수 있다. 다른 예로, 상기 입력은 다중의 두드림들(즉, 두 번, 세 번, 또는 네 번의 두드림들)을 필요로 할 수 있다. 터치 입력들의 다른 예시적인 유형들은 삼중의 두드림들, 한 손가락 또는 두 손가락으로 원 그리기, 이중의 두드림과 스와이프의 조합, 또는 미리 특정된 특징들의 형식 내에서의 스와이핑을 포함한다.
어떤 실시예들은 보다 정교한 터치 패턴을 필요로 할 수 있다. 예를 들어, 객체에 대한 뷰를 회전시키거나 그렇지 않으면 조작하기 위하여, 어떤 실시예들은 어떤 사분면들 상에서의 다중 터치 입력들의 미리 정해진 패턴을 필요로할 수 있다. 위의 예를 네 개의 사분면의 묘사되지 않은 영역를 갖는 표시장치에서 실시하는 중에서, 객체를 측면 뷰로 회전시키기 위하여, 어떤 실시예들은 사용자가 상부 좌측 사분면을 두드리고, 이어서 하부 우측 사분면을 두드리고, 다시 상부 좌측 사분면을 두드리는 것을 필요로 할 수 있다.
터치스크린은 균일하거나 균일하지 않은 크기와 형상의 영역들, 예를 들어, 그리드(grid) 또는 매트릭스(matrix)로 분할될 수 있다. 이를 위하여, 도 3 내지 도 9는 터치스크린을 분할하는 다양한 서로 다른 개략적인(non-exhaustive) 방식들을 도식적으로 나타낸다. 예를 들어, 도 3은 사분면들(300)로 분할된 터치스크린을 나타내는 반면, 도 4는 3×3 그리드(400)로 분할된 터치스크린을 나타낸다. 다른 실시예에서, 도 5와 도 6에 묘사된 바와 같이, 터치스크린은 열들(500) 또는 행들(600)로 분할될 수 있다. 이에 반해, 터치스크린은 기준점으로부터의 거리에 기초한 영역들로 분할될 수 있다. 이런 식으로, 도 7에 묘사된 바와 같이, 터치스크린은 중심(700)으로부터 방사되는 동심원들로 분할될 수 있다. 또 다른 실시예로서, 도 8에 묘사된 바와 같이, 터치스크린은 동심 직사각형으로 분할될 수 있다. 터치스크린은 터치 입력의 기준점에 대한 각도에 기초한 부분들로 분할될 수 있다. 이 실시예들에서, 도 9에 묘사된 바와 같이, 상기 영역들은 화면의 가장자리와 터치스크린의 중심(900)으로부터 방사되는 선들에 의해 경계가 설정될 수 있다. 어떤 실시예들은 터치스크린을 불규칙적인 형상과 크기의 영역들로 분할한다.
위에서 제안된 바와 같이, 사용자는 터치스크린의 미리 특정된 영역들을 구성할 수 있다. 보다 구체적으로, 3D 모델링 프로그램은 사용자가 객체를 조작하기 위한 모든 필요사항들을 선택할 수 있게 하는 유틸리티(utility)를 가질 수 있다. 따라서, 사용자는 터치스크린이 어떻게 분할되고, 어떤 특정 입력(터치 또는 비-터치)이 원하는 기능성을 만들어내는 지를 특정할 수 있다. 사용자는 화면 상의 영역들의 경계들을 그릴 수 있다. 모델링 프로그램은 사용자가 구성한 미리 특정된 영역들을 다르거나 또는, 같은 미리 결정된 터치 입력들에 응답하여 저장할 수 있다.
사용자는 또한 터치스크린이 어떻게 미리 특정된 영역들로 분할되는 지를 변경할 수 있다. 예를 들어, 사용자는 미리 결정된 터치 입력(예를 들어, 표시장치 화면의 둘레를 따르는 원형 동작, 화면 상에서의 “X” 동작)을 상기 미리 특정된 영역들을 변경하기 위해 적용할 수 있다. 3D 모델링 프로그램은 미리 결정된 터치 입력의 각각의 적용에 응답하여 터치스크린을 분할하는 다른 방식(예를 들어, 사분면들, 네 개의 동심 직사각형들)을 표시할 수 있다. 사용자는 프로그램이 사용자가 이용하고자 하는 미리 특정된 영역들을 표시하기까지 터치스크린을 변경하기 위한 터치 입력을 계속 적용할 수 있다.
위에서 논의된 하나의 예에서, 한 세트의 터치 입력 제어명령에 있어서, 터치 입력의 유형은 삼중 두드림(triple tap)이고 터치스크린의 미리 특정된 영역들은 3×3 그리드 상의 영역들이다. 사용자가 3×3 그리드의 영역들 중의 하나를 세 번 두드릴 때, 3D 모델링 프로그램은 3D 객체를 북서 등각 뷰, 북동 등각 뷰, 남서 등각 뷰, 남동 등각 뷰, 배면 뷰, 좌측면 뷰, 우측면 뷰, 정면 뷰, 또는 상면 뷰 중의 하나로 표시할 수 있다. 도 10은 객체에 대한 표준 뷰들과 터치스크린 상의 3×3 그리드의 영역들 간의 예시적인 연관성들을 묘사한다.
이를 위하여, 객체의 파일은 예시적으로 상기 객체를 표준 뷰들로 표시하기 위한 정보들을 포함한다. 예를 들어, 객체의 파일은 각각의 표준 뷰들에 따라 상기 객체를 표시장치 화면 상에 오리엔팅(orienting)하기 위한 좌표들을 포함할 수 있다. 그리하여, 그 실시예들에서, 3D 모델링 프로그램은 상기 객체를 표준 뷰들로 표시하기 위한 정보를 상기 객체의 파일로부터 결정한다. 보다 구체적으로, 모델링 프로그램은 객체를 상기 파일 내의 데이터에 기초하여 오리엔팅하기 위하여 상기 객체 내의 각각의 픽셀의 상대 픽셀 좌표들을 추출할 수 있다. 객체의 3D 모델링 파일은 상기 객체의 오리엔테이션에 대하여 상기 객체를 위한 데이터에 관한 표준 형식을 따를 수 있다. 예를 들어, 상기 데이터를 위한 X, Y, 및 Z 좌표들은 상기 객체를 정면 뷰로 묘사할 수 있다. 이 실시예들에서, 프로그램은 상기 객체를 상기 정면 뷰와 상대적으로 다른 표준 뷰들로 뷰잉(viewing)하기 위한 정보(예를 들어, 상대 좌표들)를 이미 저장할 수 있다. 프로그램이 상기 객체의 파일을 열 때, 상기 프로그램이 상기 객체를 서로 다른 표준 뷰들로 뷰잉하기 위한 정보를 상기 뷰들에 대응하는 터치 입력 제어명령들과 연관시킨다.
더욱이, 위에서 기술한 바와 같이, 사용자는 터치스크린의 서로 다른 영역들과 연관된 뷰들을 구성할 수 있다. 이를 위하여, 사용자는 먼저 터치스크린이 미리 특정된 영역들로 분할되는 방식을 선택할 수 있다. 예를 들어, 사용자는 터치스크린을 분할하는 서로 다른 방식들(예를 들어, 사분면들, 3×3 그리드, 동심 직사각형들)을 살펴보기 위하여 미리 결정된 터치 입력(예를 들어, 표시장치 화면의 둘레를 따르는 원형 동작, 또는 화면 상에서의 “X” 동작)을 적용할 수 있다. 모델링 프로그램은 그 다음에 객체를 표시할 때 정상적으로는 묘사되지 않는 영역들의 경계들을 표시할 수 있다. 미리 결정된 터치 입력의 각각의 적용에 응답하여, 프로그램은 상기 미리 결정된 터치 입력의 각각의 적용에 응답하여 터치스크린을 분할하는 다른 방식을 표시할 수 있다. 어떤 실시예들에서, 상기 뷰들에 대한 구성은 터치스크린을 영역들로 분할하는 미리 결정된 방식에 대해서만 허가된다. 예를 들면, 상기 프로그램은 사용자가 3x3 그리드내에서 영역만을 위한 뷰fmf 선택할 수 있게 허용할 수 있다.
사용자가 터치스크린이 영역들로 분할되는 방식을 선택한 후에, 사용자는 상기 영역들을 연관시키는 뷰들을 선택하기 위한 추가적인 미리 결정된 터치 입력(들)을 적용할 수 있다. 예를 들어, 사용자는 상기 영역들을 연관시키기 위하여 뷰들을 선택하는 모드를 시작하는 터치 입력을 적용할 수 있다. 사용자는 터치스크린의 영역을 선택하고, 객체(예를 들어, 정육면체, 사람에 대한 삼차원 모델)를 뷰로 조작하고, 상기 뷰를 상기 영역에 연관시킬 수 있다. 어떤 실시예에서, 사용자는 영역(예를 들어, 사분면)을 두드리고, 객체를 상면 뷰로 조작하고, 상기 상면 뷰를 상기 두드려진 영역과 연관시키기 위하여 상기 영역을 다시 두드릴 수 있다. 어떤 실시예들에서, 사용자는 뷰에 대응하는 좌표들을 입력함으로써 객체를 조작할 수 있다. 사용자는 터치스크린의 다른 영역들에 대한 비슷한 동작들을 수행할 수 있다.
3D 모델링 프로그램이 선택 모드를 시작한 후에, 사용자는 객체를 뷰로 조작한 다음, 상기 뷰를 영역에 할당할 수 있다. 사용자는 객체를 제1 뷰로 조작한 다음, 상기 제1 뷰를 터치스크린의 영역에 연관시키기 위한 미리 결정된 터치 입력을 적용할 수 있다. 사용자는 그 다음에 상기 객체를 제2 뷰로 조작하고, 그 다음에 상기 제2 뷰를 터치스크린의 다른 영역에 연관시키기 위한 미리 결정된 터치 입력을 적용한다. 하나의 예로, 사용자는 상기 객체를 정면 뷰로 조작하고, 두 손가락 두드림을 적용하고, 손가락들을 터치스크린의 상부 좌측 사분면으로 드래그(drag)한다. 그 다음에, 사용자는 상기 객체를 배면 뷰로 조작하고, 두 손가락 두드림을 적용하고, 손가락들을 터치스크린의 상부 우측 사분면으로 드래그한다. 사용자는 터치스크린의 모든 영역들이 연관된 뷰를 가질 때까지 비슷한 단계들을 반복한다.
다양한 실시예들은 상기 묘사되지 않은 영역들을 터치스크린 상에 직감적인 영역들이 되도록 설정할 수 있고, 이에 따라 객체에 대한 조작을 용이하게 할 수 있다. 예를 들어, 3×3 그리드의 묘사되지 않은 영역들 내에서, 중심 영역은 객체에 대한 정면 뷰에 대응할 수 있다. 유사한 방식으로, 상부 좌측 영역, 상부 우측 영역, 하부 좌측 영역, 및 하부 우측 영역은, 각각, 북서 등각 뷰, 북동 등각 뷰, 남서 등각 뷰, 및 남동 등각 뷰에 대응될 수 있다. 상부 중심 영역과 하부 중심 영역은, 각각, 상면 뷰 및 저면 뷰에 대응될 수 있다. 다른 실시예들은 사용자가 터치스크린을 접촉하는 장소와 객체에 대한 뷰 간의 유사한 상관관계들을 가질 수 있다. 따라서, 많은 다른 실시예들과 같이, 3×3 그리드에 대한 논의는 하나의 예일 뿐이고 모든 실시예들을 한정하려는 것은 아니다.
다양한 실시예들에서, 터치스크린의 묘사되지 않은 영역과 연관된 뷰의 정면 뷰에 대한 각 변위는, 상기 뷰와 연관된 묘사되지 않은 영역의 위치의 터치스크린의 묘사되지 않은 중심 영역 위치에 대한 각 변위와 연관될 수 있다. 상기 예는 이 구성의 하나의 구현 예일 뿐이다.
도 11은 터치스크린의 묘사되지 않은 영역들 상에서 수신된 터치 입력들에 기초하여 삼차원 객체를 표시하기 위한 예시적인 과정을 묘사한다. 상기 과정은 촉각 또는 다른 유형의 컴퓨팅 장치에서 실행되는 3D 모델링 프로그램이 삼차원 객체에 대한 뷰를 표시하는 단계 11001에서 시작된다.
다음으로, 어느 정도 이후, 컴퓨팅 장치는 터치스크린의 시각적으로 묘사되지 않은 영역 상에서 터치 입력을 수신한다(단계 11003). 이를 위하여, 컴퓨팅 장치는 터치 스크린 상에서의 터치를 감지하는 터치 센서 또는 다른 장치를 갖는다. 예를 들어, 터치 스크린은 현재 널리 사용되는 정전용량형 또는 압전형 터치 스크린일 수 있다. 뷰 제어기 또는 컴퓨팅 장치 내의 다른 로직은 입력의 유형(예를 들어, 두드림의 수, 스와이프의 패턴, 손가락의 수)을 감지하고, 표시장치의 어느 부분이 터치되었는지를 결정한다.
상기 로직이 적절한 터치 입력이 터치스크린의 특정한 묘사되지 않은 영역 내에 수신되었다고 결정하면, 그 다음에는 상기 뷰 제어기는 그 입력과 연관된 제2 뷰를 결정한다(단계 11005). 구체적으로, 상기 뷰 제어기는 상기 터치스크린의 시각적으로 묘사되지 않은 영역, 상기 터치 입력의 유형, 또는 양자 모두에 기초하여 제2 뷰를 식별한다. 상기 뷰 제어기는 그리하여 적절한 정보(예를 들어, 상기 객체 파일들로부터)를 모으고 상기 3D 모델링 프로그램이 상기 삼차원 객체에 대한 상기 제2 뷰를 표시하도록 한다(단계 11007). 그리하여, 상기 터치스크린은 상기 제2 뷰로 직접 변하거나(즉, 단지 상기 제2 뷰로 다른 이미지를 보여주거나), 상기 객체를 상기 제2 뷰로 회전시킴으로써, 상기 회전이나 움직임의 애니메이션(animation)을 상기 제2 뷰로 보여줄 수 있다.
어떤 실시예들은 터치 입력에 의존하지 않는다. 대신에, 그러한 실시예들은 어떤 다른 유형의 입력에 응답할 수 있다. 예를 들어, 상기 3D 모델링 프로그램은 단순히 종래의 마우스, 또는 어떤 키보드 입력에 의한 선택에 응답할 수 있다. 다른 예는 레이저 또는 스포트라이트(spotlight)와 같은, 어떤 광 소스의 사용, 또는 상기 표시장치로의 압력 신호의 적용을 포함할 수 있다.
앞서 논의된 실시예들은 그리하여 터치스크린과 같은 표시장치 상의 실제 화면 영역의 양을 최대화하는 반면, 사용자가 상기 표시되는 객체를 쉽게 조작할 수 있도록 한다. 물론, 작은 표시장치들에 사용되었을 때의 막대한 효과에도 불구하고, 통상의 기술자는 다양한 실시예들이 벽의 상당 영역을 차지하는 큰 엘이디(LED) 표시장치들과 같은 더 큰 표시장치들에도 적용된다는 것을 알 수 있다. 따라서, 더 작은 표시장치들에 대한 논의는 본 발명의 모든 실시예들을 한정하려는 것은 아니다.
그럼에도 불구하고 어떤 실시예들은 상기 객체에 대한 뷰를 단순히 변경하는 것 이외의 방식으로 상기 객체 또는 장면을 수정한다는 점에 주의해야 한다. 다시 말해서, 상기 객체의 어떤 특징 또는 잠재적인 장면은 미리 정해진 입력에 응답하여 변할 수 있다. 예를 들어, 특정 사분면 내의 두 번 두드림(double tap)은 풍경의 장면을 낮에서 밤으로 변하게 하거나, 객체의 색상, 형상을 바뀌게 하거나, 객체가 다른 로고들(logos) 또는 상표들 등을 갖도록 할 수 있다, 따라서, 객체 뷰 조작에 대한 논의는 다양한 사용예들 중의 하나일 뿐이다.
본 발명의 다양한 실시예들은 종래의 임의의 컴퓨터 프로그래밍 언어로 적어도 부분적으로 구현될 수 있다. 예를 들어, 어떤 실시예들은 절차 프로그래밍 언어(예를 들어, "C")로 구현되거나, 객체 지향 프로그래밍 언어(예를 들어, "C++")로 구현될 수 있다. 본 발명의 다른 실시예들은 미리 프로그램된 하드웨어 요소들(예를 들어, 주문형 응용 집적 회로들, FPGAs, 및 디지털 시그널 프로세서들), 또는 다른 관련된 부품들로 구현될 수 있다.
대체적인 실시예에서는, 상기 개시된 장치와 방법들(예를 들어, 앞서 기술된 다양한 흐름도를 보라)은 컴퓨터 시스템에서 사용되는 컴퓨터 프로그램 제품으로 구현될 수 있다. 그러한 구현은 컴퓨터 판독 가능한 매체(예를 들어, 디스켓, CD-ROM, ROM, 또는 고정 디스크)와 같은 유형의 매체에 고정되거나 모뎀 또는 매체를 통해 네트워크에 연결된 통신 어댑터와 같은 다른 인터페이스 장치를 통해 컴퓨터 시스템에 전달할 수 있는 일련의 컴퓨터 지시문들을 포함할 수 있다.
상기 매체는 유형의 매체(예를 들어, 광 또는 아날로그 통신 선로들) 또는 무선 기술들(예를 들어, WIFI, 마이크로웨이브, 적외선 또는 다른 전송 기술들)로 구현된 매체일 수 있다. 일련의 컴퓨터 지시문들은 시스템과 관련하여 앞서 기술된 기능의 전부 또는 일부를 포함할 수 있다. 도 2의 처리과정은 단지 예시적일 뿐이며 다양한 대체수단들, 수학적인 등가물들, 또는 유도물들은 본 발명의 범위에 속한다고 이해된다.
통상의 기술자는 그러한 컴퓨터 지시문들은 많은 컴퓨터 아키텍처들 또는 운영체제들에서 사용되는 다수의 프로그래밍 언어들로 작성될 수 있다는 것을 알 수 있을 것이다. 더욱이, 그러한 지시문들은 반도체, 마그네틱, 광학 또는 다른 메모리 장치들과 같은 임의의 메모리 장치에 저장될 수 있고, 광학, 적외선, 마이크로웨이브, 또는 다른 전송 기술들과 같은 임의의 통신 기술들을 이용하여 전송될 수 있다.
다른 방식들 중에서, 그러한 컴퓨터 프로그램 제품은 인쇄 또는 전자 문서(예를 들어, 수축 포장된 소프트웨어)와 함께 제거 가능한 매체로 배포되거나, 컴퓨터 시스템(예를 들어, 시스템 ROM 또는 고정 디스크)에 사전 설치되거나, 네트워크(예를 들어, 인터넷 또는 월드 와이드 웹)를 통해 서버 또는 전자 게시판에서 배포될 수 있다. 물론, 본 발명의 어떤 실시예들은 소프트웨어(예를 들어, 컴퓨터 프로그램 제품)와 하드웨어의 조합으로 구현될 수 있다. 본 발명의 다른 실시예들은 전적으로 하드웨어로 구현되거나, 소프트웨어로 구현된다.
이상의 논의는 본 발명의 다양한 예시적인 실시예들을 개시하지만, 통상의 기술자가 본 발명의 범위를 벗어나지 않으면서 본 발명의 어떤 이점들을 성취케 하는 다양한 변형들을 만들 수 있다는 것은 명백하다.
200: 컴퓨팅 장치
203: 프로세서
205: 메모리
207: 뷰 제어기
209: 터치스크린
211: 센서

Claims (20)

  1. 삼차원 객체에 대한 제1 뷰(view)를 터치스크린 상에 표시하는 단계로서, 상기 터치스크린은 상기 삼차원 객체를 도시하는 복수의 뷰들에 각각 대응하는 복수의 영역들로 구획되고, 상기 복수의 영역들 중의 적어도 일부에는 상기 제1 뷰의 적어도 일부가 표시되며, 상기 터치스크린은 상기 복수의 뷰들 중 적어도 하나를 표시하도록 구성되는 것인 단계;
    상기 터치스크린 상의 상기 복수의 영역들 중의 어느 하나에서 터치 입력을 수신하는 단계;
    상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 제2 뷰를 결정하는 단계; 및
    상기 삼차원 객체에 대한 상기 제2 뷰를 상기 터치스크린 상에 표시하는 단계를 포함하는, 삼차원 객체를 조작하는 방법.
  2. 제1항에 있어서,
    상기 터치스크린 상의 상기 복수의 영역들에는 상기 삼차원 객체에 대한 조작과 연관된 시각적 표지(indicia)가 없는, 삼차원 객체를 조작하는 방법.
  3. 제1항에 있어서,
    상기 터치스크린의 일부만이 상기 복수의 영역들을 갖는, 삼차원 객체를 조작하는 방법.
  4. 제1항에 있어서,
    상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 상기 제2 뷰를 결정하는 단계는
    상기 터치 입력의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정하는 단계를 포함하는, 삼차원 객체를 조작하는 방법.
  5. 제4항에 있어서,
    상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 상기 제2 뷰를 결정하는 단계는
    세 손가락 두드림(a three-finger tap)의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정하는 단계를 포함하는, 삼차원 객체를 조작하는 방법.
  6. 제5항에 있어서,
    상기 터치 입력의 상기 터치스크린 상에서의 상기 위치에 기초하여 상기 제2 뷰를 결정하는 단계는
    상기 터치 입력의 상기 터치스크린 상에서의 상기 위치에 기초하여 복수의 표준 뷰들 중의 하나를 결정하는 단계를 포함하는, 삼차원 객체를 조작하는 방법.
  7. 제6항에 있어서,
    상기 복수의 표준 뷰들 중의 하나를 결정하는 단계는
    상기 터치 입력의 상기 터치스크린 상에서의 상기 위치에 기초하여, 북서 등각 뷰, 북동 등각 뷰, 남서 등각 뷰, 남동 등각 뷰, 배면 뷰, 좌측면 뷰, 우측면 뷰, 정면 뷰, 및 상면 뷰 중의 하나를 결정하는 단계를 포함하는, 삼차원 객체를 조작하는 방법.
  8. 삼차원 객체를 조작하기 위한 컴퓨터 코드를 저장하는 컴퓨터 판독 가능한 비일시적 기록매체로서,
    상기 컴퓨터 코드는
    삼차원 객체에 대한 제1 뷰(view)를 터치스크린 상에 표시하기 위한 프로그램 코드로서, 상기 터치스크린은 상기 삼차원 객체를 도시하는 복수의 뷰들에 각각 대응하는 복수의 영역들로 구획되고, 상기 복수의 영역들 중의 적어도 일부에는 상기 제1 뷰의 적어도 일부가 표시되며, 상기 복수의 뷰들 중 적어도 하나를 표시하도록 구성되는 것인 프로그램 코드;
    상기 터치스크린 상의 상기 복수의 영역들 중 어느 하나에서 터치 입력을 수신하기 위한 프로그램 코드;
    상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 제2 뷰를 결정하기 위한 프로그램 코드; 및
    상기 삼차원 객체에 대한 상기 제2 뷰를 터치스크린 상에서 표시하기 위한 프로그램 코드를 포함하는, 컴퓨터 판독 가능한 비일시적 기록매체.
  9. 제8항에 있어서,
    상기 터치스크린 상의 상기 복수의 영역들에는 상기 삼차원 객체에 대한 조작과 연관된 시각적 표지(indicia)가 없는, 컴퓨터 판독 가능한 비일시적 기록매체.
  10. 제8항에 있어서,
    상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 상기 제2 뷰를 결정하기 위한 프로그램 코드는
    상기 터치 입력의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정하기 위한 프로그램 코드를 포함하는, 컴퓨터 판독 가능한 비일시적 기록매체.
  11. 제10항에 있어서,
    상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 상기 제2 뷰를 결정하기 위한 프로그램 코드는 세 손가락 두드림(a three-finger tap)의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정하기 위한 프로그램 코드를 더 포함하는, 컴퓨터 판독 가능한 비일시적 기록매체.
  12. 제11항에 있어서,
    상기 터치 입력의 상기 터치스크린 상에서의 위치에 기초하여 상기 제2 뷰를 결정하기 위한 프로그램 코드는 상기 터치 입력의 상기 터치스크린 상에서의 상기 위치에 기초하여 복수의 표준 뷰들 중의 하나를 결정하기 위한 프로그램 코드를 더 포함하는, 컴퓨터 판독 가능한 비일시적 기록매체.
  13. 제12항에 있어서,
    상기 복수의 표준 뷰들 중의 하나를 결정하기 위한 프로그램 코드는
    상기 터치 입력의 상기 터치스크린 상에서의 상기 위치에 기초하여 북서 등각 뷰, 북동 등각 뷰, 남서 등각 뷰, 남동 등각 뷰, 배면 뷰, 좌측면 뷰, 우측면 뷰, 정면 뷰, 및 상면 뷰 중의 하나를 결정하기 위한 프로그램 코드를 포함하는, 컴퓨터 판독 가능한 비일시적 기록매체.
  14. 삼차원 객체를 도시하는 복수의 뷰들에 각각 대응하는 복수의 영역들로 구획되고, 상기 복수의 뷰들 중 적어도 하나를 표시하되, 표시된 뷰의 적어도 일부는 상기 복수의 영역들 중의 적어도 일부에 표시되도록 구성되는 터치스크린;
    상기 터치스크린과 동작적으로 결합된 센서로서, 터치 입력에 응답하여 상기 터치 스크린 상의 상기 복수의 영역들 중 어느 하나에 대한 선택을 감지하고 결정하도록 구성되는 센서; 및
    상기 센서와 동작적으로 결합된 뷰 제어기로서, 상기 뷰 제어기는 상기 터치 스크린 상의 상기 복수의 영역들을 상기 복수의 뷰들과 각각 대응시키도록 구성되고, 상기 터치 스크린 상의 상기 복수의 영역들 중의 하나에 대한 선택이 수행된 후에, 상기 터치스크린이 상기 터치 입력을 수신한 영역에 대응하는 뷰에 기초하여 상기 삼차원 객체에 대한 뷰를 표시하도록 구성되는 뷰 제어기를 포함하는, 삼차원 객체를 표시하기 위한 장치.
  15. 제14항에 있어서,
    상기 터치스크린은 스마트폰, 태블릿, 또는 휴대용 컴퓨터를 포함하는, 삼차원 객체를 표시하기 위한 장치.
  16. 제14항에 있어서,
    상기 터치 스크린 상의 상기 복수의 영역들에는 상기 삼차원 객체에 대한 조작과 연관된 시각적 표지(indicia)가 없는, 삼차원 객체를 표시하기 위한 장치.
  17. 제14항에 있어서,
    상기 터치스크린의 일부만이 상기 복수의 영역들을 갖는, 삼차원 객체를 표시하기 위한 장치.
  18. 제14항에 있어서,
    상기 센서는 둘 또는 그 이상의 손가락들에 의한 상기 터치스크린 상의 상기 복수의 영역들 중 하나에 대한 터치를 감지하도록 구성된, 삼차원 객체를 표시하기 위한 장치.
  19. 제14항에 있어서,
    상기 터치스크린은 아홉개의 영역들을 갖는, 삼차원 객체를 표시하기 위한 장치.
  20. 제14항에 있어서,
    상기 터치스크린은 상기 복수의 영역들에 대한 3×3 매트릭스를 형성하는, 삼차원 객체를 표시하기 위한 장치.
KR1020157025662A 2013-05-29 2014-05-15 표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법 KR101735442B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/904,470 2013-05-29
US13/904,470 US9158431B2 (en) 2013-05-29 2013-05-29 Apparatus and method for manipulating the orientation of an object on a display device
PCT/US2014/038102 WO2014193656A1 (en) 2013-05-29 2014-05-15 Apparatus and method for manipulating the orientation of an object on a display device

Publications (2)

Publication Number Publication Date
KR20150121098A KR20150121098A (ko) 2015-10-28
KR101735442B1 true KR101735442B1 (ko) 2017-05-15

Family

ID=50942895

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157025662A KR101735442B1 (ko) 2013-05-29 2014-05-15 표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법

Country Status (7)

Country Link
US (2) US9158431B2 (ko)
EP (1) EP3005063A1 (ko)
KR (1) KR101735442B1 (ko)
CN (1) CN105103112A (ko)
BR (1) BR112015024398A8 (ko)
CA (1) CA2904535A1 (ko)
WO (1) WO2014193656A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106572834B (zh) * 2014-07-02 2019-12-03 柯惠有限合伙公司 对准ct
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
USD770470S1 (en) * 2014-09-02 2016-11-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD765115S1 (en) * 2014-09-11 2016-08-30 Shuttersong Incorporated Portion of a display screen with graphical user interface
USD777775S1 (en) * 2014-12-23 2017-01-31 Nikon Corporation Display screen with a graphical user interface
US11464576B2 (en) 2018-02-09 2022-10-11 Covidien Lp System and method for displaying an alignment CT
WO2020226833A1 (en) 2019-05-06 2020-11-12 Apple Inc. Device, method, and graphical user interface for composing cgr files
WO2020226832A1 (en) 2019-05-06 2020-11-12 Apple Inc. Device, method, and computer-readable medium for presenting computer-generated reality files
JP2022027106A (ja) * 2020-07-31 2022-02-10 セイコーエプソン株式会社 画像表示方法、画像表示装置及び表示制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020128744A1 (en) 1995-11-02 2002-09-12 Fujitsu Limited Injection mold design system and injection mold design method
US20090303231A1 (en) 2008-06-09 2009-12-10 Fabrice Robinet Touch Screen Device, Method, and Graphical User Interface for Manipulating Three-Dimensional Virtual Objects

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791287B1 (ko) * 2005-10-26 2008-01-04 삼성전자주식회사 그래픽 객체의 3차원 동작을 제어하는 장치 및 방법
JP4662495B2 (ja) * 2007-11-30 2011-03-30 株式会社スクウェア・エニックス 画像生成装置、画像生成プログラム、画像生成プログラム記録媒体及び画像生成方法
WO2009071336A2 (en) * 2007-12-07 2009-06-11 Nokia Corporation Method for using accelerometer detected imagined key press
US8745536B1 (en) * 2008-11-25 2014-06-03 Perceptive Pixel Inc. Volumetric data exploration using multi-point input controls
TW201137668A (en) * 2010-04-26 2011-11-01 Hon Hai Prec Ind Co Ltd Adjustment system and method for three-dimensional image
CN102236441A (zh) * 2010-04-26 2011-11-09 鸿富锦精密工业(深圳)有限公司 互动式三维影像显示系统及方法
WO2012098544A2 (en) * 2011-01-19 2012-07-26 Keyless Systems, Ltd. Improved data entry systems
KR101852428B1 (ko) * 2011-03-09 2018-04-26 엘지전자 주식회사 이동 단말기 및 그의 3d객체 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020128744A1 (en) 1995-11-02 2002-09-12 Fujitsu Limited Injection mold design system and injection mold design method
US20090303231A1 (en) 2008-06-09 2009-12-10 Fabrice Robinet Touch Screen Device, Method, and Graphical User Interface for Manipulating Three-Dimensional Virtual Objects

Also Published As

Publication number Publication date
KR20150121098A (ko) 2015-10-28
BR112015024398A2 (pt) 2017-07-18
EP3005063A1 (en) 2016-04-13
US20140359535A1 (en) 2014-12-04
BR112015024398A8 (pt) 2018-04-03
WO2014193656A1 (en) 2014-12-04
US20160026363A1 (en) 2016-01-28
CA2904535A1 (en) 2014-12-04
US9158431B2 (en) 2015-10-13
CN105103112A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
KR101735442B1 (ko) 표시장치에서 객체의 오리엔테이션을 조작하기 위한 장치 및 방법
US11422694B2 (en) Disambiguation of multitouch gesture recognition for 3D interaction
KR102219912B1 (ko) 원격 호버 터치 시스템 및 방법
US10275145B2 (en) Drawing support tool
JP5978660B2 (ja) 情報処理装置及び情報処理方法
US9436369B2 (en) Touch interface for precise rotation of an object
EP2681649B1 (en) System and method for navigating a 3-d environment using a multi-input interface
US8860675B2 (en) Drawing aid system for multi-touch devices
US8677263B2 (en) Pan grip controls
Telkenaroglu et al. Dual-finger 3d interaction techniques for mobile devices
EP2669781B1 (en) A user interface for navigating in a three-dimensional environment
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
Plasson et al. A lens-based extension of raycasting for accurate selection in dense 3d environments
EP2779116B1 (en) Smooth manipulation of three-dimensional objects
EP2791773B1 (en) Remote display area including input lenses each depicting a region of a graphical user interface
KR102392675B1 (ko) 3차원 스케치를 위한 인터페이싱 방법 및 장치
KR20160010993A (ko) 객체 편집 방법 및 이를 이용한 화상 표시 장치
US20220335676A1 (en) Interfacing method and apparatus for 3d sketch
JP2024504193A (ja) 筆跡消去方法、装置、インタラクティブタブレット、及び記憶媒体
CN115268751A (zh) 一种基于虚拟显示平面的操控方法与设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant