KR20110051044A - 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치 - Google Patents

사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치 Download PDF

Info

Publication number
KR20110051044A
KR20110051044A KR1020090107691A KR20090107691A KR20110051044A KR 20110051044 A KR20110051044 A KR 20110051044A KR 1020090107691 A KR1020090107691 A KR 1020090107691A KR 20090107691 A KR20090107691 A KR 20090107691A KR 20110051044 A KR20110051044 A KR 20110051044A
Authority
KR
South Korea
Prior art keywords
tactile
images
attribute
depth information
image
Prior art date
Application number
KR1020090107691A
Other languages
English (en)
Inventor
류제하
김현곤
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020090107691A priority Critical patent/KR20110051044A/ko
Priority to US13/508,809 priority patent/US20120223907A1/en
Priority to PCT/KR2010/007867 priority patent/WO2011056042A2/ko
Publication of KR20110051044A publication Critical patent/KR20110051044A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

본 발명은 3차원 객체의 촉감 정보를 제공하는 방법 및 장치에 관한 것이다. 이러한 방법은, 3차원 객체의 주위에 6면체의 바운딩 박스를 생성하는 단계와, 바운딩 박스의 각각의 면에서 대하여 깊이 정보 이미지를 획득하는 단계와, 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성하는 단계와, 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 상기 사용자에게 제공하는 단계로 이루어진다.
햅틱, 깊이 정보, 촉감 속성, 이미지

Description

사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치{Method and apparatus for providing users with haptic information on a 3-D object}
본 발명은 햅틱 기술에 관한 것으로, 보다 상세하게는 3차원 객체의 촉감 정보를 제공하는 방법 및 장치에 관한 것이다.
종래에는, 3차원 가상 물체에 존재하는 물체를 촉감 디바이스를 통해서 만지기 위해서는, 촉감 모델링 소프트웨어를 통하여 3차원 가상 물체에 촉감 속성, 예를 들어, 강성(stiffness), 마찰(friction), 거칠기(roughness) 등을 저장한 후, 가상현실에서 3차원 가상 물체를 만질 때 저장된 촉감 속성을 불러옴으로써 가상물체의 촉감을 표현하는 방식을 사용하고 있다.
이렇게 촉감 속성이 부여된 3차원 가상 물체는 가상현실에서 사용자가 원하는 가상 물체를 만졌을 때, 표면의 딱딱하거나 말랑함 느낌, 또는 매끈하거나 거친 느낌을 표현해 준다. 이러한 종래 촉감 모델링 기술은 주로, 객체 기반의 모델링 방식이나, 메쉬 기반의 모델링 방식 또는 복셀 방식의 텍스쳐(texture) 기반의 모델링 방법을 사용한다.
객체 기반의 모델링 방식은 3차원 물체에 촉감을 부여할 때, 기본 단위가 객 체 단위이며, 한 개의 가상 객체는 한 가지의 촉감 속성을 표현할 수 있다. 또한 메쉬 기반의 모델링은 한 개의 메쉬가 단일의 촉감 속성을 가질 수 있도록 구성되어 있다. 물론, 상기 "단일의 촉감 속성"이란 강성, 마찰, 거칠기 중에서 하나를 의미하는 단일 속성이 아니라, 이들의 조합에 의하여 결과적으로 나타나는 단일의 촉감을 의미한다.
이러한 객체 기반이나 메쉬 기반의 모델링 방식은 모델링을 위한 최소 단위(객체 혹은 메쉬)에 기반으로 한다. 만약, 상기 최소 단위에 여러 가지의 촉감 속성을 부여하고자 할 때에는, 객체 기반인 경우에는 분할(partitioning)을 통하여, 메쉬 기반인 경우에는 세분화(subdivision)를 통하여 촉감 속성을 저장할 수 있다.
따라서 이 같은 모델링 기반의 방식에 있어서는, 사용자가 촉감 모델링 이외의 다른 작업을 추가로 수행하여야 하며, 비균일(non-uniform)한 촉감 속성을 표현하기에는 어려움이 따른다. 상기 비균일한 촉감 속성이란 표면의 촉감 속성이 위치에 따라서 일정치 않은 경우를 의미한다.
한편, 복셀 기반 모델링 방식은 3차원 가상 물체를 복셀로 변환하여, 해당 복셀을 이미지 텍스쳐(촉감 속성을 저장하는 장소)에 매핑하는 방식으로 이루어진다. 따라서, 복셀 방식의 경우 복셀과 이미지 텍스쳐를 연결해주는 참조 테이블(lookup table)을 구성하여야 한다. 이 같은 참조 테이블의 크기는 3차원 가상 객체를 복셀로 변환할 때의 해상도에 따라서 가변적이며, 해상도가 커질수록 참조 테이블은 기하급수적으로 커지게 된다. 이러한 참조 테이블은 대략 해상도의 3제곱 승수에 해당하는 정도로 커질 수 있다.
본 발명이 이루고자 하는 기술적 과제는, 가상현실에서 3차원 가상 객체의 촉감을 촉감 디바이스를 통해 촉감을 느끼고자 할 때 필요한 촉감 정보를 저장하고 표현하기 위해서, 6 장의 촉감 속성 이미지를 이용하여, 촉감 정보를 저장하고, 렌더링시에 필요한 촉감 정보를 읽어들임으로써, 가상현실에서 촉감을 표현할 수 있게 하기 위한 방법 및 장치를 제공하는 것이다.
본 발명이 이루고자 하는 다른 기술적 과제는, 매핑에 필요한 저장장소를 요구하지 않고, 기존의 촉감 모델링 방법에서 제시하기 힘든 비균일한 촉감 속성과 여러 가지 촉감 속성을 저장할 수 있는 방법 및 장치를 제공하는 것이다.
본 발명이 이루고자 하는 또 다른 기술적 과제는, 3차원 가상 객체의 표면과 매칭하는 6장의 촉감 속성 이미지를 찾기 위해서 깊이 정보와, 렌더링시에 획득되는 이상 햅틱 상호작용 포인트(Ideal Haptic Interaction Point)(일종의 프로브임)를 이용하여, 3차원 가상 객체의 표면과 촉감 속성 이미지를 매칭하기 위한 방법 및 장치를 제공하고자 하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른, 3차원 객체 의 촉감 정보를 제공하는 방법은, 3차원 객체의 주위에 6면체의 바운딩 박스를 생성하는 단계; 상기 바운딩 박스의 각각의 면에서 대하여 깊이 정보 이미지를 획득하는 단계; 상기 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성하는 단계; 및 상기 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 사용자에게 제공하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 다른 실시예에 따른, 3차원 객체의 촉감 정보를 제공하는 장치는, 3차원 객체의 주위에 6면체의 바운딩 박스를 생성하는 바운딩 박스 생성부; 상기 바운딩 박스의 각각의 면에서 대하여 깊이 정보 이미지를 획득하는 깊이 정보 획득부; 상기 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성하는 촉감 속성 생성부; 및 상기 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 사용자에게 제공하는 햅틱 디바이스를 포함한다.
3차원 객체의 촉감 정보를 제공하는 방법 및 장치에 의하면, 종래 기술과 달리, 참조 테이블을 필요로 하지 않으며, 비균일한 촉감 속성을 제공하기 위하여 분할, 세분화와 같은 부가 작업을 필요로 하지 않기 때문에, 과다한 메모리 영역 및 프로세서의 연산 처리 없이도 다양한 촉감 속성의 표현이 가능하다는 장점이 있다.
상기 종래의 기술과는 달리, 본 발명은 3차원 가상 객체를 6장의 촉감 속성 이미지에 맵핑하는 방식을 사용하고자 한다. 상기 촉감 속성 이미지란 촉감 정보를 저장하는 공간으로 실제 이미지에 그대로 대응되는 영역에 촉감 속성이 기록된다. 즉, 3차원 객체를 촉감 속성이미지로 매핑하기 위해서 6장의 깊이 이미지 정보를 이용하게 된다.
이와 같은 방식은, 복셀 기반의 모델링 방식에서와 같은 참조 테이블은 불필요하며, 표면(surface)에 종속적이지 않고, 비균일한 촉감 속성을 표현하기 위해서 분할(partitioning)이나, 세분화(subdivision)과 같은 복잡한 기법을 이용할 필요가 없다. 또한, 6장의 촉감 속성 이미지를 이용함으로써, 현실 세계에 존재하는 다양한 촉감 종류, 예를 들어, 강성, 마찰, 진동, 온도 등을 저장하여 가상 환경에서 표현하는 것이 가능하게 된다.
본 발명은 크게 다음의 두 가지 측면에서 종래와 차별화되는 의의를 갖는다.
인식적인 측면
가상현실이 발전함에 따라 시각과 청각뿐만 아니라 촉감을 자극하는 시스템의 개발이 가능하게 되었다. 이러한 촉감을 표현하기 위해서는, 가상현실에서 사용자에게 촉감을 제시할 때, 실제 물체의 느낌과 동일하게 제시하여야 사용자가 가상현실을 실제 현실처럼 느낄 수 있다. 따라서 실제 물체의 표면이 단일의 촉감 정보로 이루어져 있지 않다면, 사용자는 가상현실에서 몰입감을 느낄 수 없게 된다. 따라서 여러 가지의 촉감 정보로 이루어진 가상 물체를 촉각적으로 모델링하기 위해서 기존의 모델링 방식을 사용하면, 추가적인 작업이 필요하거나, 많은 데이터 정보(매핑 정보)를 요구하게 된다.
본 발명에서는 3차원 물체의 촉감 속성을 6 개의 촉감 속성 이미지에 저장하 여, 비균일한 속성을 제시할 수 있으며, 매핑 정보를 저장하지 않도록 고안하여, 가상현실에서의 사용자는 좀 더 몰입감 있는 정보를 제공받게 된다.
공학적인 측면
기존의 촉감 모델링은 비균일한 촉감 속성을 제공하기에 어려우며, 설령 제공이 가능하다고 하더라도, 비균일한 촉감 정보를 제공하기 위해서는 매우 많은 매핑 정보를 저장하고 있어야 한다. 본 발명에서는 효과적으로 3차원 가상 물체에 비균일한 속성을 제공할 수 있으며, 여분의 매핑 정보를 필요로하지 않을 뿐만 아니라(메모리의 효율적인 사용이 가능함), 다양한 종류의 촉감 속성을 제시할 수 있다는 점에 의의가 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하 첨부된 도면들을 참조하여 본 발명의 일 실시예를 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 촉감 제공 장치(100)의 구성을 나타내는 블록도이다. 촉감 제공 장치(100)는 예를 들어, 상업적으로 이용가능한 개인용 컴퓨터, 휴대용 전자 장치, 또는 덜 복잡한 컴퓨팅 또는 프로세싱 장치(예를 들어, 하나 이상의 특정 업무를 수행하도록 지정된 장치)일 수 있다. 또한 촉감 제공 장치(100)는, 휴대 전화, PDA, 휴대용 게임 시스템 등일 수도 있다. 선택적으로, 촉감 제공 장치(100)는 게임 시스템 등과 같은 상호적 가상 현실 환경을 제공하도록 지정된 단자일 수도 있다.
도 1에 도시된 바와 같이, 촉감 제공 장치(100)는, 예를 들어, 프로세서(110), 메모리(120), 센서(130), 햅틱 디바이스(140), 바운딩 박스 생성부(150), 깊이 정보 획득부(160), 촉감 속성 생성부(170) 및 촉감 속성 선택부(180)를 포함하여 구성될 수 있다.
프로세서(110)는 일반적 프로세싱 동작을 수행할 수 있는 상업적으로 이용가능한 마이크로프로세서일 수 있다. 선택적으로, 프로세서(110)는 주문형 반도체(ASIC; application-specific integrated circuit) 또는 ASIC들의 조합일 수 있고, 이는 하나 이상의 특정 기능을 수행하거나, 하나 이상의 특정 장치 또는 애플리케이션을 동작시킬 수 있도록 설계된다.
또 다른 대체예에서, 프로세서(110)는 아날로그 또는 디지털 회로, 또는 다수의 회로들의 조합일 수 있다. 또는, 프로세서(110)는 하나 이상의 개별 서브-프로세서 또는 보조 프로세서(coprocessor)를 선택적으로 포함할 수 있다. 예를 들어, 프로세서는, 그래픽을 렌더링(rendering)할 수 있는 그래픽 보조 프로세서, 복잡한 계산을 효과적으로 수행할 수 있는 수학 보조 프로세서, 하나 이상의 장치를 제어할 수 있는 제어기, 하나 이상의 감지 장치로부터의 감각 입력을 수신할 수 있는 센서 인터페이스 등을 포함할 수 있다.
메모리(120)는 하나 이상의 유형의 메모리를 포함할 수 있다. 예를 들어, 메모리(120)는 읽기 전용 메모리(ROM; read only memory) 및 임의 접근 메모리(RAM; random access memory)를 포함할 수 있다. 메모리(120)는 또한, 프로세서(110)에 의해 검색될 수 있는 형태로 데이터를 저장하기에 적합한, 도 1에 도시되지 않은 다른 유형의 메모리를 포함할 수 있다. 다른 적절한 형태의 메모리뿐만 아니라, 예를 들어, 전자적 프로그램 가능한 읽기용 기억 장치(EPROM; electronically programmable ROM), 전기적 소거 및 프로그램 가능한 읽기용 기억 장치(EEPROM; erasable electrically programmable ROM), 플래시 메모리 등도 메모리(120)내에 포함될 수 있다.
프로세서(110)는 메모리(120)와 통신할 수 있고, 데이터를 메모리(120)에 저장할 수 있거나, 또는 이전에 메모리(120)에 저장된 데이터를 검색할 수 있다. 뿐만 아니라, 프로세서(110)는 버스(190)를 통하여, 도 1에 도시된 나머지 구성블록의 동작을 전반적으로 제어한다.
햅틱 디바이스(140)는, 주기적 햅틱 이펙트, 크기-스위프 햅틱 이펙트, 또는 타임라인 햅틱 이펙트와 같은 기초 햅틱 이펙트를 출력하도록 구성될 수 있고, 이들 햅틱 이펙트는 각각 아래에서 더욱 상세하게 설명된다. 본 발명의 하나 이상의 실시예에 따라서, 햅틱 디바이스(140)는 하나 이상의 포스-인가(force-applying) 메카니즘을 포함할 수 있고, 이 메카니즘은, 예를 들어, 촉감 제공 장치(100)의 하우징(housing)을 통해서, 촉각 포스를 촉감 제공 장치(100)의 사용자에게 제공할 수 있다. 이 포스는 예를 들어, 햅틱 디바이스(140)에 의해, 예를 들어, 대규모의 압전(piezo-electric) 장치 또는 다른 진동 작동 장치에 의해, 야기된 진동 움직임의 형태, 또는 햅틱 디바이스(140)에 의해 야기된 저항력의 형태로 전송될 수 있다. 본 발명의 일 실시예에 있어서, 햅틱 디바이스(140)는 촉감 속성 생성부에서 생성된 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 상기 사용자에게 제공한다.
센서(130)는 본 발명의 일 실시예에 따라서, 사용자나 햅틱 디바이스(140)로부터 입력을 수신하거나, 그렇지 않으면 하나 이상의 물리적 파라미터를 감지할 수 있도록 구성된다. 예를 들어, 센서(130)는 속도, 강도, 가속, 또는 햅틱 디바이스(140)에 의해 출력된 햅틱 이펙트와 관련된 다른 파라미터를 측정하도록 구성될 수 있다. 유사하게, 센서(130)는 프로세서 시스템 주위의 환경적 또는 주변적 조건을 감지하도록 구성될 수 있다. 센서(130)는 프로세서(110)내의 센서 인터페이스(도시 생략)를 통해서 프로세서(110)와 상호작용 또는 통신할 수 있다.
바운딩 박스 생성부(150)는 3차원 객체의 주위에 6면체의 바운딩 박스를 생성한다. 이러한 바운딩 박스의 크기 및 생성하는 방향은 당업자의 선택에 따라 다양화될 수 있다.
깊이 정보 획득부(160)는 도 2에 도시된 바와 같이, 가상의 카메라를 상기 바운딩 박스의 각 면에 배치하여, 6개의 깊이 정보 이미지를 획득한다. 이러한 가상의 카메라는 이미 형성되어 있는 3차원 객체를 바라보는 6개의 방향에 따라 각각의 깊이 정보 이미지를 생성한다. 이러한 깊이 정보 이미지는 별도로 계산되어야 하는 것은 아니고, 기 생성된 3차원 객체의 표면 좌표 정보를 바운딩 박스의 각 면 에 투영함으로써 간단히 얻어질 수 있는 것이다.
촉감 속성 생성부(170)는 상기 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성한다. 구체적으로, 촉감 속성 생성부(170)는 6장의 바운딩 박스의 각 면에 대하여 얻어진 6개의 깊이 정보 이미지와 매칭함으로써, 촉감 속성이미지를 생성한다.
촉감 속성 이미지는 선정된 해상도에 따라 3차원 가상 물체를 촉각적으로 자세히 표현될 수 있다. 도 3에서 (a)는 하나의 물체를 4개의 촉감정보로 표현한 경우를, (b)는 상기 물체를 16개의 촉감정보로 표현한 경우를, 그리고 (c)는 상기 물체를 64개의 촉감정보로 표현한 경우를 각각 나타낸다. 이는 해상도가 늘어날수록 좀 더 세밀한 촉감 정보를 표현할 수 있음을 의미한다.
그런데, 본 발명에서는 깊이 정보 이미지와 대응되는 촉감 속성 이미지에 있어서, 동일한 위치에 대응되는 데이터가 기록된다. 예를 들어, 도 4에서 깊이 정보 이미지(40)가 도 2에서 전방 영상에 관한 것이면, 이에 대응되는 촉감 속성 이미지(45)가 생성되어야 한다. 깊이 정보 이미지(40) 상의 데이터 D(x, y)는 전방으로 바라볼 때, 특정 좌표(x, y)에서 3차의 표면까지의 깊이를 의미한다. 따라서, 촉감 속성 이미지(45)의 동일한 좌표(x, y)에는 상기 좌표에서 3차원 객체의 표면이 갖는 촉감 속성이 기록되어야 한다. 따라서, 촉감 속성 생성부(170)는 도 3의 예와 같이, 촉감 속성 이미지의 해상도를 설정한 후, 깊이 정보 이미지의 해상도는 촉감 속성 이미지의 해상도와 같이 설정한다. 이와 같이 촉감 속성 이미지는 깊이 정보 이미지의 대응되는 부분에 촉감 속성을 기록하기 때문에 별도의 참조 테이블은 요 구되지 않는 것이다.
도 5는 본 발명의 일 실시예에 따른 3차원 객체, 6방향 깊이 정보 이미지들 및 6방향 촉감 속성 이미지들의 관계를 보여준다.
3차원으로 모델링된 객체는 각각의 표면의 좌표 정보를 포함하고 있으며, 이러한 3차원 좌표 정보는 6방향의 깊이 정보 이미지들에 있어서의 각각의 데이터를 알 수 있게 해 준다. 또한, 6방향 촉감 속성 이미지들의 각각의 위치는 상기 6방향의 깊이 정보 이미지와 대응되는 위치를 의미하며, 그 위치에 해당 촉감 정보가 저장되는 것이다. 촉감 속성 생성부(170)는 도 5와 같이 비어 있는 촉감 속성 이미지의 해상도를 설정하고, 설정된 해상도에 따른 각각의 픽셀에 다양한 촉감 속성을 기록하게 된다.
이러한 6방향 촉감 속성 이미지들은 이들을 종합하여 단일의 촉감 속성을 표현하기 위한 것이다. 물론, 상기 단일의 촉감 속성이란 강성, 마찰, 거칠기, 온도, 진동, 충격들 중에서 하나를 의미하는 단일 속성이 아니라, 이들의 조합에 의하여 결과적으로 나타나는 단일의 촉감을 의미하는 것이다. 따라서, 상기 6방향 촉감 속성 이미지들의 복수의 세트가 있으면, 여러 개의 촉감 속성들 나타낼수 있는 것이다. 예를 들어, 3개의 촉감을 표현하기 위해선 6×3=18개의 촉감 속성 이미지, 즉 6방향 촉감 속성 이미지들의 3세트가 필요하다.
한편, 3차원 가상 객체에서 표면 선택을 위해서는 이상 햅틱 상호작용 포인트(Ideal Haptic Interaction Point, IHIP)라는 3차원 포인터가 사용될 수 있다.
이와 같이 센서(130)에 의하여 감지된 지점, 즉, 사용자가 객차와의 상호작 용을 일으키는 지점을 3차원 객체 상에 IHIP로 표시하면, 이에 따라 6개의 깊이 정보 이미지들과 6개의 촉감 속성 이미지들도 해당 좌표를 얻을 수 있다. 도 6에서의 원형의 점으로 표시된 부분이 바로 IHIP이다. 이로 인하여, 각 깊이 정보 이미지들과 촉감 속성 이미지들에서의 특정 위치를 추적할 수 있는 것이다.
촉감 속성 선택부(180)는 깊이 정보 이미지를 이용하여, 6개의 깊이 정보 이미지 중 좌측 3개의 이미지가 IHIP에 따른 적합한 이미지라는 것을 판단하여 선택할 수 있다. 왜냐하면, 도 6에 도시된 6개의 깊이 정보 이미지 중에서 좌우의 이미지 중에서 우측의 3개의 이미지는 무효(invalid)라는 것은 깊이 정보 이미지의 데이터를 확인하여 알 수 있기 때문이다. 예를 들어, 깊이 정보 이미지의 데이터를 이용하면 왼쪽 눈에 표시된 IHIP를 우측 눈에 표시된 것으로 오인하지 않을 수 있는 것이다.
이와 같이 선택된 좌측의 3개의 이미지는 촉감 속성 이미지에 있어서도 마찬가지이다. 따라서, 촉감 속성 생성부(170)는, 촉감 속성 선택부(180)에 의하여 선택된 좌측의 3개의 이미지에서 IHIP로 표시된 부분에 적합한 촉감 정보를 저장할 수가 있다. 이러한 IHIP에 의한 위치 추적과 정보저장의 반복을 이용하여 3차원 객체의 전체 표면에 촉감 정보를 저장할 수 있는 것이다.
한편, 이와 같이, 촉감 정보 이미지에 모든 데이터가 기록되면, 이후에는 사용자가 상기 3차원 객체와 상호작용(예: 터치)을 하는 경우 적절한 촉감 정보를 제공할 수가 있게 된다. 사용자가 3차원 객체 표면 상에서 적어도 한 점 이상을 접촉하면, 센서(130)는 이러한 접촉을 감지하고, 감지된 결과를 프로세서(110)에게 전 달하게 된다. 프로세서(110)는 메모리(120)에 저장된 촉감 속성 이미지를 통하여, 상기 특정 위치에서의 촉감 정보를 읽어들인다. 마지막으로, 햅틱 디바이스(140)는 그 제공된 촉감 정보에 대응되는 물리적인 출력(진동, 온도 등)을 생성하여 사용자에게 제공한다.
도 7은 본 발명의 일 실시예에 따른 3차원 객체의 촉감 정보를 제공하는 방법을 도시하는 흐름도이다.
먼저, 바운딩 박스 생성부(150)는 3차원 객체의 주위에 6면체의 바운딩 박스를 생성한다(S70).
그 후, 깊이 정보 획득부(160)는 상기 바운딩 박스의 각각의 면에서 대하여 깊이 정보 이미지를 획득한다(S72). 상기 깊이 정보 이미지는 상기 바운딩 박스의 각각의 면에 가상 카메라에 의하여 획득될 수 있다.
촉감 속성 생성부(170)는 상기 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성한다(S74). 이 때, 상기 촉감 속성 생성부(170)는 상기 6개의 촉감 속성 이미지의 해상도를 상기 깊이 정보 이미지의 해상도와 동일하게 설정한다. 촉감 속성 생성부(170)가 촉감 정보를 기록하는 동안, 촉감 속성 선택부(180)는 상기 6개의 촉감 속성 이미지들 중에서, 상기 깊이 정보 이미지를 이용하여 상기 3차원 포인터가 접촉하는 위치에 대응되는 적어도 단일의 촉감 속성 이미지를 선택하여 준다.
상기 촉감 속성 이미지의 생성이 완료된 후, 사용자로부터 특정 입력(상호작용)이 있으면 센서(130)가 이를 감지한다(S76). 즉, 센서(130)는 사용자가 상기 3 차원 객체의 표면 상의 적어도 한 점 이상에 접촉하는 포인트를 감지하는 것이다.
마지막으로, 햅틱 디바이스(140)는 상기 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 상기 사용자에게 제공한다(S78).
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
도 1은 본 발명의 일 실시예에 따른 촉감 제공 장치의 구성을 나타내는 블록도이다.
도 2는 3차원 객체에 바운딩 박스를 설정하는 예를 보여주는 도면이다.
도 3은 촉감 속성 이미지에 설정되는 해상도의 예를 보여주는 도면이다.
도 4는 깊이 정보 이미지와 촉감 속성 이미지 간에 동일한 위치에 해당 좌표의 데이터가 기록됨을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 따른 3차원 객체, 6방향 깊이 정보 이미지들 및 6방향 촉감 속성 이미지들의 관계를 보여주는 도면이다.
도 6은 도 5에 이상 햅틱 상호작용 포인트를 적용한 경우를 보여주는 도면이다.
도 7은 본 발명의 일 실시예에 따른 3차원 객체의 촉감 정보를 제공하는 방법을 도시하는 흐름도이다.
(도면의 주요부분에 대한 부호 설명)
100: 촉감 제공 장치 110: 프로세서
120: 메모리 130: 센서
140: 햅틱 디바이스 150: 바운딩 박스 생성부
160: 깊이 정보 획득부 170: 촉감 속성 생성부
180: 촉감 속성 선택부 190: 버스

Claims (14)

  1. 3차원 객체의 주위에 6면체의 바운딩 박스를 생성하는 단계;
    상기 바운딩 박스의 각각의 면에 대하여 깊이 정보 이미지를 획득하는 단계;
    상기 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성하는 단계; 및
    상기 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 사용자에게 제공하는 단계를 포함하는, 3차원 객체의 촉감 정보를 제공하는 방법.
  2. 제1항에 있어서, 상기 촉감 속성을 사용자에게 제공하는 단계는,
    상기 촉감 속성 이미지의 세트를 복수화함으로써 복수의 촉감 속성을 제공하는 단계를 포함하는, 3차원 객체의 촉감 정보를 제공하는 방법.
  3. 제1항에 있어서,
    상기 6개의 촉감 속성 이미지의 해상도를 상기 깊이 정보 이미지의 해상도와 동일하게 설정하는 단계를 더 포함하는, 3차원 객체의 촉감 정보를 제공하는 방법.
  4. 제1항에 있어서, 촉감 속성 이미지를 생성하는 단계는
    상기 3차원 객체의 일 지점에 표시된 포인터에 의하여, 상기 촉감 속성 이미지 중에 상기 포인터가 나타난 위치에 촉감 속성을 기록하는 단계를 포함하는, 3차 원 객체의 촉감 정보를 제공하는 방법.
  5. 제4항에 있어서, 촉감 속성 이미지를 생성하는 단계는
    상기 깊이 정보 이미지를 이용하여, 상기 6개의 촉감 속성 이미지들 중에서 적어도 단일의 촉감 속성 이미지를 선택하는 단계를 더 포함하는, 3차원 객체의 촉감 정보를 제공하는 방법.
  6. 제1항에 있어서,
    상기 깊이 정보 이미지는 상기 바운딩 박스의 각각의 면에 가상 카메라에 의하여 획득되는, 3차원 객체의 촉감 정보를 제공하는 방법.
  7. 제1항에 있어서,
    사용자에 의해 상기 3차원 객체의 표면 상의 적어도 한 점에 접촉이 이루어지는 것을 감지하는 단계를 더 포함하는, 3차원 객체의 촉감 정보를 제공하는 방법.
  8. 3차원 객체의 주위에 6면체의 바운딩 박스를 생성하는 바운딩 박스 생성부;
    상기 바운딩 박스의 각각의 면에서 대하여 깊이 정보 이미지를 획득하는 깊이 정보 획득부;
    상기 6개의 깊이 정보 이미지와 대응되는 6개의 촉감 속성 이미지를 생성하 는 촉감 속성 생성부; 및
    상기 6개의 촉감 속성 이미지 중 하나 이상이 갖는 촉감 속성을 사용자에게 제공하는 햅틱 디바이스를 포함하는, 3차원 객체의 촉감 정보를 제공하는 장치.
  9. 제8항에 있어서, 햅틱 디바이스는,
    복수의 세트로 된 상기 촉감 속성 이미지를 이용하여 복수의 촉감 속성을 제공하는, 3차원 객체의 촉감 정보를 제공하는 방법.
  10. 제8항에 있어서, 상기 촉감 속성 생성부는
    상기 6개의 촉감 속성 이미지의 해상도를 상기 깊이 정보 이미지의 해상도와 동일하게 설정하는, 3차원 객체의 촉감 정보를 제공하는 장치.
  11. 제8항에 있어서, 상기 촉감 속성 생성부는
    상기 3차원 객체의 일 지점에 표시된 포인터에 의하여, 상기 촉감 속성 이미지 중에 상기 포인터가 나타난 위치에 촉감 속성을 기록하는, 3차원 객체의 촉감 정보를 제공하는 장치.
  12. 제11항에 있어서,
    상기 깊이 정보 이미지를 이용하여, 상기 6개의 촉감 속성 이미지들 중에서 적어도 단일의 촉감 속성 이미지를 선택하는 촉감 속성 선택부를 더 포함하는, 3차 원 객체의 촉감 정보를 제공하는 장치.
  13. 제8항에 있어서,
    상기 깊이 정보 이미지는 상기 바운딩 박스의 각각의 면에 가상 카메라에 의하여 획득되는, 3차원 객체의 촉감 정보를 제공하는 장치.
  14. 제8항에 있어서,
    사용자에 의해 상기 3차원 객체의 표면 상의 적어도 한 점에 접촉이 이루어지는 것을 감지하는 센서를 더 포함하는, 3차원 객체의 촉감 정보를 제공하는 장치.
KR1020090107691A 2009-11-09 2009-11-09 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치 KR20110051044A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020090107691A KR20110051044A (ko) 2009-11-09 2009-11-09 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치
US13/508,809 US20120223907A1 (en) 2009-11-09 2010-11-09 Method and apparatus for providing touch information of 3d-object to user
PCT/KR2010/007867 WO2011056042A2 (ko) 2009-11-09 2010-11-09 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090107691A KR20110051044A (ko) 2009-11-09 2009-11-09 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160089343A Division KR20160086811A (ko) 2016-07-14 2016-07-14 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20110051044A true KR20110051044A (ko) 2011-05-17

Family

ID=43970589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090107691A KR20110051044A (ko) 2009-11-09 2009-11-09 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치

Country Status (3)

Country Link
US (1) US20120223907A1 (ko)
KR (1) KR20110051044A (ko)
WO (1) WO2011056042A2 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140113390A (ko) * 2013-03-14 2014-09-24 임머숀 코퍼레이션 그룹 이벤트동안 방송되는 햅틱 효과
KR20150028735A (ko) * 2013-09-06 2015-03-16 임머숀 코퍼레이션 햅틱 신호의 멀티플렉싱 및 디멀티플렉싱
KR101678455B1 (ko) * 2015-10-14 2016-11-23 한국과학기술연구원 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160189427A1 (en) * 2014-12-31 2016-06-30 Immersion Corporation Systems and methods for generating haptically enhanced objects for augmented and virtual reality applications
US10022915B2 (en) 2015-03-16 2018-07-17 International Business Machines Corporation Establishing surface parameters while printing a three-dimensional object from a digital model
KR101826911B1 (ko) * 2017-05-31 2018-02-07 주식회사 네비웍스 햅틱 인터랙션 기반 가상현실시뮬레이터 및 그 동작 방법
CN107798693B (zh) * 2017-09-27 2021-09-17 上海亿品展示创意有限公司 六面体图像生成方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5130794A (en) * 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5515486A (en) * 1994-12-16 1996-05-07 International Business Machines Corporation Method, apparatus and memory for directing a computer system to display a multi-axis rotatable, polyhedral-shape panel container having front panels for displaying objects
US7973773B2 (en) * 1995-06-29 2011-07-05 Pryor Timothy R Multipoint, virtual control, and force based touch screen applications
US6374255B1 (en) * 1996-05-21 2002-04-16 Immersion Corporation Haptic authoring
IL120867A0 (en) * 1997-05-20 1997-09-30 Cadent Ltd Computer user interface for orthodontic use
US6157383A (en) * 1998-06-29 2000-12-05 Microsoft Corporation Control polyhedra for a three-dimensional (3D) user interface
US7225115B2 (en) * 2001-10-04 2007-05-29 Novint Technologies, Inc. Coordinating haptics with visual images in a human-computer interface
KR100672667B1 (ko) * 2004-12-29 2007-01-24 동부일렉트로닉스 주식회사 시모스 이미지 센서의 마이크로 렌즈 및 그의 제조방법
US20060214874A1 (en) * 2005-03-09 2006-09-28 Hudson Jonathan E System and method for an interactive volumentric display
US7773074B2 (en) * 2005-06-28 2010-08-10 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging three dimensional navigation device and methods
KR100791287B1 (ko) * 2005-10-26 2008-01-04 삼성전자주식회사 그래픽 객체의 3차원 동작을 제어하는 장치 및 방법
US20080007617A1 (en) * 2006-05-11 2008-01-10 Ritchey Kurtis J Volumetric panoramic sensor systems
US7978191B2 (en) * 2007-09-24 2011-07-12 Dolphin Imaging Systems, Llc System and method for locating anatomies of interest in a 3D volume
US7917462B1 (en) * 2007-11-09 2011-03-29 Teradata Us, Inc. Materializing subsets of a multi-dimensional table
KR101535802B1 (ko) * 2007-11-28 2015-07-10 코닌클리케 필립스 엔.브이. 스테레오코픽 가시화
US8072432B2 (en) * 2008-01-15 2011-12-06 Sony Ericsson Mobile Communications Ab Image sense tags for digital images
US8737721B2 (en) * 2008-05-07 2014-05-27 Microsoft Corporation Procedural authoring
US8576181B2 (en) * 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US8743114B2 (en) * 2008-09-22 2014-06-03 Intel Corporation Methods and systems to determine conservative view cell occlusion
WO2010041486A1 (ja) * 2008-10-10 2010-04-15 シャープ株式会社 画像表示装置
US8345013B2 (en) * 2009-01-14 2013-01-01 Immersion Corporation Method and apparatus for generating haptic feedback from plasma actuation
US8537110B2 (en) * 2009-07-24 2013-09-17 Empire Technology Development Llc Virtual device buttons
KR20140145781A (ko) * 2013-06-14 2014-12-24 한국전자통신연구원 항공용 시스템 설정에 관한 사용자 인터페이스 제공 장치 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140113390A (ko) * 2013-03-14 2014-09-24 임머숀 코퍼레이션 그룹 이벤트동안 방송되는 햅틱 효과
KR20150028735A (ko) * 2013-09-06 2015-03-16 임머숀 코퍼레이션 햅틱 신호의 멀티플렉싱 및 디멀티플렉싱
KR101678455B1 (ko) * 2015-10-14 2016-11-23 한국과학기술연구원 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법
WO2017065403A1 (ko) * 2015-10-14 2017-04-20 재단법인 실감교류인체감응솔루션연구단 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법

Also Published As

Publication number Publication date
WO2011056042A3 (ko) 2011-11-03
WO2011056042A2 (ko) 2011-05-12
US20120223907A1 (en) 2012-09-06

Similar Documents

Publication Publication Date Title
KR20110051044A (ko) 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치
US9817489B2 (en) Texture capture stylus and method
CN101615072B (zh) 基于从图像灰度恢复形状技术的纹理力触觉再现方法
Kim et al. A haptic-rendering technique based on hybrid surface representation
CN102239470B (zh) 显示输入装置及导航装置
KR102359230B1 (ko) 가상 공간 제공 방법 및 장치
CN108431734A (zh) 用于非触摸式表面交互的触觉反馈
Park et al. Design evaluation of information appliances using augmented reality-based tangible interaction
Comes Haptic devices and tactile experiences in museum exhibitions
EP2241988B1 (en) Method, program and product edition system for visualizing objects displayed on a computer screen
US20160104322A1 (en) Apparatus for generating a display control signal and a method thereof
CN111563357B (zh) 电子器件的三维可视化显示方法及系统
TW201503050A (zh) 三維資料視覺化技術
KR102479834B1 (ko) Ar 컨텐츠 자동 배치 방법
Raajan et al. Augmented reality based virtual reality
Li et al. Haptic texture rendering using single texture image
JPH06222899A (ja) マルチウィンドウ表示方式
CN111638794A (zh) 一种虚拟文物的显示控制方法及装置
CN102645986A (zh) 一种具有三维对象的手持电子装置
KR20160086811A (ko) 사용자에게 3차원 객체의 촉감 정보를 제공하는 방법 및 장치
Roberts et al. Virtual haptic exploratory visualization of line graphs and charts
JP3722992B2 (ja) 物体の接触感シミュレーション装置
CN111638795A (zh) 一种控制虚拟对象展示状态的方法及装置
De Felice et al. A portable system to build 3D models of cultural heritage and to allow their exploration by blind people
WO2015030623A1 (en) Methods and systems for locating substantially planar surfaces of 3d scene

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
A107 Divisional application of patent
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2016101004165; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20160714

Effective date: 20180409