KR101054359B1 - 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법 - Google Patents

근감각 피드백을 이용한 상호작용장치 및 이의 작동방법 Download PDF

Info

Publication number
KR101054359B1
KR101054359B1 KR1020090012299A KR20090012299A KR101054359B1 KR 101054359 B1 KR101054359 B1 KR 101054359B1 KR 1020090012299 A KR1020090012299 A KR 1020090012299A KR 20090012299 A KR20090012299 A KR 20090012299A KR 101054359 B1 KR101054359 B1 KR 101054359B1
Authority
KR
South Korea
Prior art keywords
interaction device
interaction
electrical signal
terminal
sensor
Prior art date
Application number
KR1020090012299A
Other languages
English (en)
Other versions
KR20100093211A (ko
Inventor
김승찬
임종관
양태헌
한병길
권동수
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020090012299A priority Critical patent/KR101054359B1/ko
Priority to US12/603,870 priority patent/US20100207745A1/en
Priority to EP09173894A priority patent/EP2219098A1/en
Priority to JP2009245233A priority patent/JP5073730B2/ja
Publication of KR20100093211A publication Critical patent/KR20100093211A/ko
Application granted granted Critical
Publication of KR101054359B1 publication Critical patent/KR101054359B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 상호 통신으로 연결된 상호작용장치에 있어서, 각각의 상호작용장치는, 사용자의 조작에 따라 상호작용장치를 작동 및 근감각 피드백을 발생하는 구동부; 구동부에 가해지는 힘, 물리량 및 경로를 측정하는 센서; 센서에서 측정한 구동부의 동작 신호를 송, 수신하기 위해 전기적 신호로 변환하는 변환부; 및 전기적 신호를 송, 수신하는 통신모듈;을 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법을 구현한바, 휴대용 단말을 통해 음성 외에도 사용자의 동작에 따른 근감각 피드백을 상대에게 전달할 수 있는 효과가 있다. 이로 인해, 음성 외에 다양한 느낌을 전달할 수 있는 효과가 있다. 또한, 회의 등과 같이 음성을 사용할 수 없는 경우에도 상대방에게 이러한 의사 전달이 가능한 효과가 있다. 또한, 휴대용 단말기 등을 통해 상호 게임 등을 진행하는 경우에도 근감각 피드백을 통해 보다 현실감 있는 게임을 진행할 수 있는 효과가 있다.
근감각, 상호, 작용, 피드백, 단말기, 유연 디스플레이

Description

근감각 피드백을 이용한 상호작용장치 및 이의 작동방법{Human Interaction System Using Kinesthetic Feedback and Method Thereof}
본 발명은 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법에 관한 것으로서, 보다 상세하게는 두 개 이상의 상호작용장치를 각각의 사용자가 상대 사용자의 조작에 대한 근감각 피드백을 전달에 받을 수 있는 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법에 관한 것이다.
최근 이동 통신을 위한 휴대용 단말기 또는 PMP, PDP, 네비게이션 등의 휴대장치가 널리 상용화되고 있다. 이러한 휴대용 단말기는 전화 통화 또는 일정관리 등의 목적이 가장 기본적인 기능이다. 하지만, 휴대용 단말기에 장착된 디지털 카메라에 의한 이미지 촬영, 위성 방송 시청 및 모바일 게임 등으로 그 활용범위가 넓어지고 있다.
또한, 동작 감지기를 이러한 휴대용 단말기에 추가하여 휴대용 단말기의 조작을 버튼으로 이루어진 키패드 또는 터치 스크린 등에만 의존하지 않고 핸드폰 자체의 움직임 및 기울임을 조작하는 장치 및 방법들이 널리 개시되고 있다.
하지만, 종래의 피드백은 액정 패널 또는 키패드 일측에서 발생하는 진동 등 자신의 동작에 대한 진동 촉각 피드백(Vibratactile Feedback)만을 발생하였다. 핸드폰 자체의 움직임 및 기울임 등의 조작 역시 자기 자신에 대한 반응만을 발생한다. 이러한 한정된 피드백만으로는 상대방의 의사 전달이나 상호 교감 등을 느낄 수 없는 문제점이 있었다.
따라서, 본 발명은 상기의 문제점을 해결하기 위하여 창출된 것으로서, 두 개 이상의 상호작용장치를 각각의 사용자가 상대 사용자의 조작에 대한 근감각 피드백을 전달에 받을 수 있는 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법을 제공하는데 그 목적이 있다.
상기와 같은 본 발명의 목적은 상호 통신으로 연결된 상호작용장치에 있어서, 각각의 상호작용장치는, 사용자의 조작에 따라 상호작용장치를 작동 및 근감각 피드백을 발생하는 구동부; 구동부에 가해지는 힘, 물리량 및 경로를 측정하는 센서; 센서에서 측정한 구동부의 동작 신호를 송, 수신하기 위해 전기적 신호로 변환하는 변환부; 및 전기적 신호를 송, 수신하는 통신모듈;을 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치에 의해 달성될 수 있다.
여기서, 상호작용장치는 폴더형 휴대용 단말기, 슬라이드 휴대용 단말기 또는 유연 디스플레이를 사용한다.
또한, 구동부는 DC 모터, 선형 모터 또는 SMA를 사용하고, 상호작용장치의 움직임을 제한하는 자분 브레이크, 선형 브레이크 또는 형상 기억장치 등의 브레이크를 더 포함한다.
또한, 변환부는, 센서에서 측정된 동작 정보를 전기 신호로 변화하는 인코딩부; 및 통신모듈에서 수신된 전기 신호를 변환하는 디코딩부;로 이루어진다. 여기 서, 인코딩부는 엔코더, 선형 엔코더 등을 사용한다.
다른 카테고리로써 본 발명의 목적은 상호 통신으로 연결된 제 1 상호작용장치 및 제 2 상호작용장치를 작동하는 방법에 있어서, 제 1 상호작용장치에 사용자가 힘을 가하여 조작하는 제 1 단계; 제 1 상호작용장치에 구비된 센서에서 제 1 상호작용장치의 동작 크기 및 경로를 측정하는 제 2 단계; 센서에서 측정된 제 1 상호작용장치의 동작신호를 전기적 신호로 변환하는 제 3 단계; 전기적 신호로 변환된 동작신호를 송신하여 제 2 상호작용장치에서 수신하는 제 4 단계; 제 2 상호작용장치에서 수신한 전기적 신호를 동작신호로 변환하는 제 5 단계; 및 동작신호에 따라 제 2 상호작용장치를 제 1 상호작용장치와 동일한 동작 크기 및 경로로 작동시키는 제 6 단계;를 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치의 작동방법에 의해 달성될 수 있다.
여기서, 제 1 단계 및 제 6 단계는 DC 모터, 선형 모터 또는 SMA에 의해 구동된다.
또한, 제 2 상호작용장치가 장애물에 부딪히거나 제 2 상호작용장치에 외부의 힘이 가해지면 외부 힘에 대한 근감각 피드백을 제 1 상호작용장치에 전달하는 제 7 단계를 더 포함한다.
이때, 제 7 단계는, 제 1 상호작용장치의 움직임과 다른 외부 힘을 제 2 상호작용장치에 제공하는 제 7-1 단계; 제 2 상호작용장치에 구비된 센서에서 외부 힘에 대한 동작 정보를 측정하는 제 7-2 단계; 외부 힘에 대한 동작 정보를 전기적 신호로 변환하는 제 7-3 단계; 제 2 상호작용장치에서 전기적 신호를 송신하고, 제 1 상호작용장치에서 수신하는 제 7-4 단계; 제 1 상호작용장치에서 수신한 전기적 신호를 동작 신호로 변환하는 제 7-5 단계; 및 동작 신호에 대응되는 근감각 피드백을 사용자에게 제공하는 제 7-6 단계;를 포함한다.
또한, 제 7-5 단계는 제 2 상호작용장치에서 수신한 동작신호와 사용자에 의해 발생한 동작신호를 비교하여 해당위치로 움직이게 하는 제 7-5' 단계를 더 포함한다.
또한, 상호작용장치는 2개 내지 4개의 상호작용장치를 사용할 수 있다.
본 발명에 따르면 휴대용 단말을 통해 음성 외에도 사용자의 동작에 따른 근감각 피드백을 상대에게 전달할 수 있는 효과가 있다. 이로 인해, 음성 외에 다양한 느낌을 전달할 수 있는 효과가 있다. 또한, 회의 등과 같이 음성을 사용할 수 없는 경우에도 상대방에게 이러한 의사 전달이 가능한 효과가 있다.
또한, 휴대용 단말기 등을 통해 상호 게임 등을 진행하는 경우에도 근감각 피드백을 통해 보다 현실감 있는 게임을 진행할 수 있는 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명한다.
< 근감각 피드백을 이용한 상호작용장치의 구성>
도 1은 본 발명에 따른 근감각 피드백을 이용한 상호작용장치의 구성을 개략적으로 나타내는 블록도를 도시한 것이다.
(제 1 실시예)
도 2는 본 발명의 제 1 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사시도를 도시한 것이다. 본 발명의 제 1 실시예는 도 2에 도시된 바와 같이, 상호작용장치(100, 200)로써 폴더형 휴대용 단말기(110, 210)를 사용한다. 설명의 편의를 위해 이하에서는 사용자(10)에 의해 최초로 동작하는 휴대용 단말기(110, 210)를 제 1 단말기(110), 제 1 단말기(110)에 대응되는 휴대용 단말기를 제 2 단말기(210)로 명명하기로 한다.
제 1 단말기(110) 및 제 2 단말기(210)는 도 1에 도시된 바와 같이, 각각 내부에 구동부(300), 센서(400), 변환부(500) 및 통신모듈(600)을 포함한다. 여기서, 구동부(300)는 제 2 단말기(210)를 제 1 단말기(110)에 대응되도록 작동하거나 제 2 단말기(210)에서 발생되는 동작을 제 1 단말기(110)를 통해 근감각 피드백을 사용자(10)에게 전달하기 위한 것이다. 이러한 목적을 달성할 수 있는 것이라면 어떠한 구동장치를 사용하여도 무방하다. 하지만, 바람직하게는 제 1 단말기(110) 및 제 2 단말기(210)의 폴더를 회전시키기 위한 모터를 사용하는 것이 좋고, 보다 바람직하게는 DC 모터를 사용하는 것이 좋다. 또한, 구동부(300)의 일측에는 구동부(300)의 동작을 제한하는 브레이크가 더 구비된다. 이러한 브레이크는 제 1 단말기(110) 및 제 2 단말기(210)가 서로 대항하는 외부 힘(710)이 가해지는 경우 상대 단말기의 동작을 제한하는 것으로서 이러한 목적을 달성할 수 있는 것이라면 어떠한 브레이크를 사용하여도 무방하다. 하지만, 바람직하게는 응답시간이 빠르고, 안정적인 자분 브레이크(Magnetic Particle Brake)를 사용하는 것이 좋다. 이러한 자 분 브레이크는 토크 전압, 출력 토크 등을 쉽게 조절할 수 있다.
본 발명의 제 1 실시예에 따른 센서(400)는 사용자(10)의 조작 등과 같은 외부에서 가해지는 힘에 따라 구동되는 구동부(300)의 동작 크기 및 경로를 측정하는 것으로서, 제 1 단말기(110) 및 제 2 단말기(210)의 폴더를 작동하는 구동부(300)의 동작 크기 및 동작 경로를 측정할 수 있는 것이라면 어떠한 센서(400)를 사용하여도 무방하다.
본 발명의 제 1 실시예에 따른 변환부(500)는 센서(400)에서 측정한 제 1 단말기(110)의 동작신호를 통신을 위한 전기적 신호로 변환하거나, 제 2 단말기(210)에서 수신하는 전기적 신호를 제 2 단말기(210)의 구동을 위한 동작신호로 변환하기 위한 것이다. 이러한 목적을 달성할 수 있는 것이라면 어떠한 변환부(500)를 사용하여도 무방하다. 하지만, 동작신호를 단말기(110, 210)의 구동부에 부착된 변환하는 엔코더 및 수신된 전기적 신호의 잡음을 제거하고 통신용 신호로의 변환을 시키는 변환부(500)를 사용하는 것이 좋다.
본 발명의 제 1 실시예에 따른 통신모듈(600)은 제 1 단말기(110) 및 제 2 단말기(210)의 통신을 위한 것으로서, 종래의 단말기에 포함되는 데이터 모듈(600) 및 단말기 제어를 위한 제어용 데이터 통신 모듈(600)을 포함한다.
(제 2 실시예)
도 3은 본 발명의 제 2 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사시도를 도시한 것이다. 본 발명의 제 2 실시예에 따른 상호작용장치(100, 200)는 도 2에 도시된 바와 같이, 슬라이드형 단말기(120, 220)를 사용한다. 이러한 제 2 실시예에 따른 상호작용장치(100, 200)의 구성은 전체적으로 도 1에 도시된 바와 같이, 제 1 실시예와 유사한 구성으로 이루어진다. 하지만, 슬라이드형 단말기(120, 220)는 폴더형 단말기(110, 210)의 회전운동과는 다르게 회전 운동을 하기 때문에 이에 대응하는 구성으로 이루어진다.
제 2 실시예에 따른 구동부(300)는 제 1 실시예에 따른 구동부(300)와 동일한 목적 및 효과를 위하여 사용되고, 슬라이드의 선형 움직임에 알맞는 선형 모터를 사용한다. 그리고 구동부(300)의 움직임을 제한하는 브레이크 역시 선형 움직임의 제한에 용이한 선형 브레이크(Linear Brake)를 사용한다. 선형 브레이크는 직선 움직임을 제한하기에 용이하고 성능이 우수하여 안전성이 높다.
제 2 실시예에 따른 변환부(500)는 선형 움직임에 따른 데이터 변환을 위한 선형 엔코더 및 선형 디코더를 포함하는 변환부(500)를 사용한다.
제 2 실시예에서 상세히 언급하지 않은 센서(400) 및 통신모듈(600) 등의 구성은 제 1 실시예와 동일한 구성으로 이루어진다.
(제 3 실시예)
도 4는 본 발명의 제 3 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 정면도를 도시한 것이다. 본 발명의 제 3 실시예에 따른 상호작용장치(100, 200)는 도 4에 도시된 바와 같이, 유연 디스플레이(Flexible Display)(130, 230)를 사용한다. 이러한 제 3 실시예에 따른 상호작용장치(100, 200)의 구성은 전체적으 로 도 1에 도시된 바와 같이, 제 1 실시예와 유사한 구성으로 이루어진다. 하지만, 하지만, 유연 디스플레이(130, 230)의 구성은 단말기(110, 120, 210, 220)의 운동과는 전혀 다른 운동을 하기 때문에 이에 대응하는 구성으로 이루어진다.
유연 디스플레이(130, 230)는 화면이 표시되는 디스플레이부의 일측에 복수의 와이어 또는 SMA 스트립에 의해 구동된다.
제 3 실시예에 따른 구동부(300)는 제 1 실시예에 따른 구동부(300)와 동일한 목적 및 효과를 위하여 사용되고, 유연 디스플레이(130, 230)의 구동을 위해 와이어 또는 SMA 스트립을 구동하는 DC 모터 또는 SMA(Shape Memory Alloy)를 사용한다.
제 3 실시예에 따른 센서(400)는 유연 디스플레이(130, 230)의 일측, 바람직하게는 주요 굽힘이 발생하는 일측에 복수 개 구비되어 유연 디스플레이(130, 230)의 굽힘 방향 및 크기 등을 측정하는 것이다. 이러한 목적을 달성할 수 있는 것이라면 어떠한 센서(400)를 사용하여도 무방하다. 하지만, 바람직하게는 저항방식 또는 광섬유 기능을 활용한 굽힘센서를 사용하는 것이 좋다.
제 3 실시예에서 상세히 언급하지 않은 변환부(500) 및 통신모듈(600) 등의 구성은 제 1 실시예 또는 제 2 실시예와 동일한 구성으로 이루어진다.
(변형예)
본 발명에 따른 근감각 피드백을 이용한 상호작용장치(100, 200)는 전술한 제 1 실시예 내지 제 3 실시예에 따른 장치 외에도 상호 통신에 의해 조작 가능한 PDP,PMP, 노트북 또는 산업장비 등에도 적용가능하다. 일예로써, 노트북의 경우에는 상호 연결된 노트북의 힌지 각을 전술한 원리를 통해 상호 제어할 수 있다.
< 근감각 피드백을 이용한 상호작용장치의 작동방법>
도 5는 본 발명에 따른 근감각 피드백을 이용한 상호작용장치의 작동방법을 나타내는 순서도를 도시한 것이다. 도 5에 도시된 바와 같이, 우선 사용자(10)가 제 1 상호작용장치(100)에 힘을 가하여 제 1 상호작용장치(100)를 조작한다(S100).
다음으로, 사용자(10)에 의해 조작되는 제 1 상호작용장치(100)의 구동에 따른 동작 크기 및 경로 등의 동작정보를 제 1 상호작용장치(100)에 구비된 센서(400)에서 측정한다(S200). 센서(400)는 제 1 상호작용장치(100)의 종류에 따라 다양한 움직임이 발생할 수 있기 때문에 이에 알맞은 힘센서, 토크센서, 모션센서, 가속도 측정 센서 또는 속도 센서 등의 센서(400)를 사용하는 것이 좋다.
다음으로, 센서(400)에서 측정한 제 1 상호작용장치(100)의 작동신호를 통신을 위한 전기적 신호로 변환한다(S300).
다음으로, 전기적 신호로 변환된 제 1 상호작용장치(100)의 동작정보를 송신하고, 제 2 상호작용장치(200)에서 전기적 신호를 수신한다(S400).
다음으로, 제 2 상호작용장치(200)에서 수신한 전기적 신호를 제 2 상호작용장치(200)를 구동할 수 있는 동작신호로 변환한다(S500).
다음으로, 제 2 상호작용장치(200)는 수신한 제 1 상호작용장치(100)의 동작신호와 동일한 동작 크기 및 경로로 제어(S600)함으로써 1차적인 상호작용장 치(100, 200)의 작동을 마무리한다.
제 1 상호작용장치(100)의 사용자(10)가 지속적으로 제 1 상호작용장치(100)를 조작하는 경우에는 전술한 과정(S100 내지 S600)을 반복수행하여 제 2 상호작용장치(200)를 제 1 상호작용장치(100)와 동일한 움직임을 수행하도록 한다. 제 2 상호작용장치(200)가 장애물(700)에 걸리거나, 외부로부터의 힘이 발생하지 않으면 제 1 상호작용장치(100)에는 별도의 피드백이 발생하지 않는다. 별도의 피드백이 발생하지 않음으로써 사용자(10)는 제 2 상호작용장치(200)가 원활하게 작동하고 있음을 확인할 수 있다. 후술하는 과정은 제 2 상호작용장치(200)가 장애물(700)에 걸리거나, 제 2 상호작용장치(200)로 외부의 힘이 작용하는 경우에 발생하는 작동방법(S700)을 설명한다.
제 1 상호작용장치(100)를 조작하여 제 2 상호작용장치(200)가 제 1 상호작용장치(100)와 동일한 움직임을 수행하는 과정에서 제 1 상호작용장치(100)의 움직임에 대항하는 외부의 힘 또는 장애물(700)을 제 2 상호작용장치(200)에 발생한다(S710).
다음으로, 제 2 상호작용장치(200)에 구비된 센서(400)에서 제 2 상호작용장치(200)에 발생한 외부 힘(710)에 의해 결정된 동작 크기 및 경로 등의 동작 정보를 측정한다(S720).
다음으로, 외부 힘(710)에 대한 동작정보를 통신을 위한 전기적 신호로 변환한다(S730).
다음으로, 전기적 신호로 변환된 외부 힘(710)에 대한 동작정보를 제 2 상호 작용장치(200)에서 송신하고, 제 1 상호작용장치(100)에서 수신한다(S740).
다음으로, 수신된 전기적 신호를 제 2 상호작용장치(200)에 발생된 외부 힘(710)에 대한 동작신호로 변환한다(S750). 이때, 제 1 상호작용장치(100)에 사용자(10)에 의해 발생하는 동작정보 및 제 2 상호작용장치(200)에 발생하는 외부 힘(710)에 대한 동작정보를 비교하는 과정을 동시에 수행할 수 있다(S751).
마지막으로, 제 2 상호작용장치(200)에 발생된 외부 힘(710)에 대한 동작신호에 대응되는 근감각 피드백을 제 1 상호작용장치(100)로부터 사용자(10)에게 제공한다(S760). 이때, 발생하는 근감각 피드백은 종래의 촉각 피드백과 같이 단순한 진동 등의 피드백이 아닌 폴더의 움직임, 슬라이드 이동 등의 근감각 또는 운동감각과 같은 피드백을 발생한다.
< 근감각 피드백을 이용한 상호작용장치의 사용양태>
(제 1 실시예)
도 6은 본 발명에 따른 근감각 피드백을 이용한 상호작용장치의 기구적 움직임을 나타내는 도를 도시한 것이고, 도 7은 본 발명의 제 1 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사용양태도를 도시한 것이다. 도 6 및 도 7a에 도시된 바와 같이, 사용자(10)가 제 1 단말기(110)의 폴더를 닫으면 제 2 단말기(210)는 별도의 외부 조작이 없이도 제 1 단말기(110)의 움직임과 동일한 동작 크기로 폴더가 닫힌다.
하지만, 도 6 및 도 7b에 도시된 바와 같이, 제 2 단말기(210)가 제 1 단말 기(110)와 연동적으로 조작되는 과정에서 장애물(700)에 걸리거나 제 2 단말기(210)로 외부의 힘(710)이 발생하면 제 1 단말기(110)로 이에 상응하는 움직임을 일으켜 사용자에게 피드백을 발생한다. 이러한 피드백은 근감각 또는 운동감각 피드백으로서, 제 2 단말기(210)에 발생하는 외부 힘(710)이 사용자(10)의 힘보다 약한 경우에는 제 1 단말기(110) 및 제 2 단말기(210)의 폴더가 조금만 닫히거나, 느리게 닫히는 등의 피드백을 발생한다. 또한, 사용자(10)의 힘과 제 2 단말기(210)의 외부 힘(710)이 비슷한 경우에는 제 1 단말기(110) 및 제 2 단말기(210)의 폴더가 떨림으로써 제 1 단말기(110) 및 제 2 단말기(210)에 발생하는 힘에 대한 근감각 피드백을 발생한다. 또한, 제 2 단말기(210)에 발생하는 외부힘(710)이 사용자(10)의 힘보다 강한 경우에는 닫히던 폴더가 다시 열리는 근감각 피드백을 발생한다. 이러한 근감각 피드백을 발생함으로써 제 1 단말기(110) 및 제 2 단말기(210)의 사용자(10)는 상호 교감이 가능하다.
(제 2 실시예)
도 8은 본 발명의 제 2 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사용양태도를 도시한 것이다. 도 6 및 도 8a에 도시된 바와 같이, 사용자(10)가 제 1 단말기(120)를 슬라이드하면 제 2 단말기(220)는 별도의 외부 조작이 없이도 제 1 단말기(120)의 움직임과 동일한 동작 크기로 슬라이드한다.
하지만, 도 8b에 도시된 바와 같이, 제 2 단말기(220)가 제 1 단말기(120)와 연동적으로 조작되는 과정에서 장애물(700)에 걸리거나 제 2 단말기(220)로 외부의 힘(710)이 발생하면 제 1 단말기(120)로 이에 상응하는 피드백을 발생한다. 이러한 피드백은 근감각 또는 운동감각 피드백으로서, 제 2 단말기(220)에 발생하는 외부 힘(710)이 사용자(10)의 힘보다 약한 경우에는 제 1 단말기(120) 및 제 2 단말기(220)의 슬라이드가 느리게 동작하는 등의 피드백을 발생한다. 또한, 사용자(10)의 힘과 제 2 단말기(220)의 외부 힘(710)이 비슷한 경우에는 제 1 단말기(120) 및 제 2 단말기(220)의 슬라이드가 떨림으로써 제 1 단말기(120) 및 제 2 단말기(220)에 발생하는 힘에 대한 근감각 피드백을 발생하다. 또한, 제 2 단말기(220)에 발생하는 외부힘(710)이 사용자(10)의 힘보다 강한 경우에는 슬라이드 동작이 역으로 발생하는 근감각 피드백을 발생한다. 이러한 근감각 피드백을 발생함으로써 제 1 단말기(120) 및 제 2 단말기(220)의 사용자(10)는 상호 교감이 가능하다.
(제 3 실시예)
도 9는 본 발명의 제 3 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사용양태도를 도시한 단면도이다. 도 8b에 도시된 바와 같이, 사용자(10)가 제 1 유연 디스플레이(130)를 접으면 제 2 유연 디스플레이(230)는 별도의 외부 조작이 없이도 제 1 유연 디스플레이(130)의 움직임과 동일한 동작 크기로 접힌다.
제 1 유연 디스플레이(130) 및 제 2 유연 디스플레이(230)는 서로 길이가 다른 와이어등의 구동부(300)를 이용하여 접히는 크기를 조절할 수 있으며 서로 길이가 다른 와이어의 종단과 근접한 일측에서 유연 디스플레이(130, 230)의 접힘 정도를 측정한다.
이러한 제 1 유연 디스플레이(130) 및 제 2 유연 디스플레이(230) 역시 전술한 제 1 실시예 또는 제 2 실시예에 따른 사용양태와 유사한 과정으로 작동한다.
이상에서 설명한 바와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 본 발명에 따른 근감각 피드백을 이용한 상호작용장치의 구성을 개략적으로 나타내는 블록도,
도 2는 본 발명의 제 1 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사시도,
도 3은 본 발명의 제 2 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사시도,
도 4는 본 발명의 제 3 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 정면도,
도 5는 본 발명에 따른 근감각 피드백을 이용한 상호작용장치의 작동방법을 나타내는 순서도,
도 6은 본 발명에 따른 근감각 피드백을 이용한 상호작용장치의 기구적 움직임을 나타내는 도,
도 7a 및 도 7b는 본 발명의 제 1 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사용양태도,
도 8a 및 도 8b는 본 발명의 제 2 실시예에 따른 근감각 피드백을 이용한 상 호작용장치의 사용양태도,
도 9a 내지 도 9c는 본 발명의 제 3 실시예에 따른 근감각 피드백을 이용한 상호작용장치의 사용양태를 나타내는 단면도이다.
<도면의 주요 부분에 대한 부호의 설명>
10 : 사용자 100 : 제 1 상호작용장치
110 : 제 1 폴더형 단말기 120 : 제 1 슬라이드형 단말기
130 : 제 1 유연 디스플레이 200 : 제 2 상호작용장치
210 : 제 2 폴더형 단말기 220 : 제 2 슬라이드형 단말기
230 : 제 2 유연 디스플레이 300 : 구동부
400 : 센서 500 : 변환부
600 : 통신모듈 700 : 장애물
710 : 외부힘

Claims (13)

  1. 상호 통신으로 연결된 상호작용장치(100, 200)에 있어서,
    상기 각각의 상호작용장치(100, 200)는,
    사용자(10)의 조작에 따라 상기 상호작용장치(100, 200)를 작동 및 근감각 피드백을 발생하는 구동부(300);
    상기 구동부(300)에 가해지는 힘, 물리량 및 경로를 측정하는 센서(400);
    상기 센서(400)에서 측정한 구동부(300)의 동작 신호를 송, 수신하기 위해 전기적 신호로 변환하는 변환부(500); 및
    상기 전기적 신호를 송, 수신하는 통신모듈(600);로 구성되고,
    상기 변환부(500)는,
    상기 센서(400)에서 측정된 동작 정보를 전기 신호로 변화하는 인코딩부; 및
    상기 통신모듈(600)에서 수신된 전기 신호를 변환하는 디코딩부;를 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치.
  2. 제 1항에 있어서,
    상기 상호작용장치(100, 200)는 폴더형 휴대용 단말기(110, 210), 슬라이드 휴대용 단말기(120, 220) 또는 유연 디스플레이(130, 230)인 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치.
  3. 청구항 3은(는) 설정등록료 납부시 포기되었습니다.
    제 1항에 있어서,
    상기 구동부(300)는 DC 모터, 선형 모터 또는 SMA인 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치.
  4. 삭제
  5. 청구항 5은(는) 설정등록료 납부시 포기되었습니다.
    제 1항에 있어서,
    상기 인코딩부는 선형 엔코더인 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치.
  6. 제 1항에 있어서,
    상기 구동부(300)는 상기 상호작용장치(100, 200)의 움직임을 제한하는 브레이크를 더 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치.
  7. 청구항 7은(는) 설정등록료 납부시 포기되었습니다.
    제 6항에 있어서,
    상기 브레이크는 자분 브레이크, 선형 브레이크 또는 형상 기억장치인 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치.
  8. 상호 통신으로 연결된 제 1 상호작용장치(100) 및 제 2 상호작용장치(200)를 작동하는 방법에 있어서,
    상기 제 1 상호작용장치(100)에 사용자(10)가 힘을 가하여 조작하는 제 1 단계;
    상기 제 1 상호작용장치(100)에 구비된 센서(400)에서 상기 제 1 상호작용장치(100)의 힘, 물리량 및 경로를 측정하는 제 2 단계;
    상기 센서(400)에서 측정된 제 1 상호작용장치(100)의 동작신호를 전기적 신호로 변환하는 제 3 단계;
    상기 전기적 신호로 변환된 동작신호를 송신하여 상기 제 2 상호작용장치(200)에서 수신하는 제 4 단계;
    상기 제 2 상호작용장치(200)에서 수신한 전기적 신호를 동작신호로 변환하는 제 5 단계; 및
    상기 동작신호에 따라 상기 제 2 상호작용장치(200)를 상기 제 1 상호작용장치(100)와 동일한 동작 크기 및 경로로 작동시키는 제 6 단계;를 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치의 작동방법.
  9. 청구항 9은(는) 설정등록료 납부시 포기되었습니다.
    제 8항에 있어서,
    상기 제 1 단계 및 제 6 단계 중 적어도 한 단계는 DC 모터, 선형 모터 또는 SMA에 의해 구동되는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치의 작동방법.
  10. 제 8항에 있어서,
    상기 제 2 상호작용장치(200)가 장애물(700)에 부딪히거나 제 2 상호작용장치(200)에 외부의 힘(710)이 가해지면 상기 외부 힘(710)에 대한 근감각 피드백을 제 1 상호작용장치(100)에 전달하는 제 7 단계를 더 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치의 작동방법.
  11. 제 10항에 있어서,
    상기 제 7 단계는,
    상기 제 1 상호작용장치(100)의 움직임과 다른 외부 힘(710)을 제 2 상호작용장치(200)에 제공하는 제 7-1 단계;
    상기 제 2 상호작용장치(200)에 구비된 센서(400)에서 외부 힘(710)에 대한 동작 정보를 측정하는 제 7-2 단계;
    상기 외부 힘(710)에 대한 동작 정보를 전기적 신호로 변환하는 제 7-3 단계;
    상기 제 2 상호작용장치(200)에서 상기 전기적 신호를 송신하고, 상기 제 1 상호작용장치(100)에서 수신하는 제 7-4 단계;
    상기 제 1 상호작용장치(100)에서 수신한 전기적 신호를 동작 신호로 변환하는 제 7-5 단계; 및
    상기 동작 신호에 대응되는 근감각 피드백을 상기 사용자(10)에게 제공하는 제 7-6 단계;를 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장 치의 작동방법.
  12. 제 11항에 있어서,
    상기 제 7-5 단계는 상기 제 2 상호작용장치(200)에서 수신한 동작신호와 사용자(10)에 의해 발생한 동작신호를 비교하여 해당위치로 움직이게 하는 제 7-5' 단계를 더 포함하는 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치의 작동방법.
  13. 청구항 13은(는) 설정등록료 납부시 포기되었습니다.
    제 8항에 있어서,
    상기 상호작용장치(100, 200)는 2개 내지 4개인 것을 특징으로 하는 근감각 피드백을 이용한 상호작용장치의 작동방법.
KR1020090012299A 2009-02-16 2009-02-16 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법 KR101054359B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020090012299A KR101054359B1 (ko) 2009-02-16 2009-02-16 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법
US12/603,870 US20100207745A1 (en) 2009-02-16 2009-10-22 Human interaction systems using kinesthetic feedback and operating method thereof
EP09173894A EP2219098A1 (en) 2009-02-16 2009-10-23 Human interaction systems using kinesthetic feedback and operating method thereof
JP2009245233A JP5073730B2 (ja) 2009-02-16 2009-10-26 動作感覚フィードバックを利用した相互作用装置及びその作動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090012299A KR101054359B1 (ko) 2009-02-16 2009-02-16 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법

Publications (2)

Publication Number Publication Date
KR20100093211A KR20100093211A (ko) 2010-08-25
KR101054359B1 true KR101054359B1 (ko) 2011-08-04

Family

ID=42184436

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090012299A KR101054359B1 (ko) 2009-02-16 2009-02-16 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법

Country Status (4)

Country Link
US (1) US20100207745A1 (ko)
EP (1) EP2219098A1 (ko)
JP (1) JP5073730B2 (ko)
KR (1) KR101054359B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101181505B1 (ko) 2012-02-28 2012-09-10 한국과학기술원 다양하고 정교한 정보전달을 위한 입력 지점과 출력 지점이 분리된 햅틱 인터페이스

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7953462B2 (en) 2008-08-04 2011-05-31 Vartanian Harry Apparatus and method for providing an adaptively responsive flexible display device
US8610663B2 (en) 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020010434A (ko) * 2000-07-28 2002-02-04 임성식 호의적 감정의 촉각적 표현이 가능한 이동전화단말기
WO2003058358A1 (fr) * 2002-01-09 2003-07-17 France Telecom Procede et systeme de commande dynamique d'un element a retour d'effort
US20080294984A1 (en) * 2007-05-25 2008-11-27 Immersion Corporation Customizing Haptic Effects On An End User Device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5805140A (en) * 1993-07-16 1998-09-08 Immersion Corporation High bandwidth force feedback interface using voice coils and flexures
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6586859B2 (en) * 2000-04-05 2003-07-01 Sri International Electroactive polymer animated devices
JP3851459B2 (ja) * 1998-03-31 2006-11-29 日本電信電話株式会社 力覚通信端末装置
JP2002232317A (ja) * 2001-02-07 2002-08-16 Nippon Telegr & Teleph Corp <Ntt> 触覚通信装置
US7567232B2 (en) * 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
JP2003288158A (ja) * 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
US20040040800A1 (en) * 2002-07-31 2004-03-04 George Anastas System and method for providing passive haptic feedback
GB0322489D0 (en) * 2003-09-25 2003-10-29 British Telecomm Haptics transmission systems
JP2006163579A (ja) * 2004-12-03 2006-06-22 Sony Corp 情報処理システム、情報処理装置及び情報処理方法
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US8265308B2 (en) * 2007-12-07 2012-09-11 Motorola Mobility Llc Apparatus including two housings and a piezoelectric transducer
US8004391B2 (en) * 2008-11-19 2011-08-23 Immersion Corporation Method and apparatus for generating mood-based haptic feedback

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020010434A (ko) * 2000-07-28 2002-02-04 임성식 호의적 감정의 촉각적 표현이 가능한 이동전화단말기
KR100354825B1 (ko) 2000-07-28 2002-09-30 임성식 호의적 감정의 촉각적 표현이 가능한 이동전화단말기
WO2003058358A1 (fr) * 2002-01-09 2003-07-17 France Telecom Procede et systeme de commande dynamique d'un element a retour d'effort
US20080294984A1 (en) * 2007-05-25 2008-11-27 Immersion Corporation Customizing Haptic Effects On An End User Device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101181505B1 (ko) 2012-02-28 2012-09-10 한국과학기술원 다양하고 정교한 정보전달을 위한 입력 지점과 출력 지점이 분리된 햅틱 인터페이스
WO2013129770A1 (ko) * 2012-02-28 2013-09-06 한국과학기술원 다양하고 정교한 정보전달을 위한 입력 지점과 출력 지점이 분리된 햅틱 인터페이스

Also Published As

Publication number Publication date
KR20100093211A (ko) 2010-08-25
US20100207745A1 (en) 2010-08-19
JP5073730B2 (ja) 2012-11-14
JP2010193427A (ja) 2010-09-02
EP2219098A1 (en) 2010-08-18

Similar Documents

Publication Publication Date Title
JP6431126B2 (ja) モバイルデバイス上での共有されたフィードバックのための双方向性モデル
CN112087540B (zh) 折叠装置、显示屏模块及移动终端
JP2017120361A (ja) ディスプレイ装置の構成の調整
EP3553633A1 (en) Systems and methods for performing haptic conversion
KR101199852B1 (ko) 이미지 조작 장치 및 방법
US20040119693A1 (en) Interface device with electrical energy generator
US20120223880A1 (en) Method and apparatus for producing a dynamic haptic effect
KR20160134504A (ko) 모듈형 디바이스들을 위한 햅틱 피드백을 위한 시스템 및 방법
CN112291395B (zh) 电子设备及控制方法
KR101054359B1 (ko) 근감각 피드백을 이용한 상호작용장치 및 이의 작동방법
JP2007519099A (ja) 複数の動作モードを有する触覚デバイスを制御するためのシステム及び方法
JP5413450B2 (ja) 触力覚提示装置、触力覚提示装置が適用された電子機器端末及び触力覚提示方法
KR102247663B1 (ko) 디스플레이의 제어 방법 및 이를 지원하는 전자 장치
Overholt Musical interaction design with the create usb interface
Xu et al. Xs: Interactive Scissor Mechanisms as Portable and Customizable Shape-Changing Interfaces
EP3321774A1 (en) Tactile sensation reproduction device
US20180120943A1 (en) Tactile sensation reproduction apparatus
KR102172946B1 (ko) 폴딩 장치, 디스플레이 스크린 모듈 및 이동 단말기
WO2013084667A1 (ja) 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP6554605B2 (ja) 触覚再現装置およびその制御方法
CN101732862B (zh) 双控制器组合
Posada-Gomez et al. Development of a natural interaction interface for people with disabilities in a home automation control room
EP4343486A1 (en) Electronic apparatus including orientation sensor, and method for controlling relative movement of component thereof
CN114840095A (zh) 基于Unity3D系统在移动端通过陀螺仪操作实现漫游控制的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150629

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180626

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 9