KR20110060319A - 커뮤니케이션이 가능한 로봇 및 이의 조작방법 - Google Patents

커뮤니케이션이 가능한 로봇 및 이의 조작방법 Download PDF

Info

Publication number
KR20110060319A
KR20110060319A KR1020090116866A KR20090116866A KR20110060319A KR 20110060319 A KR20110060319 A KR 20110060319A KR 1020090116866 A KR1020090116866 A KR 1020090116866A KR 20090116866 A KR20090116866 A KR 20090116866A KR 20110060319 A KR20110060319 A KR 20110060319A
Authority
KR
South Korea
Prior art keywords
user
touch wheel
robot
emotion
robot body
Prior art date
Application number
KR1020090116866A
Other languages
English (en)
Inventor
김세훈
정일
Original Assignee
동원시스템즈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동원시스템즈 주식회사 filed Critical 동원시스템즈 주식회사
Priority to KR1020090116866A priority Critical patent/KR20110060319A/ko
Publication of KR20110060319A publication Critical patent/KR20110060319A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

사용자와 커뮤니케이션이 가능한 로봇 및 이의 조작방법이 개시된다. 개시된 본 발명에 의한 커뮤니케이션이 가능한 로봇은, 사용자에 의해 터치 가능하도록 로봇 몸체의 복수의 위치에 설치되는 복수의 터치휠센서 및, 복수의 터치휠센서 중 적어도 어느 하나의 터치휠센서가 조작됨을 인식하여 사용자의 감정을 판단함과 아울러, 판단된 감정에 대응되는 동작신호의 발생을 제어하는 제어부를 포함한다. 이러한 구성에 의하면, 사용자의 감정에 대응되는 일상적인 동작을 인식하여 이에 대응되는 동작을 구현할 수 있음에 따라, 사용자와 로봇 사이의 커뮤니케이션에 따른 친밀감을 향상시킬 수 있게 된다.
로봇, 로보트, 터치, 터치휠, 감정, 커뮤니케이션.

Description

커뮤니케이션이 가능한 로봇 및 이의 조작방법{A ROBOT CAN COMMUNICATION AND OPERATION METHOD THEREOF}
본 발명은 로봇 및 이의 조작방법에 관한 것으로서, 보다 구체적으로는 사용자의 감정을 판단하여 이에 대응되는 동신신호를 발생시킬 수 있는 커뮤니케이션이 가능한 로봇 및 이의 조작방법에 관한 것이다.
근래와 같이 고도화된 사회에서는 사람을 대신하여 각종 작업을 수행하는 기기로서, 로봇이 각광받고 있다. 이러한 로봇은 주로, 소정 물품을 생산하는 제조업에 주로 채용되어, 작업자를 대신하여 물품을 조립, 용접 또는 페인팅하는 것과 같은 반복적이면서도 간단한 작업을 자동화시키고 있다. 뿐만 아니라, 사람이 작업을 수행하기에 어려운 극한환경 예컨대, 극지, 핵발전소, 오염지역, 해저, 또는 우주와 같은 환경에서도 작업자의 안전성을 고려하여, 로봇이 이를 대신하여 수행하고 있다. 그로 인해, 근래에는 로봇의 발전을 통해, 생산성 향상과 작업자의 안전성 향상을 동시에 도모하고 있다.
한편, 상기와 같은 로봇의 발전을 통해, 현재에는 작업용 로봇 뿐만 아니라 예컨대, 로봇 강아지와 같이, 인간과의 감정을 교류할 수 있는 로봇에 대한 요구도 증대되고 있다. 그로 인해, 근래에는 로봇과 인간의 커뮤니케이션(Communication)에 대한 연구/개발이 지속적으로 이루어지고 있다. 그런데, 근래에 보급되고 있는 로봇과 인간의 커뮤니케이션 방법으로는 사용자가 자신의 감정을 로봇에 입력하는 방식이 일반적임에 따라, 로봇과 인간 사이의 커뮤니케이션은 한계를 가진다.
본 발명은 상기와 같은 문제점을 감안한 것으로서, 사용자와의 감정을 파악할 수 있는 커뮤니케이션이 가능한 로봇을 제공하는데 그 목적이 있다.
본 발명의 다른 목적은 상기 목적이 달성된 로봇의 조작방법을 제공하기 위한 것이다.
상기 목적을 달성하기 위한 본 발명에 의한 커뮤니케이션이 가능한 로봇은, 터치휠센서 및 제어부를 포함한다.
본 발명의 바람직한 일 실시예에 의한 터치휠센서는, 로봇 몸체의 복수의 위치에 설치되도록 복수개 마련된다. 이때, 상기 터치휠센서는 사용자에 의해 조작 가능하도록, 상기 로봇 몸체의 외관에 마련된다.
상기 제어부는, 상기 복수의 터치휠센서 중 적어도 어느 하나의 터치휠센서가 조작됨을 인식하여, 이에 대응되는 기 설정된 상기 로봇 몸체의 동작신호의 발생을 제어한다. 이를 위해, 상기 제어부는, 상기 복수의 터치휠센서 중 조작되는 터치휠센서의 위치 및, 조작방향을 인식하는 인식부, 상기 인식된 정보에 근거하여, 상기 터치휠센서를 조작하는 사용자의 감정을 판단하는 판단부 및, 상기 판단된 감정에 대응되는 동작신호를 발생시켜, 상기 로봇 몸체를 구동시키는 구동부를 포함하는 것이 좋다.
또한, 상기 제어부는, 상기 인식된 조작신호에 대응되는 사용자의 감정 및 상기 사용자의 감정에 대응되어 반응되어야 할 상기 로봇 몸체의 동작신호가 저장된 메모리부를 포함하는 것이 바람직하다.
한편, 상기 제어부에 의해 제어되는 상기 로봇 몸체의 동작신호는 상기 로봇 몸체가 시각적으로 구동되는 시각신호 및/또는 청각적으로 구동되는 청각신호를 포함하는 것이 바람직하다.
본 발명의 목적을 달성하기 위한 로봇의 조작방법은, 로봇 몸체의 복수의 영역에 마련된 터치휠센서를 사용자가 터치하는 단계, 상기 터치정보에 근거하여, 사용자의 감정을 판단하는 단계 및, 상기 판단된 사용자의 감정에 대응되어, 기 설정된 상기 로봇 몸체의 동작신호 중, 대응되는 상기 동작신호를 발생시키는 단계를 포함한다. 여기서, 상기 감정 판단단계는, 상기 복수의 터치휠센서 중 조작되는 터치휠센서의 위치 및, 조작방향을 인식하는 단계 및, 상기 인식된 정보에 근거하여, 상기 터치휠센서를 조작하는 사용자의 감정을 판단하는 단계를 포함한다. 또한, 상기 동작신호 발생단계는, 상기 로봇 몸체가 시각적으로 구동되는 시각신호 및/또는 청각적으로 구동되는 청각신호를 발생시킨다.
상기와 같은 구성을 가지는 본 발명에 의하면, 첫째, 사용자가 로봇 몸체를 터치하는 동작을 감지하여 사용자의 감정을 인식하여 사용자의 감정에 대응되는 소정의 동작신호를 발생시킴에 따라, 사용자와 커뮤니케이션이 가능해진다. 그로 인해, 사용자와 로봇 사이의 친밀감을 극대화시킬 수 있게 된다.
둘째, 사용자가 로봇 몸체를 자신의 감정에 대응되는 일상적인 행동 그대로 대하더라도, 로봇이 이를 감지할 수 있음에 따라, 로봇의 조작 편의성도 향상시킬 수 있게 된다.
셋째, 로봇 몸체에 복수의 터치휠센서를 장착하여 조작신호를 입력함에 따라, 로봇 몸체의 미관 또한, 향상시킬 수 있게 된다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참고하여 설명한다.
도 1을 참고하면, 본 발명의 바람직한 일 실시예에 의한 커뮤니케이션이 가능한 로봇(1)은, 터치휠센서(10) 및, 제어부(20)를 포함한다.
도 1 및 도 2를 참고하면, 상기 터치휠센서(10)는 사용자가 터치 가능한 로봇 몸체(R)(도 2 참고)의 복수의 지점에 설치된다. 본 실시예에서는 상기 터치휠센서(10)가 도 2의 도시와 같이, 상기 로봇 몸체(R)의 머리, 어깨, 손, 무릎에 마련되는 것으로 예시하며, 자세히 도시되지 않았으나 로봇 몸체(R)의 뒷머리, 엉덩이, 허벅지 및, 발바닥 등에도 마련될 수 있음은 당연하다.
한편, 상기 터치휠센서(10)는 기기를 조작하기 위한 인터페이스의 하나로, 하나의 몸체에 복수의 아이디(ID)값을 가지는 복수의 포인트로 구성된다. 구체적으로, 도 2의 도시와 같이, 상기 터치휠센서(10)는 휠이라는 원반과 유사한 부품을 터치하여 회전함으로써 조작신호를 입력함과 아울러, 직선방향으로도 터치함으로써 조작신호를 입력한다.
상기 제어부(20)는 상기 터치휠센서(10)가 특정 방향으로 조작됨을 인식하여, 이에 대응되는 기 설정된 동작신호를 발생시켜 상기 로봇 몸체를 구동시킨다. 이를 위해, 상기 제어부(20)는 인식부(21), 판단부(22) 및 구동부(23)를 포함한다.
상기 인식부(21)는 상기 복수의 터치휠센서(10) 중 조작되는 터치휠센서(10)의 위치 및, 조작방향을 인식한다. 이를 위해, 상기 인식부(21)는 복수의 터치휠센서(10)와 모두 연결되어, 상호 신호 교환 가능하다.
상기 판단부(22)는 상기 인식부(21)를 통해 인식된 정보에 근거하여, 상기 터치휠센서(10)를 조작하는 사용자의 감정을 판단한다. 예를 들어, 상기 판단부(22)는 사용자가 상기 로봇 몸체(R)의 머리를 쓰다듬는 동작에 대응하여 사용자의 칭찬하는 감정을 판단하거나, 반대로 사용자가 로봇 몸체(R)의 머리를 가격하는 동작에 대응하여 사용자의 화난 감정을 판단하게 된다.
상기 구동부(23)는 상기 판단된 감정에 대응되는 동작신호를 발생시켜, 상기 로봇 몸체(R)를 구동시킨다. 구체적으로, 상기 판단부(22)에 의해 사용자가 로봇(1)을 향해 칭찬하는 감정이 판단되거나 반대로 화난 감정이 판단된 경우, 상기 구동부(23)에 사용자의 감정에 대응하여 기 설정된 동작을 구현시킨다. 여기서, 상기 구동부(23)는 상기 사용자의 감정에 대응하여 소정 동작을 구현시키는 시각신호를 발생시키거나, 웃음소리와 같은 청각신호를 발생시킨다. 또는, 상기 구동부(23)는 상기 시각신호와 함께 청각신호도 동시에 발생시킬 수 있다. 참고로, 상기 시각신호는 상기 로봇 몸체(R)의 특정 부위가 액추에이터의 동작에 의해 특정 방향으로 구동되는 것과 같은 시각적 동작 뿐만 아니라, 상기 로봇 몸체(R)의 얼굴부위에 특정 표정이 표시되는 것과 같은 시각적 표시까지도 포함한다.
한편, 상기 제어부(20)는 상기 터치휠센서(10)를 조작하는 위치 또는 조작방 향에 대응되는 사용자의 감정이 저장된 메모리부(24)를 포함한다. 이러한 메모리부(24)는 상기 터치휠센서(10)의 조작 위치/방향에 대응되는 사용자의 감정 뿐만 아니라, 사용자의 감정에 대응되어 반응되어야 할 로봇 몸체(R)의 구동신호가 저장된다. 즉, 상기 메모리부(24)는 상기 판단부(22) 및 구동부(23)와 상호 신호 교환하여, 상기 판단부(22)의 판단동작과, 구동부(23)의 구동신호 발생을 보조하는 것이다.
이상과 같은 구성을 가지는 본 발명에 의한 커뮤니케이션이 가능한 로봇(1)의 조작방법을 도 3 내지 도 5를 참고하여 설명한다.
도 3을 참고하면, 우선, 사용자가 로봇 몸체(R)의 복수의 영역에 마련된 터치휠센서(10) 중 어느 하나를 임의의 방향으로 터치한다(S10). 예를 들어, 도 4의 도시와 같이, 사용자가 머리를 쓰다듬는 것과 같이, 상기 로봇 몸체(R)의 정수리에 위치하는 터치휠센서(10)를 정수리로부터 뒷머리 측에 위치하는 터치휠센서(10)까지 도시된 화살표 방향으로 터치하여 조작신호를 입력한다.
그러면, 상기 터치휠센서(10)를 터치하는 터치정보에 근거하여, 사용자의 감정을 판단한다(S20). 구체적으로, 상기 감정 판단단계(S20)는 상기 인식부(21)가 상기 복수의 터치휠센서(10) 중 조작되는 터치휠센서(10)의 위치와 함께, 조작방향을 인식하는 단계(S21)와, 상기 인식된 정보에 근거하여 터치휠센서(10)를 조작하는 사용자의 감정을 판단하는 단계(S22)를 포함한다.
여기서, 도 4의 도시와 같이, 사용자가 상기 로봇 몸체(R)의 머리를 도시된 화살표 방향으로 터치휠센서(10)를 터치하는 것으로 예시함에 따라, 상기 인식 부(21)는 상기 로봇 몸체(R)의 정수리와 뒷머리에 위치하는 터치휠센서(10)을 통해 입력된 조작신호를 인식하게 된다. 그 후, 상기 판단부(22)가 상기 인식부(21)와 메모리부(24)와 신호 교환하여, 인식된 조작신호에 대응되는 사용자의 감정 즉, 칭찬의 감정을 판단하게 된다.
사용자의 감정이 판단되면(S20), 상기 판단된 사용자의 감정에 대응되어, 기 설정된 상기 로봇 몸체(10)의 동작신호 중, 대응되는 상기 동작신호를 구동부(23)가 도 5의 도시와 같이 발생시킨다(S30). 즉, 사용자의 칭찬 감정에 대응하여, 상기 구동부(23)는 로봇 몸체(R)가 기뻐하는 동작을 시각적으로 구동시키는 것이다. 이때, 상기 구동부(23)가 웃음소리와 같은 청각신호를 발생시킬 수도 있음은 당연하다.
참고로, 도 4 및 도 5에서는 상기 사용자가 로봇 몸체(R)를 향해 칭찬의 감정을 표현한 것으로 예시하였으나, 꼭 이에 한정되지 않음은 당연하다.
상술한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만 해당 기술분야의 숙련된 당업자라면 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 본 발명의 일 실시예에 의한 커뮤니케이션이 가능한 로봇을 개략적으로 도시한 구성도,
도 2는 로봇 몸체에 터치휠센서가 장착된 상태를 설명하기 위한 도면,
도 3은 본 발명에 의한 로봇 조작방법을 개략적으로 도시한 순서도,
도 4는 사용자가 로봇 몸체를 터치 조작하는 일 예를 개략적으로 도시한 도면, 그리고,
도 5는 사용자 조작에 대응되는 로봇 몸체의 구동 상태를 개략적으로 도시한 도면이다.
<도면의 주요 부분에 대한 부호 설명>
1: 로봇 10: 터치휠센서
20: 제어부 21: 인식부
22: 판단부 23: 구동부
24: 메모리부

Claims (8)

  1. 로봇 몸체의 복수의 위치에 설치되는 복수의 터치휠센서; 및
    상기 복수의 터치휠센서 중 적어도 어느 하나의 터치휠센서가 조작됨을 인식하여, 이에 대응되는 기 설정된 상기 로봇 몸체의 동작신호의 발생을 제어하는 제어부;
    를 포함하는 커뮤니케이션이 가능한 로봇.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 복수의 터치휠센서 중 조작되는 터치휠센서의 위치 및, 조작방향을 인식하는 인식부;
    상기 인식된 정보에 근거하여, 상기 터치휠센서를 조작하는 사용자의 감정을 판단하는 판단부; 및
    상기 판단된 감정에 대응되는 동작신호를 발생시켜, 상기 로봇 몸체를 구동시키는 구동부;
    를 포함하는 것을 특징으로 하는 커뮤니케이션이 가능한 로봇.
  3. 제2항에 있어서,
    상기 제어부는, 상기 인식된 조작신호에 대응되는 사용자의 감정 및 상기 사 용자의 감정에 대응되어 반응되어야 할 상기 로봇 몸체의 동작신호가 저장된 메모리부를 포함하는 것을 특징으로 하는 커뮤니케이션이 가능한 로봇.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 동작신호는 상기 로봇 몸체가 시각적으로 구동되는 시각신호 및/또는 청각적으로 구동되는 청각신호를 포함하는 것을 특징으로 하는 커뮤니케이션이 가능한 로봇.
  5. 사용자에 의해 터치 가능하도록 로봇 몸체의 복수의 위치에 설치되는 복수의 터치휠센서; 및
    상기 복수의 터치휠센서 중 적어도 어느 하나의 터치휠센서가 조작됨을 인식하여 상기 사용자의 감정을 판단함과 아울러, 상기 판단된 감정에 대응되는 동작신호의 발생을 제어하는 제어부;
    를 포함하는 커뮤니케이션이 가능한 로봇.
  6. 로봇 몸체의 복수의 영역에 마련된 터치휠센서를 사용자가 터치하는 단계;
    상기 터치정보에 근거하여, 사용자의 감정을 판단하는 단계; 및
    상기 판단된 사용자의 감정에 대응되어, 기 설정된 상기 로봇 몸체의 동작신호 중, 대응되는 상기 동작신호를 발생시키는 단계;
    를 포함하는 커뮤니케이션이 가능한 로봇의 조작방법.
  7. 제6항에 있어서,
    상기 감정 판단단계는,
    상기 복수의 터치휠센서 중 조작되는 터치휠센서의 위치 및, 조작방향을 인식하는 단계; 및
    상기 인식된 정보에 근거하여, 상기 터치휠센서를 조작하는 사용자의 감정을 판단하는 단계;
    를 포함하는 것을 특징으로 하는 커뮤니케이션이 가능한 로봇의 조작방법.
  8. 제6항에 있어서,
    상기 동작신호 발생단계는, 상기 로봇 몸체가 시각적으로 구동되는 시각신호 및/또는 청각적으로 구동되는 청각신호를 발생시키는 것을 특징으로 하는 로봇 조작방법.
KR1020090116866A 2009-11-30 2009-11-30 커뮤니케이션이 가능한 로봇 및 이의 조작방법 KR20110060319A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090116866A KR20110060319A (ko) 2009-11-30 2009-11-30 커뮤니케이션이 가능한 로봇 및 이의 조작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090116866A KR20110060319A (ko) 2009-11-30 2009-11-30 커뮤니케이션이 가능한 로봇 및 이의 조작방법

Publications (1)

Publication Number Publication Date
KR20110060319A true KR20110060319A (ko) 2011-06-08

Family

ID=44395106

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090116866A KR20110060319A (ko) 2009-11-30 2009-11-30 커뮤니케이션이 가능한 로봇 및 이의 조작방법

Country Status (1)

Country Link
KR (1) KR20110060319A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105345822A (zh) * 2015-12-17 2016-02-24 成都英博格科技有限公司 智能机器人控制方法及装置
CN108312155A (zh) * 2018-03-07 2018-07-24 重庆鲁班机器人技术研究院有限公司 机器人及机器人的控制方法
US11209907B2 (en) 2017-09-18 2021-12-28 Samsung Electronics Co., Ltd. Method for dynamic interaction and electronic device thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105345822A (zh) * 2015-12-17 2016-02-24 成都英博格科技有限公司 智能机器人控制方法及装置
CN105345822B (zh) * 2015-12-17 2017-05-10 成都英博格科技有限公司 智能机器人控制方法及装置
US11209907B2 (en) 2017-09-18 2021-12-28 Samsung Electronics Co., Ltd. Method for dynamic interaction and electronic device thereof
US11914787B2 (en) 2017-09-18 2024-02-27 Samsung Electronics Co., Ltd. Method for dynamic interaction and electronic device thereof
CN108312155A (zh) * 2018-03-07 2018-07-24 重庆鲁班机器人技术研究院有限公司 机器人及机器人的控制方法

Similar Documents

Publication Publication Date Title
JP5686775B2 (ja) ロボット制御インターフェイスの動的最適化のための方法
CN105912128B (zh) 面向智能机器人的多模态交互数据处理方法及装置
TW201707884A (zh) 遠端操作機器人系統
JP2018530449A (ja) ロボット・システム及びロボット・システムの制御方法
WO2010136961A1 (en) Control device and method for controlling a robot
CA2549670A1 (en) Robot control system
CN110709211B (zh) 机器人系统和机器人系统的控制方法
JP2018187697A (ja) 産業用ロボット、コントローラ、および方法
Martín-Barrio et al. Application of immersive technologies and natural language to hyper-redundant robot teleoperation
KR20110060319A (ko) 커뮤니케이션이 가능한 로봇 및 이의 조작방법
CN104972474A (zh) 一种基于单片机控制的机器人
JP2011224737A (ja) 案内ロボット、案内方法、及び案内制御用プログラム
JP7483420B2 (ja) ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
CN106096716A (zh) 一种面部表情机器人多通道信息情感表达映射方法
CN103213143A (zh) 一种具有温度感知功能的多元触觉交互感知系统
KR102000264B1 (ko) 교시 데이터 입력 장치와 이를 이용한 로봇의 교시 명령어 생성 장치 및 방법
US8571713B2 (en) Robot and method thereof
KR101004259B1 (ko) 진동촉각장치 및 이를 이용한 진동 방법
Gonzalez et al. Smooth transition-based control of encounter-type haptic devices
JP2008097323A (ja) モーションコントロールシステム
JP5572788B1 (ja) 向き付け式位置制御方法
JP7333197B2 (ja) 制御システム、機械装置システム及び制御方法
CN103909524B (zh) 定向式位置控制方法
Wichiert et al. Man-machine interaction for robot applications in everyday environment
Song et al. The development of interface device for human robot interaction

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid