KR20210022293A - 로봇 시스템 및 그 제어방법 - Google Patents

로봇 시스템 및 그 제어방법 Download PDF

Info

Publication number
KR20210022293A
KR20210022293A KR1020190101563A KR20190101563A KR20210022293A KR 20210022293 A KR20210022293 A KR 20210022293A KR 1020190101563 A KR1020190101563 A KR 1020190101563A KR 20190101563 A KR20190101563 A KR 20190101563A KR 20210022293 A KR20210022293 A KR 20210022293A
Authority
KR
South Korea
Prior art keywords
exercise
user
motion
robot
carrier
Prior art date
Application number
KR1020190101563A
Other languages
English (en)
Inventor
송준걸
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190101563A priority Critical patent/KR20210022293A/ko
Priority to US16/566,590 priority patent/US20200001459A1/en
Publication of KR20210022293A publication Critical patent/KR20210022293A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B23/00Exercising apparatus specially adapted for particular parts of the body
    • A63B23/035Exercising apparatus specially adapted for particular parts of the body for limbs, i.e. upper or lower limbs, e.g. simultaneously
    • A63B23/03516For both arms together or both legs together; Aspects related to the co-ordination between right and left side limbs of a user
    • A63B23/03533With separate means driven by each limb, i.e. performing different movements
    • A63B23/03541Moving independently from each other
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/02Manipulators mounted on wheels or on carriages travelling along a guideway
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/08Programme-controlled manipulators characterised by modular constructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Manipulator (AREA)

Abstract

본 실시예는 수평 방향으로 이격된 좌측 운동 모듈 및 우측 운동 모듈을 포함하고, 좌측 운동 모듈과 우측 운동 모듈 각각은 승강 가이드와; 승강 가이드를 따라 승강 안내되는 캐리어와; 캐리어에 설치되고, 아암에 앤드 이팩터가 연결되며, 캐리어에 의해 높이 가변되는 로봇 팔을 포함한다.

Description

로봇 시스템 및 그 제어방법{Robot system and Control method of the same}
본 발명은 로봇 시스템 및 그 제어방법에 관한 것이다.
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계로서, 로봇의 응용분야는 대체로, 산업용, 의료용, 우주용, 해저용 등으로 분류될 수 있고, 다양한 분야에서 사용될 수 있다.
최근에는 로봇을 이용하여 운동을 행하는 기술이 점차 증가되는 추세이고, 이러한 기술의 일 예는 대한민국 등록특허공보 10-1806798(2017년12월11일 공고)에 개시된 운동력특정알고리즘엔진부가 포함된 무빙액션형 스프링로봇모듈을 통한 1:1 무빙액션형 스마트 스파링 장치가 있다.
상기 스마트 스파링 장치는 스파링을 하고자 하는 객체의 글러브 상에 위치되어 객제의 움직임에 대응하는 모션신호를 생성시키는 모션감지센서모듈과, 모션감지센서모듈로부터 생성된 모션신호를 수신받아, 팔, 몸통을 타격회피제어시키면서, 스파링을 하고자 하는 객체의 운동량을 측정하는 무빙액션형 스파링로봇모듈로 구성된 스파링장치로 이루어지고, 무빙액션형 스파링로봇모듈은 얼굴, 팔, 몸통으로 이루어진 반신 형상으로 형성되어, 각 긱기의 외압으로부터 보호하고 지지되는 스파링운동몸체를 포함한다.
대한민국 등록특허공보 10-1806798(2017년12월11일 공고)
종래 기술에 따른 로봇을 이용한 스마트스파링장치는 권투 연습의 단일의 운동에 적합한 장점이 있으나, 다양한 종류의 운동을 돕기 용이하지 않으며, 그 활용 가능성이 낮다.
본 발명은 한 쌍의 로봇 팔이 다양한 운동을 도울 수 있고 활용도가 높은 로봇 시스템 및 그 제어방법을 제공하는데 그 목적이 있다.
본 발명의 다른 목적은 신장 등의 신체 사이즈가 상이한 다수의 사용자들 각각이 효율적인 운동을 할 수 있도록 돕는 로봇 시스템 및 그 제어방법을 제공하는데 그 목적이 있다.
본 발명의 실시 예에 따른 로봇 시스템은 수평 방향으로 이격된 좌측 운동 모듈 및 우측 운동 모듈을 포함한다.
좌측 운동 모듈과 우측 운동 모듈 각각은 승강 가이드와; 승강 가이드를 따라 승강 안내되는 캐리어와; 캐리어에 설치되고, 아암에 앤드 이팩터가 연결되며, 캐리어에 의해 높이 가변되는 로봇 팔을 포함한다.
로봇 팔의 최대 길이는 승강 가이드의 길이 보다 짧을 수 있다.
로봇 팔의 최대 길이는 좌측 운동 모듈의 승강 가이드와 우측 운동 모듈의 승강 가이드 사이의 거리 보다 짧을 수 있다.
로봇 시스템은 로봇 팔을 제어하는 컨트롤러를 더 포함할 수 있다. 컨트롤러는 상기 로봇 팔을 복수의 모드로 제어할 수 있다.
복수의 모드는 로봇 팔이 대기 위치로 이동되는 대기모드와, 로봇 팔이 사용자에 의해 동작될 수 있는 운동 영역으로 이동되는 운동모드를 포함할 수 있다.
대기모드일 때 좌측 운동 모듈의 로봇 팔과 우측 운동 모듈의 로봇 팔 사이의 제1거리는 운동모드일 때 좌측 운동 모듈의 로봇 팔과 우측 운동 모듈의 로봇 팔 사이의 제2거리 보다 멀 수 있다.
로봇 시스템은 캐리어를 승강 시키는 승강기구를 더 포함할 수 있다.
승강기구는 좌측 운동 모듈의 캐리어와; 우측 운동 모듈의 캐리어를 동일한 높이로 승강시킬 수 있다.
좌측 운동 모듈 및 우측 운동 모듈 각각은 캐리어를 위치 고정시키는 캐리어 록커를 더 포함할 수 있다.
로봇 시스템은 사용자 입력을 위한 입력부를 포함할 수 있다. 입력부는 캐리어에 배치될 수 있다.
로봇 시스템은 사용자에게 음성 가이드를 제공하는 스피커를 포함할 수 있다. 스피커는 캐리어에 배치될 수 있다.
로봇 시스템은 토크를 센싱하는 토크센서와, 아암의 각도를 센싱하는 각도센서를 더 포함할 수 있다.
로봇 팔은 앤드 이팩터에 설치된 앤드 이팩터 센서를 더 포함할 수 있다.
앤드 이팩터 센서는 사용자의 터치를 센싱하는 터치 센서를 더 포함할 수 있다.
앤드 이팩터 센서는 엔드 이팩터에 가해지는 힘을 센싱하는 힘 센서를 더 포함할 수 있다.
로봇 시스템의 제어 방법은 수평 방향으로 이격된 좌측 운동 모듈 및 우측 운동 모듈 각각이 승강 가이드를 따라 승강 안내되는 캐리어 및 캐리어에 의해 높이 가변되는 로봇 팔을 포함하는 로봇 시스템을 제어할 수 있다.
로봇 시스템의 제어 방법 일 예는 사용자에 의해 사용자 정보가 입력하면, 비젼 센서가 사용자 신체를 촬영하는 촬영 단계와; 사용자의 신체에 따른 사용자 데이터를 메모리에 저장하는 저장단계와; 사용자에 의해 운동 정보가 입력되면, 사용자 데이터 및 운동 정보에 따라 결정된 운동 모션을 산출하고, 사용자가 운동 영역에 위치하면, 앤드 이팩터가 운동 영역으로 이동되는 이동 단계와; 사용자가 앤드 이팩터를 잡으면, 로봇 팔이 운동 모션을 수행하는 모션 단계를 포함한다.
이동 단계는 비젼 센서에서 촬영된 이미지에 의해 사용자가 운동 영역에 위치하는 지 판단할 수 있다.
로봇 시스템의 제어 방법은 출력부를 통해 사용자에게 현재 운동 모션의 적합 여부를 문의하는 문의 단계를 더 포함할 수 있다.
로봇 시스템의 제어 방법은 문의 단계 후, 사용자가 입력부를 통해 만족을 입력하면, 메모리에 운동 모션의 성공 여부를 사용자 별로 저장하는 단계를 실시할 수 있다.
로봇 시스템의 제어 방법은 문의 단계 후, 사용자가 입력부를 통해 불만족을 입력하면, 새로운 운동 모션을 생성하는 보정 단계를 실시할 수 있다.
로봇 시스템의 제어 방법 다른 예는 사용자에 의해 운동 정보가 입력하면, 운동 정보와 대응되는 운동 모션을 출력부로 디스플레이하는 디스플레이 단계와, 사용자가 디스플레이된 운동 모션의 동의를 입력하면, 로봇 팔의 앤드 이팩터가 운동 영역으로 이동되는 이동 단계와; 사용자가 앤드 이팩터을 잡으면, 로봇 팔이 입력된 운동 정보에 따라 결정된 운동 모션을 수행하는 모션 단계와; 운동 모션을 수행한 후, 상기 로봇 팔의 앤드 이팩터가 대기 위치로 이동되는 복귀 단계를 포함할 수 있다.
사용자가 입력한 운동 정보는 운동 강도를 포함할 수 있고, 모션 단계는 운동 강도에 대응되는 토크를 엔드 이팩터에 인가할 수 있다.
디스플레이 단계는 사용자를 인식하는 인식 단계 후 사용자에 의해 운동 정보가 입력되고, 사용자가 입력된 운동 정도에 따른 운동 모션이 저장되어 있으면, 실시될 수 있다.
본 발명의 실시 예에 따르면, 한 쌍의 로봇 팔 및 한 쌍의 캐리어에 의해 하나의 로봇 시스템이 신체 사이즈가 상이한 다수의 사용자들 각각에게 다양한 종류의 운동 효과를 제공할 수 있다.
도 1은 본 발명의 실시 예에 따른 로봇 시스템을 구성하는 AI 장치가 도시된 도,
도 2는 본 발명의 실시 예에 따른 로봇 시스템의 AI 서버가 도시된 도,
도 3은 본 발명의 실시 예에 따른 로봇 시스템이 적용된 AI 시스템이 도시된 도,
도 4는 본 발명의 실시 예에 따른 로봇 시스템의 로봇 팔이 대기모드일 때의 정면도,
도 5는 본 발명의 실시 예에 따른 로봇 시스템에 의해 숄더 프레스할 때의 정면도,
도 6은 본 발명의 실시 예에 따른 로봇 시스템에 의해 채스트 플라이할 때의 정면도,
도 7는 본 발명의 실시 예에 따른 로봇 시스템에 의해 로잉(Rowing)할 때의 도시된 측면도,
도 8은 본 발명의 실시 예에 따른 로봇 시스템의 제어방법 일 예가 도시된 순서도,
도 9는 본 발명의 실시 예에 따른 로봇 시스템의 제어방법 다른 예가 도시된 순서도이다.
이하에서는 본 발명의 구체적인 실시 예를 도면과 함께 상세히 설명하도록 한다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<자율 주행(Self-Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
도 1은 본 발명의 실시 예에 따른 로봇 시스템을 구성하는 AI 장치가 도시된 도이다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, AI 장치(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(500) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth??), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(500)의 러닝 프로세서(540)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(500)의 러닝 프로세서(540)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(500) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 실시 예에 따른 로봇 시스템의 AI 서버가 도시된 도이다.
도 2를 참조하면, AI 서버(500)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(500)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(500)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(500)는 통신부(510), 메모리(530), 러닝 프로세서(540) 및 프로세서(560) 등을 포함할 수 있다.
통신부(510)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(530)는 모델 저장부(531)를 포함할 수 있다. 모델 저장부(531)는 러닝 프로세서(540)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 531a)을 저장할 수 있다.
러닝 프로세서(540)는 학습 데이터를 이용하여 인공 신경망(531a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(500)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(530)에 저장될 수 있다.
프로세서(560)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 실시 예에 따른 로봇 시스템이 적용된 AI 시스템이 도시된 이다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(500), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 500)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 500)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(500)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(500)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(500)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(500)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
<AI+로봇>
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(500) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(500) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
도 4는 본 발명의 실시 예에 따른 로봇 시스템의 로봇 팔이 대기모드일 때의 정면도이고, 도 5는 본 발명의 실시 예에 따른 로봇 시스템에 의해 숄더 프레스할 때의 정면도이고, 도 6는 본 발명의 실시 예에 따른 로봇 시스템에 의해 채스트 플라이할 때의 정면도이며, 도 7는 본 발명의 실시 예에 따른 로봇 시스템에 의해 로잉할 때의 도시된 측면도이다.
본 실시예의 로봇 시스템은 한 쌍의 로봇 팔(R)을 포함할 수 있고, 한 쌍의 로봇 팔(R) 각각의 높이가 조절될 수 있다. 한 쌍의 로봇 팔(R) 각각은 신장이 상이한 다수의 사용자 각각이 다양한 운동을 도울 수 있도록 그 높이가 가변될 수 있다.
로봇 시스템은 수평 방향으로 이격된 좌측 운동 모듈(M1)과 우측 운동 모듈(M2)을 포함할 수 있다. 좌측 운동 모듈(M1)과 우측 운동 모듈(M2)은 사용자가 운동하는 영역인 운동 영역(A)을 사이에 두고 좌우 방향(X)으로 이격될 수 있다.
좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 각각은 로봇 팔(R)을 포함할 수 있고, 로봇 팔(R) 각각의 높이가 조절되게 구성될 수 있다.
좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 각각은 동일하게 구성될 수 있고, 좌우 대칭되게 배치될 수 있다. 좌우 방향(X)으로 이격된 좌측 운동 모듈(M1)과 우측 운동 모듈(M2)은 사용자의 다양한 운동을 도울 수 있는 로봇(100a) 특히, 멀티 헬스 로봇을 구성할 수 있다.
좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 각각은 승강 가이드(181)과; 승강 가이드(181)을 따라 승강 안내되는 캐리어(190)와; 캐리어(190)에 설치된 로봇 팔(R)을 포함할 수 있다.
승강 가이드(181)은 체육시설의 바닥에 직접 수직하게 세워지게 설치되는 것이 가능하고, 바닥 위에 놓인 별도의 베이스(182) 위에 수직하게 설치되는 것이 가능하다.
승강 가이드(181)은 상하 방향(Z)으로 길게 배치될 수 있다.
승강 가이드(181)의 상단은 자유단을 구성되는 것이 가능하다.
로봇 시스템은 좌측 운동 모듈(M1)의 승강 가이드(181)과, 우측 운동 모듈(M2)의 승강 가이드(181)의 상부를 연결하는 어퍼 커넥터(183)을 더 포함할 수 있다.
캐리어(190)는 승강 가이드(181)을 따라 상승되거나 하강될 수 있고, 로봇 팔(R)의 높이를 조절하는 로봇 팔 높이 조절기구일 수 있다.
캐리어(190)와 승강 가이드(181) 중 어느 하나에는 그루브 또는 리브가 상하 방향으로 길게 형성될 수 있고, 캐리어(190)와 승강 가이드(181) 중 다른 하나에는 그루브 또는 리브를 따라 승강 안내되는 돌출부가 형성될 수 잇다.
좌측 운동 모듈(M1) 및 우측 운동 모듈(M2) 각각은 캐리어(190)를 고정시키는 캐리어 록커(192)를 더 포함할 수 있다.
캐리어 록커(192)는 승강 가이드(181)과 캐리어(190) 중 어느 하나에 다른 하나를 향해 이동되거나 회전되게 배치된 록킹 바디와, 록킹 바디가 이동되거나 회전되게 작동시키는 모터나 스위치 등의 록킹 바디 구동원을 포함할 수 있다.
승강 가이드(181)과 캐리어(190) 중 다른 하나에는 이동되거나 회전되전 록킹 바디가 삽입되어 걸리는 스토퍼가 제공될 수 있다.
록킹 바디 구동원의 록킹 모드시, 록킹 바디는 스토퍼를 향해 이동되거나 회전되어 스토퍼에 걸릴 수 있고, 이 경우, 캐리어(190)는 승강 가이드(181)을 따라 상승되거나 하강되지 않고, 현재 위치를 유지할 수 있다.
록킹 바디 구동원의 록킹 모드시, 록킹 바디는 스토퍼에서 빠져나올수 있고, 이 경우, 캐리어(190)는 승강 가이드(181)을 따라 승강 가능한 상태가 될 수 있다.
캐리어 록커(192)는 캐리어(190)에 설치될 수 있고, 스토퍼는 승강 가이드(181)에 복수개 형성될 수 있으며, 복수개의 스토퍼는 승강 가이드(181)에 상하 방향(Z)으로 이격되게 형성될 수 있다.
한편, 로봇 시스템은 사용자 입력을 위한 입력부(120)를 포함할 수 있다 . 입력부(120)는 마이크로 폰 또는 터치 패널을 포함할 수 있다. 입력부(120)는 캐리어(190)에 배치될 수 있다.
입력부(120)는 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 각각의 캐리어(190)에 배치되는 것이 가능하고, 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 중 어느 하나의 캐리어(190)에 배치되는 것도 가능하다.
입력부(120)는 수평 방향으로 운동 영역을 향할 수 있게 배치될 수 있다. 운동 영역(A)에 위치하는 사용자는 운동 영역(A)에 근접한 입력부(120)를 통해 각종 명령을 편리하게 입력할 수 있다.
로봇 시스템은 사용자에게 음성 가이드를 제공하는 스피커(152)를 포함할 수 있다. 스피커(152)는 각종 정보를 소리로 제공하는 출력부(150)를 구성할 수 있다. 출력부(150)는 터치 패널에 제공된 터치 스크린을 포함할 수 있다. 스피커(152)는 캐리어(190)에 배치될 수 있다.
출력부(150)는 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 각각의 캐리어(190)에 배치되는 것이 가능하고, 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 중 어느 하나의 캐리어(190)에 배치되는 것도 가능하다.
출력부(150)는 수평 방향으로 운동 영역을 향할 수 있게 배치될 수 있다. 운동 영역(A)에 위치하는 사용자는 운동 영역(A)에 근접한 출력부(150)를 통해 출력되는 각종 소리 정보나 표시 정보를 편안한 자세에세 신뢰성 높게 획득할 수 있다.
입력부(120)와 출력부(150) 중 적어도 하나가 캐리어(190)에 배치될 경우, 캐리어(190)와, 입력부(120) 및 출력부(150)의 어셈블리(D)는 운동 영역에 위치하는 사용자 높이에 맞춰 승강되는 승강 인터페이스 모듈을 구성할 수 있다.
로봇 시스템은 로봇 팔(R) 및 후술하는 캐리어 승강기구()를 제어하는 컨트롤러(180)을 포함할 수 있다.
컨트롤러(180)는 캐리어(190)에 배치될 수 있고, 이 경우, 컨트롤러(180) 및 캐리어(190)의 어셈블리(D) 운동 영역에 위치하는 사용자 높이에 맞춰 승강되는 무빙 컨트롤 모듈을 구성할 수 있다.
로봇 팔(R)은 적어도 하나의 아암(210)(220)(230)과; 아암에 연결된 앤드 이팩터(260)를 포함할 수 있다.
로봇 팔(R)은 복수개 아암(210)(220)(230) 및 복수개 아암을 연결하는 적어도 하나의 아암 커넥터(240)(250)을 포함할 수 있다. 복수개 아암(210)(220)(230)은 아암 커네터(240)(250)를 사이에 두고 순차적으로 배치될 수 있다.
엔드 이팩터(260)는 복수개 아암(210)(220)(230) 중 어느 하나(230)에 설치될 수 있다. 엔드 이펙터(260)는 로봇 핸드 또는 그리퍼일 수 있고, 사용자가 손으로 잡을 수 있는 일종의 손잡이로 기능할 수 있다. 앤드 이팩터(260)은 복수개 아암(210)(220)(230) 중 어느 하나(230)에 회전 가능하게 연결될 수 있다.
로봇 팔(R)은 캐리어(190)에 고정될 수 있고, 캐리어(190)에 의해 높이 조절될 수 있다. 로봇 팔(R)은 캐리어(190)에 체결된 캐리어 커넥터(270)을 더 포함할 수 있다.
로봇 팔(R)은 도 4를 참조하면, 최대 길이(L1)와 최소길이(L2)의 범위 내에서 펼쳐지거나 접혀 질 수 있다.
로봇 팔(R)의 최대 길이(L1)는 로봇 팔(R)이 캐리어(190) 또는 캐리어 커넥터(270)을 기준으로 최대로 펼쳐졌을 때의 로봇 팔 전체 길이일 수 있다. 로봇 팔(R)의 최대 길이(L1)는 로봇 팔(R)이 최대로 펼쳐졌을 때의 로봇 팔(R) 전체의 수평 방향 길이로 정의될 수 있다.
로봇 팔(R)의 최소 길이(L2)는 로봇 팔(R)이 최대한 접혀졌을 때의 로봇 팔 전체 길이일 수 있다. 로봇 팔(R)의 최소 길이(L2)는 로봇 팔(R)이 최대로 접혀졌을 때의 로봇 팔(R) 전체의 수평 방향 길이로 정의될 수 있다.
로봇 팔(R)을 최대 길이(L1)는 승강 가이드(181)의 길이(L3) 보다 짧을 수 있다. 로봇 팔(R)의 최대 길이(L1)는 좌측 운동 모듈(M1)의 승강 가이드(181)과 우측 운동 모듈(M2)의 승강 가이드(181) 사이의 거리(L4) 보다 짧을 수 있다.
이 경우, 좌측 운동 모듈(M1)의 로봇 팔(R)이 최대로 펼쳐졌을 때, 좌측 운동 모듈(M1)의 로봇 팔(R)은 우측 운동 모듈(M2)의 캐리너(190)이나 로봇 팔(R)과 간섭,충돌되는 것이 최소화될 수 있다.
또한, 우측 운동 모듈(M2)의 로봇 팔(R)이 최대로 펼쳐졌을 때, 우측 운동 모듈(M2)의 로봇 팔(R)은 좌측 운동 모듈(M2)의 캐리너(190)이나 로봇 팔(R)과 간섭,충돌되는 것이 최소화될 수 있다.
로봇 시스템은 아암(210)(220)(230)의 토크를 센싱하는 토크센서(280)와, 아암(210)(220)(230)의 각도를 센싱하는 각도센서(290)를 더 포함할 수 있다.
토크센서(280)는 각각의 아암별로 제공되는 것이 가능하고, 하나의 토크센서가 복수개의 아암(210)(220)(230) 중 앤드 이팩터(260)와 가장 근접한 아암(230)의 토크를 센싱하게 제공되는 것도 가능하다.
각도센서(290)는 센싱하고자 하는 아암이 인접한 타 아암을 기준으로 회전한 각도를 센싱할 수 있다. 각도센서(290)는 각각의 아암별로 제공되는 것이 가능하고, 하나의 각도센서가 복수개의 아암(210)(220)(230) 중 앤드 이팩터(260)와 가장 근접한 아암(230)의 회전 각도를 센싱하게 제공되는 것도 가능하다.
로봇 팔(R)은 앤드 이팩터(260)에 설치된 앤드 이팩터 센서(300)를 더 포함할 수 있다.
앤드 이팩터 센서(300)는 사용자의 터치를 센싱하는 터치 센서(302, Touch Sensor)를 더 포함할 수 있다. 앤드 이팩터 센서(300)는 상기 엔드 이팩터에 가해지는 힘을 센싱하는 힘 센서(304, Force Sensor)를 더 포함할 수 있다.
사용자는 로봇 팔(R) 특히, 앤드 이팩터(260)을 잡고, 앤드 이팩터(260)의 위치나 각도가 변경되는 방향으로 앤드 이팩터(260)에 힘(즉, 외력)을 가할 수 있다.
터치 센서(302)는 사용자가 앤드 이팩터(260)을 손으로 잡았을 때, 이를 센싱할 수 있고, 센싱값을 컨트롤러(180)으로 전송할 수 있다.
터치 센서(302)는 사용자의 접촉이나 터치 여부를 센싱할 수 있는 센서로서, 용량변화식, 전기전도도 변화식(저항변화식), 광량변화식 등이 있을 수 있다. 터치 센서(302)는 사용자의 물리적 접촉을 센싱할 수 있는 구성이면, 그 종류나 방식에 한정되지 않음은 물론이다.
터치 센서(302)는 사용자의 접촉이 있을 때, 터치 여부를 컨트롤러(180)로 전송할 수 있고, 사용자가 더 이상 앤드 이팩터(260)을 잡지 않으면, 비터치 여부를 컨트롤러(189)으로 전송할 수 있다.
힘 센서(304)는 힘을 전기량으로 변환하는 방식으로 1차 변환 요소로서 탄성체의 변형을 이용하는 것과, 피측정량과 이미 알고 있는 크기의 힘을 평형시키는 것으로 나눌 수 있다.
탄성체의 변형을 이용하는 힘 센서는 변형량 자체를 검출하는 것과, 변형으로 인한 물리적 효과를 이용하는 것, 변형으로 인한 진동수의 변화를 이용하는 것 등이 있다. 힘 센서(304)는 사용자가 운동을 위해 앤드 이팩터(260)에 가하는 힘을 측정할 수 있는 구성이면, 그 종류나 방식에 한정되지 않음은 물론이다.
힘 센서(304)는 사용자가 앤드 이팩터(260)를 잡고 외력을 가했을 때, 이를 센싱할 수 있고, 센싱값을 컨트롤러(180)로 전송할 수 있다. 사용자가 앤드 이팩터(260)를 잡고 운동을 위한 모션을 취했을 때, 힘 센서(305)에서 센싱되는 외력은 앤드 이팩터(260)의 위치나 각도에 따라 변화될 수 있고, 힘 센서(305)는 시간의 경과에 따른 힘의 센싱값을 컨트롤러(180)로 계속 전송할 수 있다.
로봇 시스템은 캐리어(190)를 승강 시키는 승강기구(310)를 더 포함할 수 있다.
로봇 시스템은 승강기구(310) 없이, 사용자나 조작자(이하, 사용자라 칭함)가 캐리어(190)를 수동으로 승강시키는 것이 가능하고, 사용자가 아닌 승강기구(310)가 캐리어(190)를 승강시키는 것도 가능하다.
로봇 시스템은 사용자가 로봇 팔(R)에 외력을 가하여 로봇 팔(R)의 일부를 회전시키거나 이동시키는 동안 캐리어(190)가 로봇 팔(R)의 모션과 함께 승강 동작 될 수 있다.
로봇 시스템은 로봇 팔(R)의 모션이 발생되는 동안 캐리어(190)가 승강되게 되면, 캐리어(190)가 위치 고정인 상태에서 로봇 팔(R)만 동작되는 경우 보다 다양한 종류의 복합적 운동 모션을 생성할 수 있고, 캐리어(190)는 로봇 팔(R)의 모션 도중에 승강기구(300)에 의해 승강되는 것이 바람직하다. 이 경우, 로봇 시스템은 로봇 팔(R)의 모션과 캐리어(190)의 승강에 의해 전체 운동 모션을 생성할 수 있다.
이하, 로봇 시스템이 승강기구(310)를 포함하는 예를 들어 설명한다. 그러나, 본 발명은 승강기구(310)가 캐리어(190)를 승강시키는 것에 한정되지 않고, 캐리어(190)의 높이가 사용자에 의해 수동으로 조절되는 것도 가능함은 물론이다.
승강기구(310)는 캐리어(190)에 연결된 리니어 모터를 포함하는 것이 가능하고, 서보 모터나 리니어 모터 등의 모터(312)와, 모터의 구동력을 캐리어(190)로 전달하는 기어나 벨트, 리니어 가이드 등의 적어도 하나의 동력전달부재(314)를 포함하는 것도 가능하다.
승강기구(310)는 사용자가 운동을 개시하기 전에, 사용자가 선택한 운동에 적합한 높이로 캐리어(190)를 상승시키거나 하강시키는 것이 가능하고, 사용자가 운동을 행하는 도중에 캐리어(190)의 높이를 가변시키지 않고, 캐리어(190)를 위치 고정시키는 것이 가능하다.
승강기구(310)는 사용자가 운동을 개시하기 전에, 사용자가 선택한 운동에 적합한 높이로 캐리어(190)를 상승시키거나 하강시키는 것이 가능하고, 사용자가 운동을 행하는 도중에 캐리어(190)의 높이를 기프로그래밍된 제어 수순에 의해 높이거나 낮추는 것이 가능하다.
사용자가 운동을 행하는 도중에, 승강기구(310)가 캐리어(190)을 승강시키는 여부는 입력부(120)를 통해 사용자가 선택한 운동의 종류에 따라 상이할 수 있고, 로봇 시스템은 사용자가 입력부(120)를 통해 입력한 운동에 최적으로 대응할 수 있다.
승강기구(310)는 좌측 운동 모듈(M1)의 캐리어(190)와; 우측 운동 모듈(M2)의 캐리어(190)를 동일한 높이로 승강시키거나 좌측 운동 모듈(M1)의 캐리어(190)와; 우측 운동 모듈(M2)의 캐리어(190)를 상이한 높이로 승강시킬 수 있다.
승강기구(310)의 일 예는 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 별로 각각 제공될 수 있고, 이 경우, 로봇 시스템은 좌측 운동 모듈(M1)의 캐리어(190) 높이와, 우측 운동 모듈(M2)의 캐리어(190) 높이를 같거나 상이하게 조절할 수 있다.
승강기구(310)의 다른 예는 하나의 구동원과 두 셋트의 동력전달부재를 포함하여, 하나의 구동원에 의해 두 셋트의 동력전달부재를 작동시키는 것이 가능하다. 이 경우, 로봇 시스템은 좌측 운동 모듈(M1)의 캐리어(190) 높이와, 우측 운동 모듈(M2)의 캐리어(190) 높이를 동일하게 조절할 수 있다.
운동의 종류에 따라, 좌측 운동 모듈(M1)의 캐리어(190)와, 우측 운동 모듈(M2)의 캐리어(190) 중 어느 하나의 높이가 다른 하나의 높이 보다 높을 수 있고, 승강기구(310)는 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 별로 각각 제공되는 것이 바람직하다. 그러나, 본 발명은 승강기구(310)가 좌측 운동 모듈(M1)과 우측 운동 모듈(M2) 별로 각각 제공되는 것에 한정되지 않음은 물론이다.
로봇 시스템은 로봇(100a) 특히, 좌측 운동 모듈(M1) 및 우측 운동 모듈(M2) 각각의 동작을 제어하는 컨트롤러를 더 포함할 수 있다.
컨트롤러는 로봇 팔(R)을 제어할 수 있다. 로봇 시스템이 승강기구(310)을 더 포함할 경우, 컨트롤러는 로봇 팔(R) 및 승강기구(310)를 제어할 수 있다. 컨트롤러는 로봇(100a)의 일부를 구성하는 것도 가능하고, 로봇(100a)이 연결된 서버(500)의 전부 또는 일부를 구성하는 것도 가능하다.
로봇 시스템을 구성하는 로봇(100a)은 인공신경망을 이용하여 운동과 관련된 모션 동작를 행하는 AI장치를 구성하는 것이 가능하고, 인공신경망을 이용하지 않고, 메모리(170)에 기저장된 데이터 및 프로세서(180)의 프로그램에 의해 각종 모션을 생성하는 것이 가능하다. 이하, 편의를 위해 컨트롤러에 대해서는 프로세서와 동일 부호인 180을 병기하여 설명한다.
컨트롤러(180)는 로봇 팔(R)을 복수의 모드로 제어할 수 있다.
복수의 모드는 대기 모드와, 운동모드를 포함할 수 있다.
대기모드는 로봇 팔(R) 특히, 앤드 이팩터(260)가 대기 위치(P1)로 이동되어 그 위치를 유지하는 모드일 수 있다.
대기모드일 때, 좌측 운동 모듈(M1)과 로봇 팔(R)과 우측 운동 모듈(M2)의 로봇 팔(R)는 제1거리(L5, 도 4 참조) 만큼 이격될 수 있다.
운동모드는 로봇 팔(R) 특히, 앤드 이팩터(260)가 사용자에 의해 동작될 수 있는 운동 영역(A)로 이동되고, 사용자에 손 등이 로봇 팔(R)의 엔드 이팩터(260)에 쉽게 접근할 수 있는 모드일 수 있다.
운동모드일 때, 좌측 운동 모듈(M1)과 로봇 팔(R)과 우측 운동 모듈(M2)의 로봇 팔(R)는 제2거리(L6, 도 5 참조)만큼 이격될 수 있다.
제1거리(L5)는 제2거리(L6) 보다 멀 수 있다.
대기모드의 제1거리(L5)는 사용자에 의해 설정된 여러 종류의 운동 별로 상이하지 않고, 일정할 수 있다.
운동모드의 제2거리(L6)는 도 5 및 도 6에 도시된 바와 같이, 사용자에 의해 입력된 여러 종류의 운동 별로 상이할 수 있다.
운동모드의 제2거리(L6)는 로봇 시스템이 제공하는 운동의 종류에 가변될 수 있는 가변거리일 수 있다.
컨트롤러(180)는 승강기구(310)을 복수의 모드로 제어할 수 있다.
복수의 모드는 초기 모드와, 조절 모드를 포함할 수 있다.
초기 모드시, 컨트롤러(180)는 캐리어(190)가 캐리어 대기 위치(H1)에 위치되게 승강기구(310)를 제어할 수 있다.
캐리어 대기 위치(H1)는 한 쌍의 로봇 팔(R)을 이용하여 운동을 하지 않을 때, 캐리어가 대기하는 위치일 수 있고, 캐리어 대기 위치(H1)는 승강 가이드(181)의 소정 높이에 설정된 위치일 수 있다.
예를 들면, 캐리어 대기 위치는 캐리어(190)가 승강 가이드(181)를 따라 상승될 수 있는 최대 높이일 때의 위치로 설정되거나 캐리어(190)가 승강 가이드(181)를 따라 하강될 수 잇는 최소 높이일 때의 위치로 설정되거나, 최고 높이와 최소 높이 사이의 기준 높이일 때의 위치로 설정될 수 있다.
승강기구(310)는 캐리어(190)를 캐리어 대기 위치(H1)에 대기시키고 있다가, 사용자가 운동을 개시하기 이전에, 조절 모드로 작동될 수 있고, 캐리어(190)을 최적 초기 위치로 이동될 수 있다.
조절 모드시, 컨트롤러(180)는 캐리어(190)가 최적 초기 위치(H2)에 위치되게 승강기구(310)를 제어할 수 있다.
최적 초기 위치(H2)는 사용자가 로봇 팔(R)의 앤드 이팩터(260)로 쉽게 접근할 수 있는 높이일 때의 캐리어(190) 위치일 수 있다. 최적 초기 위치(H2)는 캐리어(190)가 운동 영역(A)을 향할 수 있는 높이일 때의 캐리어(190) 위치일 수 있다. 최적 초기 위치(H2)는 사용자가 입력한 운동 종류나 사용자의 신장 등에 따라 상이할 수 있고, 컨트롤러(180)는 사용자가 입력한 운동 종류나 사용자의 신장 등에 따라 최적 초기 위치(H2)가 상이하게 결정할 수 있다.
로봇 시스템은, 캐리어(190)가 캐리어 대기 위치(H1)일 때, 로봇 팔(R)의 엔드 이팩터(260)가 대기 위치(P1)에 위치할 수 있다.
로봇 시스템은, 이러한 위치(H1)(P1) 조건에서, 캐리어(190)가 최적 초기 위치(H2)로 승강될 수 있고, 이 경우, 로봇 시스템은, 캐리어(190)가 최적 초기 위치(H2)일 때, 로봇 팔(R)의 엔드 이팩터(260)가 대기 위치(P1)에 위치할 수 있다.
로봇 시스템은, 이러한 위치(H2)(P1) 조건에서, 로봇 팔(R)의 엔드 이팩터(260)가 대기 위치(P1)에서 운동 영역(A)으로 이동될 수 있고, 특히, 운동 영역(A) 중 운동 초기 위치(P2)로 이동될 수 있다. 이 경우, 로봇 시스템은 캐리어(190)가 최적 초기 위치(H2)일 때, 로봇 팔(R)의 앤드 이팩터(260)가 운동 초기 위치(P2)에 위치할 수 있고, 로봇 시스템은 사용자가 앤드 이팩터(260)나 앤드 이팩터(260)에 근접한 아암(230)을 잡고 운동을 시작할 수 있는 상태가 된다.
로봇 시스템은, 이러한 위치 조건(H2)(P2)에서 로봇 팔(R)을 운동 모션으로 작동시킬 수 있다.
로봇 팔(R)은 로봇 팔(R)의 앤드 이팩터(260)가 운동 후기 위치(P3)로 이동되게 앤드 이팩터(260)를 설정 궤적으로 이동시킬 수 있고, 로봇 팔(R)은 앤드 이팩터(260)를 운동 초기 위치(P2)와 운동 후기 위치(P3)로 이동시키는 것을 반복할 수 있으며, 앤드 이팩터(260)가 운동 초기 위치(P2)와 운동 후기 위치(P3)로 이동되는 것을 적어도 2회 반복하는 동안 로봇 팔(R)은 사용자에게 무게감을 제공할 수 있다.
도 5 내지 도 7은 사용자가 로봇 시스템을 이용하여 다양한 종류의 운동을 행할 때의 도면으로서, 로봇 팔(R)이 운동 모드로 작동될 때, 운동 영역(A) 및 앤드 이팩터의 높이(H3,H4,H4)가 상이할 수 있다.
도 5에 도시된 바와 같이, 엔드 이팩터의 높이(H3, 제1높이(H3))가 높고, 엔드 이팩터(260)가 사용자의 어깨 높이 보다 높거나 어깨 높이에 근접할 경우, 사용자는 로봇 팔(R)의 엔드 이팩터(260)나 복수개 아암(210)(22)(230) 중 앤드 이팩터(260)에 근접한 아암(230)을 잡은 상태에서, 이를 상측으로 들어 올리거나 내리는 동작을 행할 수 있다.
이러한 운동을 위한 로봇 팔(R)은 제1아암(210)과, 제2아암(220)과, 제3아암(230) 중 캐리어 커넥터(270)와 근접한 일부 아암을 위치 및 각도 고정시킬 수 있고, 앤드 이펙터(260)와 근접한 아암을 위로 들어올려지거나 아래로 내려가도록 제어될 수 있다.
이 경우, 도 5에 도시된 바와 같이, 캐리어(190)의 높이 및 로봇 팔(R)의 위치가 결정될 로봇 시스템은 숄더 프레스 머신(Shoulder press machine)으로 기능할 수 있다.
도 6에 도시된 바와 같이, 로봇 팔(R)은 앤드 이팩터(260)의 높이(H4, 제2높이(H4))가 사용자의 어깨 보다 낮고, 앤드 이팩터(260)와 근접한 아암(230)이 사용자의 가슴과 근접한 위치 및 높이에 위치할 수 있고, 사용자는 아암(230)을 수평 방향으로 서로 가까워지거나 멀어지게 하는 동작(운동)을 행할 수 있다. 제2높이(H4)는 제1높이(H3) 보다 낮을 수 있다.
이러한 운동을 위한 로봇 팔(R)은 제1아암(210)과, 제2아암(220)과, 제3아암(230) 중 캐리어 커넥터(270)과 근접한 일부 아암을 위치 및 각도 고정시킬 수 있고, 앤드 이펙터(260)와 근접한 아암을 회전시키거나 이동시키도록 제어될 수 있다.
도 6에 도시된 바와 같이, 캐리어(190)의 높이 및 로봇 팔(R)의 위치가 결정될 로봇 시스템은 채스트 플라이 머신(Chest fly machine)으로 기능할 수 있다.
도 7에 도시된 바와 같이, 로봇 팔(R) 특히, 엔드 이팩터(260)의 높이(H5, 제3높이(H5))가 낮을 수 있고, 사용자는 엔드 이팩터(260)나 엔드 이팩터(260)에 근접한 아암(230)을 잡고 노를 젓는 것과 유사한 동작을 행할 수 있다. 제3높이(H5)는 제2높이(H4) 보다 낮을 수 있다.
이러한 운동을 위한 로봇 팔(R)은 제1아암(210)과, 제2아암(220)과, 제3아암(230) 각각의 위치 및 각도 고정시킬 수 있고, 로봇 팔(R)은 전체적으로 그 길이가 길어졌다가 짧아지도록 각 아암의 각도나 위치가 조절될 수 있다.
도 7에 도시된 바와 같이, 캐리어(190)의 높이 및 로봇 팔(R)의 위치가 결정될 로봇 시스템은 로봇 시스템은 로잉 머신(Rowing machine)으로 기능할 수 있다.
로봇 시스템은, 캐리어(190)의 높이, 로봇 팔(R) 중 위치나 각도가 가변되는아암의 개수 등에 의해 다양한 조합의 운동 모션을 제공할 수 있고, 이 경우, 한 쌍의 로봇 팔(R) 및 한 쌍의 캐리어(190)에 의해 기존의 운동 머신들이 제공하지 않았던 새로운 종류의 운동을 유도할 수 있다.
로봇 시스템은 메모리(170)에 저장된 다양한 운동 정보의 데이터나, 프로세서(180)의 프로그램을 업데이트하는 것에 의해 다양한 새로운 운동에 대응할 수 있다.
한편, 로봇 시스템은 좌측 운동 모듈(M1)이나 우측 운동 모듈(M2) 주변에 위치하는 사용자를 촬영할 수 있는 센싱부(140)를 포함할 수 있고, 센싱부(140)는 사용자 신체를 촬영할 수 있는 비젼 센서(142)를 포함할 수 있다. 비젼 센서(142)는 사용자의 신장 등을 센싱할 수 있는 높이에 위치되게 설치될 수 있고, 좌측 운동 모듈(M1)의 승강 가이드(181)나 우측 운동 모듈(M2)의 승강 가이드(181)나 베이스(182)나, 어퍼 커넥터(183)에 설치될 수 있다. 이러한 비젼 센서는 RGB 카메라로 구성되거나, RGB-D카메라로 구성될 수 있고, 사용자의 신장, 사용자가 취하고 있는 포즈 등을 촬영할 수 있으며, 컨트롤러(180)로 촬영 결과를 전송할 수 있다.
도 8은 본 발명의 실시 예에 따른 로봇 시스템의 제어방법 일 예가 도시된 순서도이다.
본 실시예의 로봇 시스템의 제어 방법은 수평 방향으로 이격된 좌측 운동 모듈(M1) 및 우측 운동 모듈(M2) 각각이 승강 가이드를 따라 승강 안내되는 캐리어(180) 및 캐리어(180)에 의해 높이 가변되는 로봇 팔(R)을 포함하는 로봇 시스템을 제어할 수 있다.
로봇 시스템의 제어 방법은 사용자에 의해 사용자 정보가 입력하면, 비젼 센서가 사용자 신체를 촬영하는 촬영 단계(S1)(S2)(S3)(S4)와; 사용자의 신체에 따른 사용자 데이터를 메모리()에 저장하는 저장단계(S5)와; 사용자에 의해 희망 운동 정보가 입력되면, 사용자 데이터 및 운동 정보에 따라 결정된 운동 모션을 생성하고, 사용자가 운동 영역에 위치하면, 앤드 이팩터가 운동 영역으로 이동되는 이동 단계(S6)(S7)(S8)(S9)와; 사용자가 앤드 이팩터를 잡으면, 로봇 팔(R)이 운동 모션을 수행하는 모션 단계(S10)(S11)를 포함할 수 있다.
사용자 정보는 사용자 이름/닉네임, 나이, 키, 몸무게 등의 정보일 수 있고, 사용자는 입력부(120)를 통해 사용자 이름 등의 사용자 정보를 입력할 수 있다.
사용자 정보가 입력되면, 비젼 센서(142)는 사용자를 촬영 수 있고, 컨트롤러(180)로 출력할 수 있다.
촬영 단계(S1)(S2)(S3)(S4)는 사용자가 정보를 입력하는 사용자 정보 입력 과정(S3)과, 사용자 신체가 촬영되는 촬영 과정(S4)을 포함할 수 있다.
촬영 단계(S1)(S2)(S3)(S4)는 사용자 정보 입력 과정(S3)에 의해 개시되는 것이 가능하고, 사용자가 신규 인물정보를 요청하는 요청과정(S1)과, 컨트롤러(180)가 신규 인물정보 등록을 요청한 사용자를 인식하는 인식과정(S2)을 더 포함할 수 있다.
인식 과정(S2)시, 비젼 센서(142) 등은 사용자의 얼굴을 촬영할 수 있고, 이동 단말기의 QR 코드나 NFC 등은 입력부에 의해 센싱될 수 있으며, 컨트롤러(180)는 사용자 얼굴 인식, QR 코드나 NFC 등의 인식에 의해 인식과정(S2)을 행할 수 있다.
촬영 단계(S1)(S2)(S3)(S4)는 인식과정(S2) 후, 사용자 정보 입력과정(S3)이 진행되면, 촬영 과정(S4)이 실시되는 것이 가능하다.
저장단계(S5)는 사용자 신체 촬영이 완료되면, 개시될 수 있고, 컨트롤러(180)는 사용자 신체 형상 모델 등의 사용자 데이터를 생성하여 메모리(170)에 저장할 수 있다.
이동 단계(S6)(S7)는 사용자가 희망하는 운동 정보를 입력하는 운동 정보 입력과정(S6)을 포함할 수 있다.
저장단계(S5) 후, 운동 정보 입력과정(S6)은 개시될 수 있다. 출력부는 운동 정보를 표시하거나 사용자에게 운동 정보를 입력할 것을 알릴 수 있고, 사용자에 의해 희망하는 운동 정보가 입력부로 입력되는 운동 정보 입력과정(S6)이 행해질 수 있다.
사용자에 의해 입력되는 운동 정보는 사용자가 희망하는 운동의 종류와, 횟수 및 운동 강도, 집중 운동 근육 등을 포함할 수 있다.
예를 들면, 로봇 시스템이 숄더 프레스 운동, 채스트 플라이 운동, 요잉 운동 등의 다양한 운동을 제공할 수 있는 경우, 사용자는 이러한 운동들 중 희망하는 운동을 선택하여 입력할 수 있고, 사용자는 10회, 20회 등의 운동 횟수들 중에서 희망 횟수를 선택하여 입력할 수 있으며, 5kg, 10kg, 15kg, 20kg 등의 운동 강도들 중에서 희망 강도를 선택하여 입력할 수 있고, 어깨 근육, 가슴 근육, 등 근육 등의 운동 근육들 중에서 희망 집중 운동 근육을 선택하여 입력할 수 있다.
사용자에 의한 입력되는 운동 정보는 상기와 같은 운동의 종류, 횟수, 운동 강도 및 집중 운동 근육에 한정되지 않고, 다양한 정보를 포함할 수 있음은 물론이다.
이동 단계(S6)(S7)(S8)(S9)는 운동 정보 입력과정(S6)이 실행되면, 실시되는 운동 모션 생성 과정(S7)을 포함할 수 있다.
운동 모션 생성 과정(S7)은 사용자에게 제공할 운동 모션을 생성하는 과정일 수 있다. 컨트롤러(180)은 사용자 데이터(예를 들면, 사용자 신체 형상 모델) 및/또는 운동 정보(예를 들면, 운동 종류) 등에 의해, 사용자가 운동할 수 있는 운동 영역의 크기 및 위치(좌표)를 연산할 수 있고, 로봇 팔(R)의 최적 초기 위치를 결정할 수 있으며, 사용자 신체에 적합한 운동 모션을 생성할 수 있다.
컨트롤러(180)에 의해 생성된 운동 모션은, 엔드 이팩터의 이동/회전 궤적과, 앤드 이팩터의 속도 등이 반영된 모션일 수 있다.
최적 초기 위치는 로봇 팔(R)이 대기 모드인 상태에서, 로봇 팔(R)이 생성된 운동 모션을 최적으로 제공할 수 있는 높이일 수 있고, 사용자 신장이나 앉은 키 등의 사용자 데이터와, 운동 종류 등이 운동 정보에 따라 상이하게 결정될 수 있다.
이동 단계(S6)(S7)(S8)(S9)는 운동 모션 생성 과정(S7) 후, 실시되는 로봇 팔 높이 조절과정(S8)을 포함할 수 있다.
로봇 팔 높이 조절과정(S8)은 캐리어(190)가 로봇 팔(R)을 최적 초기 위치(H2)로 높이 조절하는 과정일 수 있고, 승강기구는 캐리어(190)를 캐리어 대기 위치(H1)에서 최적 초기 위치(H2)로 상승시키거나 하강시킬 수 있다.
사용자는 로봇 팔(R)이 대기모드(즉, 앤드 이팩터(260)이 대기 위치(P1))이고, 로봇 팔(R)이 최적 초기 위치(H2)로 위치된 상태에서, 운동 영역(A)에 진입할 수 있다.
운동 영역(A)은 좌측 운동 모듈(M1)의 승강 가이드(181)와 우측 운동 모듈(M2)의 승강 가이드(181) 사이를 포함할 수 있고, 그 좌우 방향 폭은 좌측 운동 모듈(M1)의 승강 가이드(181)와 우측 운동 모듈(M2)의 승강 가이드(181) 사이의 거리 보다 짧을 수 있고, 그 전후 방향(Y) 길이는 좌측 운동 모듈(M1)의 승강 가이드(181)와 우측 운동 모듈(M2)의 승강 가이드(181) 각각의 전후 방향 길이 보다 길 수 있다.
이동 단계(S6)(S7)(S8)(S9)는 사용자가 운동 영역(A)에 위치하면, 개시되는 로봇 팔 이동 과정(S9)을 포함할 수 있다.
이동 단계(S6)(S7)(S8)(S9) 특히, 로봇 팔 이동 과정(S9)시, 사용자가 운동 영역에 위치하는 지 여부는 비젼 센서(142)에서 촬영된 이미지에 의해 판단될 수 있다.
로봇 팔 이동 과정(S9)은 로봇 팔(R)을 운동 영역(A)으로 이동시키는 과정일 수 있고, 컨트롤러(180)는 로봇 팔(R) 특히, 엔드 이팩터(260)가 운동 영역(A) 내 운동 초기 위치(P2)로 이동되게 로봇 팔(R)을 제어할 수 있다.
운동 영역(A)에 위치한 사용자는 운동 영역(A) 중 운동 초기 위치(P2)로 이동된 앤드 이팩터(260) 또는 앤드 이팩터(260)가 연결된 아암(230)을 손으로 잡을 수 있다. 엔드 이팩터 센서(300)가 이를 센싱할 수 있다.
모션 단계(S10)(S11)은 엔드 이팩터 센서(300)가 사용자의 터치/그립을 센싱하면 개시될 수 있다.
모션 단계(S10)(S11)은 안내과정(S10)과, 모션 과정(S11)을 포함할 수 잇다.
안내과정(S10)은 엔드 이팩터 센서(300)가 사용자의 터치/그립을 센싱하면, 출력부를 통해 운동 모션의 워밍업(Warming-up) 시작을 음성이나 화면으로 안내할 수 있다. 안내과정(S10)은 출력부(150)을 통해 사용자에게 운동을 시작할 것을 안내하는 과정일 수 있다.
모션 과정(S11)은 로봇 팔(R)이 생성된 운동 모션으로 동작하도록 컨트롤러(180)가 로봇 팔(R)을 작동시키는 과정일 수 있다. 모션 과정(S11)일 때의 로봇 팔(R)의 운동 속도는 생성된 운동 모션의 속도와 동일한 것이 가능하고, 생성된 운동 모션의 속도(예를 들면, 0.3m/sec) 보다 설정속도(예를 들면, 0.1m/sec) 만큼 더 느린 속도인 것이 가능하다.
로봇 시스템의 제어 방법은 출력부를 통해 사용자에게 현재 운동 모션의 적합 여부를 문의하는 문의 단계(S12)를 더 포함할 수 있다.
사용자가 입력부(120)를 통해 만족을 입력(S13)하면, 저장 단계(S13)(S14)가 실시할 수 있다. 저장 단계(S13)(S14)시, 컨트롤러(180)는 메모리(170)에 운동 모션의 성공 여부를 사용자 별로 저장할 수 있다.
사용자가 입력부(120)를 통해 불만족을 입력하면, 보정 단계(S13)(S15)를 실시하며, 보정 단계(S13)(S15) 후, 모션 단계(S10)(S11) 특히, 모션 과정(S11)로 복귀할 수 있다.
보정 단계(S13)(S15)시 컨트롤러(180)는 기 진행된 운동 모션의 특정 인자(예를 들면, 속도 등)를 보정한 새로운 운동 모션을 생성할 수 있고, 모션 단계(S10)(S11) 특히, 모션 과정(S11)를 보정된 운동 모션으로 실시할 수 있다.
일 예로, 새로운 운동 모션은 이전에 실시한 운동 모션의 속도 보다 보정 설정속도(예를 들면, 0.05m/sec) 만큼 더 빠르거나 느린 속도로 로봇 팔(R)이 작동되는 운동 모션일 수 있다.
보정 단계(S13)(S15) 및 모션 과정(S11) 후 실시되는 문의 단계(S12)에 대해, 사용자가 만족을 입력(S12)하면, 컨트롤러(180)는 사용자가 만족을 입력한 새로운 운동 모션의 성공 여부를 메모리(170)에 사용자 별로 저장할 수 있다.
로봇 시스템은, 상기와 같은 보정 단계(S13)(S5)를 적어도 1회 실시하면, 사용자가 만족하는 운동 모션 정보를 획득하여 메모리(170)에 저장할 수 있다.
도 8에 도시된 로봇 시스템의 제어방법은 최초로 로봇 시스템을 이용하는 사용자들의 등록 및 최초 사용을 도울 수 있고, 등록된 사용자가 로봇 시스템을 재사용 할 경우를 고려하여, 최초 사용의 각종 정보(예를 들면, 사용자 정보, 사용자 데이터, 운동 정보, 운동 모션 등)를 메모리(170)에 저장하는 제어 방법일 수 있다.
로봇 시스템을 사용한 경험이 있는 사용자는 로봇 시스템을 재 사용할 수 있고, 이 경우, 로봇 시스템은 도 8에 도시된 제어방법과 상이한 제어방법으로 제어되는 것이 바람직하다.
도 9에 도시된 로봇 시스템의 제어방법은 로봇 시스템을 한 번이라도 사용한 이력이 있는 사용자가 로봇 시스템을 다시 사용할 때, 로봇 시스템을 제어하는 제어방법일 수 있다. 그러나, 도 9에 도시된 로봇 시스템의 제어 방법이 로봇 시스템을 재 사용하는 사용자를 위한 제어 방법인 것에 한정되지 않고, 최초로 로봇 시스템을 사용하는 경우에 적용 가능함은 물론이다.
도 9는 본 발명의 실시 예에 따른 로봇 시스템의 제어방법 다른 예가 도시된 순서도이다.
본 실시예의 로봇 시스템의 제어 방법은 로봇 시스템의 제어방법 일 예와 같이, 좌측 운동 모듈(M1) 및 우측 운동 모듈(M2) 각각의 캐리어(190) 및 로봇 팔(R)을 제어할 수 있고, 사용자에 의해 운동 정보가 입력하면, 운동 정보와 대응되는 운동 모션을 출력부(150)로 디스플레이하는 디스플레이 단계(S21)(S22)(S23)(S24)와; 사용자가 디스플레이된 운동 모션의 동의를 입력하면, 로봇 팔(R)의 앤드 이팩터(260)가 운동 영역(A)으로 이동되는 이동 단계(S25)(S26)와; 사용자가 앤드 이팩터(260)을 잡으면, 로봇 팔(R)이 입력된 운동 정보에 따라 결정된 운동 모션을 수행하는 모션 단계(S27)(S28)와, 로봇 팔(R)이 운동 모션을 수행한 후, 로봇 팔(R)의 앤드 이팩터(260)가 대기 위치(P1)로 이동되는 복귀 단계(S29)(S30)을 포함할 수 있다.
디스플레이 단계(S21)(S22)(S23)(S24)는 운동 정보 입력과정(S3)과, 디스플레이 과정(S4)를 포함할 수 있다.
디스플레이 단계(S21)(S22)(S23)(S24)는 사용자가 인식을 요청하는 요청 과정(S21)과, 사용자를 인식하는 인식과정(S22)을 더 포함할 수 있고, 인식과정이(S22)이 완료되면, 운동 정보 입력과정(S3)이 개시될 수 있다.
요청 과정(S21)은 사용자가 입력부(120)를 통해 사용자를 인식해줄 것을 요청하는 과정일 수 있다. 입력부(120)는 초기 화면에서, 사용자 인식 메뉴 항목을 디스플레이할 수 있고, 사용자는 이러한 사용자 인식 메뉴 항목을 입력하는 것에 의해 요청 과정(S21)을 실행할 수 있다.
인식 과정(S2)시, 비젼 센서(142) 등은 사용자의 얼굴을 촬영할 수 있고, 이동 단말기의 QR 코드나 NFC 등은 입력부에 의해 센싱될 수 있으며, 컨트롤러(180)는 사용자 얼굴 인식, QR 코드나 NFC 등의 인식에 의해 인식과정(S2)을 행할 수 있다.
디스플레이 단계(S21)(S22)(S23)(S24)는 인식과정(S22) 후, 운동 정보 입력과정(S23)이 진행되면, 디스플레이 과정(S24)이 실시될 수 있다.
운동 정보 입력과정(S23)는 사용자가 희망하는 운동 정보를 입력하는 과정일 수 있다.
사용자에 의해 입력되는 운동 정보는 로봇 시스템의 제어 방법 일 예에서 설명된 운동 정보(사용자가 희망하는 운동의 종류와, 횟수 및 운동 강도 등)와 동일할 수 있고, 중복된 설명을 피하기 위해 그에 대한 상세한 설명은 생략한다
디스플레이 과정(S24)는 운동 정보 입력과정(S23)이 실행되면, 실시될 수 있다. 디스플레이 과정(S24)는 운동 정보와 대응되는 운동 모션을 출력부(150)로 디스플레이하는 과정일 수 있다.
디스플레이 과정(24)은 운동 모션의 이미지 또는 영상을 출력부(150)를 구성하는 터치 패널 등을 통해 표시하는 과정일 수 있다.
디스플레이 과정(S4)는 메모리(170)에 사용자 별로 저장된 운동 모션이 기 저장되어 있을 경우, 저장된 운동 모션을 출력부(150)로 출력할 수 있고, 사용자에게 기 저장된 운동 모션으로 다시 운동할 지 여부를 표시할 수 있다.
반면에, 메모리(170)에 기저장된 운동 모션이 없을 경우, 로봇 시스템은 도 8에 도시된 제어 방법 일예에 따라 제어될 수 있다.
한편, 사용자는 출력부(150)로 출력된 운동 모션과 상이한 운동 모션을 희망할 경우, 사용자는 입력부(120)를 통해 타 운동 모션의 희망 여부를 입력할 수 있으며, 이 경우, 로봇 시스템은 도 8에 도시된 제어 방법에 의해 제어될 수 있다.
사용자는 기 저장된 운동 모션을 희망할 경우, 운동 모션의 동의 여부를 입력부(120)로 입력할 수 있고, 컨트롤러(180)는 동의된 운동 모션을 준비하기 위해 로봇 팔의 앤드 이팩터(260)를 운동 영역(A)으로 이동되는 이동 단계(S25)(S26)를 개시할 수 있다.
이동 단계(S25)(S26)는 사용자의 동의가 입력되면, 실시되는 로봇 팔 높이 조절과정(S25)을 포함할 수 있다.
도 9에 도시된 본 실시예의 로봇 팔 높이 조절과정(S25)은 도 8에 도시된 로봇 시스템의 제어방법 일 실시예의 로봇 팔 높이 조절과정(S8)과 동일하게 실시될 수 있고, 로봇 팔 높이 조절과정(S25)시, 승강기구(310)는 캐리어(190)를 캐리어 대기 위치(H1)에서 최적 초기 위치(H2)로 상승시키거나 하강시킬 수 있고, 이때, 로봇 팔(R)은 사용자가 동의한 운동 모션의 운동 영역(A)을 향할 수 있다.
사용자는 로봇 팔(R)이 대기모드((즉, 앤드 이팩터(260)이 대기 위치(P1)) 이고, 로봇 팔(R)이 최적 초기 위치(H2)로 위치된 상태에서, 운동 영역(A)에 진입할 수 있다.
이동 단계(S25)(S26)는 사용자가 운동 영역(A)에 위치하면, 개시되는 로봇 팔 이동 과정(S26)을 포함할 수 있다.
도 9에 도시된 본 실시예의 로봇 팔 이동 과정(S26)은 도 8에 도시된 로봇 시스템의 제어방법 일 실시예의 로봇 팔 이동과정(S9)과 동일하게 실시될 수 있다.
이동 단계(S25)(S26) 특히, 로봇 팔 이동 과정(S26)시, 사용자가 운동 영역에 위치하는 지 여부는 비젼 센서(142)에서 촬영된 이미지에 의해 판단될 수 있다.
로봇 팔 이동 과정(S26)시, 컨트롤러(180)는 로봇 팔(R) 특히, 엔드 이팩터(260)가 운동 영역(A) 내 운동 초기 위치(P2)로 이동되게 로봇 팔(R)을 제어할 수 있고, 운동 영역(A)에 위치한 사용자는 운동 영역(A) 중 운동 초기 위치(P2)로 이동된 앤드 이팩터(260) 또는 앤드 이팩터(260)가 연결된 아암(230)을 손으로 잡을 수 있다. 엔드 이팩터 센서(300)가 이를 센싱할 수 있다.
모션 단계(S27)(S28)는 이동 단계(S25)(S26) 후 실시될 수 있다.
컨트롤러(180)는 이동 단계(S25)(S26) 후, 출력부(150)를 통해 운동 시작을 알릴 수 있고, 사용자는 입력부(120)를 통해 운동 개시 명령을 입력(S27)할 수 있다.
모션 단계(S27)(S28)는 사용자가 운동 시작 명령을 입력하는 입력 과정(S27)과, 입력 과정(27)이 실시되면, 로봇 팔(R)을 운동 모션으로 작동시키는 모션 과정(S28)을 포함할 수 있다.
모션 단계(S27)(S28)는 사용자가 앤드 이팩터(260)을 잡으면, 이를 센싱하여 곧바로 로봇 팔(R)을 운동 모션으로 작동시키는 모션 과정(S28)을 실시하는 것이 가능하고, 사용자가 앤드 이팩터(260)을 잡고, 사용자에 의해 운동 개시 명령이 입력(S27)되면, 로봇 팔(R)을 입력된 운동 정보에 따라 결정된 운동 모션으로 작동시키는 모션 과정(S28)을 실시하는 것이 가능하다.
모션 단계(S27)(S28) 특히, 모션 과정(S28)시, 로봇 팔(R)은 운동 강도에 대응되는 토크를 로봇 팔의 엔드 이팩터(260)에 인가할 수 있다.
모션 과정(S28)시, 로봇 팔(R)은 앤드 이팩터(260)가 운동 초기 위치(P2)와 운동 후기 위치(P3)로 이동하는 것을 운동 정보에 포함된 횟수(기준 횟수)만큼 행할 수 있다.
로봇 팔(R) 특히, 앤드 이팩터(260)가 운동 모션을 수행 완료하면, 모션 과정(S28)은 종료될 수 있고, 복귀 단계(S29)(S30)가 개시될 수 있다.
복귀 단계(S29)(S30)는 운동 모션 종료 알림과정(S29) 및 복귀 과정(S30)을 포함할 수 있다.
운동 모션 종료 알림과정(S29)은 앤드 이팩터(260)가 운동 초기 위치(P2)와 운동 후기 위치(P3)로 이동되는 동작이 운동 정보에 포함된 횟수만큼 실행 완료되면, 개시될 수 있고, 컨트롤러(180)는 전체 운동 모션의 종료를 출력부(150)로 출력할 수 있다.
복귀 과정(S30)시, 로봇 팔(R)의 앤드 이팩터(260)는 운동 영역(A) 특히, 운동 초기 위치(P2)나 운동 후기 위치(P3)에서 대기 위치(P1)로 이동될 수 있다.
복귀 단계(S29)(S30)는 운동 모션 종료 알림과정(S29)을 생략하고, 앤드 이팩터(260)가 운동 영역(A)에서 대기 위치(P1)로 이동되는 복귀 과정(S30)이 실행되는 것도 가능함은 물론이다.
로봇 시스템의 제어 방법은, 복귀 과정(S30) 후, 사용자가 입력부(120)을 통해 운동 종료를 입력하는 것이 가능하고, 사용자는 입력부(120)를 통해 운동 종료를 입력하지 않은 상태에서 일정 시간 휴식 후, 다시 운동 영역(A)에 진입하는 것이 가능하다.(S31)
사용자의 운동 영역(A) 재진입은 비젼 센서(142)에 의해 센싱될 수 있고, 이후 로봇 시스템은 로봇 팔 이동 과정(S26)를 실시할 수 있다. 상기와 같이, 로봇 팔 이동 과정(S26) 이후(S26 내지 S31)를 실시할 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
181: 승강 가이드 190: 캐리어
260: 앤드 이팩터 M1: 좌측 운동 모듈
M2: 우측 운동 모듈 R: 로봇 팔

Claims (20)

  1. 수평 방향으로 이격된 좌측 운동 모듈 및 우측 운동 모듈을 포함하고,
    상기 좌측 운동 모듈과 우측 운동 모듈 각각은
    승강 가이드와;
    상기 승강 가이드를 따라 승강 안내되는 캐리어와;
    상기 캐리어에 설치되고, 아암에 앤드 이팩터가 연결되며, 상기 캐리어에 의해 높이 가변되는 로봇 팔을 포함하는 로봇 시스템.
  2. 제 1 항에 있어서,
    상기 로봇 팔을 최대 길이는 상기 승강 가이드의 길이 보다 짧은 로봇 시스템.
  3. 제 1 항에 있어서,
    상기 로봇 팔을 최대 길이는 상기 좌측 운동 모듈의 승강 가이드와 상기 우측 운동 모듈의 승강 가이드 사이의 거리 보다 짧은 로봇 시스템.
  4. 제 1 항에 있어서,
    상기 로봇 팔을 제어하는 컨트롤러를 더 포함하고,
    상기 컨트롤러는 상기 로봇 팔을 복수의 모드로 제어할 수 있고,
    상기 복수의 모드는
    상기 로봇 팔이 대기 위치로 이동되는 대기모드와,
    상기 로봇 팔이 사용자에 의해 동작될 수 있는 운동 영역으로 이동되는 운동모드를 포함하며,
    상기 대기모드일 때의 좌측 운동 모듈과 로봇 팔과 상기 우측 운동 모듈의 로봇 팔 사이의 제1거리는, 상기 운동모드일 때의 좌측 운동 모듈과 로봇 팔과 상기 우측 운동 모듈의 로봇 팔 사이의 제2거리 보다 먼 로봇 시스템.
  5. 제 1 항에 있어서,
    상기 캐리어를 승강 시키는 승강기구를 더 포함하는 로봇 시스템.
  6. 제 5 항에 있어서,
    상기 승강기구는 상기 좌측 운동 모듈의 캐리어와; 상기 우측 운동 모듈의 캐리어를 동일한 높이로 승강시키는 로봇 시스템.
  7. 제 1 항에 있어서,
    상기 좌측 운동 모듈 및 우측 운동 모듈 각각은 상기 캐리어를 위치 고정시키는 캐리어 록커를 더 포함하는 로봇 시스템.
  8. 제 1 항에 있어서,
    사용자 입력을 위한 입력부를 포함하고,
    상기 입력부는 상기 캐리어에 배치된 로봇 시스템.
  9. 제 1 항에 있어서,
    사용자에게 음성 가이드를 제공하는 스피커를 포함하고,
    상기 스피커는 상기 캐리어에 배치된 로봇 시스템.
  10. 제 1 항에 있어서,
    상기 아암의 토크를 센싱하는 토크센서와,
    상기 아암의 각도를 센싱하는 각도센서를 더 포함하는 로봇 시스템.
  11. 제 1 항에 있어서,
    상기 로봇 발은 상기 앤드 이팩터에 설치된 앤드 이팩터 센서를 더 포함하는 로봇 시스템.
  12. 제 11 항에 있어서,
    상기 앤드 이팩터 센서는 사용자의 터치를 센싱하는 터치 센서를 더 포함하는 로봇 시스템.
  13. 제 11 항에 있어서,
    상기 앤드 이팩터 센서는 상기 엔드 이팩터에 가해지는 힘을 센싱하는 힘 센서를 더 포함하는 로봇 시스템.
  14. 수평 방향으로 이격된 좌측 운동 모듈 및 우측 운동 모듈 각각이 승강 가이드를 따라 승강 안내되는 캐리어 및 캐리어에 의해 높이 가변되는 로봇 팔을 포함하는 로봇 시스템을 제어하는 로봇 시스템의 제어 방법에 있어서,
    사용자에 의해 사용자 정보가 입력하면, 비젼 센서가 사용자 신체를 촬영하는 촬영 단계와;
    사용자의 신체에 따른 사용자 데이터를 메모리에 저장하는 저장단계와;
    사용자에 의해 희망 운동 정보가 입력되면, 상기 사용자 데이터 및 운동 정보에 따라 결정된 운동 모션을 산출하고, 사용자가 운동 영역에 위치하면, 상기 앤드 이팩터가 운동 영역으로 이동되는 이동 단계와;
    사용자가 상기 앤드 이팩터를 잡으면, 상기 로봇 팔이 상기 운동 모션을 수행하는 모션 단계를 포함하는 로봇 시스템의 제어 방법.
  15. 제 14항에 있어서,
    상기 이동 단계시, 상기 비젼 센서에서 촬영된 이미지에 의해 사용자가 운동 영역에 위치하는 지 판단되는 로봇 시스템의 제어 방법.
  16. 제 14항에 있어서,
    출력부를 통해 사용자에게 현재 운동 모션의 적합 여부를 문의하는 문의 단계를 더 포함하는 로봇 시스템의 제어 방법.
  17. 제 16항에 있어서,
    상기 문의 단계 후, 사용자가 입력부를 통해 만족을 입력하면, 메모리에 운동 모션의 성공 여부를 사용자 별로 저장하는 후 저장단계를 실시하고,
    상기 문의 단계 후, 사용자가 입력부를 통해 불만족을 입력하면, 새로운 운동 모션을 생성하는 보정 단계를 실시하는 로봇 시스템의 제어 방법.
  18. 수평 방향으로 이격된 좌측 운동 모듈 및 우측 운동 모듈 각각이 승강 가이드를 따라 승강 안내되는 캐리어 및 캐리어에 의해 높이 가변되는 로봇 팔을 포함하는 로봇 시스템을 제어하는 로봇 시스템의 제어 방법에 있어서,
    사용자에 의해 운동 정보가 입력하면, 상기 운동 정보와 대응되는 운동 모션을 출력부로 디스플레이하는 디스플레이 단계와,
    사용자가 디스플레이된 운동 모션의 동의를 입력하면, 상기 로봇 팔의 앤드 이팩터가 운동 영역으로 이동되는 이동 단계와;
    사용자가 상기 앤드 이팩터을 잡으면, 상기 로봇 팔이 입력된 운동 정보에 따라 결정된 운동 모션을 수행하는 모션 단계를 포함하는 로봇 시스템의 제어 방법.
  19. 제 18 항에 있어서,
    사용자가 입력한 운동 정보는 운동 강도를 포함하고,
    상기 모션 단계는 상기 운동 강도에 대응되는 토크를 상기 엔드 이팩터에 인가하는 로봇 시스템의 제어 방법.
  20. 제 19 항에 있어서,
    상기 디스플레이 단계는 사용자를 인식하는 인식 과정 후 사용자에 의해 운동 정보가 입력되고, 사용자가 입력된 운동 정도에 따른 운동 모션이 저장되어 있으면, 실시되는 로봇 시스템의 제어 방법.
KR1020190101563A 2019-08-20 2019-08-20 로봇 시스템 및 그 제어방법 KR20210022293A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190101563A KR20210022293A (ko) 2019-08-20 2019-08-20 로봇 시스템 및 그 제어방법
US16/566,590 US20200001459A1 (en) 2019-08-20 2019-09-10 Robot system and control method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190101563A KR20210022293A (ko) 2019-08-20 2019-08-20 로봇 시스템 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20210022293A true KR20210022293A (ko) 2021-03-03

Family

ID=69054929

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190101563A KR20210022293A (ko) 2019-08-20 2019-08-20 로봇 시스템 및 그 제어방법

Country Status (2)

Country Link
US (1) US20200001459A1 (ko)
KR (1) KR20210022293A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023004812A (ja) * 2021-06-25 2023-01-17 緯創資通股▲ふん▼有限公司 フィットネスエクササイズシステム及び運動器材の改造方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018202504A (ja) 2017-05-31 2018-12-27 ソニー株式会社 医療用支持アームシステム、医療用支持アームの制御方法、および医療用支持アームの制御装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101806798B1 (ko) 2016-04-26 2017-12-11 서울과학기술대학교 산학협력단 운동량측정알고리즘엔진부가 포함된 무빙액션형 스파링로봇모듈을 통한 1:1 무빙액션형 스마트 스파링 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101806798B1 (ko) 2016-04-26 2017-12-11 서울과학기술대학교 산학협력단 운동량측정알고리즘엔진부가 포함된 무빙액션형 스파링로봇모듈을 통한 1:1 무빙액션형 스마트 스파링 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023004812A (ja) * 2021-06-25 2023-01-17 緯創資通股▲ふん▼有限公司 フィットネスエクササイズシステム及び運動器材の改造方法
US11857839B2 (en) 2021-06-25 2024-01-02 Wistron Corporation Systems and methods for retrofitting exercise machines with smart functions

Also Published As

Publication number Publication date
US20200001459A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
KR102284509B1 (ko) 충전 로봇 및 그 제어방법
US11559902B2 (en) Robot system and control method of the same
KR102693610B1 (ko) 로봇의 충전 시스템 및 그 제어 방법
KR102220191B1 (ko) 로봇 핸드 및 그 제어방법
KR20190116190A (ko) 로봇
KR20210041703A (ko) 이동식 침대 로봇
US20190375106A1 (en) Robot and control method thereof
KR20210007771A (ko) 커피 제조 로봇 및 그 제어방법
KR20190096875A (ko) 로봇 및 그의 제어 방법
KR20190104943A (ko) 로봇 시스템 및 그 제어 방법
KR20210022293A (ko) 로봇 시스템 및 그 제어방법
US11648161B2 (en) Robot
US11213956B2 (en) Robot system and method for controlling the same
KR20190098930A (ko) 사용자에게 음식을 제공하는 방법 및 그 장치
KR20190114927A (ko) 로봇 시스템 및 그 제어 방법
US11478925B2 (en) Robot and method for controlling same
US11613000B2 (en) Robot
KR20190113690A (ko) 로봇 시스템 및 그 제어방법
KR20210037430A (ko) 로봇과 연결되는 장치, 이의 제어 방법, 및 로봇 시스템
KR20220043864A (ko) 로봇 및 그 제어방법
KR20220047176A (ko) 로봇
KR102269788B1 (ko) 액션 로봇, 그의 인증 방법, 및 그와 연결되는 서버
KR20210115283A (ko) 다족 로봇
KR20210056594A (ko) 로봇
US11478697B2 (en) Terminal connected to action robot and operating method thereof