KR102554815B1 - 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템 - Google Patents
로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템 Download PDFInfo
- Publication number
- KR102554815B1 KR102554815B1 KR1020227012319A KR20227012319A KR102554815B1 KR 102554815 B1 KR102554815 B1 KR 102554815B1 KR 1020227012319 A KR1020227012319 A KR 1020227012319A KR 20227012319 A KR20227012319 A KR 20227012319A KR 102554815 B1 KR102554815 B1 KR 102554815B1
- Authority
- KR
- South Korea
- Prior art keywords
- force
- robot
- virtual reality
- task
- environment
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 24
- 239000013598 vector Substances 0.000 title description 33
- 230000004044 response Effects 0.000 claims abstract description 24
- 230000009471 action Effects 0.000 claims description 36
- 238000003384 imaging method Methods 0.000 claims description 20
- 230000003993 interaction Effects 0.000 claims description 11
- 230000015654 memory Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 21
- 230000033001 locomotion Effects 0.000 description 19
- 238000001514 detection method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39001—Robot, manipulator control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40131—Virtual reality control, programming of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Numerical Control (AREA)
Abstract
Description
도 1a는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 예시적인 로봇 시스템 및 환경을 개략적으로 묘사한다;
도 1b는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 예시적인 로봇을 개략적으로 묘사한다;
도 2는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 예시적인 로봇 및 가상 현실 시스템의 예시적인 시스템 다이어그램을 개략적으로 묘사한다;
도 3은 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 로봇의 소정의 태스크에 힘 벡터를 할당하는 방법의 플로우차트를 개략적으로 묘사한다;
도 4a는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 가상 현실 시스템에 의해 디스플레이되는 환경의 예시적인 가상 현실 표현을 묘사한다;
도 4b는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 가상 현실 시스템에 의해 디스플레이되는 환경의 예시적인 가상 현실 표현을 묘사한다;
도 4c는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 가상 현실 시스템에 의해 디스플레이되는 환경의 예시적인 가상 현실 표현을 묘사한다;
도 4d는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 가상 현실 시스템에 의해 디스플레이되는 환경의 예시적인 가상 현실 표현을 묘사한다;
도 4e는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 가상 현실 시스템에 의해 디스플레이되는 환경의 예시적인 가상 현실 표현을 묘사한다; 그리고
도 4f는 본원에서 설명되고 예시되는 하나 이상의 실시형태에 따른 가상 현실 시스템에 의해 디스플레이되는 환경의 예시적인 가상 현실 표현을 묘사한다.
Claims (20)
- 시스템으로서,
전자 컨트롤러를 포함하되, 상기 전자 컨트롤러는:
이미지 캡쳐 디바이스(image capturing device)로부터 환경의 이미지 데이터를 수신하도록;
상기 이미지 데이터로부터 상기 환경에 위치되는 오브젝트를 식별하도록;
디스플레이를 위해, 상기 식별된 오브젝트와 관련되는 영역 및 상기 영역과 현재 정렬되는 태스크 유저 인터페이스 엘리먼트를 나타내는 상기 영역에 대응하는 지시자를 생성하도록;
상기 환경의 가상 현실 표현을 생성하도록 - 상기 환경의 가상 현실 표현은, 상기 환경의 가상 현실 표현 내의 로봇의 컴포넌트를 나타내는 그래픽 엘리먼트 및 상기 로봇에 의한 조작을 위한 상기 식별된 오브젝트와 관련되는 상기 영역을 포함함 - ;
상기 로봇의 상기 컴포넌트를 나타내는 상기 그래픽 엘리먼트의 조작을, 상기 환경의 상기 가상 현실 표현을 통해 유저로부터 수신하도록;
상기 그래픽 엘리먼트에 대한 다양한 파라미터화된 액션에 의해 정의되는 로봇 태스크와 관련되는 적어도 하나의 태스크 유저 인터페이스 엘리먼트를 포함하는 메뉴를 상기 환경의 상기 가상 현실 표현 내에서 생성하도록;
힘 파라미터를 구성하기 위한 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하도록;
가상 로봇 조작 태스크에 대한 상기 힘 파라미터를 구성할 것을 유저에게 프롬프트하도록 - 상기 프롬프트는 힘 방향을 나타내기 위해 유저가 상호 작용식으로 배치하는 힘 화살표를 디스플레이하는 것을 포함함 - ; 및
상기 힘 파라미터를 구성하기 위한 상기 프롬프트로부터 수신되는 입력에 응답하여 힘의 크기 및 상기 힘의 방향 중 적어도 하나를 상기 가상 로봇 조작 태스크에 할당하고, 그로 인해, 상기 로봇이 자율적으로 동작할 때, 할당된 힘의 크기 및 할당된 힘의 방향 중 적어도 하나에 의해 정의된 상기 가상 로봇 조작 태스크에 기초하여, 식별된 오브젝트로 로봇 태스크를 실행하기 위해 상기 로봇에 가르치도록
구성되는, 시스템. - 제1항에 있어서,
상기 전자 컨트롤러는:
이미징 디바이스로부터 상기 환경에 대응하는 깊이 정보를 수신하도록; 그리고
상기 이미지 데이터 및 상기 깊이 정보에 기초하여 상기 가상 현실 표현을 생성하도록 구성되는, 시스템. - 제1항에 있어서,
상기 힘 파라미터를 구성하기 위한 상기 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하는 것은 또한, 상기 전자 컨트롤러로 하여금, 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트가 적어도 하나의 파라미터화된 액션과 관련된다는 것을 결정하게 하는, 시스템. - 제1항에 있어서,
상기 전자 컨트롤러는 상기 가상 현실 표현 및 상기 메뉴 중 적어도 하나를 디스플레이 디바이스로 송신하도록 구성되는, 시스템. - 제1항에 있어서,
상기 전자 컨트롤러는:
입력 디바이스로부터 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트의 선택을 수신하도록; 그리고
상기 힘 파라미터를 구성하기 위한 상기 프롬프트로부터의 상기 입력을 상기 입력 디바이스로부터 수신하도록 구성되는, 시스템. - 시스템으로서,
전자 컨트롤러를 포함하되, 상기 전자 컨트롤러는:
이미지 캡쳐 디바이스로부터 환경의 이미지 데이터를 수신하도록;
상기 이미지 데이터로부터 상기 환경에 위치되는 오브젝트를 식별하도록;
디스플레이를 위해, 상기 식별된 오브젝트와 관련되는 영역 및 상기 영역과 현재 정렬되는 태스크 유저 인터페이스 엘리먼트를 나타내는 상기 영역에 대응하는 지시자를 생성하도록;
상기 환경의 가상 현실 표현을 디스플레이하도록 - 상기 환경의 가상 현실 표현은, 상기 환경의 가상 현실 표현 내의 로봇의 컴포넌트를 나타내는 그래픽 엘리먼트 및 상기 로봇에 의한 조작을 위한 상기 식별된 오브젝트와 관련되는 상기 영역을 포함함 - ;
상기 로봇의 상기 컴포넌트를 나타내는 상기 그래픽 엘리먼트의 조작을, 상기 환경의 가상 현실 표현을 통해 유저로부터 수신하도록;
상기 그래픽 엘리먼트에 대한 다양한 파라미터화된 액션에 의해 정의되는 로봇 태스크와 관련되는 적어도 하나의 태스크 유저 인터페이스 엘리먼트를 포함하는 메뉴를 상기 가상 현실 표현 내에서 디스플레이하도록;
힘 파라미터를 구성하기 위한 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하도록;
가상 로봇 조작 태스크에 대한 상기 힘 파라미터를 구성할 것을 유저에게 지시하는 프롬프트 - 상기 프롬프트는 힘 방향을 나타내기 위해 유저가 상호 작용식으로 배치하는 힘 화살표를 디스플레이하는 것을 포함함 - 를 디스플레이하도록;
상기 힘 파라미터를 구성하기 위한 상기 프롬프트로부터 수신되는 입력에 응답하여 상기 가상 로봇 조작 태스크에 대한 힘 크기 및 힘 방향 중 적어도 하나의 할당을 나타내는 신호를 송신하고, 그로 인해, 상기 로봇이 자율적으로 동작할 때, 할당된 힘의 크기 및 할당된 힘의 방향 중 적어도 하나에 의해 정의된 상기 가상 로봇 조작 태스크에 기초하여, 식별된 오브젝트로 로봇 태스크를 실행하기 위해 상기 로봇에 가르치도록
구성되는, 시스템. - 제6항에 있어서,
상기 프롬프트를 디스플레이하는 것은:
힘의 크기를 나타내도록 구성되는 힘 크기 엘리먼트; 및
힘의 방향을 나타내도록 구성되는 힘 방향 엘리먼트를 디스플레이하는 것을 더 포함하는, 시스템. - 제7항에 있어서,
상기 프롬프트로부터 수신되는 상기 입력은:
입력 디바이스를 사용한 상기 힘 크기 엘리먼트와의 제1 상호 작용; 및
상기 입력 디바이스를 사용한 상기 힘 방향 엘리먼트와의 제2 상호 작용을 더 포함하는, 시스템. - 제6항에 있어서,
상기 힘 파라미터를 구성하기 위한 상기 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하는 것은, 입력 디바이스를 사용한 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트의 선택을 수신하는 것을 더 포함하는, 시스템. - 제6항에 있어서,
상기 전자 컨트롤러는:
상기 이미지 데이터에 기초하여 상기 가상 현실 표현을 디스플레이하도록 구성되는, 시스템. - 삭제
- 제6항에 있어서,
상기 힘 파라미터를 구성하기 위한 상기 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하는 것은 또한, 상기 전자 컨트롤러로 하여금, 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트가 적어도 하나의 파라미터화된 액션과 관련된다는 지시(indication)를 수신하게 하는, 시스템. - 방법으로서,
이미지 캡쳐 디바이스로부터 환경의 이미지 데이터를 수신하는 단계;
상기 이미지 데이터로부터 상기 환경에 위치되는 오브젝트를 식별하는 단계;
디스플레이를 위해, 상기 식별된 오브젝트와 관련되는 영역 및 상기 영역과 현재 정렬되는 태스크 유저 인터페이스 엘리먼트를 나타내는 상기 영역에 대응하는 지시자를 생성하는 단계;
하나 이상의 프로세서에 의해 상기 환경의 가상 현실 표현을 생성하는 단계 - 상기 환경의 가상 현실 표현은, 상기 환경의 가상 현실 표현 내의 로봇의 컴포넌트를 나타내는 그래픽 엘리먼트 및 상기 로봇에 의한 조작을 위한 상기 식별된 오브젝트와 관련되는 상기 영역을 포함함 - ;
상기 로봇의 상기 컴포넌트를 나타내는 상기 그래픽 엘리먼트의 조작을, 상기 환경의 상기 가상 현실 표현을 통해 유저로부터 수신하는 단계;
상기 하나 이상의 프로세서에 의해, 상기 그래픽 엘리먼트에 대한 다양한 파라미터화된 액션에 의해 정의되는 로봇 태스크와 관련되는 적어도 하나의 태스크 유저 인터페이스 엘리먼트를 포함하는 메뉴를 상기 환경의 상기 가상 현실 표현 내에서 생성하는 단계;
상기 하나 이상의 프로세서에 의해, 힘 파라미터를 구성하기 위한 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하는 단계;
상기 하나 이상의 프로세서에 의해, 가상 로봇 조작 태스크에 대한 상기 힘 파라미터를 구성할 것을 유저에게 프롬프트하는 단계 - 상기 프롬프트하는 단계는 힘 방향을 나타내기 위해 유저가 상호 작용식으로 배치하는 힘 화살표를 디스플레이하는 단계를 포함함 - ;
상기 하나 이상의 프로세서에 의해, 상기 힘 파라미터를 구성하기 위한 상기 프롬프트로부터 수신되는 입력에 응답하여 힘 크기 또는 상기 힘 방향 중 적어도 하나를 상기 가상 로봇 조작 태스크에 할당하고, 그로 인해, 상기 로봇이 자율적으로 동작할 때, 할당된 힘의 크기 및 할당된 힘의 방향 중 적어도 하나에 의해 정의된 상기 가상 로봇 조작 태스크에 기초하여, 식별된 오브젝트로 로봇 태스크를 실행하기 위해 상기 로봇에 가르치는 단계
를 포함하는, 방법. - 제13항에 있어서,
상기 하나 이상의 프로세서에 의해, 이미징 디바이스로부터 상기 환경에 대응하는 깊이 정보를 수신하는 단계; 및
상기 하나 이상의 프로세서에 의해, 상기 이미지 데이터 및 상기 깊이 정보에 기초하여 상기 가상 현실 표현을 생성하는 단계를 더 포함하는, 방법. - 제13항에 있어서,
상기 힘 파라미터를 구성하기 위한 상기 옵션이 상기 메뉴의 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트로부터 선택되는 것을 결정하는 단계는, 상기 하나 이상의 프로세서에 의해, 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트가 적어도 하나의 파라미터화된 액션과 관련된다는 것을 결정하는 단계를 더 포함하는, 방법. - 제13항에 있어서,
상기 하나 이상의 프로세서에 의해, 상기 가상 현실 표현 및 상기 메뉴 중 적어도 하나를 디스플레이 디바이스로 송신하는 단계를 더 포함하는, 방법. - 제13항에 있어서,
상기 하나 이상의 프로세서에 의해, 입력 디바이스로부터 상기 적어도 하나의 태스크 유저 인터페이스 엘리먼트의 선택을 수신하는 단계; 및
상기 하나 이상의 프로세서에 의해, 상기 힘 파라미터를 구성하기 위한 상기 프롬프트로부터의 상기 입력을 상기 입력 디바이스로부터 수신하는 단계를 더 포함하는, 방법. - 제13항에 있어서,
상기 하나 이상의 프로세서에 의해, 상기 가상 현실 표현을 가상 현실 시스템으로 송신하는 단계를 더 포함하되, 상기 가상 현실 표현은, 상기 가상 현실 시스템으로 하여금, 상기 가상 현실 표현을 수신하는 것에 응답하여 상기 가상 현실 시스템의 디스플레이 디바이스를 사용하여 상기 가상 현실 표현을 디스플레이하게 하도록 구성되는, 방법. - 제18항에 있어서,
상기 하나 이상의 프로세서에 의해, 상기 가상 현실 시스템으로 상기 메뉴를 송신하는 단계를 더 포함하되, 상기 메뉴를 송신하는 단계는, 상기 가상 현실 시스템으로 하여금, 상기 메뉴를 수신하는 것에 응답하여 상기 디스플레이 디바이스를 사용하여 상기 메뉴를 디스플레이하게 하도록 구성되는, 방법. - 제18항에 있어서,
상기 하나 이상의 프로세서에 의해, 상기 가상 현실 시스템으로 상기 프롬프트를 송신하는 단계를 더 포함하되, 상기 프롬프트를 송신하는 단계는, 상기 가상 현실 시스템으로 하여금, 상기 프롬프트를 수신하는 것에 응답하여 상기 프롬프트를 디스플레이하게 하도록 구성되는, 방법.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962900143P | 2019-09-13 | 2019-09-13 | |
US62/900,143 | 2019-09-13 | ||
US16/692,272 | 2019-11-22 | ||
US16/692,272 US11262887B2 (en) | 2019-09-13 | 2019-11-22 | Methods and systems for assigning force vectors to robotic tasks |
PCT/US2020/047132 WO2021050232A1 (en) | 2019-09-13 | 2020-08-20 | Methods and systems for assigning force vectors to robotic tasks |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220108761A KR20220108761A (ko) | 2022-08-03 |
KR102554815B1 true KR102554815B1 (ko) | 2023-07-14 |
Family
ID=72422233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020227012319A KR102554815B1 (ko) | 2019-09-13 | 2020-08-20 | 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11262887B2 (ko) |
EP (1) | EP4027930A1 (ko) |
JP (1) | JP7326595B2 (ko) |
KR (1) | KR102554815B1 (ko) |
CN (1) | CN114364497A (ko) |
WO (1) | WO2021050232A1 (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11926064B2 (en) * | 2020-12-10 | 2024-03-12 | Mitsubishi Electric Corporation | Remote control manipulator system and remote control assistance system |
CN113843801B (zh) | 2021-10-18 | 2022-11-29 | 上海节卡机器人科技有限公司 | 复合机器人的控制方法、装置及系统 |
KR102639276B1 (ko) * | 2021-12-09 | 2024-02-22 | 한국전자기술연구원 | 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160257000A1 (en) * | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2018015857A (ja) * | 2016-07-29 | 2018-02-01 | セイコーエプソン株式会社 | 制御装置、及びロボット |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5835693A (en) * | 1994-07-22 | 1998-11-10 | Lynch; James D. | Interactive system for simulation and display of multi-body systems in three dimensions |
JP2010524547A (ja) * | 2007-04-16 | 2010-07-22 | ニューロアーム サージカル リミテッド | 医療用ロボットに関する自動化された動作のための方法、装置、及びシステム |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US9104202B2 (en) | 2010-05-11 | 2015-08-11 | Irobot Corporation | Remote vehicle missions and systems for supporting remote vehicle missions |
EP2668008A4 (en) * | 2011-01-28 | 2018-01-24 | Intouch Technologies, Inc. | Interfacing with a mobile telepresence robot |
US8996167B2 (en) | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
US9582933B1 (en) * | 2012-06-26 | 2017-02-28 | The Mathworks, Inc. | Interacting with a model via a three-dimensional (3D) spatial environment |
WO2014110682A1 (en) | 2013-01-18 | 2014-07-24 | Robotiq Inc. | Force/torque sensor, apparatus and method for robot teaching and operation |
US9465384B1 (en) * | 2013-06-24 | 2016-10-11 | Redwood Robotics, Inc. | Methods and systems for tiered programming of robotic device |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
EP3114677B1 (en) | 2014-03-03 | 2020-08-05 | University of Washington | Haptic virtual fixture tools |
US9579799B2 (en) * | 2014-04-30 | 2017-02-28 | Coleman P. Parker | Robotic control system using virtual reality input |
US20150328772A1 (en) * | 2014-05-14 | 2015-11-19 | Yaskawa America, Inc. | Method, apparatus, and medium for programming industrial robot |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10725297B2 (en) * | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
US9880553B1 (en) * | 2015-04-28 | 2018-01-30 | Hrl Laboratories, Llc | System and method for robot supervisory control with an augmented reality user interface |
JP6676286B2 (ja) * | 2015-05-12 | 2020-04-08 | キヤノン株式会社 | 情報処理方法、および情報処理装置 |
US9687982B1 (en) * | 2015-05-27 | 2017-06-27 | X Development Llc | Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot |
US10730180B2 (en) * | 2015-05-29 | 2020-08-04 | Abb Schweiz Ag | User interface for a teleoperated robot |
US10788836B2 (en) * | 2016-02-29 | 2020-09-29 | AI Incorporated | Obstacle recognition method for autonomous robots |
US9671777B1 (en) | 2016-06-21 | 2017-06-06 | TruPhysics GmbH | Training robots to execute actions in physics-based virtual environment |
US10242476B2 (en) * | 2017-05-31 | 2019-03-26 | Verizon Patent and Licensong Inc. | Methods and systems for dynamically representing, within a virtual reality data stream being presented to a user, a proxy object that corresponds to an object in the real-world environment of the user |
US10610303B2 (en) * | 2017-06-29 | 2020-04-07 | Verb Surgical Inc. | Virtual reality laparoscopic tools |
US10562181B2 (en) * | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
JP7187765B2 (ja) * | 2017-07-24 | 2022-12-13 | セイコーエプソン株式会社 | ロボット制御装置 |
US10913154B2 (en) | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
EP3566824B1 (en) * | 2018-05-11 | 2023-06-28 | Siemens Aktiengesellschaft | Method, apparatus, computer-readable storage media and a computer program for robotic programming |
US10678264B2 (en) * | 2018-10-10 | 2020-06-09 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
-
2019
- 2019-11-22 US US16/692,272 patent/US11262887B2/en active Active
-
2020
- 2020-08-20 EP EP20768148.7A patent/EP4027930A1/en active Pending
- 2020-08-20 KR KR1020227012319A patent/KR102554815B1/ko active IP Right Grant
- 2020-08-20 JP JP2022516078A patent/JP7326595B2/ja active Active
- 2020-08-20 CN CN202080063749.4A patent/CN114364497A/zh active Pending
- 2020-08-20 WO PCT/US2020/047132 patent/WO2021050232A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160257000A1 (en) * | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2018015857A (ja) * | 2016-07-29 | 2018-02-01 | セイコーエプソン株式会社 | 制御装置、及びロボット |
Also Published As
Publication number | Publication date |
---|---|
US20210081081A1 (en) | 2021-03-18 |
JP7326595B2 (ja) | 2023-08-15 |
JP2022538370A (ja) | 2022-09-01 |
CN114364497A (zh) | 2022-04-15 |
WO2021050232A1 (en) | 2021-03-18 |
EP4027930A1 (en) | 2022-07-20 |
US11262887B2 (en) | 2022-03-01 |
KR20220108761A (ko) | 2022-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102554815B1 (ko) | 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템 | |
KR102619004B1 (ko) | 로봇 장치 및 로봇의 작업 기술을 학습하는 방법 | |
US9789612B2 (en) | Remotely operating a mobile robot | |
US9002517B2 (en) | Telematic interface with directional translation | |
CN110891740B (zh) | 用于为远程可控机器人提供机器人操作约束的方法和系统 | |
CN109551476B (zh) | 结合云服务系统的机器人系统 | |
US11279036B2 (en) | Methods and systems for implementing customized motions based on individual profiles for identified users | |
CN110023866A (zh) | 用于自主导航中的动态路线规划的系统和方法 | |
EP3585569B1 (en) | Systems, apparatus, and methods for robotic learning and execution of skills | |
CN114728413A (zh) | 用于控制远程机器人的图形用户界面的方法和系统 | |
KR20230138487A (ko) | 객체 기반 로봇 제어 | |
US20200114515A1 (en) | Systems and methods for conditional robotic teleoperation | |
GB2598345A (en) | Remote operation of robotic systems | |
Quesada et al. | Holo-spok: Affordance-aware augmented reality control of legged manipulators | |
Materna et al. | Teleoperating assistive robots: a novel user interface relying on semi-autonomy and 3D environment mapping | |
Donohoe et al. | Mechatronic implementation of a force optimal underconstrained planar cable robot | |
WO2021049147A1 (ja) | 情報処理装置、情報処理方法、情報処理プログラム及び制御装置 | |
CN112384335A (zh) | 用于一个或多个机器人的自然任务分配的系统和方法 | |
Jiménez et al. | Autonomous object manipulation and transportation using a mobile service robot equipped with an RGB-D and LiDAR sensor | |
Raja et al. | Real time navigation of a mobile robot | |
JP2025027463A (ja) | リアルタイム自律経路計画のためのコンピュータシステムおよび方法、ならびにロボットデバイスおよびその部分の動作を計画するためのシステムおよび方法 | |
CN112465974A (zh) | 3d语义地图构建方法和模块、机器人交互方法和系统 | |
Kraus | Sensory feedback implementation for a teleoperated, master-slave robotic manipulator | |
Muhammad | Vision-based force compliance control method for motion navigation in haptic bilateral control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20220413 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220413 Comment text: Request for Examination of Application |
|
PA0302 | Request for accelerated examination |
Patent event date: 20220413 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221221 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230406 |
|
PG1601 | Publication of registration |