KR101860200B1 - 카메라를 이용한 장치 또는 물체의 선택 - Google Patents

카메라를 이용한 장치 또는 물체의 선택 Download PDF

Info

Publication number
KR101860200B1
KR101860200B1 KR1020160061560A KR20160061560A KR101860200B1 KR 101860200 B1 KR101860200 B1 KR 101860200B1 KR 1020160061560 A KR1020160061560 A KR 1020160061560A KR 20160061560 A KR20160061560 A KR 20160061560A KR 101860200 B1 KR101860200 B1 KR 101860200B1
Authority
KR
South Korea
Prior art keywords
manipulator system
manipulator
camera
portable terminal
actuating
Prior art date
Application number
KR1020160061560A
Other languages
English (en)
Other versions
KR20160140400A (ko
Inventor
게르하르트 히트만
Original Assignee
쿠카 도이칠란트 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 쿠카 도이칠란트 게엠베하 filed Critical 쿠카 도이칠란트 게엠베하
Publication of KR20160140400A publication Critical patent/KR20160140400A/ko
Application granted granted Critical
Publication of KR101860200B1 publication Critical patent/KR101860200B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • H04N5/2257
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/106Programme-controlled manipulators characterised by positioning means for manipulator elements with articulated links
    • G06K9/00664
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39444Display of position, of shape of robot and tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)

Abstract

본 발명은 휴대용 단말기를 이용하여 매니퓰레이터 시스템을 액추에이팅하기 위한 방법, 상응하는 휴대용 단말기, 및 로봇 시스템에 관한 것이다. 상기 휴대용 단말기는 바람직하게는 3D 카메라를 포함하고, 상기 3D 카메라는 그 밖에 바람직하게는 플렌옵틱 카메라이다. 이때, 본 발명에 따른 방법은 무엇보다도 상기 액추에이팅되어야 하는 매니퓰레이터 시스템의 적어도 하나의 부분에 대하여 상기 휴대용 단말기의 상기 3D 카메라를 이용한 3차원적 이미지의 캡처, 및 상기 매니퓰레이터 시스템의 적어도 하나의 액추에이팅 가능한 물체의 확인을 포함한다.

Description

카메라를 이용한 장치 또는 물체의 선택 {SELECTION OF A DEVICE OR AN OBJECT BY MEANS OF A CAMERA}
본 발명은 휴대용 단말기를 이용하여 매니퓰레이터 시스템 (manipulator system) 을 선택하기 위한 그리고 액추에이팅하기 위한 방법, 상응하는 휴대용 단말기, 및 매니퓰레이터 시스템에 관한 것이다.
매니퓰레이터 그리고 특히 산업용 로봇은 자유로이 프로그래밍 가능한, 프로그램 제어된 (program-controlled) 핸들링 장치이다. 이러한 매니퓰레이터는 움직일 수 있는, 서로 잇달아 사슬 연결된 다수의 부재들 또는 축들로 구성될 수 있고, 이를 통해 운동학적 사슬 (kinematic chain) 이 정의된다.
매니퓰레이터를 이용할 수 있기 위해, 그는 통상적으로 가동 개시되어야 하고, 프로그래밍되어야 한다. 가동 개시 단계 동안, 추후에 뒤따르는 매니퓰레이터 프로그램의 프로그래밍을 위한 전제조건들이 만들어진다. 이로써, 가동 개시에 있어서 무엇보다도 예컨대 매니퓰레이터는 조정되고, 상기 매니퓰레이터의 엔드 이펙터 (end effector) 또는 공구 (예컨대 그립퍼 (gripper)) 는 매개변수화되고, 이동형 플랫폼의 하나 또는 다수의 레이저 스캐너는 캘리브레이션되고 (calibrated), 매니퓰레이터의 작업 영역 및 차단 영역이 정의되고, 로봇에 의해 안내되는 또는 고정형 카메라들이 매개변수화되고, 또는 좌표계들, 예컨대 베이스 좌표계 (base coordinate system) 가 정의된다.
매니퓰레이터 프로그램을 컴파일링할 때, 장치들 및/또는 물체들을 이용하기 위한 여러 가지 명령들이 만들어질 수 있고, 원하는 연속으로 수행될 수 있다. 이때, 예컨대 매니퓰레이터가 특정한 방식으로 출발점과 목표점 사이에서 이동해야 한다는 것, 이동형 플랫폼이 특정한 경로를 따라서 움직여야 한다는 것, 엔드 이펙터가 원하는 동작을 실행해야 한다는 것, 또는 카메라를 통해 이미지들 (images) 이 촬영되어야 한다는 것 등등이 정의될 수 있다.
매니퓰레이터의 가동 개시 또는 프로그래밍은 자주 현장에서 휴대용 조작 장치의 도움으로 실행된다. 상기 매니퓰레이터의 실행되어야 하는 과제들 및/또는 제어 가능한 물체들을 구조화하기 위해, 상기 조작 장치의 조작 표면은 통상적으로 트리 구조 (tree structure)/또는 메뉴 구조를 이용한다. 그는 이때 여러 가지로 특색 있을 수 있고, 예컨대 기능에 맞추어 또는 물체에 맞추어 또는 장치에 맞추어 분류될 수 있다. 하지만, 이러한 트리 구조의 사용은 대개 전체를 조망하기 어려운데, 왜냐하면 통상적으로 보다 큰 개수의 장치들, 물체들 및/또는 과제들이 모사되어야 하고 또는 제공되어야 하기 때문이다. 이로써, 사용자가 실행하고 싶은 상응하는 과제를 위한 정확한 메뉴항목 탐색은 자주 힘이 들게 된다: 사용자 또는 조작자는 그가 알맞은 요소를 찾을 때까지 노력을 들여 상기 트리 구조를 두루 네비게이트 (navigate) 해야 한다.
그러므로, 본 발명의 목적은 매니퓰레이터 제어 과제의 간단한 그리고 직관적인 선택을 가능하게 하는 방법을 제공하는 것이다. 이때, 특히 본 발명의 목적은 큰 노력 없이 매니퓰레이터 또는 로봇이 직접적으로 액추에이팅될 수 있게 하는 방법을 제공하는 것이다. 그 밖에, 본 발명의 목적은 매니퓰레이터가 액추에이팅될 수 있게 하는, 이때 상기 언급된 단점들이 적어도 부분적으로 제거되는 조작 장치 또는 매니퓰레이터 시스템을 제공하는 것이다.
이 목적들, 및 하기의 설명을 읽을시 알 수 있는 그 밖의 목적들은 주 청구항의 대상과 종속항들의 대상을 통해 달성된다.
본 발명의 일 양상은 휴대용 단말기를 이용하여 매니퓰레이터 시스템을 액추에이팅하기 위한 방법을 포함한다. 이때, 상기 매니퓰레이터 시스템은 다수의 매니퓰레이터들 또는 로봇들을 포함할 수 있고, 예컨대 자율주행 무인 운반차량 위에 설치된 다관절 로봇을 포함할 수 있다. 상기 휴대용 단말기는 또 한편으로는 예컨대 로봇 조작 장치일 수 있고, 또는 이동 소비자 장치 (예컨대 태블릿 PC, 스마트폰, 스마트워치, 또는 이와 유사한 것) 일 수도 있다. 어느 경우든 상기 휴대용 단말기는 바람직하게는 카메라를 포함하고, 상기 카메라는 대상의 이미지들을 캡처 (capture) 하는 것을 허용한다. 특히 바람직하게는, 상기 카메라는 대상의 3차원적 이미지들을 캡처하는 것을 허용하는 3D 카메라이다.
본 발명에 따른 방법은 상기 액추에이팅되어야 하는 매니퓰레이터 시스템의 적어도 하나의 부분에 대하여 상기 휴대용 단말기의 상기 카메라를 이용한 이미지의 캡처를 구비한다. 예컨대 상기 매니퓰레이터 시스템의 로봇암 (robot arm) 이 캡처될 수 있고, 또는 예컨대 액추에이팅되어야 하는 그립퍼가 캡처될 수 있다. 바람직하게는, 액추에이팅되어야 하는 상기 매니퓰레이터 시스템의 부분의 이미지가 캡처된다.
그 밖에, 상기 방법은 상기 캡처된 이미지에 근거하여 상기 매니퓰레이터 시스템의 피처 (feature) 의 검출을 포함한다. 이때, 상기 매니퓰레이터 시스템의 상기 피처 또는 특징은 상기 매니퓰레이터 시스템에게 특유한 것이고, 따라서 그는 상기 검출된 피처를 근거로 할당 (확인 (identify)) 될 수 있다.
그 밖에도, 상기 방법은 상기 검출된 피처에 근거한 상기 매니퓰레이터 시스템의 적어도 하나의 액추에이팅 가능한 물체의 확인을 포함한다. 이로써, 상기 검출된 피처를 근거로, 액추에이팅 가능한 물체 (예컨대 상기 매니퓰레이터의 그립퍼) 가 확인된다.
이로써, 본 발명에 따른 방법은 예컨대 애플리케이션 과제의 컴파일링의 각각의 단계에서 매니퓰레이터 시스템의 필요해진 장치 또는 필요해진 물체를 직관적으로 선택하고 액추에이팅하는 것을 허용하는데, 왜냐하면 예컨대 이 물체를 위해 매개변수화, 동작, 진단 또는 그와 같은 것을 실행하기 위해서이다. 이때, 메뉴 트리들 및/또는 명령 목록들을 힘들게 탐색하는 것이 필요하지 않다. 상기 휴대용 단말기의 사용자는 상기 카메라를 이용해 이미지만을 캡처해야 하고, 그 후 상기 매니퓰레이터 시스템의 하나 또는 다수의 액추에이팅 가능한 물체가 확인된다. 이때, 사용자는 바람직하게는 상기 매니퓰레이터 시스템에 대한 각각의 위치 및 배향에서 서 있을 수 있고, 언제라도 예컨대 상기 카메라의 활성화를 통해 매니퓰레이터를 위한 또는 상기 매니퓰레이터 시스템의 물체 또는 장치를 위한, 콘텍스트 (context) 관련된 또는 콘텍스트에 의존하지 않는 기능들 또는 정보들을 얻을 수 있다.
바람직하게는, 상기 카메라는 3D 카메라이고, 이 3D 카메라를 이용해 캡처된 이미지는 3차원적 이미지이다. 이때, 3D 카메라의 사용은 무엇보다도 상기 휴대용 단말기의 조작자가 상기 액추에이팅되어야 하는 매니퓰레이터 시스템에 대해 보다 큰 (그리고 이로써 안전한) 거리에 있을 수 있다는 장점을 갖는다. 유리하게는, 하나의 이미지만 캡처되어야 하는데, 왜냐하면 본 발명에 따른 방법을 실행하기 위해 상기 결과로서 생기는 3차원적 이미지가 충분히 정보들을 포함하기 때문이다.
바람직하게는, 본 발명에 따른 방법은 그 밖에도 상기 액추에이팅되어야 하는 매니퓰레이터 시스템의 기준-데이터 레코드들 (reference-data records) 의 제공을 포함한다. 특히 바람직하게는, 기준-데이터 레코드들의 이 제공은 상기 휴대용 단말기를 이용하여 상기 매니퓰레이터 시스템의 적어도 상기 액추에이팅 가능한 물체를 학습시킴을 포함할 수 있다. 예컨대, 사용자는 학습 모드에서 매니퓰레이터 시스템의 하나 또는 모든 장치 또는 물체를 학습시킬 수 있다. 이때, 예컨대 상기 3D 카메라를 이용하여 각각의 장치 또는 물체는 다수의 방향들로부터 모사되고, 각각의 장치 또는 물체는 상기 모사들을 근거로 정의된다. 이 기준-데이터 레코드들은 후에 상기 액추에이팅되어야 하는 매니퓰레이터 시스템을 또는 상기 시스템의 물체들을 확인하는 데에 쓰인다.
바람직하게는, 상기 매니퓰레이터 시스템의 상기 피처의 검출은 그 밖에 이미지 인식 과정의 실행을 포함하고, 상기 이미지 인식 과정은 상기 캡처된 3차원적 이미지를 근거로 그리고 상기 바람직하게 제공된 기준-데이터 레코드들을 근거로 상기 피처를 인식한다. 이로써, 예컨대 상기 제공된 기준-데이터 레코드들과 상기 3차원적 이미지와의 비교를 통해 피처가 인식되고, 상기 피처는 상기 3차원적 이미지 안에도 포함되어 있다. 예컨대, 이 피처는 그립퍼의 부분일 수 있고, 상기 부분은 이 그립퍼에게 특유한 것이다. 이로써, 상기 매니퓰레이터 시스템을 큰 조작 노력 없이 액추에이팅하는 것이 가능하다.
바람직하게는, 상기 휴대용 단말기는 디스플레이 장치를 포함하고, 상기 디스플레이 장치는 또 한편으로는 바람직하게는 터치 패널을 포함한다. 이 터치 패널 (또는 터치 스크린, 터치 디스플레이, 접촉에 민감한 스크린 또는 접촉 스크린) 은 조합된 입출력 장치이고, 조작자는 상기 패널의 또는 스크린의 부분들을 터치함으로써 상기 입출력 장치와 상호 작용할 수 있다. 그 밖에, 상기 방법은 바람직하게는 상기 휴대용 단말기의 상기 디스플레이 장치 위에서의 상기 캡처된 3차원적 이미지의 디스플레이를 포함한다. 이로써, 상기 휴대용 단말기의 사용자는 즉시 상기 액추에이팅되어야 하는 매니퓰레이터 시스템의 상기 적어도 하나의 부분의 이미지를 볼 수 있고, 유리하게는, 알맞은 이미지가 캡처되었는지 아닌지의 여부, 즉 예컨대 액추에이팅되어야 하는 상기 매니퓰레이터 시스템의 물체가 캡처되었는지의 여부를 밝혀낼 수 있다.
그 밖에 바람직하게는, 상기 방법은 그 밖에도 상기 휴대용 단말기의 상기 디스플레이 장치 위에서의 광학적 마킹 (optical marking) 의 디스플레이를 구비하고, 상기 광학적 마킹은 상기 매니퓰레이터 시스템의 상기 확인된 물체를 명시 (specify) 한다. 이로써, 상기 디스플레이 장치 위에, 어떤 물체가 확인되었는지가 또는 인식되었는지가 직접적으로 시각화된다. 그 결과, 간단한 그리고 직관적인 방식으로 직접적인 회답 또는 직접적인 피드백이 사용자에게 제공된다.
그 밖에 바람직하게는, 상기 매니퓰레이터 시스템의 액추에이팅은 상기 휴대용 단말기의 사용자를 통한 상기 매니퓰레이터 시스템의 상기 확인된 물체의 선택을 포함한다. 즉, 사용자는 능동적으로, 상기 휴대용 단말기를 이용하여, 바람직하게는 액추에이팅되어야 하는 상기 확인된 물체를 선택한다. 이를 위해, 사용자는 터치 패널 위에서, 바람직하게는 확인된 그리고 그 밖에 바람직하게는 상기 디스플레이 장치, 즉 상기 터치 패널 위의 상응하는 광학적 마킹으로 표시된 그리고 명시된 물체 (예컨대 그립퍼) 를 살짝 건드릴 수 있다. 그 후, 예컨대 상기 그립퍼는, 상기 살짝 건드림에 반응하여, 개방하거나 또는 폐쇄할 수 있다. 바람직하게는, 상기 매니퓰레이터 시스템의 상기 확인된 물체의 선택은 이로써 상기 휴대용 단말기의 상기 디스플레이 장치 위의 상기 광학적 마킹의 선택을 포함한다. 즉, 사용자는 상기 디스플레이된 이미지의 어떤 물체들이 선택되고 액추에이팅될 수 있는지를 직접적으로 인식할 수 있다.
바람직하게는, 상기 매니퓰레이터 시스템의 적어도 2개의 물체가 확인되고, 적어도 2개의 광학적 마킹이 상기 휴대용 단말기의 상기 디스플레이 장치 위에 나타내지고, 이때 각각의 광학적 마킹은 상기 매니퓰레이터 시스템의 상기 확인된 물체들 중 하나를 명시한다. 그 결과, 상기 매니퓰레이터 시스템은 적어도 2개의 액추에이팅 가능한 물체들을 구비하고, 사용자는 그가 어떤 물체들을 선택하고 액추에이팅할 수 있는지를 직관적으로 직접적으로 인식할 수 있고, 이때 유리하게는 메뉴 트리들 및 그와 같은 것을 힘들게 탐색하는 것이 생략된다.
바람직하게는, 상기 매니퓰레이터 시스템의 액추에이팅은 상기 매니퓰레이터 시스템의 상기 확인된 물체의 액추에이팅을 포함한다. 즉, 바람직하게는 정확히 상기 확인된 물체가 액추에이팅된다. 예컨대, 사용자는, 물체, 예컨대 그립퍼의 3차원적 이미지가 캡처되고, 상기 그립퍼가 확인되고, 직접적으로 액추에이팅되는 식으로 상기 휴대용 단말기를 정렬할 수 있고, 따라서 상기 그립퍼는 예컨대 그가 개방되어 있었으면 폐쇄되고, 또는 반대의 경우에도 또한 같다. 이러한 방식으로, 힘들게 메뉴 트리들 또는 명령 트리들에서 네비게이트할 필요없이, 특수한 과제들을 위해 상기 매니퓰레이터 시스템의 매우 직관적인 그리고 효율적인 사용이 실현될 수 있다. 하나를 초과하는 액추에이팅 가능한 물체가 확인되었을 경우에는, 바람직하게는, 상기 캡처된 3차원적 이미지의 이미지 중앙에 대해 가장 가까이 있는 물체가 직접적으로 액추에이팅될 수 있다. 이로써, 사용자는 상기 3D 카메라의 적합한 정렬을 통해, 상기 매니퓰레이터 시스템의 어떤 물체가 본 발명에 따른 방법을 이용해 액추에이팅되어야 하는지에 영향을 미칠 수 있다.
바람직하게는, 상기 매니퓰레이터 시스템의 액추에이팅은 상기 매니퓰레이터 시스템의 데이터의 리퀘스트, 할당, 컴파일링 및/또는 변경을 포함하고, 이때 이 데이터는 바람직하게는 다음의 것들 중 적어도 하나를 기술한다: 매니퓰레이터 시스템의 조정 및/또는 배향, 엔드 이펙터의 매개변수화, 상기 매니퓰레이터의 그리고/또는 상기 엔드 이펙터의 캘리브레이션 (calibration), 작업 영역의 정의, 상기 매니퓰레이터 시스템의 상기 물체의 매개변수화, 좌표계의 정의 또는 프로그램 흐름. 상기 좌표계는 이때 예컨대 베이스 좌표계, 로봇 좌표계, 공구 좌표계 또는 플랜지 좌표계일 수 있고, 이때 이 목록은 최종적인 것이 아니다. 그 결과, 본 발명에 따른 방법을 이용해 직관적으로 매니퓰레이터의 가동 개시가 실행될 수 있다. 상기 프로그램 흐름은 상기 방법을 이용해 특히 매니퓰레이터의 프로그래밍에 있어서 컴파일링될 수 있다. 이러한 프로그램 흐름은 개별적인 경로점들 및 그들 사이의 운동들을 기술할 수 있다. 예컨대 프로그램 흐름을 기술하는 데이터의 컴파일링 및/또는 변경을 통해, 프로그래머는 상기 방법을 이용해 간단히 그리고 직관적으로 매니퓰레이터의 프로그래밍을 실행할 수 있다. 이때, 당업자는, 프로그래머가 상기 매니퓰레이터의 프로그래밍을 예컨대 오프라인으로 실행함으로써 그리고 상기 매니퓰레이터가 보다 늦은 시점에 상기 컴파일링된 프로그램 흐름을 근거로 움직여짐으로써 상기 매니퓰레이터 시스템의 액추에이팅이 간접적으로 수행될 수 있다는 것을 이해한다.
바람직하게는, 상기 매니퓰레이터 시스템의 액추에이팅은 기능의 또는 프로그램의 컴파일링, 변경 및/또는 실행을 포함하고, 이를 통해 바람직하게는 다음의 것들 중 적어도 하나가 실행된다: 엔드 이펙터의 동작 (예컨대 그립퍼의 개방 또는 폐쇄), 상기 매니퓰레이터 시스템의 상기 물체의 운동, 상기 매니퓰레이터 시스템의 상기 물체의 제어, 매니퓰레이터의 운동, 상기 매니퓰레이터의 제어, 또는 프로그램 흐름의 변경. 이로써, 매니퓰레이터의 프로그래밍은 쉽게 그리고 직관적으로 실행될 수 있다.
바람직하게는, 상기 방법은 그 밖에 상기 디스플레이 장치를 이용한, 상기 검출된 피처를 고려하여 콘텍스트에 의존하는 데이터의 디스플레이를 포함한다. 이때, 상기 콘텍스트에 의존하는 데이터의 디스플레이는 바람직하게는 그 밖에 사용자 입력 (user input) 을 고려하여 수행된다. 이렇게, 상기 디스플레이 장치 위에서의 디스플레이는 예컨대 가동 개시 모드 또는 프로그래밍 모드가 선택되어 있는지의 여부에 의존할 수 있다. 가동 개시 모드에서, 그립퍼가 선택되어 있으면, 그립퍼의 기하학적 치수들, 무게값들, 질량 중심점들, 관성값들, 부피 모델들, 입력/출력의 할당 등등이 나타내질 수 있다. 예컨대 레이저 스캐너의 선택을 통해, 이 레이저의 캘리브레이션을 위한 메뉴가 나타내질 수 있다. 이와 달리 프로그래밍 모드에서는, 만일 그립퍼가 선택되어 있으면, 상기 그립퍼로 실행 가능한 동작들 (예컨대 그립퍼 개방/폐쇄) 이 나타내질 수 있다. 프로그래밍 모드에서의 로봇암의 선택을 통해, 상기 로봇암이 실행할 수 있는 가능한 동작들 (예컨대 선형 운동) 이 나타내질 수 있다. 콘텍스트에 의존하는 이 정보들은 조작자를 추가적으로 도와주고, 직관적인 작업을 허용한다.
바람직하게는, 상기 3D 카메라는 라이트 필드 센서들 (light field sensors) 의 원리에 근거를 둔 플렌옵틱 카메라 (plenoptic camera) 이다. 이러한 유형의 라이트 필드 센서들은 마이크로 렌즈들의 필드로 구성되고, 촬영된 물체의 빛과 색을 기록한다. 그 밖에, 광선이 들어오는 방향도 캡처된다. 이로써, 라이트 필드 센서들의 도움으로 무엇보다도 이미지의 초점이 추후에 변경될 수 있고, 촬영된 물체들의 3D 모델들이 만들어내질 수 있다. 바람직하게는, 상기 3차원적 이미지의 캡처는 상기 액추에이팅되어야 하는 매니퓰레이터 시스템의 적어도 하나의 부분에 대하여 상기 플렌옵틱 카메라를 이용한 4차원적 라이트 필드의 캡처를 포함한다. 이로써, 상기 매니퓰레이터 시스템의 피처는 상기 캡처된 이미지에 근거하여 높은 정확성을 갖고 검출될 수 있다.
본 발명의 그 밖의 양상은 카메라와 디바이스 제어기를 포함하는 휴대용 단말기에 관한 것이고, 이때 상기 디바이스 제어기는 매니퓰레이터 시스템을 액추에이팅하기 위한 본 발명에 따른 방법을 실행하도록 셋업된다. 이때, 상기 휴대용 단말기는 유리하게는 작은 크기를 가질 수 있는데, 왜냐하면 트리 구조들의 번거로운 표시가 필요하지 않기 때문이다. 바람직하게는, 상기 카메라는 3D 카메라이다.
본 발명의 그 밖의 양상은 매니퓰레이터와 휴대용 단말기를 포함하는 매니퓰레이터 시스템에 관한 것이고, 상기 휴대용 단말기는 카메라를 포함하고, 이때 상기 매니퓰레이터 시스템은 그 밖에 매니퓰레이터 제어기를 구비하고, 상기 매니퓰레이터 제어기는 상기 매니퓰레이터 시스템을 액추에이팅하기 위한 본 발명에 따른 방법을 실행하도록 셋업된다. 바람직하게는, 상기 카메라는 3D 카메라이다. 특히 바람직하게는, 상기 휴대용 단말기의 상기 카메라는 플렌옵틱 카메라이다.
이하, 본 발명은 첨부된 도면들을 근거로 상세히 기술된다.
도 1 은 예시적으로 매니퓰레이터 시스템을 나타내고;
도 2 및 도 3 은 휴대용 단말기의 예시적인 도면들을 나타내고,
도 4 는 매니퓰레이터 시스템을 액추에이팅하기 위한 본 발명에 따른 방법의 예시적인 흐름을 도식적으로 나타낸다.
도 1 에는 예시적으로 매니퓰레이터 시스템 (10) 이 도시되고, 상기 매니퓰레이터 시스템은 무엇보다도 다관절 로봇 (11) 과 자율주행 운반차량 (13) 으로 구성된다. 이때, 매니퓰레이터 시스템 (10) 은 다수의 액추에이팅 가능한 물체들, 예컨대 다관절 로봇 (11) 자체, 다관절 로봇 (11) 의 그립퍼 (12), 자율주행 운반차량 (13) 자체, 또는 여러 가지의 센서들 (14, 15, 16) 을 포함하고, 상기 센서들은 예컨대 레이저 스캐너를 포함할 수 있다. 매니퓰레이터 시스템 (10) 을 본 발명의 의미에서 액추에이팅하기 위해, 3D 카메라를 포함하는 휴대용 단말기의 사용자는 상기 3D 카메라를 이용해 이미지를 촬영한다.
도 2 에는 이러한 휴대용 단말기 (20) 가 예시적으로 도시되고, 상기 휴대용 단말기는 터치 디스플레이 (21) 를 구비하고, 조작자 (30) 에 의해 조작된다. 터치 디스플레이 (21) 위에, 휴대용 단말기 (20) 를 이용해 캡처된, 도 1 로부터의 매니퓰레이터 시스템 (10) 의 이미지가 도시된다. 본 발명의 의미에서, 매니퓰레이터 시스템 (10) 의 다수의 액추에이팅 가능한 물체들이 확인되었고, 상응하는 마킹들 (41, 42, 43, 44, 45, 46) 을 통해 상기 터치 디스플레이에 표시되고 또는 명시된다. 상기 확인된 물체들 중 하나를 선택하기 위해, 사용자 (30) 는 예컨대 상기 터치 디스플레이 위의 상기 액추에이팅되어야 하는 물체의 원하는 마킹을 살짝 건드릴 수 있는데, 왜냐하면 상기 물체를 직관적으로 선발하고, 상응하여 액추에이팅하기 위해서이다. 도 3 에 참조부호 (43') 를 통해 도시된 바와 같이, 상기 선택된 액추에이팅 가능한 물체는 특별한 마킹으로 표시될 수 있고, 그의 색은 예컨대 나머지 마킹들과 구별된다. 예컨대, 자율주행 운반차량 (13) 이 선택되었고, 상기 자율주행 운반차량은 이제 마킹 (43') 을 통해 표시되고, 상기 마킹은 색과 관련하여 다른 마킹들과 구별된다. 대안적으로, 이미지 중앙에 대해 가장 가까이 있는 물체가 자동적으로 선발될 수도 있다.
휴대용 단말기 (20) 는 3D 카메라 (도시되지 않음) 와 여러 가지 버튼들 (22) 을 구비하고, 상기 버튼들은 상기 휴대용 단말기를 제어하기 위해, 예컨대 줌 (zoom) 하기 위해, 카메라 기능을 활성화시키기 위해 또는 여러 가지 과정들을 제어하기 위해, 예컨대 매니퓰레이터 시스템을 액추에이팅하기 위한 본 발명에 따른 방법의 개별적인 과정들을 제어하기 위해 사용될 수 있다.
도 4 에는 매니퓰레이터 시스템을 액추에이팅하기 위한 본 발명에 따른 방법의 예시적인 흐름이 도시된다. 이 방법은 하기에서 나머지 도면들에 도시된 구성요소들과 관련하여 기술되고, 하지만 이에 제한되지 않는다.
상기 방법은 단계 (51) 에서 시작하고, 상기 단계에서 애플리케이션 셀 (application cell) 의 장치들 또는 물체들이 학습된다. 이를 위해, 상기 장치들 또는 물체들 (예컨대 매니퓰레이터 시스템 (10) 의 액추에이팅 가능한 구성요소들) 은 휴대용 단말기 (20) 의 상기 3D 카메라를 이용해 다수의 방향들로부터 촬영되고, 상기 장치들 또는 물체들은 이 촬영들을 근거로 학습된다.
단계 (52) 에서, 사용자는 이 학습된 물체들을 위해 추가적으로 부분 물체들을 정의할 수 있다. 예컨대, 로봇암이 액추에이팅 가능한 물체로서 학습되었으면, 상기 로봇암의 개별적인 관절들은 부분 물체들로서 정의될 수 있다. 마찬가지로, 예컨대 그립퍼의 왼쪽 또는 오른쪽 그립핑 조들 (gripping jaws) 은 상기 그립퍼의 부분 물체들로서 정의될 수 있다. 단계 (S53) 에서, 상기 학습된 물체들에 또는 상기 정의된 부분 물체들에 특정한 동작들 또는 과제들이 할당될 수 있다.
단계 (S54) 에서, 원하는 물체를 위해 동작 또는 과제가 선택되어야 한다는 점이 또는 실행되어야 한다는 점이 밝혀진다. 본 예에서 자율주행 운반차량 (13) 이 액추에이팅되어야 한다. 이를 위해, 상기 3D 카메라의 카메라 기능을 활성화시키기 위해 조작자 (30) 는 휴대용 단말기 (20) 의 상응하는 버튼 (22) 을 누른다. 상기 카메라의 파인더는 상기 액추에이팅되어야 하는 물체를 가리키는 또는 포함하는 상기 매니퓰레이터 시스템 (10) 의 부분을 향하게 된다. 단말기 (20) 의 디스플레이 부품 또는 터치 디스플레이 (21) 는 선택된 이미지 부분을 디스플레이한다.
단계 (S55) 에서는 매니퓰레이터 시스템 (10) 의 적어도 하나의 피처가 상기 캡처된 3차원적 이미지에 근거하여 검출되고, 상기 캡처된 이미지 안에 포함된 상기 매니퓰레이터 시스템의 모든 액추에이팅 가능한 물체들이 확인되고, 상기 터치 디스플레이 위에 상응하여 표시되고, 예컨대 파란색 기호들을 통해 표시된다. 그 후, 조작자 (30) 는 상기 원하는 액추에이팅되어야 하는 물체를 선택하고, 상기 물체는 액추에이팅된다. 이를 위해, 예컨대, 터치 디스플레이 (21) 를 살짝 건드림으로써 선택한 후, 가능한 동작들의 목록이 터치 디스플레이 (21) 위에 나타내지고, 상기 목록은 예컨대 동작“물체의 회전”을 포함한다. 이러한 동작의 선택을 통해, 선택된 자율주행 운반차량 (13) 은 상응하는 제어를 통해 그가 회전하는 식으로 액추에이팅된다.
10 : 매니퓰레이터 시스템
11 : 다관절 로봇
12 : 그립퍼
13 : 자율주행 운반차량
14, 15, 16 : 센서들
20 : 휴대용 단말기
21 : 터치 디스플레이 (터치 패널)
22 : 버튼
30 : 조작자
41, 42, 43, 43', 44, 45, 46 : 마킹

Claims (18)

  1. 휴대용 단말기 (20) 를 이용하여 매니퓰레이터 시스템 (10) 을 액추에이팅하기 위한 방법으로서,
    상기 휴대용 단말기 (20) 는 카메라를 포함하고,
    상기 방법은:
    액추에이팅되어야 하는 상기 매니퓰레이터 시스템 (10) 의 적어도 하나의 부분에 대하여 상기 휴대용 단말기 (20) 의 상기 카메라를 이용하여 이미지를 캡처하는 단계 (10);
    상기 캡처된 이미지에 근거하여 상기 매니퓰레이터 시스템 (10) 의 피처 (feature) 를 검출하는 단계;
    상기 검출된 피처에 근거하여 상기 매니퓰레이터 시스템 (10) 의 적어도 하나의 액추에이팅 가능한 물체 (11, 12, 13, 14, 15, 16) 를 확인 (identify) 하는 단계, 및
    상기 매니퓰레이터 시스템 (10) 을 액추에이팅하는 단계를 갖고,
    액추에이팅되어야 하는 상기 매니퓰레이터 시스템 (10) 의 기준-데이터 레코드들을 제공하는 것을 추가로 구비하고,
    상기 매니퓰레이터 시스템 (10) 의 상기 피처를 검출하는 단계는 이미지 인식 과정을 실행하는 것을 추가로 포함하고, 상기 이미지 인식 과정은 상기 캡처된 이미지를 근거로 그리고 제공된 상기 기준-데이터 레코드들을 근거로 상기 피처를 인식하며,
    상기 기준-데이터 레코드들을 제공하는 것은 상기 휴대용 단말기 (20) 를 이용하여 상기 매니퓰레이터 시스템 (10) 의 적어도 액추에이팅 가능한 상기 물체 (11, 12, 13, 14, 15, 16) 를 학습시키는 것을 포함하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 카메라는 3D 카메라이고, 상기 캡처된 이미지는 3차원적 이미지인, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 휴대용 단말기 (20) 는 디스플레이 장치를 포함하고,
    상기 방법은 상기 휴대용 단말기 (20) 의 상기 디스플레이 장치에서 상기 캡처된 이미지를 디스플레이하는 것을 추가로 포함하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  6. 제 5 항에 있어서,
    상기 휴대용 단말기 (20) 의 상기 디스플레이 장치에서 광학적 마킹 (optical marking, 41, 42, 43, 43', 44, 45, 46) 을 디스플레이하는 것을 추가로 포함하고, 상기 광학적 마킹은 상기 매니퓰레이터 시스템 (10) 의 확인된 상기 물체 (11, 12, 13, 14, 15, 16) 를 명시 (specify) 하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  7. 제 6 항에 있어서,
    상기 매니퓰레이터 시스템 (10) 을 액추에이팅하는 단계는 상기 휴대용 단말기 (20) 의 사용자 (30) 를 통해 상기 매니퓰레이터 시스템 (10) 의 확인된 상기 물체 (11, 12, 13, 14, 15, 16) 를 선택하는 것을 포함하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  8. 제 7 항에 있어서,
    상기 매니퓰레이터 시스템 (10) 의 확인된 상기 물체 (11, 12, 13, 14, 15, 16) 를 선택하는 것은 상기 휴대용 단말기 (20) 의 상기 디스플레이 장치에서 상기 광학적 마킹 (41, 42, 43, 43', 44, 45, 46) 을 선택하는 것을 포함하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  9. 제 5 항에 있어서,
    상기 매니퓰레이터 시스템 (10) 의 적어도 2개의 액추에이팅 가능한 물체들 (11, 12, 13, 14, 15, 16) 이 확인되고, 적어도 2개의 광학적 마킹들 (41, 42, 43, 43', 44, 45, 46) 이 상기 휴대용 단말기 (20) 의 상기 디스플레이 장치에 디스플레이되고,
    각각의 광학적 마킹 (41, 42, 43, 43', 44, 45, 46) 은 상기 매니퓰레이터 시스템 (10) 의 확인된 상기 물체들 (11, 12, 13, 14, 15, 16) 중 하나를 명시하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  10. 제 1 항에 있어서,
    상기 매니퓰레이터 시스템 (10) 을 액추에이팅하는 단계는 상기 매니퓰레이터 시스템 (10) 의 확인된 상기 물체 (11, 12, 13, 14, 15, 16) 를 액추에이팅하는 것을 포함하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  11. 제 1 항에 있어서,
    상기 매니퓰레이터 시스템 (10) 을 액추에이팅하는 단계는 상기 매니퓰레이터 시스템 (10) 의 데이터의 리퀘스트, 할당, 컴파일링 및/또는 변경을 포함하고, 상기 데이터는 다음의 것들 중 적어도 하나를 나타내는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법:
    - 매니퓰레이터의 조정 및/또는 배향,
    - 엔드 이펙터의 매개변수화,
    - 상기 매니퓰레이터의 그리고/또는 상기 엔드 이펙터의 캘리브레이션,
    - 작업 영역의 정의,
    - 상기 매니퓰레이터 시스템 (10) 의 상기 물체의 매개변수화,
    - 좌표계의 정의,
    - 프로그램 흐름.
  12. 제 1 항에 있어서,
    상기 매니퓰레이터 시스템 (10) 을 액추에이팅하는 단계는 기능의 또는 프로그램의 컴파일링, 변경 및/또는 실행을 포함하고, 이를 통해 다음의 것들 중 적어도 하나가 실행되는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법:
    - 엔드 이펙터의 동작,
    - 상기 매니퓰레이터 시스템 (10) 의 상기 물체의 운동,
    - 상기 매니퓰레이터 시스템 (10) 의 상기 물체의 제어,
    - 매니퓰레이터의 운동,
    - 상기 매니퓰레이터의 제어,
    - 프로그램 흐름의 변경.
  13. 제 5 항에 있어서,
    상기 방법은 상기 검출된 피처를 고려하여 콘텍스트에 의존하는 데이터를 디스플레이하는 것을 추가로 포함하고,
    상기 콘텍스트에 의존하는 데이터를 디스플레이하는 것은 사용자 입력 (user input) 을 고려하여 추가로 수행되는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  14. 제 1 항에 있어서,
    상기 카메라는 플렌옵틱 카메라이고, 상기 이미지의 캡처는 상기 액추에이팅되어야 하는 매니퓰레이터 시스템 (10) 의 적어도 하나의 부분에 대하여 상기 플렌옵틱 카메라를 이용한 4차원적 라이트 필드 (light field) 를 캡처하는 것을 포함하는, 매니퓰레이터 시스템을 액추에이팅하기 위한 방법.
  15. 카메라와 디바이스 제어기를 포함하는 휴대용 단말기 (20) 로서,
    상기 디바이스 제어기는 제 1 항, 제 3 항 및 제 5 항 내지 제 14 항 중 어느 한 항에 따른 방법을 실행하도록 셋업되는 휴대용 단말기 (20).
  16. 매니퓰레이터 (10) 와 휴대용 단말기 (20) 를 포함하는 매니퓰레이터 시스템으로서,
    상기 휴대용 단말기는 카메라를 포함하고,
    상기 매니퓰레이터 시스템은 매니퓰레이터 제어기를 추가로 구비하고, 상기 매니퓰레이터 제어기는 제 1 항, 제 3 항 및 제 5 항 내지 제 14 항 중 어느 한 항에 따른 방법을 실행하도록 셋업되는 매니퓰레이터 시스템.
  17. 제 15 항에 있어서,
    상기 카메라가 3D 카메라인, 휴대용 단말기 (20).
  18. 제 16 항에 있어서,
    상기 카메라가 3D 카메라인, 매니퓰레이터 시스템.
KR1020160061560A 2015-05-29 2016-05-19 카메라를 이용한 장치 또는 물체의 선택 KR101860200B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015209899.0 2015-05-29
DE102015209899.0A DE102015209899B4 (de) 2015-05-29 2015-05-29 Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera

Publications (2)

Publication Number Publication Date
KR20160140400A KR20160140400A (ko) 2016-12-07
KR101860200B1 true KR101860200B1 (ko) 2018-05-23

Family

ID=56081306

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160061560A KR101860200B1 (ko) 2015-05-29 2016-05-19 카메라를 이용한 장치 또는 물체의 선택

Country Status (5)

Country Link
US (1) US10095216B2 (ko)
EP (1) EP3098034B1 (ko)
KR (1) KR101860200B1 (ko)
CN (1) CN106182042B (ko)
DE (1) DE102015209899B4 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9964398B2 (en) 2015-05-06 2018-05-08 Faro Technologies, Inc. Three-dimensional measuring device removably coupled to robotic arm on motorized mobile platform
JP6923361B2 (ja) * 2017-05-29 2021-08-18 株式会社ミツトヨ 位置計測装置の操作方法
WO2019186551A1 (en) * 2018-03-26 2019-10-03 Servotronix Automation Solutions Ltd. Augmented reality for industrial robotics
DE102018206019B4 (de) * 2018-04-19 2021-01-21 Kuka Deutschland Gmbh Robotersystem und Verfahren zum Betreiben des Robotersystems
US10830889B2 (en) 2018-05-02 2020-11-10 Faro Technologies, Inc. System measuring 3D coordinates and method thereof
DE202018105721U1 (de) * 2018-10-05 2020-01-20 Fruitcore Gmbh Roboter mit Antriebselement auf der Hauptwelle und Bedienvorrichtung für einen Roboter
US20230278222A1 (en) * 2020-07-31 2023-09-07 The Johns Hopkins University Robotic system for remote operation of equipment in infectious environments
DE102020006304B3 (de) 2020-10-14 2022-01-13 Kuka Systems Gmbh Verfahren zum Einblenden von virtuellen Roboterdatenobjekten und Computerprogrammprodukt
US11609550B2 (en) 2022-06-22 2023-03-21 Brett Bond System and method for automated precision control of a computer numerical control (CNC) machine

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456172B1 (ko) * 2013-07-29 2014-10-31 인하대학교 산학협력단 이동로봇의 위치인식 장치, 방법 및 이동로봇

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6167464A (en) * 1998-09-23 2000-12-26 Rockwell Technologies, Llc Mobile human/machine interface for use with industrial control systems for controlling the operation of process executed on spatially separate machines
US6292713B1 (en) * 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US20040015079A1 (en) * 1999-06-22 2004-01-22 Teratech Corporation Ultrasound probe with integrated electronics
US6560513B2 (en) * 1999-11-19 2003-05-06 Fanuc Robotics North America Robotic system with teach pendant
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
US20070061041A1 (en) * 2003-09-02 2007-03-15 Zweig Stephen E Mobile robot with wireless location sensing apparatus
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
ATE395167T1 (de) * 2005-04-19 2008-05-15 Comau Spa Verfahren zur steuerung von industriellen robotern und entsprechend gesteuerte roboter, robotersysteme und computerprogramme
SE531329C2 (sv) * 2005-06-20 2009-02-24 Yaskawa Denki Seisakusho Kk Automatiskt maskinsystem och metod för att kontrollera dess kommunikation
US7558647B2 (en) * 2006-01-13 2009-07-07 Panasonic Corporation Device and method for controlling robot arm, robot and program based on object-dependent impedance
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
WO2009119379A1 (ja) * 2008-03-28 2009-10-01 株式会社 ダイヘン ロボット制御システム
US8428781B2 (en) * 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
TWI471755B (zh) * 2010-01-13 2015-02-01 Chao Lieh Chen 能操控電氣設備作動模式的操控裝置
DE102011018555A1 (de) * 2011-04-26 2012-10-31 Continental Automotive Gmbh Schnittstelle zur Datenübertragung in einem Kraftfahrzeug und Computerprogrammprodukt
DE102012002657A1 (de) * 2012-02-10 2013-08-14 Weber Maschinenbau Gmbh Breidenbach Vorrichtung mit erweiterter Realität
FR2990286B1 (fr) * 2012-05-07 2019-09-06 Schneider Electric Industries Sas Procede d'affichage en realite augmentee d'une information relative a un equipement cible sur un ecran d'un dispositif electronique, produit programme d'ordinateur, dispositif electronique et equipement electrique associes
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5812054B2 (ja) * 2012-08-23 2015-11-11 株式会社デンソー 操作デバイス
USD678378S1 (en) * 2012-11-06 2013-03-19 Kuka Roboter Gmbh Robot
US9767580B2 (en) * 2013-05-23 2017-09-19 Indiana University Research And Technology Corporation Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images
CN203317430U (zh) * 2013-06-25 2013-12-04 南通职业大学 一种工业机器人视觉拾取控制系统
KR20150017832A (ko) * 2013-08-08 2015-02-23 삼성전자주식회사 3d 객체 제어 방법 및 그 장치
KR101966127B1 (ko) 2013-09-05 2019-04-05 엘지전자 주식회사 로봇 청소기 시스템 및 그 제어방법
DE102013111334A1 (de) 2013-10-14 2015-04-16 Witron Logistik + Informatik Gmbh Mobile anlagensteuerung
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US9586317B2 (en) * 2014-03-31 2017-03-07 Canon Kabushiki Kaisha Controlling method of robot system, program, recording medium, and robot system
US9579797B2 (en) * 2014-04-10 2017-02-28 Quanser Consulting Inc. Robotic systems and methods of operating robotic systems
JP6350011B2 (ja) * 2014-06-20 2018-07-04 オムロン株式会社 ロボット制御システム
JP6269343B2 (ja) * 2014-06-23 2018-01-31 トヨタ自動車株式会社 車両用操作装置
KR101575597B1 (ko) * 2014-07-30 2015-12-08 엘지전자 주식회사 로봇 청소 시스템 및 로봇 청소기의 제어방법
JP6379874B2 (ja) * 2014-08-29 2018-08-29 株式会社安川電機 ティーチングシステム、ロボットシステムおよびティーチング方法
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
CN204347468U (zh) * 2014-12-15 2015-05-20 郑州新力光电技术有限公司 一种便携式新型机器人控制器
DE102015204280A1 (de) * 2015-03-10 2016-09-15 Robert Bosch Gmbh Verfahren zur Aktivierung eines Aktuators eines Kraftfahrzeugs, zur Ausführung des Verfahrens eingerichtete Vorrichtung und Computerprogrammprodukt
US9625571B1 (en) * 2015-08-06 2017-04-18 X Development Llc Disabling robot sensors
JP6250901B2 (ja) * 2015-10-28 2017-12-20 ファナック株式会社 Cncとロボット制御装置が通信ネットワークを介して接続されたロボットシステム
US10597275B2 (en) * 2016-04-07 2020-03-24 Soft Robotics, Inc. Soft robotic actuators for positioning, packaging, and assembling
US10118297B2 (en) * 2016-06-29 2018-11-06 The Boeing Company Analysis of end effector operations by a robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456172B1 (ko) * 2013-07-29 2014-10-31 인하대학교 산학협력단 이동로봇의 위치인식 장치, 방법 및 이동로봇

Also Published As

Publication number Publication date
KR20160140400A (ko) 2016-12-07
CN106182042B (zh) 2019-09-20
EP3098034B1 (de) 2021-03-03
DE102015209899B4 (de) 2019-06-19
US20160346936A1 (en) 2016-12-01
US10095216B2 (en) 2018-10-09
DE102015209899A1 (de) 2016-12-01
EP3098034A1 (de) 2016-11-30
CN106182042A (zh) 2016-12-07

Similar Documents

Publication Publication Date Title
KR101860200B1 (ko) 카메라를 이용한 장치 또는 물체의 선택
Kyrarini et al. Robot learning of industrial assembly task via human demonstrations
US20190202058A1 (en) Method of programming an industrial robot
US9230329B2 (en) Method, computer program and apparatus for determining a gripping location
CN110573308B (zh) 用于机器人设备的空间编程的基于计算机的方法及系统
Mateo et al. Hammer: An Android based application for end-user industrial robot programming
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
Lambrecht et al. Spatial programming for industrial robots based on gestures and augmented reality
US20150239127A1 (en) Visual debugging of robotic tasks
US11833697B2 (en) Method of programming an industrial robot
Torres et al. 7 DOF industrial robot controlled by hand gestures using Microsoft Kinect v2
KR20180017074A (ko) 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
KR20180081773A (ko) 산업적 시설을 제어하기 위한 응용프로그램들의 단순화된 변경을 위한 방법
JP7452657B2 (ja) 制御装置、制御方法及びプログラム
JP2020529932A (ja) 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム
Zieliński et al. A study of cobot practitioners needs for augmented reality interfaces in the context of current technologies
CN111899629B (zh) 柔性机器人教学系统和方法
Srivastava et al. A comparative study of PID and neuro-fuzzy based control schemes for a 6-DoF robotic arm
US20230182292A1 (en) Program editing device
Pichler et al. User centered framework for intuitive robot programming
Rautiainen Design and Implementation of a Multimodal System for Human-Robot Interactions in Bin-Picking Operations
US20240066694A1 (en) Robot control system, robot control method, and robot control program
Quispe et al. ADAMANT: A Pipeline for Adaptable Manipulation Tasks
WO2023137552A1 (en) System for teaching a robotic arm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant