KR20220078452A - Manipulator and method for controlling thereof - Google Patents

Manipulator and method for controlling thereof Download PDF

Info

Publication number
KR20220078452A
KR20220078452A KR1020210064206A KR20210064206A KR20220078452A KR 20220078452 A KR20220078452 A KR 20220078452A KR 1020210064206 A KR1020210064206 A KR 1020210064206A KR 20210064206 A KR20210064206 A KR 20210064206A KR 20220078452 A KR20220078452 A KR 20220078452A
Authority
KR
South Korea
Prior art keywords
ground
area
contact
information
manipulator
Prior art date
Application number
KR1020210064206A
Other languages
Korean (ko)
Inventor
안준모
문보석
박동우
정락준
홍선표
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2021/016436 priority Critical patent/WO2022119167A1/en
Priority to EP21900855.4A priority patent/EP4190511A4/en
Priority to CN202180070839.0A priority patent/CN116323109A/en
Priority to US17/670,977 priority patent/US20220176556A1/en
Publication of KR20220078452A publication Critical patent/KR20220078452A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

매니퓰레이터(manipulator)가 개시된다. 본 개시에 따른 매니퓰레이터는, 핸드, 뎁스 센서, 힘 센서, 메모리 및 프로세서를 포함하고, 프로세서는, 오브젝트를 파지하도록 핸드를 제어하고, 오브젝트를 파지하는 동안 획득되는 힘 센서의 센싱값에 기초하여 오브젝트에 대한 정보를 획득하여 메모리에 저장하고, 오브젝트가 놓여질 지면과 오브젝트의 제1 영역이 접촉하도록 핸드를 제어하고, 제1 영역과 지면의 접촉 영역에 대한 위치 정보를 획득하고, 위치 정보 및 오브젝트에 대한 정보에 기초하여 오브젝트를 회전시킬 회전 방향을 획득하고, 접촉 영역을 회전 중심으로 회전 방향으로 오브젝트를 회전시키도록 핸드를 제어하고, 오브젝트의 제2 영역과 지면이 접촉하면, 오브젝트의 파지를 해제하도록 핸드를 제어한다.A manipulator is disclosed. A manipulator according to the present disclosure includes a hand, a depth sensor, a force sensor, a memory, and a processor, wherein the processor controls the hand to grip the object, and the object based on a sensing value of the force sensor obtained while gripping the object obtains information on and stores it in the memory, controls the hand so that the ground on which the object is to be placed and the first area of the object come into contact, obtains location information about the contact area between the first area and the ground, Acquire the rotation direction to rotate the object based on the information on the object, control the hand to rotate the object in the rotation direction with the contact area as the center of rotation, and release the grip of the object when the second area of the object and the ground come into contact control the hand to

Description

매니퓰레이터 및 그 제어 방법{MANIPULATOR AND METHOD FOR CONTROLLING THEREOF}Manipulator and its control method

본 개시는 매니퓰레이터 및 그 제어 방법으로, 보다 상세하게는, 오브젝트를 지면에 안착시키는 매니퓰레이터 및 그 제어 방법에 관한 것이다.The present disclosure relates to a manipulator and a control method thereof, and more particularly, to a manipulator for seating an object on the ground and a control method thereof.

근래에는, 로봇 기술의 발달에 힘입어 청소 로봇, 서비스 로봇, 산업용 로봇 등 다양한 유형의 로봇이 사용되고 있는 실정이다. 산업용 로봇의 일 예로는, 인간의 손과 팔의 형태로 이루어져 다양한 동작을 수행하는 매니퓰레이터(manipulator)가 있다. In recent years, with the development of robot technology, various types of robots such as cleaning robots, service robots, and industrial robots are being used. As an example of the industrial robot, there is a manipulator in the form of a human hand and arm to perform various operations.

도 1을 참조하면, 매니퓰레이터(11)는 파지하고 있는 오브젝트(12)를 지면(13)에 내려놓는 플레이싱(placing) 동작을 수행할 수 있다. 이 때, 매니퓰레이터(11)는 오브젝트가 넘어지지 않도록 안정적으로 플레이싱을 수행해야만 한다. 기존의 플레이싱 방법은, 오브젝트(12)의 형상 정보에 기초하여 오브젝트(12)의 자세를 추정하고, 추정된 자세에 기초하여 플레이싱을 수행하였다. 그러나, 기존의 방법은 오브젝트(12)의 형상이 비대칭인 경우 오브젝트(12)의 자세를 정확히 추정할 수 없었으며, 이에 따라 안정적인 플레이싱에 제약이 있었다. Referring to FIG. 1 , the manipulator 11 may perform a placing operation of placing the gripped object 12 on the ground 13 . At this time, the manipulator 11 must stably perform the placement so that the object does not fall over. In the conventional placing method, the posture of the object 12 is estimated based on shape information of the object 12 , and placement is performed based on the estimated posture. However, the conventional method could not accurately estimate the posture of the object 12 when the shape of the object 12 is asymmetric, thus limiting stable positioning.

따라서, 보다 안정적인 플레이싱 방법에 대한 기술의 필요성이 대두된다.Accordingly, there is a need for a technology for a more stable placing method.

본 발명이 해결하고자 하는 일 기술적 과제는, 오브젝트를 안정적으로 플레이싱할 수 있는 매니퓰레이터를 제공하는 것이다. One technical problem to be solved by the present invention is to provide a manipulator capable of stably placing an object.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 기술적 과제를 해결하기 위한 본 개시의 예시적인 일 실시 예에 따르면, 매니퓰레이터(manipulator)에 있어서, 핸드; 뎁스 센서; 상기 핸드에 작용하는 외력을 획득하기 위한 힘 센서; 적어도 하나의 인스트럭션을 저장하는 메모리; 및 프로세서;를 포함하고, 상기 프로세서는, 오브젝트를 파지하도록 상기 핸드를 제어하고, 상기 오브젝트를 파지하는 동안 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 오브젝트에 대한 정보를 획득하여 상기 메모리에 저장하고, 상기 오브젝트가 놓여질 지면과 상기 오브젝트의 제1 영역이 접촉하도록 상기 핸드를 제어하고, 상기 제1 영역과 상기 지면의 접촉 영역에 대한 위치 정보를 획득하고, 상기 위치 정보 및 상기 오브젝트에 대한 정보에 기초하여 상기 오브젝트를 회전시킬 회전 방향을 획득하고, 상기 접촉 영역을 회전 중심으로 상기 회전 방향으로 상기 오브젝트를 회전시키도록 상기 핸드를 제어하고, 상기 회전에 따라 상기 오브젝트의 제2 영역과 상기 지면이 접촉하면, 상기 오브젝트의 파지를 해제하도록 상기 핸드를 제어하는 매니퓰레이터가 제공될 수 있다.According to an exemplary embodiment of the present disclosure for solving the above-described technical problem, a manipulator includes: a hand; depth sensor; a force sensor for acquiring an external force acting on the hand; a memory storing at least one instruction; and a processor, wherein the processor controls the hand to grip the object, and obtains information about the object based on the sensed value of the force sensor obtained while gripping the object, and stores the information in the memory and controlling the hand so that the ground on which the object is to be placed and the first area of the object come into contact with each other, obtain location information on the contact area between the first area and the ground, and information on the location information and the object to obtain a rotation direction to rotate the object based on, control the hand to rotate the object in the rotation direction with the contact area as a rotation center, and according to the rotation, the second area of the object and the ground Upon this contact, a manipulator for controlling the hand to release the grip of the object may be provided.

상기 오브젝트에 대한 정보는, 상기 오브젝트에 작용하는 중력 및 상기 힘 센서로부터 상기 중력의 작용선까지의 거리를 포함할 수 있다.The information on the object may include gravity acting on the object and a distance from the force sensor to the line of action of the gravity.

상기 프로세서는, 상기 오브젝트에 대한 정보, 상기 지면에 대한 상기 뎁스 센서의 센싱값 및 상기 지면과 상기 제1 영역이 접촉할 때 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 접촉 영역에 대한 위치 정보를 획득할 수 있다.The processor is configured to: Position information on the contact area based on the information on the object, the sensing value of the depth sensor with respect to the ground, and the sensing value of the force sensor obtained when the ground and the first area come into contact can be obtained.

상기 프로세서는, 상기 오브젝트에 대한 정보 및 상기 위치 정보에 기초하여 상기 접촉 영역을 회전 중심으로 한 토크를 획득하고, 상기 토크에 기초하여 상기 회전 방향을 획득할 수 있다.The processor may obtain a torque centered on the contact area based on the information on the object and the location information, and obtain the rotation direction based on the torque.

상기 프로세서는, 상기 힘 센서의 센싱값이 기설정된 제1 값보다 크면, 상기 제1 영역이 상기 지면과 접촉한 것으로 판단할 수 있다.The processor may determine that the first area is in contact with the ground when the sensing value of the force sensor is greater than a preset first value.

상기 프로세서는, 기설정된 시간 동안의 상기 힘 센서의 센싱값의 변화량이 기설정된 제2 값보다 크면, 상기 제2 영역이 상기 지면과 접촉한 것으로 판단할 수 있다.The processor may determine that the second region is in contact with the ground when the amount of change in the value of the force sensor for a preset time is greater than a preset second value.

상기 프로세서는, 상기 뎁스 센서의 센싱값에 기초하여 상기 오브젝트의 형상 정보를 획득하고, 상기 오브젝트의 형상 정보에 기초하여 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 오브젝트의 안착면을 식별할 수 있다.The processor may obtain shape information of the object based on a sensing value of the depth sensor, and identify a seating surface of the object including the first area and the second area based on the shape information of the object. can

상기 프로세서는, 상기 지면에 대한 제1 법선 벡터의 제1 방향과 상기 안착면에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내일 때 상기 제1 영역이 상기 지면과 접촉하도록 상기 핸드를 제어할 수 있다.The processor is configured to allow the first region to contact the ground when a difference between a first direction of a first normal vector with respect to the ground and a second direction of a second normal vector with respect to the seating surface is within a preset range. You can control the hand.

상술한 기술적 과제를 해결하기 위한 본 개시의 예시적인 다른 일 실시 예에 따르면, 핸드, 뎁스 센서 및 상기 핸드에 작용하는 외력을 획득하기 위한 힘 센서를 포함하는 매니퓰레이터(manipulator)의 제어 방법에 있어서, 상기 핸드를 이용하여 오브젝트를 파지하는 단계; 상기 오브젝트를 파지하는 동안 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 오브젝트에 대한 정보를 획득하여 저장하는 단계; 상기 오브젝트가 놓여질 지면과 상기 오브젝트의 제1 영역을 접촉시키는 단계; 상기 제1 영역과 상기 지면의 접촉 영역에 대한 위치 정보를 획득하는 단계; 상기 위치 정보 및 상기 오브젝트에 대한 정보에 기초하여 상기 오브젝트를 회전시킬 회전 방향을 획득하는 단계; 상기 접촉 영역을 회전 중심으로 상기 회전 방향으로 상기 오브젝트를 회전시키는 단계; 및 상기 회전에 따라 상기 오브젝트의 제2 영역과 상기 지면이 접촉하면, 상기 오브젝트의 파지를 해제하는 단계;를 포함하는 제어 방법이 제공될 수 있다.According to another exemplary embodiment of the present disclosure for solving the above-described technical problem, in a control method of a manipulator including a hand, a depth sensor, and a force sensor for acquiring an external force acting on the hand, gripping the object using the hand; acquiring and storing information on the object based on a sensing value of the force sensor acquired while gripping the object; contacting the ground on which the object is to be placed with a first area of the object; obtaining location information on a contact area between the first area and the ground; obtaining a rotation direction in which to rotate the object based on the location information and information on the object; rotating the object in the rotation direction with the contact area as a rotation center; and releasing the grip of the object when the second area of the object and the ground come into contact with the rotation according to the rotation.

상기 접촉 영역에 대한 위치 정보를 획득하는 단계는, 상기 오브젝트에 대한 정보, 상기 지면에 대한 상기 뎁스 센서의 센싱값 및 상기 지면과 상기 제1 영역이 접촉할 때 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 접촉 영역에 대한 위치 정보를 획득할 수 있다.The step of obtaining the location information on the contact area includes information on the object, the sensing value of the depth sensor with respect to the ground, and the sensing value of the force sensor obtained when the ground and the first area come into contact with each other. Based on this, location information on the contact area may be acquired.

상기 회전 방향을 획득하는 단계는, 상기 오브젝트에 대한 정보 및 상기 위치 정보에 기초하여 상기 접촉 영역을 회전 중심으로 한 토크를 획득하는 단계, 및 상기 토크에 기초하여 상기 회전 방향을 획득하는 단계를 포함할 수 있다.The obtaining of the rotation direction includes obtaining a torque centered on the contact area based on the information on the object and the position information, and obtaining the rotation direction based on the torque. can do.

상기 제어 방법은, 상기 힘 센서의 센싱값이 기설정된 제1 값보다 크면, 상기 제1 영역이 상기 지면과 접촉한 것으로 판단하는 단계;를 더 포함할 수 있다.The control method may further include, when the sensing value of the force sensor is greater than a preset first value, determining that the first area is in contact with the ground.

상기 제어 방법은, 기설정된 시간 동안의 상기 힘 센서의 센싱값의 변화량이 기설정된 제2 값보다 크면, 상기 제2 영역이 상기 지면과 접촉한 것으로 판단하는 단계;를 더 포함할 수 있다.The control method may further include a step of determining that the second area is in contact with the ground when the amount of change of the sensed value of the force sensor for a preset time is greater than a preset second value.

상기 제어 방법은, 상기 뎁스 센서의 센싱값에 기초하여 상기 오브젝트의 형상 정보를 획득하는 단계; 및 상기 오브젝트의 형상 정보에 기초하여 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 오브젝트의 안착면을 식별하는 단계;를 더 포함할 수 있다.The control method may include: acquiring shape information of the object based on a sensing value of the depth sensor; and identifying a seating surface of the object including the first area and the second area based on the shape information of the object.

상기 지면과 상기 오브젝트의 제1 영역을 접촉시키는 단계는, 상기 지면에 대한 제1 법선 벡터의 제1 방향과 상기 안착면에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내일 때 상기 지면과 상기 오브젝트의 제1 영역을 접촉시킬 수 있다.The contacting of the ground with the first area of the object may include when a difference between a first direction of a first normal vector with respect to the ground and a second direction of a second normal vector with respect to the seating surface is within a preset range. The ground may be brought into contact with the first area of the object.

본 개시의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The solutions of the problems of the present disclosure are not limited to the above-described solutions, and solutions that are not mentioned will be clearly understood by those of ordinary skill in the art to which the present disclosure belongs from the present specification and the accompanying drawings. will be able

이상과 같은 본 개시의 다양한 실시 예에 따르면, 매니퓰레이터는 오브젝트를 안정적으로 플레이싱할 수 있다. 이에 따라, 플레이싱과정에서 오브젝트가 넘어지는 사고가 방지될 수 있다.According to various embodiments of the present disclosure as described above, the manipulator may stably place an object. Accordingly, an accident in which the object falls during the placing process can be prevented.

그 외에 본 개시의 실시 예로 인하여 얻을 수 있거나 예측되는 효과에 대해서는 본 개시의 실시 예에 대한 상세한 설명에서 직접적 또는 암시적으로 개시하도록 한다. 예컨대, 본 개시의 실시 예에 따라 예측되는 다양한 효과에 대해서는 후술될 상세한 설명 내에서 개시될 것이다.In addition, the effects obtainable or predicted by the embodiments of the present disclosure are to be disclosed directly or implicitly in the detailed description of the embodiments of the present disclosure. For example, various effects predicted according to embodiments of the present disclosure will be disclosed in the detailed description to be described later.

도 1은 매니퓰레이터의 플레이싱 동작을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 매니퓰레이터의 구성을 도시한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 매니퓰레이터가 획득하는 정보를 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 오브젝트의 안착면을 결정하는 방법을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 회전 방향을 획득하는 방법을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 오브젝트를 플레이싱하는 방법을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 매니퓰레이터의 제어 방법을 도시한 순서도이다.
1 is a diagram for explaining a placing operation of a manipulator.
2 is a block diagram illustrating a configuration of a manipulator according to an embodiment of the present disclosure.
3 is a diagram for describing information acquired by a manipulator according to an embodiment of the present disclosure.
4 is a view for explaining a method of determining a seating surface of an object according to an embodiment of the present disclosure.
5 is a view for explaining a method of obtaining a rotation direction according to an embodiment of the present disclosure.
6 is a diagram for explaining a method of placing an object according to an embodiment of the present disclosure.
7 is a flowchart illustrating a method of controlling a manipulator according to an embodiment of the present disclosure.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다. Terms used in this specification will be briefly described, and the present disclosure will be described in detail.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in the embodiments of the present disclosure are selected as currently widely used general terms as possible while considering the functions in the present disclosure, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. . In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding disclosure. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Embodiments of the present disclosure may be subjected to various transformations and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope of the specific embodiments, and it should be understood to include all transformations, equivalents and substitutions included in the spirit and scope of the disclosure. In describing the embodiments, if it is determined that a detailed description of a related known technology may obscure the subject matter, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 2는 본 개시의 일 실시 예에 따른 매니퓰레이터의 구성을 도시한 블록도이다. 매니퓰레이터(100)는 센서부(110), 구동부(120), 통신 인터페이스(130), 메모리(140) 및 프로세서(150)를 포함할 수 있다.2 is a block diagram illustrating a configuration of a manipulator according to an embodiment of the present disclosure. The manipulator 100 may include a sensor unit 110 , a driving unit 120 , a communication interface 130 , a memory 140 , and a processor 150 .

센서부(110)는 뎁스 센서(111)를 포함할 수 있다. 뎁스 센서(111)는 매니퓰레이터(100) 주변의 오브젝트나 지면을 센싱할 수 있다. 프로세서(150)는 뎁스 센서(111)의 센싱값에 기초하여 오브젝트 또는 오브젝트가 안착될 지면의 형상 정보(예로, 포인트 클라우드)를 획득할 수 있다. 뎁스 센서(111)는, RGB-D 센서, 라이다 센서 및 ToF 센서를 포함할 수 있다.The sensor unit 110 may include a depth sensor 111 . The depth sensor 111 may sense an object or the ground around the manipulator 100 . The processor 150 may acquire an object or shape information (eg, a point cloud) of the ground on which the object is to be seated, based on the sensing value of the depth sensor 111 . The depth sensor 111 may include an RGB-D sensor, a lidar sensor, and a ToF sensor.

센서부(110)는 힘 센서(112)를 포함할 수 있다. 힘 센서(112)는 매니퓰레이터(100)에 포함된 핸드(또는 그리퍼) 및 조인트에 마련되어 핸드 및 조인트에 작용하는 외력을 센싱할 수 있다. 예로, 힘 센서(112)는 핸드가 파지(grasp)하는 오브젝트에 작용하는 중력을 센싱할 수 있다. 즉, 힘 센서(112)는 핸드가 파지한 오브젝트의 무게를 센싱할 수 있다. 힘 센서(112)는 F/T(Force/Torque) 센서를 포함할 수 있다.The sensor unit 110 may include a force sensor 112 . The force sensor 112 may be provided in the hand (or gripper) and the joint included in the manipulator 100 to sense an external force acting on the hand and the joint. For example, the force sensor 112 may sense gravity acting on an object gripped by the hand. That is, the force sensor 112 may sense the weight of the object gripped by the hand. The force sensor 112 may include a Force/Torque (F/T) sensor.

센서부(110)는 IMU(Inertial Measurement Unit) 센서(113)를 포함할 수 있다. 프로세서(150)는 IMU 센서(113)의 센싱값에 기초하여 매니퓰레이터(100)의 가속도 정보 또는 각속도 정보를 획득할 수 있다. 또한, 센서부(110)는 RGB 카메라를 포함할 수 있다. 프로세서(150)는 RGB 카메라에 의해 촬영된 촬영 이미지에 포함된 오브젝트를 식별할 수 있다. 그리고, 센서부(110)는 매니퓰레이터(100)에 포함된 조인트 및 링크의 위치 및 속도를 획득하기 위한 엔코더(encoder)를 포함할 수 있다. 엔코더는 조인트를 구동시키기 위한 모터의 위치 및 회전 속도를 센싱할 수 있다. The sensor unit 110 may include an Inertial Measurement Unit (IMU) sensor 113 . The processor 150 may acquire acceleration information or angular velocity information of the manipulator 100 based on the sensed value of the IMU sensor 113 . Also, the sensor unit 110 may include an RGB camera. The processor 150 may identify an object included in a photographed image captured by the RGB camera. In addition, the sensor unit 110 may include an encoder for acquiring positions and speeds of joints and links included in the manipulator 100 . The encoder may sense the position and rotation speed of a motor for driving the joint.

구동부(120)는 매니퓰레이터(100)에 동력을 제공하는 액츄에이터(actuator)를 포함할 수 있다. 예로, 액츄에이터는 핸드 및 조인트에 토크를 제공할 수 있다. 액츄에이터는 선형 모터, AC 서브 모터, 스텝 모터 등 다양한 유형의 모터를 포함할 수 있다.The driving unit 120 may include an actuator that provides power to the manipulator 100 . For example, the actuator may provide torque to the hand and joint. The actuator may include various types of motors, such as linear motors, AC sub-motors, step motors, and the like.

통신 인터페이스(130)는 적어도 하나의 회로를 포함하며 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스(130)는 외부 장치 또는 외부 서버로부터 오브젝트가 배치될 지면에 대한 정보를 획득할 수 있다. 지면에 대한 정보는 지면의 위치, 형상 및 법선 벡터의 방향을 포함할 수 있다. 한편, 통신 인터페이스(130)는 와이파이(Wi-Fi) 모듈, 블루투스 모듈, 지그비(ZigBee) 모듈, 비콘(Beacon) 모듈, 셀룰러 통신모듈, 3G(3세대) 이동통신 모듈, 4G(4세대) 이동통신 모듈, 4세대 LTE(Long Term Evolution) 통신 모듈, 5G(5세대) 이동통신 모듈 중 적어도 하나를 포함할 수 있다.The communication interface 130 includes at least one circuit and may communicate with various types of external devices according to various types of communication methods. For example, the communication interface 130 may obtain information about the ground on which the object is to be placed from an external device or an external server. The information about the ground may include a position, a shape, and a direction of a normal vector of the ground. On the other hand, the communication interface 130 is a Wi-Fi module, a Bluetooth module, a ZigBee module, a Beacon module, a cellular communication module, a 3G (3rd generation) mobile communication module, 4G (4th generation) mobile It may include at least one of a communication module, a 4th generation Long Term Evolution (LTE) communication module, and a 5G (5th generation) mobile communication module.

메모리(140)는 로봇(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 로봇(100)의 구성요소와 관련된 명령 또는 데이터를 저장할 수 있다. 예로, 메모리(140)는 오브젝트에 대한 정보를 저장할 수 있다. 오브젝트에 대한 정보는 오브젝트에 작용하는 중력의 크기, 힘 센서(112)로부터 중력의 작용선까지의 거리(즉 모멘트 팔)를 포함할 수 있다.The memory 140 may store an operating system (OS) for controlling overall operations of the components of the robot 100 and commands or data related to components of the robot 100 . For example, the memory 140 may store information about the object. The information on the object may include a magnitude of gravity acting on the object and a distance (ie, a moment arm) from the force sensor 112 to an action line of gravity.

메모리(140)는 매니퓰레이터(100)의 동작을 제어하기 위한 모듈이 각종 동작을 수행하기 위해 필요한 데이터를 저장할 수 있다. 매니퓰레이터(100)의 동작을 제어하기 위한 모듈은 오브젝트 정보 획득 모듈(151), 안착면 결정 모듈(152), 지면 정보 획득 모듈(153), 접촉 감지 모듈(154), 접촉 정보 획득 모듈(155), 회전 방향 획득 모듈(156) 및 핸드 제어 모듈(157)을 포함할 수 있다. 한편, 메모리(140)는 비휘발성 메모리(ex: 하드 디스크, SSD(Solid state drive), 플래시 메모리), 휘발성 메모리 등으로 구현될 수 있다.The memory 140 may store data necessary for the module for controlling the operation of the manipulator 100 to perform various operations. Modules for controlling the operation of the manipulator 100 include an object information acquisition module 151 , a seating surface determination module 152 , a ground information acquisition module 153 , a contact detection module 154 , and a contact information acquisition module 155 . , a rotation direction obtaining module 156 and a hand control module 157 may be included. Meanwhile, the memory 140 may be implemented as a non-volatile memory (eg, a hard disk, a solid state drive (SSD), a flash memory), a volatile memory, or the like.

프로세서(150)는 메모리(140)와 전기적으로 연결되어 전자 장치(100)의 전반적인 기능 및 동작을 제어할 수 있다. 프로세서(150)는 매니퓰레이터(100)를 동작시키기 위한 사용자 명령이 입력되면, 비휘발성 메모리에 저장되어 있는 모듈(151 내지 157)이 각종 동작을 수행하기 위한 데이터를 휘발성 메모리로 로딩(loading)할 수 있다. 여기서, 로딩이란 프로세서(150)가 액세스할 수 있도록 비휘발성 메모리에 저장된 데이터를 휘발성 메모리에 불러들여 저장하는 동작을 의미한다.The processor 150 may be electrically connected to the memory 140 to control overall functions and operations of the electronic device 100 . When a user command for operating the manipulator 100 is input, the processor 150 may load data for the modules 151 to 157 stored in the nonvolatile memory to perform various operations into the volatile memory. have. Here, the loading refers to an operation of loading and storing data stored in the non-volatile memory into the volatile memory so that the processor 150 can access it.

오브젝트 정보 획득 모듈(151)은 오브젝트에 관한 다양한 정보를 획득할 수 있다. 일 예로, 오브젝트 정보 획득 모듈(151)은 뎁스 센서(111)의 센싱값에 기초하여 오브젝트의 형상 정보를 획득할 수 있다. 오브젝트의 형상 정보는 오브젝트에 대응되는 포인트 클라우드를 포함할 수 있다. The object information acquisition module 151 may acquire various information about the object. For example, the object information acquisition module 151 may acquire shape information of an object based on a sensing value of the depth sensor 111 . The shape information of the object may include a point cloud corresponding to the object.

다른 일 예로, 오브젝트 정보 획득 모듈(151)은 매니퓰레이터(100)가 파지하는 오브젝트의 무게를 획득할 수 있다. 구체적으로, 오브젝트 정보 획득 모듈(151)은 매니퓰레이터(100)가 오브젝트를 파지한 채로 정지한 상태에서 획득되는 힘 센서(112)의 센싱값에 기초하여 오브젝트에 작용하는 중력(즉, 오브젝트의 무게)를 획득할 수 있다. As another example, the object information acquisition module 151 may acquire the weight of the object gripped by the manipulator 100 . Specifically, the object information obtaining module 151 is configured to calculate the gravity acting on the object based on the sensed value of the force sensor 112 obtained in a state in which the manipulator 100 is stopped while holding the object (that is, the weight of the object). can be obtained.

또 다른 일 예로, 오브젝트 정보 획득 모듈(151)은 오브젝트에 대응되는 제1 모멘트 팔(moment arm)을 획득할 수 있다. 여기서, 제1 모멘트 팔이란, 오브젝트와 지면이 접촉하지 않은 상태에서 힘 센서(112)로부터 오브젝트에 작용하는 중력의 작용선까지의 거리를 의미할 수 있다. 오브젝트 정보 획득 모듈(151)은 힘 센서(112)에 의해 센싱되는 힘 및 토크에 기초하여 제1 모멘트 팔을 획득할 수 있다. 예로, 오브젝트 정보 획득 모듈(151)은 [수학식 1]에 기초하여 오브젝트에 대응되는 제1 모멘트 팔(

Figure pat00001
)을 획득할 수 있다.As another example, the object information acquisition module 151 may acquire a first moment arm corresponding to the object. Here, the first moment arm may mean a distance from the force sensor 112 to the line of action of gravity acting on the object in a state in which the object and the ground do not contact. The object information acquisition module 151 may acquire the first moment arm based on the force and torque sensed by the force sensor 112 . For example, the object information acquisition module 151 is based on [Equation 1], the first moment arm corresponding to the object (
Figure pat00001
) can be obtained.

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

여기서,

Figure pat00003
,
Figure pat00004
각각은 핸드가 오브젝트를 파지한 상태에서 힘 센서(112)에 의해 센싱되는 힘과 토크를 의미한다.here,
Figure pat00003
,
Figure pat00004
Each means a force and a torque sensed by the force sensor 112 in a state in which the hand grips the object.

이와 같이 획득된 오브젝트에 관한 정보는 메모리(140)에 저장될 수 있다.The information about the object obtained in this way may be stored in the memory 140 .

안착면 결정 모듈(152)은 오브젝트가 놓여질 지면과 접촉할 오브젝트의 안착면을 결정할 수 있다. 안착면 결정 모듈(152)은 오브젝트에 대응되는 포인트 클라우드에 기초하여 오브젝트에 대한 복수의 컨벡스 헐(convex hull)을 생성할 수 있다. 컨벡스 헐(convex hull)이란, 오브젝트의 일부 영역을 포함하는 다각형 형태의 가상의 2차원 평면을 의미할 수 있다. 안착면 결정 모듈(152)은 복수의 컨벡스 헐 중 안착면을 포함하는 하나의 컨벡스 헐을 식별할 수 있다. 예를 들어, 안착면 결정 모듈(152)은 복수의 컨벡스 헐 중 오브젝트의 무게 중심에 대응되는 점으로부터 컨벡스 헐의 엣지까지의 최소 거리가 최대가 되는 컨벡스 헐을 식별할 수 있다. 안착면을 식별하는 방법에 대한 보다 상세한 설명은 도 4를 참조하여 후술하도록 한다.The seating surface determination module 152 may determine the seating surface of the object to be in contact with the ground on which the object is to be placed. The seating surface determination module 152 may generate a plurality of convex hulls for an object based on a point cloud corresponding to the object. A convex hull may mean a polygonal two-dimensional virtual plane including a partial area of an object. The seating surface determination module 152 may identify one convex hull including a seating surface among a plurality of convex hulls. For example, the seating surface determination module 152 may identify a convex hull in which a minimum distance from a point corresponding to a center of gravity of an object to an edge of the convex hull is maximum among a plurality of convex hulls. A more detailed description of the method of identifying the seating surface will be described later with reference to FIG. 4 .

지면 정보 획득 모듈(153)은 지면에 대한 정보를 획득할 수 있다. 특히, 지면 정보 획득 모듈(153)은 지면에 대응되는 법선 벡터를 획득할 수 있다. 지면 정보 획득 모듈(153)은 뎁스 센서(111)의 센싱값에 기초하여 지면에 대응되는 포인트 클라우드를 획득할 수 있다. 그리고, 지면 정보 획득 모듈(153)은 포인트 클라우드에 기초하여 지면에 대응되는 평균 법선 벡터를 획득할 수 있다.The ground information acquisition module 153 may acquire information about the ground. In particular, the ground information obtaining module 153 may obtain a normal vector corresponding to the ground. The ground information obtaining module 153 may obtain a point cloud corresponding to the ground based on the sensing value of the depth sensor 111 . In addition, the ground information obtaining module 153 may obtain an average normal vector corresponding to the ground based on the point cloud.

한편, 본 개시에서 지면은, 오브젝트가 놓여지는 임의의 표면을 의미하며, 사전적 의미의 지면뿐만 아니라 오브젝트가 놓여질 수 있는 작업대나 테이블의 일 면을 포함할 수 있다. 또한, 지면은 평면의 형상을 가질 수 있으나, 이에 한정되는 것은 아니며 곡면의 형상을 가질 수 있음은 물론이다.Meanwhile, in the present disclosure, the ground refers to an arbitrary surface on which an object is placed, and may include a surface of a workbench or table on which an object can be placed as well as the ground in the dictionary meaning. In addition, the ground may have a flat shape, but is not limited thereto and may have a curved shape.

접촉 감지 모듈(154)은 오브젝트와 지면의 접촉을 감지할 수 있다. 예를 들어, 접촉 감지 모듈(154)은 힘 센서(112)의 센싱값에 기초하여 오브젝트와 지면의 접촉 여부를 판단할 수 있다. 구체적으로, 힘 센서(112)에 의해 센싱되는 힘의 크기에서 메모리(140)에 저장된 오브젝트의 무게를 차감한 값이 기설정된 제1 값보다 크면, 접촉 감지 모듈(154)은 오브젝트와 지면이 접촉한 것으로 판단할 수 있다. 또는, 접촉 감지 모듈(154)은 힘 센서(112)에 의해 센싱되는 힘의 크기와 기설정된 값을 비교하여 오브젝트와 지면이 접촉한 것으로 판단할 수 있다. The contact detection module 154 may detect a contact between the object and the ground. For example, the contact detection module 154 may determine whether the object and the ground are in contact based on the value sensed by the force sensor 112 . Specifically, when the value obtained by subtracting the weight of the object stored in the memory 140 from the magnitude of the force sensed by the force sensor 112 is greater than a preset first value, the contact detection module 154 detects that the object and the ground are in contact. It can be judged that Alternatively, the contact detection module 154 may determine that the object and the ground are in contact by comparing the magnitude of the force sensed by the force sensor 112 with a preset value.

또한, 접촉 감지 모듈(154)은 힘 센서(112)의 센싱값의 변화량에 기초하여 오브젝트와 지면의 접촉 여부를 판단할 수 있다. 예를 들어, 기설정된 시간 동안 센싱되는 힘 센서(112)의 센싱값의 변화량이 기설정된 제2 값보다 크면, 접촉 감지 모듈(154)은 오브젝트와 지면이 접촉한 것으로 판단할 수 있다. Also, the contact detection module 154 may determine whether the object and the ground are in contact based on the amount of change in the value sensed by the force sensor 112 . For example, if the amount of change in the sensed value of the force sensor 112 sensed for a preset time is greater than the preset second value, the contact detection module 154 may determine that the object and the ground are in contact.

한편, 접촉 감지 모듈(154)의 접촉 감지 방법은 오브젝트와 지면의 접촉 상태에 따라 달라질 수 있다. 예로, 오브젝트와 지면이 접촉하지 않은 제1 상태일 때, 접촉 감지 모듈(154)은 힘 센서(112)에 의해 센싱되는 힘의 크기에서 메모리(140)에 저장된 오브젝트의 무게를 차감한 값과 기설정된 제1 값을 비교하여 오브젝트와 지면의 접촉 여부를 판단할 수 있다. 반면에, 오브젝트의 제1 영역이 지면과 접촉한 제2 상태일 때, 접촉 감지 모듈(154)은 힘 센서(112)의 센싱값의 변화량과 기설정된 제2 값을 비교하여 오브젝트의 제2 영역과 지면의 접촉 여부를 판단할 수 있다.Meanwhile, the touch sensing method of the touch sensing module 154 may vary depending on the contact state between the object and the ground. For example, when the object and the ground are not in contact with the first state, the contact detection module 154 subtracts the weight of the object stored in the memory 140 from the magnitude of the force sensed by the force sensor 112 and By comparing the set first value, it may be determined whether the object and the ground are in contact. On the other hand, when the first area of the object is in a second state in contact with the ground, the touch detection module 154 compares the change amount of the sensed value of the force sensor 112 with a preset second value to the second area of the object It can be determined whether or not there is contact with the ground.

한편, 이상에서는 힘 센서(112)를 이용한 접촉 감지 방법을 설명하였으나, 이는 일 실시 예에 불과하며, 접촉 감지 모듈(154)은 IMU 센서(113)의 센싱값에 기초하여 오브젝트와 지면의 접촉 여부를 판단할 수 있다. 예로, IMU 센서(113)에 의해 센싱되는 신호의 크기가 기설정된 값보다 크면, 접촉 감지 모듈(154)은 오브젝트가 지면과 접촉한 것으로 판단할 수 있다.Meanwhile, in the above, a method for detecting a touch using the force sensor 112 has been described, but this is only an exemplary embodiment, and the touch detection module 154 determines whether the object and the ground are in contact based on the sensing value of the IMU sensor 113 . can be judged For example, when the magnitude of the signal sensed by the IMU sensor 113 is greater than a preset value, the contact detection module 154 may determine that the object has made contact with the ground.

접촉 정보 획득 모듈(155)은 오브젝트와 지면의 접촉 영역에 대한 위치 정보를 획득할 수 있다. 접촉 정보 획득 모듈(155)은 힘 센서(112)로부터 접촉에 의한 외력의 작용선까지의 거리인 제2 모멘트 팔(

Figure pat00005
)을 획득할 수 있다. 예를 들어, 접촉 정보 획득 모듈(155)은 오브젝트와 지면이 접촉할 때 센싱되는 힘 센서(112)의 센싱값에 기초하여 제2 모멘트 팔(
Figure pat00006
)을 획득할 수 있다. 구체적으로, 접촉 정보 획득 모듈(155)은 [수학식 2]에 기초하여 제2 모멘트 팔(
Figure pat00007
)을 산출할 수 있다.The contact information obtaining module 155 may obtain location information about the contact area between the object and the ground. The contact information acquisition module 155 is a second moment arm (
Figure pat00005
) can be obtained. For example, the contact information obtaining module 155 may be configured to use the second moment arm (
Figure pat00006
) can be obtained. Specifically, the contact information acquisition module 155 is based on [Equation 2] the second moment arm (
Figure pat00007
) can be calculated.

[수학식 2][Equation 2]

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

여기서,

Figure pat00010
,
Figure pat00011
는 오브젝트와 지면이 접촉할 때 센싱되는 힘 센서(112)의 센싱값(즉, 힘/토크)을 의미하고,
Figure pat00012
,
Figure pat00013
는 오브젝트와 지면의 접촉이 발생하기 전에 획득된 센서(112)의 센싱값을 의미한다. 즉,
Figure pat00014
,
Figure pat00015
는 메모리(140)에 저장된 오브젝트에 대한 정보를 의미한다.here,
Figure pat00010
,
Figure pat00011
is the sensed value (ie, force / torque) of the force sensor 112 sensed when the object and the ground contact,
Figure pat00012
,
Figure pat00013
denotes a sensed value of the sensor 112 obtained before the contact between the object and the ground occurs. in other words,
Figure pat00014
,
Figure pat00015
denotes information about an object stored in the memory 140 .

접촉 정보 획득 모듈(155)은 오브젝트와 지면이 접촉할 때의 센싱값(

Figure pat00016
,
Figure pat00017
)에서 오브젝트와 지면의 접촉이 발생하기 전의 센싱값(
Figure pat00018
,
Figure pat00019
)을 차감하여 오브젝트와 지면의 접촉에 의한 외력(
Figure pat00020
,
Figure pat00021
)을 획득할 수 있다. 그리고, 접촉 정보 획득 모듈(155)은 접촉에 의한 외력(
Figure pat00022
,
Figure pat00023
)에 기초하여 제2 모멘트 팔(
Figure pat00024
)을 획득할 수 있다.The contact information acquisition module 155 provides a sensing value (
Figure pat00016
,
Figure pat00017
), the sensing value (
Figure pat00018
,
Figure pat00019
) by subtracting the external force (
Figure pat00020
,
Figure pat00021
) can be obtained. And, the contact information acquisition module 155 is an external force (
Figure pat00022
,
Figure pat00023
) based on the second moment arm (
Figure pat00024
) can be obtained.

한편, 접촉 정보 획득 모듈(155)은 접촉에 의한 외력(

Figure pat00025
,
Figure pat00026
), 오브젝트에 대한 정보(
Figure pat00027
,
Figure pat00028
) 및 지면에 대한 뎁스 센서(111)의 센싱값에 기초하여 접촉 영역의 위치(
Figure pat00029
)를 획득할 수 있다. 구체적으로, 접촉 정보 획득 모듈(155)은 [수학식 3]에 기초하여 접촉 영역의 위치(
Figure pat00030
)를 획득할 수 있다.On the other hand, the contact information acquisition module 155 is an external force (
Figure pat00025
,
Figure pat00026
), information about the object (
Figure pat00027
,
Figure pat00028
) and the position of the contact area (
Figure pat00029
) can be obtained. Specifically, the contact information obtaining module 155 determines the position of the contact area (
Figure pat00030
) can be obtained.

[수학식 3] [Equation 3]

Figure pat00031
Figure pat00031

Figure pat00032
Figure pat00032

여기서, 수학식(

Figure pat00033
)은 지면에 대응되는 평면 방정식을 의미한다. 접촉 정보 획득 모듈(155)은 뎁스 센서(111)의 센싱값에 기초하여 지면에 대응되는 포인트 클라우드를 획득할 수 있다. 그리고, 접촉 정보 획득 모듈(155)은 포인트 클라우드 및 평면 추출(plane extraction) 알고리즘에 기초하여 평면 방정식(즉,
Figure pat00034
)을 획득할 수 있다.Here, the formula (
Figure pat00033
) means a plane equation corresponding to the ground. The contact information obtaining module 155 may obtain a point cloud corresponding to the ground based on the sensing value of the depth sensor 111 . And, the contact information obtaining module 155 is based on the point cloud and plane extraction algorithm based on the plane equation (that is,
Figure pat00034
) can be obtained.

회전 방향 획득 모듈(156)은 접촉 영역을 회전 중심으로 오브젝트를 회전시킬 회전 방향을 획득할 수 있다. 예를 들어, 회전 방향 획득 모듈(156)은 오브젝트에 대한 정보(

Figure pat00035
,
Figure pat00036
) 및 접촉 영역의 위치(
Figure pat00037
)에 기초하여 회전 방향을 획득할 수 있다. 구체적으로, 회전 방향 획득 모듈(156) [수학식 4]에 기초하여 회전 방향(
Figure pat00038
)을 획득할 수 있다.The rotation direction obtaining module 156 may obtain a rotation direction in which to rotate the object based on the contact area as a rotation center. For example, the rotation direction acquisition module 156 provides information about the object (
Figure pat00035
,
Figure pat00036
) and the location of the contact area (
Figure pat00037
) based on the rotation direction can be obtained. Specifically, based on the rotation direction acquisition module 156 [Equation 4], the rotation direction (
Figure pat00038
) can be obtained.

[수학식 4][Equation 4]

Figure pat00039
Figure pat00039

Figure pat00040
Figure pat00040

회전 방향 획득 모듈(156)은 오브젝트와 지면의 접촉 영역으로부터 중력의 작용선까지의 벡터(

Figure pat00041
)와 오브젝트에 작용하는 중력(
Figure pat00042
)에 기초하여 접촉 영역을 회전 중심으로 한 토크(
Figure pat00043
)를 획득할 수 있다. 그리고, 회전 방향 획득 모듈(156)은 획득된 토크(
Figure pat00044
)에 기초하여 회전 방향(
Figure pat00045
)을 획득할 수 있다.The rotation direction acquisition module 156 provides a vector (
Figure pat00041
) and the gravity acting on the object (
Figure pat00042
) based on the torque (
Figure pat00043
) can be obtained. And, the rotation direction acquisition module 156 is the acquired torque (
Figure pat00044
) based on the direction of rotation (
Figure pat00045
) can be obtained.

핸드 제어 모듈(157)은 매니퓰레이터(100)에 포함된 핸드를 제어하기 위한 제어 명령을 생성하며 제어 명령에 기초하여 핸드의 동작을 제어할 수 있다. 예를 들어, 핸드 제어 모듈(157)은 오브젝트를 파지하도록 핸드를 제어할 수 있다. 또한, 핸드 제어 모듈(157)은 오브젝트를 파지한 상태에서 이동하거나 회전하도록 핸드를 제어할 수 있다. 이 때, 핸드 제어 모듈(157)은 오브젝트의 안착면에 대한 제1 법선 벡터의 제1 방향과 지면에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내일 때 오브젝트와 지면이 접촉하도록 핸드를 제어할 수 있다. 이에 따라, 오브젝트의 제1 영역은 지면과 접촉할 수 있다. 그리고, 핸드 제어 모듈(157)은 오브젝트의 제1 영역과 지면의 접촉 영역을 회전 중심으로 회전 방향(

Figure pat00046
)으로 오브젝트를 회전시킬 수 있다. 이에 따라, 오브젝트의 제2 영역은 지면과 접촉할 수 있다. 오브젝트의 제2 영역이 지면과 접촉한 것으로 판단되면, 핸드 제어 모듈(157)은 오브젝트의 파지를 해제하도록 핸드를 제어할 수 있다.The hand control module 157 may generate a control command for controlling the hand included in the manipulator 100 and may control the operation of the hand based on the control command. For example, the hand control module 157 may control the hand to grip the object. Also, the hand control module 157 may control the hand to move or rotate while holding the object. At this time, when the difference between the first direction of the first normal vector with respect to the seating surface of the object and the second direction of the second normal vector with respect to the ground is within a preset range, the hand control module 157 contacts the object with the ground. You can control the hand to do it. Accordingly, the first area of the object may contact the ground. Then, the hand control module 157 rotates the first area of the object and the contact area of the ground in the rotational direction (
Figure pat00046
) to rotate the object. Accordingly, the second region of the object may contact the ground. If it is determined that the second area of the object is in contact with the ground, the hand control module 157 may control the hand to release the grip of the object.

도 3은 본 개시의 일 실시 예에 따른 매니퓰레이터가 획득하는 정보를 설명하기 위한 도면이다. 도 3을 참조하면, 매니퓰레이터(100)는 뎁스 센서(111)의 센싱값에 기초하여 오브젝트(31)에 대응되는 포인트 클라우드를 획득할 수 있다. 또한, 매니퓰레이터(100)는 힘 센서(112)의 센싱값에 기초하여 오브젝트(31)에 작용하는 힘(

Figure pat00047
)과 토크(
Figure pat00048
)를 획득할 수 있다. 그리고, 매니퓰레이터(100)는 상술한 [수학식 1]에 기초하여 오브젝트에 대응되는 제1 모멘트 팔(
Figure pat00049
)을 획득할 수 있다. 여기서, 제1 모멘트 팔(
Figure pat00050
)은 힘 센서(112)로부터 중력의 작용선(L)까지의 거리를 의미한다. 중력의 작용선(L)은 오브젝트(31)의 무게 중심(C)을 통과할 수 있다.3 is a diagram for describing information acquired by a manipulator according to an embodiment of the present disclosure. Referring to FIG. 3 , the manipulator 100 may acquire a point cloud corresponding to the object 31 based on a sensing value of the depth sensor 111 . In addition, the manipulator 100 generates a force (
Figure pat00047
) and torque (
Figure pat00048
) can be obtained. And, the manipulator 100 is based on the above-mentioned [Equation 1], the first moment arm corresponding to the object (
Figure pat00049
) can be obtained. Here, the first moment arm (
Figure pat00050
) is the distance from the force sensor 112 to the line of action L of gravity. The line of action L of gravity may pass through the center of gravity C of the object 31 .

도 4는 본 개시의 일 실시 예에 따른 오브젝트의 안착면을 결정하는 방법을 설명하기 위한 도면이다. 매니퓰레이터(100)는 오브젝트(41)의 복수의 면 중 지면과 접촉할 안착면(42)을 결정할 수 있다. 매니퓰레이터(100)는 오브젝트(41)에 대응되는 포인트 클라우드에 기초하여 오브젝트(41)에 대한 복수의 컨벡스 헐(convex hull)을 생성할 수 있다. 매니퓰레이터(100)는 복수의 컨벡스 헐 각각에 대해, 포인트 클라우드의 중심을 지나는 중력 벡터(v)와 컨벡스 헐의 교점(P)으로부터 컨벡스 헐의 변까지의 거리(

Figure pat00051
), 교점(P)으로부터 꼭짓점까지의 거리(
Figure pat00052
)를 산출할 수 있다. 매니퓰레이터(100)는 복수의 컨벡스 헐 중 교점(P)으로부터 컨벡스 헐의 변/꼭짓점까지의 거리가 최소값(
Figure pat00053
)이 최대가되는 컨벡스 헐을 안착면(
Figure pat00054
)으로 결정할 수 있다.4 is a view for explaining a method of determining a seating surface of an object according to an embodiment of the present disclosure. The manipulator 100 may determine a seating surface 42 to be in contact with the ground among a plurality of surfaces of the object 41 . The manipulator 100 may generate a plurality of convex hulls for the object 41 based on the point cloud corresponding to the object 41 . The manipulator 100 determines, for each of the plurality of convex hulls, the distance (
Figure pat00051
), the distance from the intersection (P) to the vertex (
Figure pat00052
) can be calculated. The manipulator 100 determines that the distance from the intersection (P) of the plurality of convex hulls to the side/vertex of the convex hull is the minimum value (
Figure pat00053
) is the maximum convex hull seating surface (
Figure pat00054
) can be determined.

매니퓰레이터(100)는 결정된 안착면(42)이 지면과 닿도록 오브젝트(41)를 이동시킬 수 있다. 이 때, 매니퓰레이터(100)는 지면에 대한 제1 법선 벡터의 제1 방향과 안착면(42)에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내가 되도록 오브젝트(41)를 이동시킬 수 있다. 이에 따라, 도 5와 같이 오브젝트(51)의 제1 영역(A1)은 지면(52)과 접촉할 수 있다.The manipulator 100 may move the object 41 so that the determined seating surface 42 comes into contact with the ground. At this time, the manipulator 100 moves the object 41 so that the difference between the first direction of the first normal vector with respect to the ground and the second direction of the second normal vector with respect to the seating surface 42 is within a preset range. can do it Accordingly, as shown in FIG. 5 , the first area A1 of the object 51 may contact the ground 52 .

도 5는 본 개시의 일 실시 예에 따른 회전 방향을 획득하는 방법을 설명하기 위한 도면이다. 매니퓰레이터(100)는 오브젝트(51)와 지면(52)의 접촉 영역인 제1 영역(A1)을 회전 중심으로 오브젝트(51)를 회전시킬 수 있다. 한편, 매니퓰레이터(100)는 오브젝트(51)를 회전시킬 회전 방향을 획득할 수 있다. 예를 들어, 매니퓰레이터(100)는 오브젝트(51)와 지면(52)의 접촉 영역(A1)으로부터 중력의 작용선(L)까지의 벡터(

Figure pat00055
)와 오브젝트(51)에 작용하는 중력(
Figure pat00056
)에 기초하여 접촉 영역(A1)을 회전 중심으로 한 토크(
Figure pat00057
)를 획득할 수 있다. 구체적으로, 매니퓰레이터(100)는 전술한 [수학식 4]에 기초하여 토크(
Figure pat00058
)를 획득할 수 있다. 그리고, 매니퓰레이터(100)는 획득된 토크(
Figure pat00059
)에 기초하여 회전 방향(
Figure pat00060
)을 획득할 수 있다.5 is a view for explaining a method of obtaining a rotation direction according to an embodiment of the present disclosure. The manipulator 100 may rotate the object 51 around the first area A1 that is a contact area between the object 51 and the ground 52 . Meanwhile, the manipulator 100 may obtain a rotation direction to rotate the object 51 . For example, the manipulator 100 uses a vector (
Figure pat00055
) and the gravity acting on the object 51 (
Figure pat00056
) based on the torque (
Figure pat00057
) can be obtained. Specifically, the manipulator 100 generates torque (
Figure pat00058
) can be obtained. And, the manipulator 100 is the obtained torque (
Figure pat00059
) based on the direction of rotation (
Figure pat00060
) can be obtained.

매니퓰레이터(100)는, 도 6에 도시된 바와 같이, 회전 방향(

Figure pat00061
)에 기초하여 오브젝트(61)를 회전시킬 수 있다. 이에 따라, 오브젝트(61)의 제2 영역(A2)은 지면(62)과 접촉할 수 있다. 매니퓰레이터(100)는 기설정된 시간 동안의 힘 센서(112)의 센싱값의 변화량이 기설정된 제2 값보다 크면, 제2 영역(A2)이 지면(62)과 접촉한 것으로 판단할 수 있다. 그리고, 매니퓰레이터(100)는 오브젝트(61)의 파지를 해제할 수 있다. 이에 따라, 오브젝트(61)는 지면(62)에 안정적으로 놓여질 수 있다.As shown in FIG. 6 , the manipulator 100 rotates in the direction of rotation (
Figure pat00061
) based on the object 61 can be rotated. Accordingly, the second area A2 of the object 61 may contact the ground 62 . The manipulator 100 may determine that the second area A2 is in contact with the ground 62 when the amount of change in the sensed value of the force sensor 112 for a preset time is greater than the second preset value. In addition, the manipulator 100 may release the grip of the object 61 . Accordingly, the object 61 may be stably placed on the ground 62 .

도 7은 본 개시의 일 실시 예에 따른 매니퓰레이터의 제어 방법을 도시한 순서도이다. 매니퓰레이터(100)는 핸드를 이용하여 오브젝트를 파지할 수 있다(S710). 매니퓰레이터(100)는 오브젝트를 파지하는 동안 획득되는 상기 힘 센서의 센싱값에 기초하여 오브젝트에 대한 정보를 획득하여 저장할 수 있다(S720). 이 때, 매니퓰레이터(100)는 저장된 오브젝트에 대한 정보, 지면에 대한 뎁스 센서의 센싱값 및 지면과 제1 영역이 접촉할 때 획득되는 힘 센서의 센싱값에 기초하여 접촉 영역에 대한 위치 정보를 획득할 수 있다.7 is a flowchart illustrating a method of controlling a manipulator according to an embodiment of the present disclosure. The manipulator 100 may grip the object using a hand (S710). The manipulator 100 may obtain and store information about the object based on the sensed value of the force sensor obtained while gripping the object ( S720 ). At this time, the manipulator 100 obtains location information on the contact area based on the stored object information, the sensing value of the depth sensor with respect to the ground, and the sensing value of the force sensor obtained when the ground and the first area come into contact with each other. can do.

매니퓰레이터(100)는 오브젝트가 놓여질 지면과 오브젝트의 제1 영역을 접촉시킬 수 있다(S730). 이 때, 매니퓰레이터(100)는 지면에 대한 제1 법선 벡터의 제1 방향과 안착면에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내가 되도록 지면과 오브젝트의 제1 영역을 접촉시킬 수 있다. 오브젝트의 안착면은, 뎁스 센서의 센싱값에 기초하여 획득되는 오브젝트의 형상 정보에 기초하여 획득될 수 있다. 힘 센서의 센싱값이 기설정된 제1 값보다 크면, 매니퓰레이터(100)는 제1 영역이 지면과 접촉한 것으로 판단할 수 있다.The manipulator 100 may bring the first area of the object into contact with the ground on which the object is to be placed (S730). At this time, the manipulator 100 contacts the ground with the first area of the object so that the difference between the first direction of the first normal vector to the ground and the second direction of the second normal vector to the seating surface is within a preset range. can do it The seating surface of the object may be obtained based on shape information of the object obtained based on a sensing value of the depth sensor. When the sensed value of the force sensor is greater than the first preset value, the manipulator 100 may determine that the first area is in contact with the ground.

매니퓰레이터(100)는 제1 영역과 지면의 접촉 영역에 대한 위치 정보를 획득할 수 있다(S740). 매니퓰레이터(100)는 오브젝트에 대한 정보, 지면에 대한 뎁스 센서의 센싱값 및 지면과 제1 영역이 접촉할 때 획득되는 힘 센서의 센싱값에 기초하여 접촉 영역에 대한 위치 정보를 획득할 수 있다. The manipulator 100 may acquire location information on the contact area between the first area and the ground ( S740 ). The manipulator 100 may obtain position information on the contact area based on the object information, the sensing value of the depth sensor with respect to the ground, and the sensing value of the force sensor obtained when the ground and the first area come into contact.

매니퓰레이터(100)는 위치 정보 및 오브젝트에 대한 정보에 기초하여 오브젝트를 회전시킬 회전 방향을 획득할 수 있다(S750). 그리고, 매니퓰레이터(100)는 회전 방향으로 오브젝트를 회전시킬 수 있다(S760). 이 때, 매니퓰레이터(100)는 접촉 영역을 회전 중심으로 오브젝트를 회전시킬 수 있다. The manipulator 100 may obtain a rotation direction in which to rotate the object based on the location information and the information on the object ( S750 ). Then, the manipulator 100 may rotate the object in a rotation direction (S760). In this case, the manipulator 100 may rotate the object based on the contact area as a rotation center.

매니퓰레이터(100)는 오브젝트의 회전에 따라 오브젝트의 제2 영역과 지면이 접촉하면, 오브젝트의 파지를 해제할 수 있다(S770). 기설정된 시간 동안의 힘 센서의 센싱값의 변화량이 기설정된 제2 값보다 크면, 매니퓰레이터(100)는 제2 영역이 지면과 접촉한 것으로 판단할 수 있다.When the second area of the object and the ground come into contact with the rotation of the object, the manipulator 100 may release the grip of the object ( S770 ). If the amount of change in the sensed value of the force sensor for a preset time is greater than the preset second value, the manipulator 100 may determine that the second region is in contact with the ground.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof. In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 처리 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 처리 동작을 특정 기기가 수행하도록 할 수 있다.Meanwhile, computer instructions for performing the processing operation according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. When the computer instructions stored in the non-transitory computer-readable medium are executed by the processor, the processing operation according to the above-described various embodiments may be performed by a specific device.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, not a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and it is common in the technical field pertaining to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications can be made by those having the knowledge of

100: 매니퓰레이터 110: 센서부
120: 구동부 130: 통신 인터페이스
140: 메모리 150: 프로세서
100: manipulator 110: sensor unit
120: driving unit 130: communication interface
140: memory 150: processor

Claims (16)

매니퓰레이터(manipulator)에 있어서,
핸드;
뎁스 센서;
상기 핸드에 작용하는 외력을 획득하기 위한 힘 센서;
적어도 하나의 인스트럭션을 저장하는 메모리; 및
프로세서;를 포함하고,
상기 프로세서는,
오브젝트를 파지하도록 상기 핸드를 제어하고,
상기 오브젝트를 파지하는 동안 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 오브젝트에 대한 정보를 획득하여 상기 메모리에 저장하고,
상기 오브젝트가 놓여질 지면과 상기 오브젝트의 제1 영역이 접촉하도록 상기 핸드를 제어하고,
상기 제1 영역과 상기 지면의 접촉 영역에 대한 위치 정보를 획득하고,
상기 위치 정보 및 상기 오브젝트에 대한 정보에 기초하여 상기 오브젝트를 회전시킬 회전 방향을 획득하고,
상기 접촉 영역을 회전 중심으로 상기 회전 방향으로 상기 오브젝트를 회전시키도록 상기 핸드를 제어하고,
상기 회전에 따라 상기 오브젝트의 제2 영역과 상기 지면이 접촉하면, 상기 오브젝트의 파지를 해제하도록 상기 핸드를 제어하는
매니퓰레이터.
In the manipulator (manipulator),
hand;
depth sensor;
a force sensor for acquiring an external force acting on the hand;
a memory storing at least one instruction; and
processor; including;
The processor is
controlling the hand to grip the object,
Acquire information about the object based on the sensed value of the force sensor obtained while gripping the object and store the information in the memory,
controlling the hand so that the first area of the object is in contact with the ground on which the object is to be placed,
Obtaining location information on a contact area between the first area and the ground,
Obtaining a rotation direction to rotate the object based on the location information and information on the object,
controlling the hand to rotate the object in the rotation direction around the contact area as a rotation center;
When the second area of the object and the ground come into contact with the rotation, controlling the hand to release the grip of the object
manipulator.
제1 항에 있어서,
상기 오브젝트에 대한 정보는,
상기 오브젝트에 작용하는 중력 및 상기 힘 센서로부터 상기 중력의 작용선까지의 거리를 포함하는
매니퓰레이터.
According to claim 1,
Information about the object is
Gravity acting on the object and the distance from the force sensor to the line of action of gravity
manipulator.
제1 항에 있어서,
상기 프로세서는,
상기 오브젝트에 대한 정보, 상기 지면에 대한 상기 뎁스 센서의 센싱값 및 상기 지면과 상기 제1 영역이 접촉할 때 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 접촉 영역에 대한 위치 정보를 획득하는
매니퓰레이터.
According to claim 1,
The processor is
Obtaining position information about the contact area based on the information on the object, the sensing value of the depth sensor with respect to the ground, and the sensing value of the force sensor obtained when the ground and the first area come into contact
manipulator.
제1 항에 있어서,
상기 프로세서는,
상기 오브젝트에 대한 정보 및 상기 위치 정보에 기초하여 상기 접촉 영역을 회전 중심으로 한 토크를 획득하고,
상기 토크에 기초하여 상기 회전 방향을 획득하는
매니퓰레이터.
According to claim 1,
The processor is
Obtaining a torque centered on the contact area based on the information on the object and the position information,
to obtain the rotation direction based on the torque
manipulator.
제1 항에 있어서,
상기 프로세서는,
상기 힘 센서의 센싱값이 기설정된 제1 값보다 크면, 상기 제1 영역이 상기 지면과 접촉한 것으로 판단하는
매니퓰레이터.
According to claim 1,
The processor is
When the sensed value of the force sensor is greater than a preset first value, it is determined that the first area is in contact with the ground.
manipulator.
제1 항에 있어서,
상기 프로세서는,
기설정된 시간 동안의 상기 힘 센서의 센싱값의 변화량이 기설정된 제2 값보다 크면, 상기 제2 영역이 상기 지면과 접촉한 것으로 판단하는
매니퓰레이터.
According to claim 1,
The processor is
When the amount of change in the sensed value of the force sensor for a preset time is greater than a preset second value, it is determined that the second region is in contact with the ground
manipulator.
제1 항에 있어서,
상기 프로세서는,
상기 뎁스 센서의 센싱값에 기초하여 상기 오브젝트의 형상 정보를 획득하고,
상기 오브젝트의 형상 정보에 기초하여 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 오브젝트의 안착면을 식별하는
매니퓰레이터.
According to claim 1,
The processor is
Obtaining shape information of the object based on the sensing value of the depth sensor,
identifying a seating surface of the object including the first area and the second area based on the shape information of the object
manipulator.
제7 항에 있어서,
상기 프로세서는,
상기 지면에 대한 제1 법선 벡터의 제1 방향과 상기 안착면에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내일 때 상기 제1 영역이 상기 지면과 접촉하도록 상기 핸드를 제어하는
매니퓰레이터.
8. The method of claim 7,
The processor is
When the difference between the first direction of the first normal vector with respect to the ground and the second direction of the second normal vector with respect to the seating surface is within a preset range, controlling the hand so that the first area comes into contact with the ground
manipulator.
핸드, 뎁스 센서 및 상기 핸드에 작용하는 외력을 획득하기 위한 힘 센서를 포함하는 매니퓰레이터(manipulator)의 제어 방법에 있어서,
상기 핸드를 이용하여 오브젝트를 파지하는 단계;
상기 오브젝트를 파지하는 동안 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 오브젝트에 대한 정보를 획득하여 저장하는 단계;
상기 오브젝트가 놓여질 지면과 상기 오브젝트의 제1 영역을 접촉시키는 단계;
상기 제1 영역과 상기 지면의 접촉 영역에 대한 위치 정보를 획득하는 단계;
상기 위치 정보 및 상기 오브젝트에 대한 정보에 기초하여 상기 오브젝트를 회전시킬 회전 방향을 획득하는 단계;
상기 접촉 영역을 회전 중심으로 상기 회전 방향으로 상기 오브젝트를 회전시키는 단계; 및
상기 회전에 따라 상기 오브젝트의 제2 영역과 상기 지면이 접촉하면, 상기 오브젝트의 파지를 해제하는 단계;를 포함하는
제어 방법.
In the control method of a manipulator comprising a hand, a depth sensor, and a force sensor for acquiring an external force acting on the hand,
gripping the object using the hand;
acquiring and storing information on the object based on a sensing value of the force sensor acquired while gripping the object;
contacting the ground on which the object is to be placed with a first area of the object;
obtaining location information on a contact area between the first area and the ground;
obtaining a rotation direction in which to rotate the object based on the location information and information on the object;
rotating the object in the rotation direction with the contact area as a rotation center; and
When the second area of the object and the ground come into contact with the rotation, releasing the grip of the object; including
control method.
제9 항에 있어서,
상기 오브젝트에 대한 정보는,
상기 오브젝트에 작용하는 중력 및 상기 힘 센서로부터 상기 중력의 작용선까지의 거리를 포함하는
제어 방법.
10. The method of claim 9,
Information about the object is
Gravity acting on the object and the distance from the force sensor to the line of action of gravity
control method.
제9 항에 있어서,
상기 접촉 영역에 대한 위치 정보를 획득하는 단계는,
상기 오브젝트에 대한 정보, 상기 지면에 대한 상기 뎁스 센서의 센싱값 및 상기 지면과 상기 제1 영역이 접촉할 때 획득되는 상기 힘 센서의 센싱값에 기초하여 상기 접촉 영역에 대한 위치 정보를 획득하는
제어 방법.
10. The method of claim 9,
The step of obtaining location information for the contact area includes:
Obtaining position information about the contact area based on the information on the object, the sensing value of the depth sensor with respect to the ground, and the sensing value of the force sensor obtained when the ground and the first area come into contact
control method.
제9 항에 있어서,
상기 회전 방향을 획득하는 단계는,
상기 오브젝트에 대한 정보 및 상기 위치 정보에 기초하여 상기 접촉 영역을 회전 중심으로 한 토크를 획득하는 단계, 및
상기 토크에 기초하여 상기 회전 방향을 획득하는 단계를 포함하는
제어 방법.
10. The method of claim 9,
The step of obtaining the rotation direction includes:
acquiring a torque centered on the contact area based on the information on the object and the location information, and
acquiring the rotation direction based on the torque
control method.
제9 항에 있어서,
상기 힘 센서의 센싱값이 기설정된 제1 값보다 크면, 상기 제1 영역이 상기 지면과 접촉한 것으로 판단하는 단계;를 더 포함하는
제어 방법.
10. The method of claim 9,
When the sensing value of the force sensor is greater than a preset first value, determining that the first area is in contact with the ground; further comprising
control method.
제9 항에 있어서,
기설정된 시간 동안의 상기 힘 센서의 센싱값의 변화량이 기설정된 제2 값보다 크면, 상기 제2 영역이 상기 지면과 접촉한 것으로 판단하는 단계;를 더 포함하는
제어 방법.
10. The method of claim 9,
When the amount of change in the sensed value of the force sensor for a preset time is greater than a preset second value, determining that the second region has come into contact with the ground; further comprising
control method.
제9 항에 있어서,
상기 뎁스 센서의 센싱값에 기초하여 상기 오브젝트의 형상 정보를 획득하는 단계; 및
상기 오브젝트의 형상 정보에 기초하여 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 오브젝트의 안착면을 식별하는 단계;를 더 포함하는
제어 방법.
10. The method of claim 9,
obtaining shape information of the object based on a sensing value of the depth sensor; and
Recognizing a seating surface of the object including the first area and the second area based on the shape information of the object; further comprising
control method.
제15 항에 있어서,
상기 지면과 상기 오브젝트의 제1 영역을 접촉시키는 단계는,
상기 지면에 대한 제1 법선 벡터의 제1 방향과 상기 안착면에 대한 제2 법선 벡터의 제2 방향의 차이가 기설정된 범위 이내일 때 상기 지면과 상기 오브젝트의 제1 영역을 접촉시키는
제어 방법.
16. The method of claim 15,
The step of contacting the ground with the first area of the object comprises:
When a difference between a first direction of a first normal vector with respect to the ground and a second direction of a second normal vector with respect to the seating surface is within a preset range, the first area of the object is brought into contact with the ground.
control method.
KR1020210064206A 2020-12-03 2021-05-18 Manipulator and method for controlling thereof KR20220078452A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/KR2021/016436 WO2022119167A1 (en) 2020-12-03 2021-11-11 Manipulator and control method therefor
EP21900855.4A EP4190511A4 (en) 2020-12-03 2021-11-11 Manipulator and control method therefor
CN202180070839.0A CN116323109A (en) 2020-12-03 2021-11-11 Manipulator and method for controlling a manipulator
US17/670,977 US20220176556A1 (en) 2020-12-03 2022-02-14 Manipulator and method for controlling thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200167799 2020-12-03
KR20200167799 2020-12-03

Publications (1)

Publication Number Publication Date
KR20220078452A true KR20220078452A (en) 2022-06-10

Family

ID=81986828

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210064206A KR20220078452A (en) 2020-12-03 2021-05-18 Manipulator and method for controlling thereof

Country Status (1)

Country Link
KR (1) KR20220078452A (en)

Similar Documents

Publication Publication Date Title
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
US10350768B2 (en) Control device, robot, and robot system
US10532461B2 (en) Robot and robot system
JP6000029B2 (en) Handling system, handling method and program
JP2020110918A (en) Automated package registration system, device, and method
KR20170053585A (en) Robot control apparatus and robot control method
US10909720B2 (en) Control device for robot, robot, robot system, and method of confirming abnormality of robot
US11440197B2 (en) Robot system and imaging method
JP6357785B2 (en) Robot, robot system, control apparatus and control method
JP2009269127A (en) Holding device and method of controlling the same
JP2016196077A (en) Information processor, information processing method, and program
EP3495099B1 (en) Grasping apparatus, grasping determination method and grasping determination program
KR20220078452A (en) Manipulator and method for controlling thereof
CN116741685B (en) Wafer safe transmission control method and system
EP4190511A1 (en) Manipulator and control method therefor
JP2015157343A (en) Robot, robot system, control device, and control method
WO2022119167A1 (en) Manipulator and control method therefor
KR20220061821A (en) Robot and method for controlling thereof
JP4023614B2 (en) Gripping device, gripping control method, gripping control program, and recording medium
JP2019141966A (en) Robot control device, robot and robot system
JP7286524B2 (en) Picking robot, picking method and program
JP2019084645A (en) Position information acquisition device and robot control device including the same
JP2023112730A (en) Workpiece retention system, workpiece retention method, program, and control device
TW202418013A (en) Robot arm anti-collision system and method
JP2023148859A (en) Control method, control system and holding control program

Legal Events

Date Code Title Description
A201 Request for examination