KR20200106112A - 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법 - Google Patents

전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법 Download PDF

Info

Publication number
KR20200106112A
KR20200106112A KR1020190022306A KR20190022306A KR20200106112A KR 20200106112 A KR20200106112 A KR 20200106112A KR 1020190022306 A KR1020190022306 A KR 1020190022306A KR 20190022306 A KR20190022306 A KR 20190022306A KR 20200106112 A KR20200106112 A KR 20200106112A
Authority
KR
South Korea
Prior art keywords
robot
face
information
display unit
output
Prior art date
Application number
KR1020190022306A
Other languages
English (en)
Other versions
KR102219581B1 (ko
Inventor
최종은
박제현
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020190022306A priority Critical patent/KR102219581B1/ko
Publication of KR20200106112A publication Critical patent/KR20200106112A/ko
Application granted granted Critical
Publication of KR102219581B1 publication Critical patent/KR102219581B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법에 관한 것으로, 더욱 자세하게는 한 대의 로봇이 다수의 사람들과 상호작용하는 경우, 실시간으로 상호작용하는 대상의 위치를 센서부를 통해 파악하고 제어부에서 대상의 방향에 맞추어 디스플레이부에 기설정된 정보를 출력하여 다수의 사람들이 하나의 로봇과 친밀하게 면대면으로 상호작용할 수 있는 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법에 관한 것이다.

Description

전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법 {Face orientation controls and methods for omni-directional interactive robots}
본 발명은 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법에 관한 것으로, 더욱 상세하게는 전방향에 있는 대상과 상호작용 가능한 로봇의 얼굴 방향을 제어하는 장치 및 방법에 관한 것이다.
전자기술의 발달과 함께 로봇에 대한 관심이 증가되고 있으며, 개인용 로봇, 공공 서비스 로봇, 극한 작업 로봇, 제조업용 로봇 등 실생활에 로봇이 많이 사용되고 로봇의 종류도 다양해지고 있다. 최근에는 사회성 로봇, 감정 로봇 등의 형태의 로봇도 등장하고 있으며, 특히 로봇과 사람간의 상호작용에 대한 분야에 대한 관심이 높아지고 있는 추세이다.
종래에는 로봇과 사람이 상호작용하는 기술로서, 공개특허 10-2009-0048262("다개체 상호 작용을 위한 로봇 컨트롤 시스템", 2007.11.09., 이하 '선행문헌'이라고 함)와 같은 기술에는 이동로봇이 다양한 개체와 상호작용이 가능하다는 내용이 개시되어 있다.
하지만, 종래기술에 의하면, 기계적인 회전체를 사용하기 때문에 제조 비용이 많이 들어간다는 문제점이 있고, 몸체가 크기 때문에 적용범위 및 편리성이 떨어진다는 문제점이 있다. 더불어, 종래기술의 로봇은 하나의 몸체이기 때문에 다수의 대상이 있을 때 상호작용은 가능할지라도 다수의 대상과 면대면으로 소통할 수 없기 때문에 로봇과 친밀감 있게 소통하기는 어렵다는 문제가 있다.
공개특허공보 10-2009-0048262("다개체 상호 작용을 위한 로봇 컨트롤 시스템",2007.11.09)
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서 본 발명의 목적은, 로봇이 다수의 대상과 상호작용할 때 대상의 위치를 센서를 통해 파악하고 대상의 위치정보에 맞추어 디스플레이에 기설정한 정보를 출력하여 다수의 대상이 하나의 로봇과 친밀하게 면대면으로 상호작용할 수 있도록 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법을 제공함에 있다.
본 발명의 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치는, 다수의 대상과 상호작용이 가능한 로봇에 있어서, 로봇과 상호작용 중인 상기 대상의 위치를 감지하는 센서부와, 기설정된 정보를 출력하는 디스플레이부; 및 상기 센서부에서 감지된 대상의 위치정보를 이용하여 상호작용중인 상기 대상을 향해 상기 기설정된 정보를 출력하도록 상기 디스플레이부를 제어하는 제어부를 포함하는 것을 특징으로 한다.
또한, 다수의 대상과 상기 로봇이 상호작용하는 경우, 상기 디스플레이부는, 상기 대상의 위치정보에 따라 상기 기설정된 정보를 둘이상의 방향으로 동시에 출력하는 것을 특징으로 한다.
또한, 상기 제어부는, 상기 센서부로부터 상호작용 중인 하나 이상의 대상의 위치정보를 전달받아, 우선 순위를 설정하여 상기 디스플레이부로 기설정된 정보를 출력하는 것을 특징으로 한다.
또한, 상기 우선 순위는, 상기 로봇과 상호작용하는 대상 중 로봇과 상호작용한 순서대로 설정하는 것을 특징으로 한다.
또한, 상기 대상의 위치정보가 상기 센서부에서 인식할 수 있는 반경을 벗어나는 경우, 상기 로봇의 본체가 대상의 위치로 이동하여 대상과 상호작용하는 것을 특징으로 한다.
또한, 본 발명의 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치의, 상기 기설정된 정보는, 로봇의 얼굴 이미지인 것을 특징으로 한다.
본 발명의 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 방법은, 다수의 대상과 상호작용이 가능한 로봇에 있어서, 로봇과 상호작용중인 대상의 위치를 감지하는 센서감지단계; 상기 센서감지단계에서 감지된 대상의 위치정보를 이용하여 기설정된 정보를 출력하는 방향을 설정하는 방향설정단계; 및 상기 방향설정단계에서 설정한 방향에 따라 상기 기설정된 정보를 출력하는 정보출력단계를 포함하는 것을 특징으로 한다.
또한, 상기 정보출력단계는, 상기 로봇과 상호작용을 하는 대상의 위치정보에 따라 상기 기설정된 정보를 둘이상의 방향으로 동시에 출력하는 것을 특징으로 한다.
또한, 본 발명의 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 방법의 상기 기설정된 정보는, 로봇의 얼굴 이미지인 것을 특징으로 한다.
상기와 같은 구성에 의한 본 발명의 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법은 다수의 대상과 상호작용 중인 로봇의 센서부에서 상호작용중인 대상의 위치를 감지하여 디스플레이부에 기설정된 정보를 출력하여 상호작용 중인 대상이 가상의 이미지로부터 사실감있고 현실감있게 상호작용할 수 있어 다수의 대상이 하나의 로봇과 친밀하게 면대면으로 상호작용할 수 있는 효과가 있다.
또한, 본 발명에 의하여, 로봇이 다수의 대상과 상호작용할 때 디스플레이부에서 둘 이상의 방향으로 동시에 기설정된 정보를 출력할 수 있어, 로봇의 머리부분의 회전체가 필요하지 않아 제조 비용 감소 및 소형화가 가능한 효과가 있다.
또한, 본 발명에 의하여, 로봇이 다수의 대상과 상호작용하면서 우선순위를 설정하여 상호작용한 순서대로 디스플레이부에 기설정된 정보를 출력할 수 있어 공평하게 다수의 대상과 상호작용할 수 있다는 효과가 있다.
또한, 본 발명에 의하여, 로봇과 상호작용하고 있던 대상의 위치정보가 센서부에서 인식할 수 있는 반경을 벗어나는 경우에 로봇의 본체가 대상의 위치로 이동하여 대상과 재 상호작용할 수 있어 대상의 위치에 상관없이 로봇과 자유자재로 상호작용할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 디스플레이부의 형상에 대한 실시예이다.
도 3은 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 다수와 상호작용하는 실시예이다.
도 4는 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 순서도이다.
이하, 본 발명의 기술적 사상을 첨부된 도면을 사용하여 더욱 구체적으로 설명한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 변형 예들이 있을 수 있음을 이해하여야 한다.
이하, 본 발명의 기술적 사상을 첨부된 도면을 사용하여 더욱 구체적으로 설명한다. 첨부된 도면은 본 발명의 기술적 사상을 더욱 구체적으로 설명하기 위하여 도시한 일예에 불과하므로 본 발명의 기술적 사상이 첨부된 도면의 형태에 한정되는 것은 아니다.
도 1 및 도 2는 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 구성도를 도시하는 것이고, 도 1에 도시된 바와 같이 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치는 기본적으로는 센서부(100), 디스플레이부(200), 제어부(도면에 미도시)를 포함하여 이루어질 수 있다.
다시 말해, 일 실시예에 따른 본 발명은 로봇(1)은 다수의 대상과 다양한 의사소통 채널을 통해 인지적/정서적 상호작용을 할 수 있으며, 상기 대상이 상기 로봇(1)에 접근하면 상기 로봇(1)이 상기 대상의 의도를 추정하여 서로 상호작용하며 재미와 친밀감을 느낄 수 있는 로봇(1)인 것이 바람직하고, 상기 로봇(1)에 상기 센서부(100), 상기 디스플레이부(200), 상기 제어부가 포함되어 이루어지는 것이 바람직하다. 더불어, 도 1을 참조하면, 일 실시예에 따른 본 발명의 대상을 사람으로 설명하고 있지만, 이로써 본 발명이 한정되지 않고 대상은 다양할 수 있는 것이 바람직하다. 도 1은 로봇(1)의 머리 부분인 디스플레이부(200)만 자세하게 표현되었고, 로봇(1)이 이동할 수 있는 이동부가 포함된 로봇(1)이다.
상기 센서부(100)는 상기 로봇(1)과 상호작용하고 있는 상기 대상의 위치를 감지할 수 있으며, 대상의 위치를 파악하기 위해 감지센서를 사용하여 상기 대상의 위치에 따라 상기 디스플레이부(200)의 어느 방향에서든 상기 대상과 면 대면으로 소통할 수 있어 상기 대상과 높은 유대관계가 형성될 수 있는 효과가 있다.
상기 디스플레이부(200)는 상기 대상과 상호작용하는 로봇(1)에 포함되며, 상기 대상과 상호작용하는 방향으로 기설정된 정보를 출력한다. 상기 기설정된 정보는 로봇(1)의 얼굴, 몸통, 뒷모습일 수 있고, 본 발명에서는 상기 로봇의 얼굴 이미지인 것이 바람직하다. 상기 로봇의 얼굴 이미지는 상기 로봇(1)에 등록된 이미지이고, 상기 디스플레이부(200)의 형상에 상관없이 상호작용하는 대상의 위치에 따라서 상기 디스플레이부(200)에 기설정된 정보가 출력된다. 이러한 구성에 따라, 상기 로봇(1)과 얼굴을 직접 보며 의사소통할 수 있기 때문에 상기 대상과의 상호작용에 큰 효과를 줄 수 있다는 장점이 있다.
여기서, 도 1을 참조하면, 상기 디스플레이부(200)에 출력된 기설정된 이미지와 사람이 상호작용하는 모습을 볼 수 있고, 상기 디스플레이부(200)에 출력된 기설정된 이미지와 사람이 상호작용할 때의 기설정된 이미지의 뒷모습이 상기 디스플레이부(200) 뒷면에 출력되는 모습을 볼 수 있다. 이러한 특징으로 인해 상기 로봇(1)과 대상과 상호작용하는 동시에 상기 디스플레이부(200) 뒷면에 뒷모습을 출력하여 보다 사실적인 묘사가 가능하다는 효과가 있다.
상기 제어부는 상기 센서부(100)에서 감지된 대상의 위치정보를 이용하여 현재 상호중인 상기 대상을 향해 상기 기설정된 정보를 출력하도록 상기 디스플레이부(200)를 제어한다. 상기 디스플레이부(200)의 형상에 상관없이 상호작용하는 대상의 위치를 파악하여 상기 기설정된 정보를 출력하는 데 아래 도 3에서 자세하게 설명하기로 한다. 더불어, 대상의 소정의 위치를 설정하고, 상기 대상이 상기 소정의 위치를 벗어나는 경우 또는 상기 소정의 위치에서 크게 벗어나지 않은 경우에 상기 로봇(1)의 플랫폼 본체가 직접 움직여서 상기 대상을 따라가며 상호작용할 수 있다.
도 2는 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 디스플레이부(200)의 실시예를 도시하는 것이다. 앞서 설명하였듯이, 본 발명의 일 실시예에 따른 상기 디스플레이부(200)는 상호작용을 하고 있는 다수의 대상과 어느 방향에서나 얼굴을 마주하고 대화하듯이 상호작용할 수 있도록 상기 로봇(1)의 머리 부분이 움직이지 않아도 디스플레이부(200)의 전체 면에서 상호작용을 하고 있는 대상의 위치를 향하여 기설정된 이미지를 출력한다. 도 2에 도시된 바와 같이 본 발명의 일 실시예에 따른 디스플레이 형상에 따라 로봇(1) 얼굴이 디스플레이에 출력되는 것을 도 2의 a), b), c)를 통해 설명한다. 더불어, 도 2를 참조하면, 일 실시예에 따른 본 발명의 대상을 사람으로 설명하고 있지만, 이로써 본 발명이 한정되지 않고 대상은 다양할 수 있는 것이 바람직하다.
상기 도 2의 a)는 삼각기둥의 형상을 가진 상기 디스플레이부(200)이고, 기설정된 이미지를 최대 3면에 출력할 수 있다. 양방향 화살표 표시는 상기 로봇(1)이 대상과 상호작용을 하는 경우에 기설정된 이미지를 출력할 수 있는 면을 나타낸 것이다. 상기 로봇(1)은 상기 센서부(100)를 로봇(1) 내부에 내장하거나 디스플레이부(200)의 각 면에 외부로 노출시켜 대상의 위치를 감지할 수 있고, 상기 제어부에서 상기 센서부(100)로부터 감지한 정보를 수신받아 대상의 위치에 따라 상기 디스플레이부(200)를 활성화시켜 활성화된 면에서 기설정된 이미지를 출력할 수 있도록 한다.
상기 도 2의 b)는 사각기둥의 형상을 가진 상기 디스플레이부(200)이고, 기설정된 이미지를 최대 4면에 출력할 수 있다. 양방향 화살표 표시는 상기 로봇(1)이 대상과 상호작용을 하는 경우에 기설정된 이미지를 출력할 수 있는 면을 나타낸 것이다. 상기 b)에 도시된 바와 같이, 상기 로봇(1)은 상기 센서부(100)를 내장하거나 외부로 노출시켜 대상의 위치를 감지할 수 있고, 상기 제어부에서 상기 센서부(100)로부터 감지한 정보를 수신받아 대상의 위치에 따라 상기 디스플레이부(200)에 기설정된 이미지를 출력하는 면을 다르게 할 수 있다. 상기 b)는 상기 a)의 디스플레이부(200)보다 출력될 수 있는 면이 더 형성되기 때문에 더 많은 대상과 상호작용할 때 적합할 수 있다.
상기 도 2의 c)는 윗면과 밑면의 지름이 다른 형태의 원기둥의 형상을 가진 상기 디스플레이부(200)이고, 각진 면이 없어 전면을 사용하여 기설정된 정보를 출력할 수 있다. 양방향 화살표 표시는 상기 로봇(1)이 대상과 상호작용을 하는 경우에 기설정된 이미지를 출력할 수 있는 면을 나타낸 것이다. 상기 c)에 도시된 바와 같이, 상기 로봇(1)은 상기 센서부(100)를 내장하거나 외부로 노출시켜 대상의 위치를 감지할 수 있고, 상기 제어부에서 상기 센서부(100)로부터 감지한 정보를 수신받아 대상의 위치에 따라 상기 디스플레이부(200)에 기설정된 이미지를 출력하는 면을 다르게 할 수 있다. 상기 c)는 상기 a) 및 b)의 디스플레이부(200)와 달리 각진 면이 없어 더 넓은 면적의 디스플레이에 기설정된 정보를 출력될 수 있기 때문에 상기 a) 및 c)에 비해 더 많은 대상과 상호작용할 때 적합할 수 있다.
도 2에 도시한 바와 같이, 본 발명은 상기 디스플레이부(200)를 통해 상호작용 중인 대상을 향해 기설정된 정보를 출력하여 어느 방향에서든 사실적으로 로봇(1)과 상호작용할 수 있다는 것이 큰 장점이고, 상기 디스플레이부(200)의 형상에 따라 다양한 연출을 할 수 있다는 효과가 있다. 더불어, 상기 로봇(1)은 다수의 대상과 상호작용하는 경우 대상의 위치를 향해 상기 디스플레이부(200)의 면에서 동시에 기설정된 정보를 출력할 수 있다. 여기서, 상기 기설정된 정보는 모두 같은 정보가 아닐 수 있고, 사용자의 선택과 기설정된 설정에 따라 다르게 출력될 수 있다.
아래 도 3에서 다수의 대상과 상호작용하는 경우에 상기 디스플레이부(200)에 기설정된 정보가 출력되는 것을 도 4를 통해 자세하게 설명한다.
도 3은 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 장치의 다수와 상호작용하는 실시예를 도시하는 것이다. 도 3에 도시된 바와 같이 본 발명의 일 실시예에 따라, 다수와 상호작용하는 로봇(1)의 디스플레이부(200)에서 상호작용하는 대상이 있는 위치에 따라 출력되는 방향을 설명한다.
다시 말하자면, 한 대의 로봇(1)이 다수의 대상과 상호작용하는 상황에서 실시간으로 상호작용하는 대상의 위치를 상기 센서부(100)에서 파악하고 대상의 방향에 맞춰서 상기 디스플레이에 기설정된 정보를 출력하여 다수의 대상들이 하나의 로봇(1)과 친밀하게 면대면으로 상호작용할 수 있으며, 다수의 대상과 상호작용하는 경우에 상기 디스플레이부(200)에 기설정된 정보가 출력되는 순서를 a) 및 b)를 통해 설명하기로 한다.
상기 도 3의 a)는 다수의 대상이 있는 경우에 양방향 화살표로 표시된 대상만이 로봇(1)과 상호작용중이고, 상기 로봇(1)은 상호작용중인 대상과만 디스플레이부(200)에 기설정된 정보를 출력하여 면대면으로 상호작용하고 있다. 더 자세하게 설명하자면, 대상이 사람인 경우, 5명 중 3명만 로봇(1)과 상호작용이 된 것이고, 상기 센서부(100)에서 상호작용 중인 3명의 위치정보를 감지하여 3명의 위치정보에 따른 디스플레이부(200)만이 활성화되어 기설정된 정보를 출력하고 있는 것이다. 상기 로봇(1)과 상호작용하지 않은 2명의 사람도 상호작용을 시작하면 상기 센서부(100)에서 대상의 위치정보를 감지하여 나머지 2명에 해당하는 위치정보에 따른 디스플레이부(200)가 활성화되어 기설정된 정보를 출력할 수 있다.
상기 도 3의 b)는 다수의 대상이 있는 경우에 양방향 화살표로 표시된 대상만 로봇(1)과 상호작용중이고, 상기 로봇(1)은 상호작용중인 대상과만 디스플레이부(200)에 기설정된 정보를 출력하여 면대면으로 상호작용하고 있다. 더 자세하게 설명하자면, 대상이 사람인 경우, 도 3에 도시된 5명의 사람이 모두 로봇(1)과 상호작용이 된 것이고, 상기 센서부(100)에서 상호작용 중인 5명의 위치정보를 감지하여 5명의 위치정보에 따른 디스플레이부(200)만이 활성화되어 기설정된 정보를 출력하고 있는 것이다.
상기 도 3의 a) 및 b)에 따라, 상기 제어부는 상기 센서부(100)로부터 상호작용 중인 하나 이상의 대상의 위치정보를 전달받아 우선 순위를 설정하여 상기 디스플레이부(200)로 기설정된 정보를 출력할 수 있도록 할 수 있다. 여기서, 상기 우선 순위는 상기 로봇(1)과 상호작용하는 대상 중 로봇(1)과 상호작용한 순서이다. 다른 예로는, 상기 제어부는 상기 로봇(1)과 동시에 상호작용한 대상들의 위치정보를 수신 받아 기설정된 정보를 동시에 출력하도록 할 수 있다. 상기 제어부는 상기 센서부(100)에서 감지할 수 있는 대상의 수를 설정할 수 있고, 이때, 상기 로봇(1)이 상호작용할 수 있는 대상의 수보다 적게 설정할 수 있다.
상기 도 2 및 도 3을 참조하면, 한 대의 로봇(1)이 다수의 대상과 상호작용할 때 상호작용하는 대상의 위치정보에 따라 상호작용하는 대상을 향해 상기 디스플레이부(200)에서 기설정된 정보가 출력되는 구성에 따라, 상기 로봇(1)의 머리 부분이 회전하는 기계적인 요소를 제외함으로써 제조 비용이 감소되고 로봇(1)의 소형화가 가능해지는 장점이 있고, 다수의 사람들이 상호작용이 가능한 로봇(1)과 효율적, 감성적으로 면대면 상호작용이 가능하게 되는 효과가 있다.
도 4는 본 발명의 일 실시예에 따른 로봇의 얼굴 방향 제어 방법의 순서도로서, 이하에서는 도 4를 더 참고해서 다수의 대상과 상호작용하는 로봇(1)의 얼굴 방향 제어 방법을 설명하기로 한다. 도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 로봇(1)의 얼굴 방향 제어 방법은, 센서감지단계(S100), 방향설정단계(S200), 정보출력단계(S300)를 포함하여 이루어질 수 있다.
상기 센서감지단계(S100)는 다수의 대상과 상호작용하고 있는 상기 로봇(1)의 센서부(100)에서 상호작용 중인 대상의 위치를 감지하는 단계이다. 더 자세하게 설명하자면, 상기 센서부(100)에서 상기 로봇(1)과 상호작용하고 있는 적어도 하나이상의 대상의 위치정보를 감지하여 상기 제어부에 전달한다. 상기 센서를 이용해 상기 로봇(1)과 상호작용하는 대상의 위치정보를 감지하는 이유는 대상의 위치정보를 파악하여 상기 디스플레이부(200)에 기설정된 정보를 출력하기 위함이다. 여기서, 상기 기설정된 정보는 로봇(1)의 얼굴 이미지이며, 상기 대상이 어느 위치에 있더라도 상기 디스플레이부(200)에 출력되는 로봇(1)의 얼굴 이미지와 면대면으로 상호작용할 수 있도록 할 수 있도록 한다.
상기 방향설정단계(S200)는 상기 센서감지단계(S100)를 수행하고, 상기 센서감지단계(S100)에서 감지된 대상의 위치정보를 이용하여 기설정된 정보를 출력하는 방향을 설정하는 단계이다. 더 자세하게 설명하자면, 상기 제어부가 상기 센서부(100)에서 감지한 상기 로봇(1)과 상호작용 중인 상기 대상의 위치정보를 수신받아 상기 디스플레이부(200)에 로봇(1)의 얼굴 이미지를 출력할 방향을 설정하고, 상기 설정한 방향은 상기 디스플레이부(200)에서 화면이 활성화 될 수 있는 방향인 것이 바람직하다. 다시 말해, 도 3에 도시된 바와 같이, 상기 디스플레이부(200)의 형상에 따라 디스플레이부(200)가 활성화될 수 있는 방향으로 방향을 설정할 수 있다.
상기 정보출력단계(S300)는 상기 방향설정단계(S200)를 수행하고, 상기 방향설정단계(S200)에서 설정한 방향에 따라 상기 기설정된 정보를 출력하는 단계이다. 더 자세하게 설명하자면, 상기 제어부가 설정한 방향에 상기 디스플레이부(200)에 로봇(1)의 얼굴 이미지를 출력하도록 하고, 상기 로봇(1)과 상호작용을 하는 대상의 위치정보에 따라 상기 기설정된 정보를 둘이상의 방향으로 동시에 출력할 수 있다.
이상과 같이 본 발명에서는 구체적인 구성 소자 등과 같은 특정 사항들과 한정된 실시예 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것 일 뿐, 본 발명은 상기의 일 실시예에 한정되는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허 청구 범위뿐 아니라 이 특허 청구 범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
1 : 로봇
100 : 센서부
200 : 디스플레이부

Claims (9)

  1. 다수의 대상과 상호작용이 가능한 로봇에 있어서,
    로봇과 상호작용 중인 상기 대상의 위치를 감지하는 센서부와,
    기설정된 정보를 출력하는 디스플레이부; 및
    상기 센서부에서 감지된 대상의 위치정보를 이용하여 상호작용중인 상기 대상을 향해 상기 기설정된 정보를 출력하도록 상기 디스플레이부를 제어하는 제어부를 포함하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 장치.
  2. 제 1항에 있어서,
    다수의 대상과 상기 로봇이 상호작용하는 경우,
    상기 디스플레이부는,
    상기 대상의 위치정보에 따라 상기 기설정된 정보를 둘이상의 방향으로 동시에 출력하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 장치.
  3. 제 2항에 있어서,
    상기 제어부는,
    상기 센서부로부터 상호작용 중인 하나 이상의 대상의 위치정보를 전달받아, 우선 순위를 설정하여 상기 디스플레이부로 기설정된 정보를 출력하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 장치.
  4. 제 3항에 있어서,
    상기 우선 순위는,
    상기 로봇과 상호작용하는 대상 중 로봇과 상호작용한 순서대로 설정하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 장치.
  5. 제 1항에 있어서,
    상기 대상의 위치정보가 상기 센서부에서 인식할 수 있는 반경을 벗어나는 경우,
    상기 로봇의 본체가 대상의 위치로 이동하여 대상과 상호작용하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 장치.
  6. 제 1항 내지 제 5항에 있어서,
    상기 기설정된 정보는,
    로봇의 얼굴 이미지인 것을 특징으로 하는 로봇의 얼굴 방향 제어 장치.
  7. 다수의 대상과 상호작용이 가능한 로봇에 있어서,
    로봇과 상호작용중인 대상의 위치를 감지하는 센서감지단계;
    상기 센서감지단계에서 감지된 대상의 위치정보를 이용하여 기설정된 정보를 출력하는 방향을 설정하는 방향설정단계; 및
    상기 방향설정단계에서 설정한 방향에 따라 상기 기설정된 정보를 출력하는 정보출력단계를 포함하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 방법.
  8. 제 7항에 있어서,
    상기 정보출력단계는,
    상기 로봇과 상호작용을 하는 대상의 위치정보에 따라 상기 기설정된 정보를 둘이상의 방향으로 동시에 출력하는 것을 특징으로 하는 로봇의 얼굴 방향 제어 방법.
  9. 제 7항 내지 제 8항에 있어서,
    상기 기설정된 정보는,
    로봇의 얼굴 이미지인 것을 특징으로 하는 로봇의 얼굴 방향 제어 방법.
KR1020190022306A 2019-02-26 2019-02-26 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법 KR102219581B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190022306A KR102219581B1 (ko) 2019-02-26 2019-02-26 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190022306A KR102219581B1 (ko) 2019-02-26 2019-02-26 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200106112A true KR20200106112A (ko) 2020-09-11
KR102219581B1 KR102219581B1 (ko) 2021-02-25

Family

ID=72472597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190022306A KR102219581B1 (ko) 2019-02-26 2019-02-26 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102219581B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090048262A (ko) 2007-11-09 2009-05-13 주식회사 유진로봇 다개체 상호 작용을 위한 로봇 컨트롤 시스템
KR101213464B1 (ko) * 2011-09-28 2012-12-18 (주)코텍 다면 입체영상 장치
KR20180015480A (ko) * 2016-08-03 2018-02-13 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090048262A (ko) 2007-11-09 2009-05-13 주식회사 유진로봇 다개체 상호 작용을 위한 로봇 컨트롤 시스템
KR101213464B1 (ko) * 2011-09-28 2012-12-18 (주)코텍 다면 입체영상 장치
KR20180015480A (ko) * 2016-08-03 2018-02-13 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법

Also Published As

Publication number Publication date
KR102219581B1 (ko) 2021-02-25

Similar Documents

Publication Publication Date Title
EP2584403A2 (en) Multi-user interaction with handheld projectors
US20110260965A1 (en) Apparatus and method of user interface for manipulating multimedia contents in vehicle
Ilias et al. A nurse following robot with high speed kinect sensor
Huy et al. See-through and spatial augmented reality-a novel framework for human-robot interaction
US20210217247A1 (en) Body pose message system
US20210208673A1 (en) Joint infrared and visible light visual-inertial object tracking
US20170017303A1 (en) Operation recognition device and operation recognition method
CN109982038A (zh) 显示声源位置的方法、装置及计算机设备
KR20230026503A (ko) 사회적 거리두기를 사용한 증강 현실 경험들
US20150355719A1 (en) Method and system enabling control of different digital devices using gesture or motion control
EP1315071A1 (en) User interface
JP2023536434A (ja) 融合データを使用するオブジェクトトラッキングのためのシステム及び方法
US20220155881A1 (en) Sensing movement of a hand-held controller
EP3147752A1 (en) An arrangement for providing a user interface
KR102219581B1 (ko) 전방향 상호작용 가능한 로봇의 얼굴 방향 제어 장치 및 방법
US20190121450A1 (en) Interactive display system and control method of interactive display
KR20170038461A (ko) 스마트 기기를 기반으로 한 감성 로봇 시스템 및 동작 모드 제어 방법
Diaz et al. Multimodal sensing interface for haptic interaction
JP2019153205A (ja) 投影システムとその制御方法及びプログラム
US10969863B2 (en) Configurable sensor array for a multi-target environment
WO2017033544A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US9131107B2 (en) Telepresence device communication and control system
TWI476678B (zh) 互動式模擬球體顯示系統
IT201900016094A1 (it) Dispositivo e metodo per il tracciamento di attivita’ nel tempo
CN115225682B (zh) 管理服务器、远程操作系统、远程操作方法以及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
G170 Publication of correction