KR101505078B1 - Method for providing quiz game service in movable robot and movable robot apparatus - Google Patents

Method for providing quiz game service in movable robot and movable robot apparatus Download PDF

Info

Publication number
KR101505078B1
KR101505078B1 KR1020130021133A KR20130021133A KR101505078B1 KR 101505078 B1 KR101505078 B1 KR 101505078B1 KR 1020130021133 A KR1020130021133 A KR 1020130021133A KR 20130021133 A KR20130021133 A KR 20130021133A KR 101505078 B1 KR101505078 B1 KR 101505078B1
Authority
KR
South Korea
Prior art keywords
correct answer
user
voice
unit
descriptor
Prior art date
Application number
KR1020130021133A
Other languages
Korean (ko)
Other versions
KR20140106891A (en
Inventor
고건
손연주
안기환
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020130021133A priority Critical patent/KR101505078B1/en
Priority to PCT/KR2013/006567 priority patent/WO2014133231A1/en
Publication of KR20140106891A publication Critical patent/KR20140106891A/en
Application granted granted Critical
Publication of KR101505078B1 publication Critical patent/KR101505078B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/18Question-and-answer games
    • A63F9/183Question-and-answer games electric
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/12Programme-controlled manipulators characterised by positioning means for manipulator elements electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/54Link editing before load time
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/243Detail of input, input devices with other kinds of input
    • A63F2009/2432Detail of input, input devices with other kinds of input actuated by a sound, e.g. using a microphone
    • A63F2009/2433Voice-actuated
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2448Output devices
    • A63F2009/245Output devices visual
    • A63F2009/2457Display screens, e.g. monitors, video displays
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2448Output devices
    • A63F2009/2479Other kinds of output
    • A63F2009/2482Electromotor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이동 로봇에서의 퀴즈 게임 서비스 제공 방법 및 이를 위한 이동 로봇에 관한 것이다. 본 발명에 따른, 이동 로봇에서 복수의 사용자에게 퀴즈 게임 서비스를 제공하는 방법은, 문제 설명자에게 화면이 노출된 위치에서, 문제를 상기 화면에 출력하는 첫 문제 출력 단계; 상기 출력중인 문제에 대한 정답 음성이 인식되는지 여부를 확인하는 정답 확인 단계; 상기 확인 결과 상기 정답 음성이 인식되면 이 정답 음성을 발화한 사용자를 문제 설명자로 재선정하고, 상기 재선정한 문제 설명자의 위치를 인식하는 위치 인식 단계; 상기 재선정한 문제 설명자에게 상기 화면이 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 이동하는 이동 단계; 및 상기 이동한 지역에서 다음 문제를 상기 화면에 출력하는 다음 문제 출력 단계를 포함한다.The present invention relates to a method of providing a quiz game service in a mobile robot and a mobile robot therefor. A method of providing a quiz game service to a plurality of users in a mobile robot according to the present invention includes a first problem output step of outputting a problem to a screen at a position where a screen is exposed to the problem descriptor; A correct answer confirming step of confirming whether a correct answer voice is recognized for the question being outputted; A location recognizing step of re-selecting a user who has uttered the correct answer voice as a problem descriptor and recognizing a position of the re-selected problem descriptor when the correct answer voice is recognized as the confirmation result; Moving to a position distant from the recognized position by a predetermined distance so that the screen is exposed to the re-selected problem descriptor; And a next problem output step of outputting the next problem on the screen in the moved area.

Description

이동 로봇에서의 퀴즈 게임 서비스 제공 방법 및 이를 위한 이동 로봇{METHOD FOR PROVIDING QUIZ GAME SERVICE IN MOVABLE ROBOT AND MOVABLE ROBOT APPARATUS}METHOD FOR PROVIDING QUIZ GAME SERVICE IN MOVABLE ROBOT AND MOVABLE ROBOT APPARATUS BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 이동 로봇 기술에 관한 것으로서, 더욱 상세하게는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법 및 이를 위한 이동 로봇에 관한 것이다.The present invention relates to a mobile robot technology, and more particularly, to a method of providing a quiz game service in a mobile robot and a mobile robot therefor.

이동 가능한 로봇이 개발되어 출시됨에 따라, 사용자들은 댁내에서도 이동 로봇을 이용할 수 있게 되었다. 이러한 이동 로봇은 터치 스크린 형태의 표시부, 스피커, 바퀴 등을 구동하여, 사용자의 조작에 따라 이동하거나 사용자가 지정한 콘텐츠를 표시부에 출력한다. 아래의 특허문헌은 이벤트 편집 기능을 가지는 교육용 이동 로봇에 대해서 개시하고 있다. As mobile robots are developed and released, users can use mobile robots at home. Such a mobile robot drives a touch screen type display unit, a speaker, a wheel, and the like, and moves according to a user's operation or outputs a content designated by the user to the display unit. The following patent document discloses an educational mobile robot having an event editing function.

그런데 종래의 이동 로봇은 다양한 콘텐츠를 사용자에게 제공하지 못하고, 단지 획일적인 서비스만을 사용자에게 제공하고 있는 문제점이 있다. 즉, 종래의 이동 로봇은 사용자의 명령에 따라 이동하거나, 인터넷에 연결되어 인터넷 게임을 실행하거나, IPTV와 같이 멀티미디어 콘텐츠를 화면에 출력하는 것이 주된 기능이다. 이에 따라, 사용자의 흥미를 유발할 수 있는 이동 로봇에 대한 서비스 연구가 계속되고 있다.However, the conventional mobile robot can not provide various contents to the users, and provides only uniform service to the users. That is, the conventional mobile robot has a main function to move according to a user's command, to connect to the Internet to play an Internet game, or to output multimedia contents such as IPTV to a screen. Accordingly, service research for a mobile robot that can cause a user's interest is continuing.

한국공개특허공보 10-2011-0026560호Korean Patent Publication No. 10-2011-0026560

본 발명은 이러한 종래의 문제점을 해결하기 위하여 제안된 것으로, 이동 로봇을 통하여 복수의 사용자들끼리 퀴즈 게임을 즐길 수 있는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법 및 이를 위한 이동 로봇을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been proposed in order to solve such conventional problems, and it is an object of the present invention to provide a method of providing a quiz game service in a mobile robot capable of enjoying a quiz game among a plurality of users through a mobile robot, have.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention will become apparent from the following description, and it will be understood by those skilled in the art that the present invention is not limited thereto. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

상기 목적을 달성하기 위한 본 발명의 제 1 측면에 따른, 이동 로봇에서 복수의 사용자에게 퀴즈 게임 서비스를 제공하는 방법은, 문제 설명자에게 화면이 노출된 위치에서, 문제를 상기 화면에 출력하는 첫 문제 출력 단계; 상기 출력중인 문제에 대한 정답 음성이 인식되는지 여부를 확인하는 정답 확인 단계; 상기 확인 결과 상기 정답 음성이 인식되면 이 정답 음성을 발화한 사용자를 문제 설명자로 재선정하고, 상기 재선정한 문제 설명자의 위치를 인식하는 위치 인식 단계; 상기 재선정한 문제 설명자에게 상기 화면이 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 이동하는 이동 단계; 및 상기 이동한 지역에서 다음 문제를 상기 화면에 출력하는 다음 문제 출력 단계를 포함하는 것을 특징으로 한다.According to a first aspect of the present invention, there is provided a method of providing a quiz game service to a plurality of users in a mobile robot, the method comprising the steps of: An output step; A correct answer confirming step of confirming whether a correct answer voice is recognized for the question being outputted; A location recognizing step of re-selecting a user who has uttered the correct answer voice as a problem descriptor and recognizing a position of the re-selected problem descriptor when the correct answer voice is recognized as the confirmation result; Moving to a position distant from the recognized position by a predetermined distance so that the screen is exposed to the re-selected problem descriptor; And a next problem output step of outputting the next problem on the screen in the moved area.

상기 목적을 달성하기 위한 본 발명의 제 2 측면에 따른 복수의 사용자에게 퀴즈 게임 서비스를 제공하는 이동 로봇은, 문제를 출력하는 표시부; 복수의 문제를 저장부; 상기 표시부를 문제 설명자에게 노출한 위치에서, 상기 저장부에서 문제를 추출하여 상기 표시부에 출력하는 문제 제공부; 상기 출력중인 문제에 대한 정답 음성이 인식되는지 여부를 확인하여 정답 음성이 인식되면, 이 정답 음성을 발화한 사용자를 정답자로 식별하는 정답 판정부; 및 정답 판정부에 의해 식별된 정답자를 문제 설명자로 재선정하여 상기 재선정한 문제 설명자의 위치를 인식하고, 상기 재선정한 문제 설명자에게 상기 표시부가 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 상기 이동 로봇을 이동시키는 설명자 선정부를 포함하고, 상기 문제 제공부는 재선정된 문제 설명자의 방향으로 상기 이동 로봇의 이동이 완료되면, 다음 문제를 상기 저장부에서 추출하여 상기 표시부에 출력하는 것을 특징으로 한다.According to a second aspect of the present invention, there is provided a mobile robot providing a quiz game service to a plurality of users, the mobile robot comprising: a display unit for outputting a question; Storing a plurality of problems; A problem-solving unit for extracting a problem from the storage unit at a location where the display unit is exposed to the problem descriptor and outputting the extracted problem to the display unit; A correct answer determining unit for determining whether a correct answer voice for the question in the output is recognized and, when a correct answer voice is recognized, a user who has uttered the correct answer voice as a correct answer; And re-selecting the correct answer identified by the correct answer determination section as a problem descriptor, recognizing the repositioned problem descriptor, and instructing the re-selected problem descriptor to a position spaced apart from the recognized position by a predetermined distance, And a descriptor selection unit for moving the mobile robot. When the movement of the mobile robot is completed in the direction of the reselected problem descriptor, the trouble provider extracts the next problem from the storage unit and outputs the extracted problem to the display unit .

상기 목적을 달성하기 위한 본 발명의 제 3 측면에 따른 복수의 사용자에게 퀴즈 게임 서비스를 제공하는 이동 로봇은, 문제를 출력하는 표시부; 복수의 문제를 저장부; 상기 이동 로봇의 왼쪽 측면과 오른쪽 측면에 각각 설치된 복수의 마이크; 상기 표시부를 문제 설명자에게 노출한 위치에서, 상기 저장부에서 문제를 추출하여 상기 표시부에 출력하는 문제 제공부; 상기 문제에 대한 정답 음성이 인식되는지 여부를 확인하여 정답 음성이 인식되면, 이 정답 음성을 발화한 사용자를 정답자로 식별하는 정답 판정부; 상기 복수의 마이크에서 수신한 상기 정답 음성의 주파수를 분석하여 상기 정답 음성의 발화 방향을 판단하는 음성방향 분석부; 및 상기 정답 판정부에 의해 식별된 정답자를 문제 설명자로 재선정하고, 상기 음성방향 분석부에서 분석한 상기 정답 음성의 발화 방향으로 촬영각도를 변경시켜 문제 설명자의 얼굴과 위치를 인식한 후, 상기 재선정한 문제 설명자에게 상기 표시부가 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 상기 이동 로봇을 이동시키는 설명자 선정부;를 포함하고, 상기 문제 제공부는 재선정된 문제 설명자의 방향으로 상기 이동 로봇의 이동이 완료되면, 다음 문제를 상기 저장부에서 추출하여 상기 표시부에 출력하는 것을 특징으로 한다.According to a third aspect of the present invention, there is provided a mobile robot for providing a quiz game service to a plurality of users, the mobile robot comprising: a display unit for outputting a problem; Storing a plurality of problems; A plurality of microphones mounted on left and right sides of the mobile robot, respectively; A problem-solving unit for extracting a problem from the storage unit at a location where the display unit is exposed to the problem descriptor and outputting the extracted problem to the display unit; A correct answer determining unit for determining whether a correct answer voice for the question is recognized and, when a correct answer voice is recognized, a user who has uttered the correct answer voice as a correct answer; A voice direction analyzer for analyzing a frequency of the correct answer voice received from the plurality of microphones to determine a speaking direction of the correct answer voice; And a face recognizing unit for recognizing the face of the problem descriptor and the position of the problem descriptor by changing the photographing angle in the speaking direction of the correct answer voice analyzed by the voice direction analyzing unit, And a descriptor selection unit for moving the mobile robot to a position distant from the recognized position by a predetermined distance so that the display unit is exposed to the selected problem descriptor, The control unit extracts the next problem from the storage unit, and outputs the extracted problem to the display unit.

본 발명은 사용자들이 이동 로봇을 이용하여 즐길 수 있는 퀴즈 게임 서비스를 구현함으로써, 이동 로봇의 서비스를 다양화시킬 뿐만 아니라 이동 로봇의 활용도를 상승시키는 장점이 있다.The present invention has the advantage of diversifying the service of the mobile robot and increasing the utilization of the mobile robot by implementing a quiz game service that users can enjoy using the mobile robot.

또한, 본 발명은 퀴즈 게임의 정답자 위치로 이동 로봇을 이동시키고 정답자로 하여금 다음 문제를 설명하도록 유도함으로써, 사용자의 흥미를 유발할 뿐만 아니라 사용자의 퀴즈 게임 몰입도를 향상시키는 효과도 있다.In addition, the present invention induces the mobile robot to move to the correct answer position of the quiz game and instructs the correct answer person to explain the next problem, thereby not only causing interest of the user but also improving the user's immersion level of the quiz game.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명을 실시하기 위한 구체적인 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른, 퀴즈 게임 서비스를 제공하는 이동 로봇의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른, 이동 로봇에서 퀴즈 게임 서비스를 사용자에게 제공하는 방법을 설명하는 흐름도이다.
도 3은 문제 설명자 앞에서 문제를 출력하는 이동 로봇을 나타내는 도면이다.
도 4는 본 발명의 다른 실시예에 따른, 이동 로봇의 구성을 나타내는 도면이다.
도 5는 본 발명의 다른 실시예에 따른, 이동 로봇에서 퀴즈 게임 서비스를 사용자에게 제공하는 방법을 설명하는 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate exemplary embodiments of the invention and, together with the description, serve to explain the principles of the invention. And shall not be construed as limited to such matters.
1 is a block diagram of a mobile robot providing a quiz game service according to an embodiment of the present invention.
2 is a flowchart illustrating a method of providing a quiz game service to a user in a mobile robot according to an embodiment of the present invention.
3 is a diagram showing a mobile robot that outputs a problem in front of a problem descriptor.
4 is a view showing a configuration of a mobile robot according to another embodiment of the present invention.
5 is a flowchart illustrating a method of providing a quiz game service to a user in a mobile robot according to another embodiment of the present invention.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하기로 한다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms "part,"" module, "and the like, which are described in the specification, refer to a unit for processing at least one function or operation, and may be implemented by hardware or software or a combination of hardware and software.

도 1은 본 발명의 일 실시예에 따른, 퀴즈 게임 서비스를 제공하는 이동 로봇의 구성을 나타내는 도면이다.1 is a block diagram of a mobile robot providing a quiz game service according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명에 따른 이동 로봇(100)은 카메라(101), 구동부(102), 저장부(103), 마이크(104), 표시부(105), 참여자 인식부(106), 설명자 선정부(107), 문제 제공부(108), 정답 판정부(109) 및 게임결과 제공부(110)를 포함한다.1, a mobile robot 100 according to the present invention includes a camera 101, a driving unit 102, a storage unit 103, a microphone 104, a display unit 105, a participant recognition unit 106, A descriptor selection unit 107, a problem provisioning unit 108, a correct answer determination unit 109, and a game result providing unit 110.

카메라(101)는 렌즈를 포함하고 이 렌즈를 이용하여 주변 영상을 촬영한다. 상기 카메라(101)는 회전 가능하며, 피사체를 확대하거나 축소하여 촬영할 수 있다.The camera 101 includes a lens and uses this lens to take a surrounding image. The camera 101 is rotatable, and the subject can be enlarged or reduced and photographed.

구동부(260)는 바퀴 등과 같은 이동 수단을 구비하고, 참여자 인식부(106) 또는 설명자 선정부(107)의 제어에 따라 이동 로봇(100)을 이동시킨다.The driving unit 260 includes a moving means such as a wheel and moves the mobile robot 100 under the control of the participant recognition unit 106 or the descriptor selection unit 107.

저장부(103)는 댁내의 공간별 좌표정보가 기록된 맵 데이터를 저장하고, 더불어 게임에 참여한 사용자별 위치정보를 저장한다. 또한, 저장부(103)는 문제 정보와 정답 정보가 함께 기록된 복수의 퀴즈 정보를 저장한다. 게다가, 저장부(103)는 얼굴 이미지, 음성 패턴과 성명이 사용자별로 매핑된 사용자 정보를 저장한다. The storage unit 103 stores map data in which coordinate information of each room is recorded, and stores position information for each user participating in the game. In addition, the storage unit 103 stores a plurality of quiz information in which the problem information and the correct answer information are recorded together. In addition, the storage unit 103 stores user information in which a face image, a voice pattern, and a name are mapped on a user-by-user basis.

마이크(104)는 사용자의 음성을 수신하는 마이크로폰으로서, 복수 개가 이동 로봇(100)에 탑재될 수 있다. 마이크(104)가 두 개인 경우, 제1마이크는 이동 로봇(100)의 왼쪽 측면에 설치되고, 제2마이크는 이동 로봇(100)의 오른쪽 측면에 설치된다.The microphone 104 is a microphone for receiving a voice of a user, and a plurality of microphones may be mounted on the mobile robot 100. When there are two microphones 104, the first microphone is installed on the left side of the mobile robot 100, and the second microphone is installed on the right side of the mobile robot 100.

표시부(105)는 액정 표시장치(LCD : Liquid Crystal Display), 유기 EL 디스플레이(organic electroluminescence display), LED(Light Emitting Diode) 등과 같은 디스플레이 수단으로서, 이동 로봇(100)에서 처리된 각종 정보를 디스플레이한다. 바람직하게, 표시부(105)는 터치 스크린으로서, 입력수단의 기능을 추가적으로 수행하여 사용자로부터 조작신호를 입력받는다. The display unit 105 displays various information processed by the mobile robot 100 as display means such as a liquid crystal display (LCD), an organic EL display (organic electroluminescence display), an LED (Light Emitting Diode) . Preferably, the display unit 105 is a touch screen, and further receives an operation signal from a user by performing a function of the input unit.

참여자 인식부(106)는 게임에 참여한 각 사용자를 인식하고, 각 사용자의 위치를 파악하는 기능을 수행한다. 구체적으로, 참여자 인식부(160)는 특정 사용자로부터 퀴즈게임 시작 요청이 수신되면, 카메라(101)를 회전시켜 게임에 참여한 각 사용자의 얼굴 이미지를 촬영한다. 참여자 인식부(106)는 상기 촬영한 각 사용자의 얼굴 이미지와 매핑된 사용자 성명을 저장부(103)의 사용자 정보에 각각 확인함으로써, 게임에 참여한 각 사용자를 인식한다. 게다가, 참여자 인식부(106)는 상기 촬영한 이미지상에서 각 사용자가 위치한 영역을 확인하고 각 사용자의 위치 영역을 저장부(103)의 맵 데이터와 비교하여 분석함으로써, 각각의 사용자가 위치한 공간상의 위치정보(즉, 좌표정보)를 확인하여, 사용자별 위치정보를 저장부(103)에 저장한다.The participant recognition unit 106 recognizes each user participating in the game and performs a function of grasping the position of each user. Specifically, the participant recognizing unit 160 rotates the camera 101 to capture a face image of each user participating in the game when a quiz game start request is received from a specific user. The participant recognizing unit 106 recognizes each user participating in the game by confirming the captured face image of each user and the user name mapped to the user information of the storage unit 103 respectively. In addition, the participant recognizing unit 106 identifies the area where each user is located on the photographed image, compares the position area of each user with the map data of the storage unit 103, (I.e., coordinate information), and stores the position information for each user in the storage unit 103. [

한편, 참여자 인식부(106)는 저장부(103)의 사용자 정보에 저장된 각 얼굴 이미지와 임계값 이상으로 일치하지 않은 얼굴 이미지가 촬영된 경우, 등록되지 않은 신규 사용자가 퀴즈 게임에 참여한 것으로 판단하여, 상기 신규 사용자로부터 음성과 성명을 입력받아, 상기 신규 사용자의 성명, 음성 패턴 및 이미 촬영한 신규 사용자의 얼굴 이미지를 매핑하여 저장부(103)의 사용자 정보에 저장한다. 즉, 참여자 인식부(106)는 게임에 참여한 사용자의 얼굴이 인식되지 않으면, 이 사용자의 성명, 음성 패턴 및 얼굴 이미지를 획득하여 저장부(103)의 사용자 정보에 저장한다.Meanwhile, when the participant recognition unit 106 captures a face image that does not coincide with the face image stored in the user information of the storage unit 103 by more than the threshold value, it is determined that the unregistered new user participates in the quiz game , Receives the voice and name from the new user, maps the name of the new user, the voice pattern, and the face image of the new user that has already been photographed, and stores it in the user information of the storage unit 103. That is, if the face of the user participating in the game is not recognized, the participant recognition unit 106 acquires the name, the voice pattern, and the face image of the user and stores it in the user information of the storage unit 103.

설명자 선정부(107)는 문제 설명자를 선정하고, 구동부(102)를 제어하여 선정한 문제 설명자와 일정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(100)을 이동시킨다. 즉, 설명자 선정부(107)는 저장부(103)의 사용자별 위치정보를 토대로, 문제 설명자의 위치정보를 확인하고, 구동부(102)를 제어하여 상기 문제 설명자와 일정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(100)을 이동시킨다. 바람직하게, 설명자 선정부(107)는 문제가 출력되는 이동 로봇(100)의 표시부(105)를 상기 문제 설명자에게만 노출되도록, 구동부(102)를 제어하여 이동 로봇(100)을 상기 문제 설명자 정면에 위치시킨다. The descriptor selection unit 107 selects a problem descriptor and controls the driving unit 102 to move the mobile robot 100 to a position spaced a predetermined distance (for example, 20 cm) from the selected problem descriptor. That is, the descriptor selection unit 107 confirms the position information of the problem descriptor based on the user-specific position information of the storage unit 103 and controls the driving unit 102 to separate the problem descriptor from the problem descriptor by a certain distance And moves the mobile robot 100 to a position where the robot 100 is positioned. Preferably, the descriptor selection unit 107 controls the driving unit 102 so that the display unit 105 of the mobile robot 100 on which the problem is outputted is exposed only to the problem descriptor, and the mobile robot 100 is displayed on the front face of the problem descriptor .

한편, 설명자 선정부(107)는 첫 번째 문제가 출력되기 전인 경우, 이동 로봇(100)의 정면 가까이에 위치한 사용자를 문제 설명자로 선정할 수 있으며, 게임에 참여한 사용자 중에서 무작위로 문제 설명자를 선정할 수 있다. 또한, 설명자 선정부(107)는 문제에 대한 정답을 맞힌 사용자를 퀴즈 설명자로서 재선정하고, 상기 재선정한 퀴즈 설명자의 위치 정보를 저장부(103)에서 확인한 후, 구동부(102)를 제어하여 상기 재선정한 문제 설명자와 일정 거리(예컨대, 20cm) 이격된 장소로 이동 로봇(100)을 이동시킨다. Meanwhile, the descriptor selection unit 107 may select a user located near the front of the mobile robot 100 as a problem descriptor before the first problem is output, and may select a problem descriptor randomly among users participating in the game . The descriptor selection unit 107 re-determines the correct user as a quiz descriptor, checks the position information of the re-selected quiz descriptor in the storage unit 103, and then controls the driving unit 102 And moves the mobile robot 100 to a place separated from the selected problem descriptor by a predetermined distance (for example, 20 cm).

문제 제공부(108)는 이동 로봇(100)이 문제 설명자와 일정 거리 이격된 장소에 위치하면, 저장부(103)에 저장된 복수의 문제 중에서 어느 하나의 문제를 추출하여 표시부(105)에 출력함으로써, 퀴즈 게임이 사용자들 간에 진행되게 한다. When the mobile robot 100 is located at a position spaced apart from the problem descriptor by a certain distance, the trouble remover 108 extracts any one of the plurality of problems stored in the storage unit 103 and outputs the extracted problem to the display unit 105 , Causing the quiz game to proceed between users.

정답 판정부(109)는 사용자의 음성을 인식하는 음성인식 모듈(109a)을 포함하고, 상기 음성인식 모듈(109a)을 이용하여 문제 설명자를 제외한 사용자들 중에서 정답을 발화한 사용자를 식별하는 기능을 수행한다. 구체적으로, 정답 판정부(109)는 표시부(105)에 출력중인 문제에 대한 정답을 저장부(103)에서 확인하고, 이 정답과 일치하는 음성이 마이크(104)에서 수신되는지 여부를 음성인식 모듈(109a)을 이용하여 지속적으로 모니터링한다. 바람직하게, 정답 판정부(109)는 문제 설명자의 음성 패턴을 저장부(103)에서 확인하고, 상기 문제 설명자의 음성 패턴을 제외한 다른 사용자의 음성을 지속적으로 모니터링한다. 정답 판정부(109)는 음성인식 모듈(109a)을 통해 상기 정답과 일치하는 음성이 인식되면, 이 음성의 패턴과 임계값(예컨대, 70%) 이상으로 일치하는 음성 패턴과 매핑된 사용자 성명을 저장부(103)에서 확인하고, 이 사용자에 대한 정답 횟수를 '1' 증가시키거나 퀴즈 점수를 증가시킨다.The correct answer determining section 109 includes a speech recognition module 109a for recognizing the user's voice and uses the speech recognition module 109a to identify a user who has uttered the correct answer out of the users other than the problem descriptor . Specifically, the correct answer determining section 109 confirms the correct answer to the question being outputted to the display section 105 in the storage section 103, and determines whether or not the voice corresponding to the correct answer is received from the microphone 104, Lt; RTI ID = 0.0 > 109a. ≪ / RTI > The correct answer determination section 109 preferably confirms the speech pattern of the problem descriptor in the storage section 103 and continuously monitors the voice of another user except the speech pattern of the problem descriptor. When the voice corresponding to the correct answer is recognized through the voice recognition module 109a, the correct answer determining section 109 compares the voice pattern matched with the pattern of the voice to a threshold value (for example, 70%) or more and a user name mapped And the number of correct answers for this user is increased by '1' or the quiz score is increased.

게임결과 제공부(110)는 마지막 문제의 풀이가 완료되면, 사용자별 정답 횟수 또는 퀴즈 점수를 확인하고, 이렇게 확인된 사용자별 정답 횟수 또는 퀴즈 점수를 현재 날짜와 시간과 함께 저장부(103)에 저장한다. 또한, 게임결과 제공부(110)는 사용자별 정답 횟수 또는 퀴즈 점수를 표시부(105)에 출력함으로써, 퀴즈 게임 결과를 복수의 사용자에게 인지시킨다. When the last question is solved, the game result providing unit 110 confirms the number of correct answers or the number of quizzes per user, and stores the number of correct answers or the number of quizzes perceived by the user in the storage unit 103 together with the current date and time . Also, the game result providing unit 110 outputs the number of correct answers or quiz scores per user to the display unit 105, thereby recognizing the quiz game results to a plurality of users.

도 2는 본 발명의 일 실시예에 따른, 이동 로봇에서 퀴즈 게임 서비스를 사용자에게 제공하는 방법을 설명하는 흐름도이다.2 is a flowchart illustrating a method of providing a quiz game service to a user in a mobile robot according to an embodiment of the present invention.

도 3은 문제 설명자 앞에서 문제를 출력하는 이동 로봇을 나타내는 도면이다.3 is a diagram showing a mobile robot that outputs a problem in front of a problem descriptor.

도 2 및 도 3을 참조하면, 이동 로봇(100)은 게임에 참여한 복수의 사용자 중에서 어느 한 사용자로부터 퀴즈게임 시작 요청을 수신한다(S201).Referring to FIGS. 2 and 3, the mobile robot 100 receives a quiz game start request from any one of a plurality of users participating in the game (S201).

그러면, 참여자 인식부(106)는 카메라(101)를 일정 방향(예컨대, 시계방향 또는 반시계 방향)으로 회전시켜 게임에 참여한 각 사용자의 이미지를 순차적으로 촬영하여, 각 사용자의 얼굴 이미지를 획득한다(S203). 또는, 참여자 인식부(106)는 구동부(102)를 제어하여 이동 로봇(100)을 360°회전시켜, 게임에 참여한 사용자들의 얼굴을 순차적으로 촬영하여 각 사용자의 얼굴 이미지를 획득할 수도 있다. 바람직하게, 참여자 인식부(106)는 카메라(101)를 통해 촬영한 전체 이미지에서 사용자별 얼굴 영역을 확대하여 임시 저장함으로써, 각각의 사용자의 얼굴 이미지를 획득할 수 있다.Then, the participant recognizing unit 106 sequentially rotates the camera 101 in a predetermined direction (e.g., clockwise or counterclockwise) to sequentially capture images of the users participating in the game, and acquires the face images of the respective users (S203). Alternatively, the participant recognizing unit 106 may control the driving unit 102 to rotate the mobile robot 100 by 360 degrees, sequentially capture the faces of the users participating in the game, and acquire a face image of each user. Preferably, the participant recognizing unit 106 may acquire a face image of each user by enlarging and temporarily storing a face region for each user in the entire image captured through the camera 101. [

이어서, 참여자 인식부(106)는 상기 촬영한 각 사용자의 얼굴 이미지와 임계값 이상(예컨대, 70%)으로 일치하는 얼굴 이미지가 저장부(103)의 사용자 정보에 저장되어 있는지 여부를 얼굴 이미지별로 확인한다(S205). 즉, 참여자 인식부(106)는 게임에 참여한 사용자의 얼굴 이미지가 사전에 저장부(103)에 등록되어 있는지 여부를 확인한다.Then, the participant recognizing unit 106 determines whether or not the face image matching the captured face image of the user with a threshold value (for example, 70%) is stored in the user information of the storage unit 103 (S205). That is, the participant recognizing unit 106 confirms whether the face image of the user participating in the game is registered in the storage unit 103 in advance.

이어서, 참여자 인식부(106)는 저장부(103)의 사용자 정보에 저장된 각 얼굴 이미지와 임계값 이상으로 일치하지 않은 얼굴 이미지가 촬영된 경우, 등록되지 않은 신규 사용자가 퀴즈 게임에 참여한 것으로 판단하여, 이 사용자의 정보 입력을 요청하는 메시지를 표시부(105)에 출력한다. 그리고 참여자 인식부(106)는 상기 신규 사용자의 성명과 음성을 마이크(104)와 입력수단(예컨대, 터치스크린)을 통해 입력받고, 상기 음성을 분석하여 신규 사용자의 음성의 고저, 주파수 등의 음성 패턴을 확인한 후, 신규 사용자의 성명, 음성 패턴 및 상기 촬영한 신규 사용자의 얼굴 이미지를 매핑하여 저장부(103)의 사용자 정보에 저장g함으로써 신규 사용자의 등록을 완료한다(S207).Then, when the participant recognizing unit 106 photographs a face image that does not coincide with the face image stored in the user information of the storage unit 103 by more than the threshold value, it is determined that the unregistered new user participates in the quiz game , And outputs to the display unit 105 a message requesting the user to input information. Then, the participant recognizing unit 106 receives the name and voice of the new user through the microphone 104 and input means (e.g., a touch screen), analyzes the voice, and outputs a voice of a new user's voice, After the pattern is confirmed, the name of the new user, the voice pattern, and the captured face image of the new user are mapped and stored in the user information of the storage unit 103 to complete the registration of the new user (S207).

참여자 인식부(106)는 상기 촬영한 각 사용자의 얼굴 이미지가 저장부(103)의 사용자 정보에 등록되거나 신규 사용자의 등록이 완료된 경우, 각각의 얼굴 이미지와 매핑된 사용자 성명을 저장부(103)의 사용자 정보에서 각각 확인함으로써, 게임 참여자를 식별한다. 다음으로, 참여자 인식부(106)는 상기 촬영한 이미지상에서 각 사용자가 위치한 영역을 확인하고, 이렇게 확인한 사용자별 위치 영역을 저장부(103)의 맵 데이터와 비교하여 분석함으로써, 각각의 사용자가 위치한 공간상의 위치정보(즉, 좌표정보)를 확인하여 저장부(103)에 저장한다(S209). The participant recognition unit 106 stores the user name mapped to each face image in the storage unit 103 when the photographed face image of the user is registered in the user information of the storage unit 103 or the registration of the new user is completed, And identifies the participant of the game. Next, the participant recognizing unit 106 confirms the area where each user is located on the photographed image, and analyzes the positional area for each user, which is thus verified, by comparing with the map data of the storage unit 103, (I.e., coordinate information) on the space and stores it in the storage unit 103 (S209).

다음으로, 참여자 인식부(106)는 설명자 선정부(107)로 퀴즈 게임 진행을 지시한다. Next, the participant recognition unit 106 instructs the descriptor selection unit 107 to proceed with the quiz game.

그러면, 설명자 선정부(107)는 게임에 참여한 사용자 중에서 어느 한 사용자를 문제 설명자로 선정한다(S211). 이때, 설명자 선정부(107)는 자신의 정면(즉, 카메라 정면) 가까이에 위치한 사용자를 문제 설명자로 선정할 수 있으며, 또는 복수의 사용자 중에서 어느 한 사용자를 문제 설명자로서 임의로 선정할 수 있다.Then, the descriptor selection unit 107 selects one of the users participating in the game as a problem descriptor (S211). At this time, the descriptor selection unit 107 can select a user located near the front (i.e., camera front) of the user as a problem descriptor, or arbitrarily select any one of a plurality of users as a problem descriptor.

이어서, 설명자 선정부(107)는 저장부(103)에 저장된 사용자별 위치정보를 토대로 상기 선정한 문제 설명자의 위치정보를 확인하고, 구동부(102)를 제어하여 상기 문제 설명자와 일정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(100)을 이동시킨다. 이때, 설명자 선정부(107)는 문제가 출력되는 이동 로봇(100)의 표시부(105)를 상기 사용자에서만 노출되도록, 구동부(102)를 제어하여 이동 로봇(100)을 상기 문제 설명자 정면에 위치시킨다. 도 3의 (a)를 참조하여 예를 들어 설명하면, 설명자 선정부(107)는 참조부호 31의 사용자를 문제 설명자로 선정한 경우, 이동 로봇(100)의 화면(즉, 표시부)이 문제 설명자(31)에게만 노출되도록, 구동부(102)를 제어하여 상기 문제 설명자(31)와 일정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(100)을 위치시킨다.Next, the descriptor selection unit 107 confirms the position information of the selected problem descriptor on the basis of the user-specific position information stored in the storage unit 103, and controls the driving unit 102 to set a distance To move the mobile robot 100 to a position spaced apart. At this time, the descriptor selection unit 107 controls the driving unit 102 to position the mobile robot 100 on the front face of the problem descriptor so that the display unit 105 of the mobile robot 100 outputting the problem is exposed only to the user . 3 (a), the descriptor selection unit 107 selects a user as a problem descriptor, and the screen of the mobile robot 100 (that is, the display unit) The mobile robot 100 is moved to a position spaced apart from the problem descriptor 31 by a predetermined distance (for example, 20 cm) by controlling the driving unit 102 so that the mobile robot 100 is exposed only to the user.

설명자 선정부(107)는 이렇게 이동 로봇(100)을 문제 설명자에게 이동시킨 다음, 문제 제공부(108)로 문제 제공을 요청한다. The descriptor selection unit 107 moves the mobile robot 100 to the problem descriptor, and then requests the problem provision unit 108 to provide a problem.

그러면, 문제 제공부(108)는 저장부(103)에 저장된 복수의 문제 중에서 어느 하나의 문제를 추출하여 표시부(105)에 출력한다(S213). 상기 문제는 단어 자체일 수 있으며, 또한 정답을 설명한 의문문 문장일 수 있으며, 사람/동물 등의 이미지일 수도 있다. 부연하면, 상기 문제가 단어 또는 이미지일 경우, 문제 설명자는 단어 또는 이미지(예컨대, 동물 등)를 다른 사용자에게 설명하여 문제에 대한 정답을 요구한다. 또한, 상기 문제가 정답을 설명한 의문문의 문장인 경우, 문제 설명자는 표시부(105)에 출력된 문장을 읽음으로써, 다른 사용자에게 문제 풀이를 요구할 수 있다.Then, the trouble provider (108) extracts any one of the plurality of problems stored in the storage unit (103) and outputs the extracted problem to the display unit (105) (S213). The problem may be a word itself, a sentence describing the correct answer, or an image of a person / animal. In addition, if the problem is a word or an image, the problem descriptor describes the word or image (e.g., an animal, etc.) to another user and asks for the correct answer to the problem. In addition, when the above problem is a sentence of a question text explaining the correct answer, the problem descriptor can request another user to solve the problem by reading the sentence output to the display unit 105. [

도 3의 (b)를 참조하여 예를 들어 설명하면, 문제 제공부(108)는 문제 설명자(즉, 참조 부호 31의 사용자)에게만 노출되는 '나비'라는 단어를 표시부(105)에 출력한다. 그러면, 문제 설명자는 상기 '나비' 단어를 다른 사용자(32, 33, 34)가 설명하여 다른 사용자(32, 33, 34)가 정답(즉, 나비)을 발성하도록 유도한다.Referring to FIG. 3 (b), for example, the trouble remover 108 outputs the word "butterfly" to the display unit 105, which is exposed only to the problem descriptor (ie, user 31). The problem descriptor then causes the other user 32, 33, 34 to describe the word "butterfly" so that the other user 32, 33, 34 speaks the correct answer (ie, the butterfly).

이렇게 표시부(105)에 문제가 출력되면, 정답 판정부(109)는 표시부(105)에 출력중인 문제에 대한 정답을 저장부(103)에서 확인하고, 이 정답과 일치하는 음성이 인식되는지 여부를 음성인식 모듈(109a)을 이용하여 지속적으로 모니터링함으로써, 정답과 일치하는 음성이 인식되는지 여부를 판별한다(S215, S217). 바람직하게, 정답 판정부(109)는 문제 설명자의 음성 패턴을 저장부(103)에서 확인하고, 상기 문제 설명자의 음성 패턴을 제외한 다른 사용자의 음성을 지속적으로 모니터링한다.When a problem is output to the display unit 105 in this way, the correct answer determination unit 109 confirms the correct answer to the question being output to the display unit 105 in the storage unit 103, and determines whether or not the speech that matches the correct answer is recognized It is continuously monitored by using the speech recognition module 109a to determine whether or not a voice corresponding to the correct answer is recognized (S215, S217). The correct answer determination section 109 preferably confirms the speech pattern of the problem descriptor in the storage section 103 and continuously monitors the voice of another user except the speech pattern of the problem descriptor.

정답 판정부(109)는 음성인식 모듈(109a)을 통해 상기 정답과 일치하는 음성이 인식되면, 이 음성의 패턴과 임계값(예컨대, 70%) 이상으로 일치하는 음성 패턴을 저장부(103)의 사용자 정보에서 확인한다. 그리고 정답 판정부(109)는 상기 확인된 음성 패턴과 매핑된 사용자의 성명을 저장부(103)의 사용자 정보에서 확인함으로써, 상기 정답을 발화한 사용자(즉, 정답자)를 식별한다(S219). 이때, 정답 판정부(109)는 상기 식별한 사용자가 정답을 맞힌 사용자임을 알리는 음성 메시지를 스피커(도면에 도시되지 않음)로 출력할 수 있다.The correct answer determining section 109 recognizes the voice pattern matching the correct answer with the voice recognition module 109a and stores the voice pattern matching the pattern of the voice with a threshold value (for example, 70% or more) In the user information of the user. In step S219, the correct answer determining unit 109 identifies the user who has uttered the correct answer (i.e., the correct answer) by confirming the name of the user mapped with the confirmed voice pattern in the user information of the storage unit 103. [ At this time, the correct answer determining unit 109 may output a voice message to the speaker (not shown) notifying that the identified user is the correct user.

다음으로, 정답 판정부(109)는 상기 식별한 사용자의 정답 횟수를 '1' 증가시킨다(S221). 또는, 정답 판정부(109)는 상기 식별한 사용자의 퀴즈 점수를 해당 문제에 배정된 점수만큼 증가시킬 수도 있다. 다음으로, 정답 판정부(109)는 사전에 설정된 퀴즈 횟수에 근거하여 정답 처리된 문제가 마지막 문제인지 여부를 확인하여(S223), 마지막 문제이면 게임결과 제공부(110)로 게임 결과 출력을 지시한다.Next, the correct answer determining section 109 increases the number of correct answers of the identified user by '1' (S221). Alternatively, the correct answer determination unit 109 may increase the quiz score of the identified user by the score assigned to the question. Next, the correct answer determining unit 109 checks whether the correct answer is the last question based on the preset number of quizzes (S223). If the question is the last question, the correct answer determining unit 109 instructs the game result providing unit 110 to output the game result do.

그러면, 게임결과 제공부(110)는 사용자별 정답 횟수 또는 퀴즈 점수를 확인하고(S225), 이렇게 확인된 사용자별 정답 횟수 또는 퀴즈 점수를 현재 날짜와 시간과 함께 저장부(103)에 저장한다. 그리고 게임결과 제공부(110)는 사용자별 정답 횟수 또는 퀴즈 점수를 표시부(105)에 출력함으로써, 퀴즈 게임 결과를 복수의 사용자에게 인지시킨다(S227). 이때, 게임결과 제공부(110)는 정답 횟수가 가장 많은 사용자 또는 퀴즈 점수가 가장 높은 사용자가 1등임을 알리는 음성 메시지를 스피커(도면에 도시되지 않음)로 출력할 수 있다. Then, the game result providing unit 110 confirms the number of correct answers or the number of quizzes per user (S225), and stores the confirmed number of correct answers or the quiz score per user in the storage unit 103 together with the current date and time. Then, the game result providing unit 110 outputs the number of correct answer or quiz score per user to the display unit 105, thereby recognizing the quiz game result to a plurality of users (S227). At this time, the game result providing unit 110 may output a voice message to the speaker (not shown) informing that the user having the highest number of correct answers or the user having the highest quiz score is the first speaker.

반면에, S223 단계에서, 정답 판정부(109)는 정답 처리된 문제가 마지막 문제가 아니면, 정답자로 식별된 사용자의 성명을 설명자 선정부(107)로 전달하여 문제 설명자의 재선정을 설명자 선정부(107)로 요청한다. On the other hand, in step S223, if the correct answer is not the last question, the correct answer determination unit 109 transmits the name of the user identified as the correct answer to the descriptor selection unit 107, (107).

그러면, 설명자 선정부(107)는 상기 정답 판정부(109)로부터 전달받은 사용자의 성명을 확인하고, 이 사용자(즉, 정답자)를 퀴즈 설명자로 재선정한다(S229). 이어서, 설명자 선정부(107)는 상기 재선정한 퀴즈 설명자의 위치 정보를 저장부(103)에서 확인한다(S231). 다음으로, 설명자 선정부(107)는 구동부(102)를 제어하여 상기 재선정한 문제 설명자와 일정 거리(예컨대, 20cm) 이격된 장소로 이동 로봇(100)을 이동시킨다(S233). 이때, 설명자 선정부(107)는 문제가 출력되는 이동 로봇(100)의 표시부(105)를 재선정한 문제 설명자에게만 노출되도록, 구동부(102)를 제어하여 이동 로봇(100)을 상기 재선정한 문제 설명자 정면에 위치시킨다. 바람직하게, 설명자 선정부(107)는 상기 재선정한 문제 설명자의 위치정보를 토대로, 재선정한 문제 설명자의 방향으로 이동 로봇(100)이 바라보도록 상기 구동부(102)를 제어하여 이동 로봇(100)을 회전시킨 다음, 재선정한 문제 설명자의 위치와 소정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(100)을 이동시킨다.Then, the descriptor selection unit 107 confirms the name of the user received from the correct answer determination unit 109, and re-selects the user (i.e., correct answer) as a quiz descriptor (S229). Then, the descriptor selection unit 107 confirms the position information of the re-selected quiz descriptor in the storage unit 103 (S231). Next, the descriptor selection unit 107 controls the driving unit 102 to move the mobile robot 100 to a position spaced a certain distance (for example, 20 cm) from the re-selected problem descriptor (S233). At this time, the descriptor selection unit 107 controls the driving unit 102 so as to expose the mobile robot 100 to the re-selected problem descriptor so as to be exposed only to the problem descriptor of the display unit 105 of the mobile robot 100, Place it on the front. Preferably, the descriptor selection unit 107 controls the driving unit 102 so that the mobile robot 100 looks in the direction of the re-selected problem descriptor based on the position information of the re-selected problem descriptor, And then moves the mobile robot 100 to a position spaced apart from the position of the re-selected problem descriptor by a predetermined distance (for example, 20 cm).

도 3의 (b)를 참조하여 예를 들어 설명하면, 정답 판정부(109)는 참조부호 32의 사용자가 정답 '나비'를 발화한 경우, 이 사용자(32)가 정답자인 것으로 인식한다. 그러면, 설명자 선정부(107)는 상기 정답자(32)를 문제 설명자로 재선정하고, 이 정답자(32)의 위치정보를 저장부(103)의 사용자별 위치정보에서 확인한다. 그리고 설명자 선정부(107)는 구동부(102)를 제어하여, 재선정한 문제 설명자의 위치와 소정 거리(예컨대, 20cm) 이격된 위치(즉, 참조부호 40 지점)로 이동 로봇(100)을 이동시킨다.Referring to FIG. 3B, the correct answer determining unit 109 recognizes that the user 32 is the correct answer when the user 32 has uttered the correct answer "NAVIGATION". Then, the descriptor selection unit 107 re-selects the correct answer 32 as a problem descriptor, and confirms the position information of the correct answer 32 from the user-specific position information of the storage unit 103. [ The descriptor selection unit 107 controls the driving unit 102 to move the mobile robot 100 to a position spaced apart by a predetermined distance (for example, 20 cm) from the position of the re-selected problem descriptor .

이동 로봇(100)의 이동이 완료되면, 설명자 선정부(107)는 문제 제공부(108)로 문제 출력을 지시하고, 이전에 출력된 문제와 다른 문제를 저장부(103)에서 추출하여 표시부(105)에 출력한다(S235). When the movement of the mobile robot 100 is completed, the descriptor selection unit 107 instructs the problem provision unit 108 to output a problem, extracts a problem other than the previously outputted problem from the storage unit 103, 105 (S235).

그러면, 정답 판정부(109)는 표시부(105)에 출력중인 문제에 대한 정답을 저장부(103)에서 확인하고, 이 정답과 일치하는 음성이 인식되는지 여부를 음성인식 모듈(109a)을 이용하여 지속적으로 모니터링하는 S215 단계를 재진행한다.Then, the correct answer determining section 109 confirms the correct answer to the question being outputted to the display section 105 in the storage section 103, and whether or not the voice corresponding to the correct answer is recognized is determined by using the speech recognition module 109a The process proceeds to step S215 where the monitoring is continuously performed.

한편, 본 발명에 따른 이동 로봇(100)은 정답자의 음성 위상과 강도를 분석하여, 정답자의 위치를 확인할 수도 있다.Meanwhile, the mobile robot 100 according to the present invention may analyze the voice phase and intensity of the correct answer person to check the position of the correct answer person.

도 4는 본 발명의 다른 실시예에 따른, 이동 로봇의 구성을 나타내는 도면이다.4 is a view showing a configuration of a mobile robot according to another embodiment of the present invention.

도 4에 기재된 구성요소들 중에서, 도 1의 동일한 참조부호를 가지는 구성요소는 도 1 및 도 2를 참조하여 설명한 구성요소와 동일한 기능을 수행한다. 따라서 도 4에 기재된 구성요소들 중에서 도 1과 다른 참조부호를 가지는 구성요소들에 대해서만 설명하기로 한다.Among the constituent elements shown in Fig. 4, the constituent elements having the same reference numerals in Fig. 1 perform the same functions as the constituent elements explained with reference to Fig. 1 and Fig. Therefore, only the components having the reference numerals different from those of FIG. 1 will be described among the components shown in FIG.

도 4를 참조하면, 본 발명의 다른 실시예에 따른 이동 로봇(400)은 카메라(101), 구동부(102), 저장부(103), 마이크(104), 표시부(105), 음성방향 분석부(406), 설명자 선정부(407), 문제 제공부(108), 정답 판정부(109) 및 게임결과 제공부(110)를 포함한다.4, a mobile robot 400 according to another embodiment of the present invention includes a camera 101, a driving unit 102, a storage unit 103, a microphone 104, a display unit 105, A descriptor selection unit 407, a problem provisioning unit 108, a correct answer determination unit 109, and a game result providing unit 110. [

음성방향 분석부(406)는 음성인식 모듈(109a)과 연동하여 정답으로 인식된 음성의 주파수, 위상 및 강도를 분석하여 정답 음성이 발화된 방향을 확인한다. 구체적으로, 음성방향 분석부(406)는 음성인식 모듈(109a)에서 인식된 정답 음성의 주파수 영역을 확인하고, 정답 음성이 고주파수(예컨대, 3000Hz 이상인 주파수)이면 양쪽 측면에 구비된 각 마이크(104)에서 수신된 상기 정답 음성의 세기 차이를 산출한다. 아울러, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크의 음성 세기의 차이가 사전에 설정된 임계세기 이상이면, 음성 세기가 더 크게 수신된 마이크(왼쪽 또는 오른쪽) 방향이 정답 음성이 발화된 방향인 것으로 판단하고, 이렇게 판단된 정답음성 방향 정보를 설명자 선정부(407)로 전달한다. 반면에, 음성방향 분석부(406)는 두 마이크(104)에서 수신된 정답 음성 세기의 차이가 사전에 설정된 임계세기 미만이면, 정답 음성이 발화된 방향이 이동 로봇(400)의 뒤쪽 방향인 것으로 판단하여, 뒤쪽 방향 정보를 설명자 선정부(407)로 전달한다.The voice direction analyzing unit 406 analyzes the frequency, phase, and strength of the voice recognized as a correct answer in conjunction with the voice recognition module 109a to confirm the direction in which the correct answer voice is uttered. Specifically, the voice direction analyzing unit 406 identifies the frequency region of the correct answer voice recognized by the voice recognition module 109a. If the correct answer voice is a high frequency (e.g., a frequency of 3000 Hz or more), each microphone 104 The difference of the strength of the right answer voice received at the right ear speaker. In addition, if the difference between the right and left microphones is greater than or equal to a preset threshold value, the voice direction analyzer 406 determines that the direction of the microphone (left or right) And transmits the determined correct voice direction information to the descriptor selection unit 407. [ On the other hand, if the difference between the right speech strengths received from the two microphones 104 is less than a predetermined threshold strength, the speech direction analyzing unit 406 determines that the direction in which the correct answer speech is the backward direction of the mobile robot 400 And transmits the backward direction information to the descriptor selection unit 407. [

또한, 음성방향 분석부(406)는 음성인식 모듈(109a)에서 인식된 정답 음성이 저주파수(예컨대, 1500Hz 이하인 주파수)이면, 오른쪽 마이크와 왼쪽 마이크에서 정답 음성이 수신된 시간 차이(즉, 위상차)를 산출하고, 상기 산출한 시간 차이가 사전에 설정된 임계시간(예컨대, 0.8 밀리미터 초) 미만인지 여부를 확인한다. 아울러, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크에서 정답 음성이 수신한 시간 차가 사전에 설정된 임계시간 이상이면, 상기 정답 음성이 먼저 수신된 마이크의 방향이 정답 음성이 발화된 방향인 것으로 판단하고 이렇게 판단된 정답음성 방향 정보를 설명자 선정부(407)로 전달한다. 반면에, 음성방향 분석부(406)는 왼쪽 마이크(104)와 오른쪽 마이크에서 정답 음성이 수신한 시간 차가 사전에 설정된 임계시간 미만이면 정답 음성이 발화된 방향이 이동 로봇(400)의 뒤쪽 방향인 것으로 판단하여, 뒤쪽 방향 정보를 설명자 선정부(407)로 전달한다.The voice direction analyzing unit 406 analyzes the time difference (that is, the phase difference) when the right answer voice is received from the right microphone and the left microphone when the correct answer voice recognized by the voice recognition module 109a is a low frequency (for example, And checks whether the calculated time difference is less than a predetermined threshold time (for example, 0.8 millimeter seconds). If the time difference between the right microphone and the right microphone received by the right microphone is greater than or equal to a preset threshold time, the direction of the microphone in which the correct answer is first received is the direction in which the correct answer is uttered And transmits the determined correct voice direction information to the descriptor selection unit 407. On the other hand, if the time difference between the left microphone 104 and the right microphone received by the right voice is less than a predetermined threshold time, the voice direction analyzing unit 406 determines that the direction in which the correct voice is uttered is the backward direction of the mobile robot 400 And transmits the backward direction information to the descriptor selection unit 407. [

한편, 음성방향 분석부(406)는 정답으로 인식된 음성이 중간 주파수(예컨대, 1500Hz 초과하고 3000Hz 미만인 주파수)에 해당하면, 방향 확인이 불가능함을 알리는 메시지를 설명자 선정부(407)로 전달한다.On the other hand, if the voice recognized as a correct answer corresponds to an intermediate frequency (for example, a frequency exceeding 1500 Hz and less than 3000 Hz), the voice direction analyzing unit 406 transmits a message to the descriptor selection unit 407 indicating that direction confirmation is impossible .

설명자 선정부(407)는 문제 설명자를 선정하고, 카메라(101)에서 촬영된 영상과 음성방향 분석부(406)로부터 수신한 정답음성 방향 정보를 토대로, 문제 설명자의 위치를 인식하여 상기 선정한 문제 설명자와 일정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(400)을 이동시킨다. The descriptor selection unit 407 selects the problem descriptor and recognizes the position of the problem descriptor based on the video shot by the camera 101 and the correct voice direction information received from the voice direction analysis unit 406, And moves the mobile robot 400 to a position spaced apart by a predetermined distance (for example, 20 cm).

구체적으로, 설명자 선정부(407)는 정답자를 문제 설명자로 재선정하고, 음성방향 분석부(406)로부터 전달받은 정답음성 방향 정보에 근거하여 카메라(101)를 정답음성 방향(즉, 재선정한 문제 설명자의 방향)으로 회전시켜 카메라(101)의 촬영각도를 문제 설명자의 방향으로 변경하고, 상기 카메라(101)를 통해 재선정한 문제 설명자의 얼굴을 인식한다. 한편, 설명자 선정부(407)는 방향 확인이 불가능함을 알리는 메시지를 설명자 선정부(407)로 전달받은 경우, 카메라(101)를 일정 방향(예컨대, 오른쪽 또는 왼쪽)으로 360°회전시켜, 게임에 참여한 모든 사용자의 얼굴을 순차적으로 촬영한 후, 이렇게 촬영된 복수의 얼굴 이미지를 분석하여 재선정된 문제 설명자의 얼굴을 인식한다. 아울러, 설명자 선정부(407)는 문제 설명자의 얼굴이 인식된 방향과 상기 문제 설명자의 거리에 근거하여 문제 설명자의 위치를 인식한 후, 구동부(102)를 제어하여 상기 문제 설명자의 위치와 소정 거리 이격된 위치로 이동 로봇(400)을 이동시킨다. 한편, 설명자 선정부(407)는 첫 번째 문제가 출력되기 전인 경우, 이동 로봇(400)의 정면에 위치한 사용자를 문제 설명자로 선정한다. Specifically, the descriptor selection unit 407 re-selects the correct answer as a problem descriptor, and based on the correct voice direction information received from the voice direction analysis unit 406, the camera 101 is set in the correct voice direction (i.e., And changes the photographing angle of the camera 101 to the direction of the problem descriptor and recognizes the face of the problem descriptor re-selected through the camera 101. [ On the other hand, when the descriptor selection unit 407 receives the message informing that the direction check is impossible to the descriptor selection unit 407, the descriptor selection unit 407 rotates the camera 101 in a predetermined direction (e.g., right or left) The faces of all the users participating in the process are sequentially photographed, and then the faces of the re-selected problem descriptor are recognized by analyzing the plurality of captured face images. In addition, the descriptor selection unit 407 recognizes the position of the problem descriptor based on the direction in which the face of the problem descriptor is recognized and the distance between the problem descriptor, and then controls the driving unit 102 to change the position of the problem descriptor And moves the mobile robot 400 to a spaced position. Meanwhile, the descriptor selection unit 407 selects a user located in front of the mobile robot 400 as a problem descriptor before the first problem is output.

도 5는 본 발명의 다른 실시예에 따른, 이동 로봇에서 퀴즈 게임 서비스를 사용자에게 제공하는 방법을 설명하는 흐름도이다.5 is a flowchart illustrating a method of providing a quiz game service to a user in a mobile robot according to another embodiment of the present invention.

도 5를 참조하면, 이동 로봇(400)은 첫 문제를 설명할 사용자 앞에 위치한 상태에서, 상기 사용자로부터 퀴즈게임 시작 요청을 수신한다(S501). 이때, 문제가 출력되는 이동 로봇(400)의 표시부(105)는 상기 사용자에서만 노출되는 것이 바람직하다. 즉, 첫 문제를 설명한 사용자는 이동 로봇(400)의 표시부(105)가 자신에게만 노출 상태로 상기 이동 로봇(400)을 자신 앞에 위치시키고, 이 이동 로봇(400)에 구현된 복수의 서비스 메뉴 중에서, 퀴즈게임 시작 메뉴를 입력하여, 퀴즈게임 시작을 이동 로봇(400)으로 요청한다.Referring to FIG. 5, the mobile robot 400 receives a quiz game start request from the user (S501) while being positioned in front of a user who will describe the first problem. At this time, it is preferable that the display unit 105 of the mobile robot 400 to which the problem is output is exposed only to the user. That is, the user who described the first problem places the mobile robot 400 in front of him / herself in a state in which the display unit 105 of the mobile robot 400 is exposed only to himself / herself, , The user inputs a quiz game start menu and requests the mobile robot 400 to start the quiz game.

도 3의 (a)를 참조하여 예를 들어 설명하면, 이동 로봇(400)은 복수의 사용자들 중에서 첫 문제를 설명할 사용자(31) 앞에 위치한 상태에서, 이 사용자(31)로부터 퀴즈게임 시작 요청 조작신호를 수신한다.3, the mobile robot 400 receives a quiz game start request from the user 31 in a state of being positioned in front of the user 31 to explain the first problem among a plurality of users, And receives an operation signal.

그러면, 설명자 선정부(407)는 카메라(101)를 이용하여 정면에 위치한 사용자의 얼굴 이미지를 촬영하고(S503), 이 촬영한 얼굴 이미지와 유사도가 임계값(예컨대, 70%) 이상인 얼굴 이미지가 저장부(103)의 사용자 정보에 저장되어 있는지 여부를 확인한다(S505). The descriptor selection unit 407 then captures the face image of the user located on the front side using the camera 101 (S503), and the face image having the similarity degree to the photographed face image (for example, 70% It is confirmed whether or not it is stored in the user information of the storage unit 103 (S505).

설명자 선정부(407)는 상기 촬영한 얼굴 이미지와 유사도가 임계값 이상인 얼굴 이미지가 저장부(103)의 사용자 정보에 미저장된 경우, 정면에 위치에 사용자가 미등록된 사용자인 것으로 판단하고, 사용자 정보 입력(즉, 성명과 음성)을 요구하는 메시지를 표시부(105)로 출력한다. 그리고 설명자 선정부(407)는 이동 로봇(400)의 정면에 위치한 사용자로부터 사용자의 성명과 음성을 입력받은 후, 상기 음성을 분석하여 신규 사용자의 음성의 고저, 주파수 등의 음성 패턴을 확인한 후, 신규 사용자의 성명, 음성 패턴 및 상기 촬영한 신규 사용자의 얼굴 이미지를 매핑하여 저장부(103)의 사용자 정보에 저장하여 신규 사용자의 등록을 완료한다(S507).The descriptor selection unit 407 determines that the user is not registered in the front position when the face image having the degree of similarity to the photographed face image is not stored in the user information of the storage unit 103, And outputs a message requesting input (i.e., name and voice) to the display unit 105. The descriptor selection unit 407 receives the user's name and voice from a user located in front of the mobile robot 400 and analyzes the voice to check the voice pattern of the voice of the new user, The name of the new user, the voice pattern, and the captured face image of the new user are mapped and stored in the user information of the storage unit 103 to complete the registration of the new user (S507).

이어서, 설명자 선정부(407)는 상기 촬영한 사용자의 얼굴 이미지와 임계값 이상으로 일치하는 얼굴 이미지가 저장부(103)의 사용자 정보에 저장되거나 정면에 위치한 사용자의 등록이 완료된 경우, 이 사용자의 얼굴 이미지와 매핑된 성명을 저장부(103)의 사용자 정보에서 확인함으로써 이동 로봇(400)의 정면에 위치한 사용자를 식별한다(S509). 다음으로, 설명자 선정부(407)는 상기 식별한 이렇게 식별한 사용자를 퀴즈 설명자로 선정한 후(S511), 문제 제공부(108)로 문제 제공을 요청한다.The descriptor selection unit 407 then stores the face image matching the face image of the user with the face image equal to or higher than the threshold value in the user information of the storage unit 103 or when registration of the user located on the front face is completed, The user located at the front of the mobile robot 400 is identified by checking the face image and the mapped name in the user information of the storage unit 103 (S509). Next, the descriptor selection unit 407 selects the identified user as the quiz descriptor (S511), and requests the problem provisioning unit 108 to provide a problem.

그러면, 문제 제공부(108)는 저장부(103)에 저장된 복수의 문제 중에서 어느 하나의 문제를 추출하여 표시부(105)에 출력한다(S513). Then, the trouble providing unit 108 extracts any one of the plurality of problems stored in the storage unit 103 and outputs the extracted problem to the display unit 105 (S513).

이렇게 표시부(105)에 문제가 출력되면, 정답 판정부(109)는 표시부(105)에 출력중인 문제에 대한 정답을 저장부(103)에서 확인하고, 이 정답과 일치하는 음성이 마이크(104)를 통해 인식되는지 여부를 음성인식 모듈(109a)을 이용하여 지속적으로 모니터링한다(S515, S517). 바람직하게, 정답 판정부(109)는 문제 설명자의 음성 패턴을 저장부(103)에서 확인하고, 상기 문제 설명자의 음성 패턴을 제외한 다른 사용자의 음성을 지속적으로 모니터링한다.When the problem is output to the display unit 105, the correct answer determining unit 109 confirms the correct answer to the question being output to the display unit 105 in the storage unit 103, (S515, S517) by using the voice recognition module 109a. The correct answer determination section 109 preferably confirms the speech pattern of the problem descriptor in the storage section 103 and continuously monitors the voice of another user except the speech pattern of the problem descriptor.

정답 판정부(109)는 음성인식 모듈(109a)을 통해 상기 정답과 일치하는 음성이 최초로 인식되면, 이 음성의 패턴과 임계값(예컨대, 70%) 이상으로 일치하는 음성 패턴을 저장부(103)의 사용자 정보에서 확인한다. 이어서, 정답 판정부(109)는 상기 확인된 음성 패턴과 매핑된 사용자의 성명을 저장부(103)의 사용자 정보에서 확인함으로써, 상기 정답을 발화한 사용자(즉, 정답자)를 식별한다(S519). The correct answer determining section 109 determines whether or not a voice corresponding to the correct answer is recognized for the first time through the voice recognition module 109a and stores the voice pattern matching the pattern of the voice with a threshold value (for example, 70% ) From the user information. Next, the correct answer determining unit 109 identifies the user who has uttered the correct answer (i.e., the correct answer) by confirming the name of the user mapped with the verified voice pattern in the user information of the storage unit 103 (S519) .

다음으로, 정답 판정부(109)는 상기 식별한 사용자의 정답 횟수를 '1' 증가시킨다(S521). 또는, 정답 판정부(109)는 상기 식별한 사용자의 퀴즈 점수를 해당 문제에 배정된 점수만큼 증가시킬 수도 있다. 다음으로, 정답 판정부(109)는 사전에 설정된 퀴즈 횟수에 근거하여 정답 처리된 문제가 마지막 문제인지 여부를 확인하여(S523), 마지막 문제이면 게임결과 제공부(110)로 게임 결과 출력을 지시한다.Next, the correct answer determining section 109 increases the number of correct answers of the identified user by '1' (S521). Alternatively, the correct answer determination unit 109 may increase the quiz score of the identified user by the score assigned to the question. Next, the correct answer determining unit 109 checks whether the correct answer is the last question based on the preset number of quizzes (S523). If it is the last question, the correct answer determining unit 109 instructs the game result providing unit 110 to output the game result do.

그러면, 게임결과 제공부(110)는 사용자별 정답 횟수 또는 퀴즈 점수를 확인하고(S525), 이렇게 확인된 사용자별 정답 횟수 또는 퀴즈 점수를 현재 날짜와 시간과 함께 저장부(103)에 저장한다. 그리고 게임결과 제공부(110)는 사용자별 정답 횟수 또는 퀴즈 점수를 표시부(105)에 출력함으로써, 퀴즈 게임 결과를 복수의 사용자에게 인지시킨다(S527). Then, the game result providing unit 110 checks the correct answer frequency or quiz score per user (S525), and stores the confirmed correct answer frequency or quiz score in the storage unit 103 together with the current date and time. Then, the game result providing unit 110 outputs a quiz game result to the plurality of users by outputting the number of correct answers or quiz score per user to the display unit 105 (S527).

반면에, S523 단계에서, 정답 판정부(109)는 정답 처리된 문제가 마지막 문제가 아니면, 정답자로 식별된 사용자의 성명을 설명자 선정부(107)로 전달하여 문제 설명자의 재선정을 설명자 선정부(107)로 요청한다. On the other hand, in step S523, if the correct answer is not the last question, the correct answer determination unit 109 transmits the name of the user identified as the correct answer to the descriptor selection unit 107, (107).

그러면 설명자 선정부(107)는 상기 정답 판정부(109)로부터 전달받은 사용자의 성명을 확인하여 이 사용자(즉, 정답자)를 퀴즈 설명자로 재선정하고(S529), 음성방향 분석부(406)로 정답이 발화된 방향에 대한 분석을 요청한다. 이어서, 음성방향 분석부(406)는 정답으로 인식된 음성의 위상과 강도를 분석하여, 이 음성이 발화된 방향을 분석하고(S531), 이 분석된 방향(예컨대, 뒤 방향, 오른쪽 방향 또는 왼쪽 방향)을 설명자 선정부(407)로 전달한다. 구체적으로, 음성방향 분석부(406)는 음성인식 모듈(109a)에서 인식된 정답 음성이 고 주파수, 중간 주파수 또는 저 주파수인지 여부를 확인한다. 그리고 음성방향 분석부(406)는 음성이 고주파수(예컨대, 3000Hz 이상인 주파수)에 해당하면, 양쪽 측면에 구비된 각 마이크(104)에서 수신된 상기 정답 음성의 세기를 확인하여, 두 마이크(104)의 음성 세기의 차이를 산출한다. 이어서, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크의 음성 세기의 차이가 사전에 설정된 임계세기 이상이면, 음성 세기가 더 크게 수신된 마이크(왼쪽 또는 오른쪽) 방향이 정답 음성이 발화된 방향인 것으로 판단한다. 예컨대, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크의 음성 세기의 차이가 사전에 설정된 임계세기 이상이고, 왼쪽 마이크에서 수신된 정답 음성의 세기가 오른쪽 마이크에서 수신된 정답 음성의 세기보다 큰 경우, 왼쪽 방향에서 정답 음성이 발화된 방향인 것으로 판단한다. 반면에, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크의 음성 세기의 차이가 사전에 설정된 임계 차이 미만이면, 정답 음성이 발화된 방향이 이동 로봇(400)의 뒤쪽 방향인 것으로 판단한다.Then, the descriptor selection unit 107 confirms the name of the user received from the correct answer determination unit 109 and re-selects the user (i.e., the correct answer) as a quiz descriptor (S529). Then, the voice direction analysis unit 406 Ask for an analysis of this uttered direction. Then, the voice direction analyzing unit 406 analyzes the phase and intensity of the voice recognized as a correct answer, and analyzes the direction in which the voice is uttered (S531). Then, the analyzed direction (e.g., backward, Direction to the descriptor selection unit 407. [ Specifically, the voice direction analyzing unit 406 confirms whether the correct answer voice recognized by the voice recognition module 109a is a high frequency, an intermediate frequency, or a low frequency. When the voice corresponds to a high frequency (for example, a frequency of 3000 Hz or more), the voice direction analyzing unit 406 checks the strength of the correct answer voice received from each of the microphones 104 provided on both sides, Lt; / RTI > If the difference between the sound intensity of the right microphone and the sound intensity of the left microphone is greater than or equal to a predetermined threshold intensity, the microphone direction (left or right) direction in which the sound intensity is larger is the direction . For example, the voice direction analyzing unit 406 may determine that the difference between the right and left microphone strengths is greater than or equal to a predetermined threshold strength, and that the strength of the right answer voice received at the left microphone is greater than the strength of the right answer voice received at the right microphone , It is determined that the direction of the right speech is the utterance direction in the left direction. On the other hand, if the difference between the sound intensities of the right microphone and the left microphone is less than a predetermined threshold difference, the voice direction analyzing unit 406 determines that the direction in which the correct answer voice is uttered is the backward direction of the mobile robot 400.

또한, 음성방향 분석부(406)는 음성인식 모듈(109a)에서 인식된 정답 음성이 저 주파수(예컨대, 1500Hz 이하인 주파수)에 해당하면, 오른쪽 마이크와 왼쪽 마이크 각각에 정답 음성이 도달한 시간 차(즉, 위상차)가 사전에 설정된 임계시간(예컨대, 0.8 밀리미터 초) 미만인지 여부를 확인한다. 다음으로, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크 각각에 정답 음성이 도달한 시간 차가 사전에 설정된 임계시간 이상이면, 상기 정답 음성이 먼저 수신한 마이크가 왼쪽 또는 오른쪽 마이크인지 여부를 확인하고, 이 마이크의 방향이 정답 음성이 발화된 방향인 것으로 판단한다. 반면에, 음성방향 분석부(406)는 오른쪽 마이크와 왼쪽 마이크 각각에 정답 음성이 도달한 시간 차가 사전에 설정된 임계시간 미만이면, 정답 음성이 발화된 방향이 이동 로봇(400)의 뒤쪽 방향인 것으로 판단한다.The voice direction analyzing unit 406 analyzes the time difference of the right voice reached to the right microphone and the left microphone when the correct voice recognized by the voice recognition module 109a corresponds to a low frequency (for example, a frequency of 1500 Hz or less) I.e., the phase difference) is less than a preset threshold time (for example, 0.8 millimeter seconds). Next, the voice direction analyzing unit 406 checks whether the microphone received first by the correct answer voice is a left or right microphone if the difference in time between arrival of the correct answer voice in each of the right microphone and the left microphone is more than a preset threshold time , And determines that the direction of the microphone is the direction in which the correct answer voice is uttered. On the other hand, if the difference in time between arrival of the correct answer voice in the right microphone and the left microphone is less than a preset threshold time, the direction in which the correct answer voice is uttered is the backward direction of the mobile robot 400 .

한편, 음성방향 분석부(406)는 정답으로 인식된 음성이 중간 주파수(예컨대, 1500Hz 초과하고 3000Hz 미만인 주파수)에 해당하면, 방향 확인이 불가능함을 알리는 메시지를 설명자 선정부(407)로 전달한다.On the other hand, if the voice recognized as a correct answer corresponds to an intermediate frequency (for example, a frequency exceeding 1500 Hz and less than 3000 Hz), the voice direction analyzing unit 406 transmits a message to the descriptor selection unit 407 indicating that direction confirmation is impossible .

다음으로, 설명자 선정부(407)는 문제 설명자로 재선정한 사용자의 성명과 매핑된 얼굴 이미지를 저장부(103)의 사용자 정보에서 추출하고, 상기 음성방향 분석부(406)로 전달받은 방향으로 카메라(101)를 회전시켜 카메라(101)의 촬영각도를 재선정한 문제 설명자(즉, 정답자)의 방향으로 변경한다(S533). 예컨대, 설명자 선정부(407)는 음성방향 분석부(406)로부터 오른쪽 방향을 전달받으면 카메라(101)를 오른쪽 방향으로 90°회전시키고, 왼쪽 방향을 전달받으면 왼쪽 방향으로 90°회전시키고, 뒤쪽 방향을 전달받은 경우 카메라(101)가 뒤쪽 방향을 촬영하도록 180°회전시킬 수 있다.Next, the descriptor selection unit 407 extracts the face image mapped with the name of the user re-selected as the problem descriptor from the user information of the storage unit 103, The camera 101 is rotated to change the photographing angle of the camera 101 to the direction of the re-selected problem descriptor (i.e., correct answer) (S533). For example, the descriptor selection unit 407 rotates the camera 101 by 90 degrees to the right when receiving the right direction from the voice direction analyzing unit 406, rotates the camera 101 by 90 degrees to the left when receiving the left direction, The camera 101 may be rotated 180 degrees so as to photograph the backward direction.

이어서, 설명자 선정부(407)는 상기 회전한 카메라(101)를 통해 사용자의 얼굴 이미지를 획득하고, 이 얼굴 이미지와 상기 추출한 사용자(즉, 문제 설명자로 재선정한 사용자)의 얼굴 이미지의 유사도를 확인하여 상기 유사도가 임계값(예컨대, 70%) 이상인지 여부를 확인함으로써, 문제 설명자로 재선정한 사용자의 얼굴을 인식한다(S535). 한편, 설명자 선정부(407)는 방향 확인이 불가능함을 알리는 메시지를 설명자 선정부(407)로 전달받은 경우, 카메라(101)를 일정 방향(예컨대, 오른쪽, 왼쪽)으로 360°회전시켜, 게임에 참여한 모든 사용자의 얼굴 이미지를 순차적으로 획득하고, 이렇게 획득한 각 사용자의 얼굴 이미지와 문제 설명자로 재선정한 사용자)의 얼굴 이미지의 유사도를 확인함으로써, 재선정한 문제 설명자의 얼굴을 인식한다.Next, the descriptor selection unit 407 acquires the face image of the user through the rotated camera 101 and confirms the similarity between the face image and the face image of the extracted user (i.e., the user re-selected as the problem descriptor) And recognizes whether or not the degree of similarity is equal to or greater than a threshold value (e.g., 70%), thereby recognizing the face of the user re-selected as the problem descriptor (S535). On the other hand, when the descriptor selection unit 407 receives the message informing that the direction confirmation is impossible to the descriptor selection unit 407, the descriptor selection unit 407 rotates the camera 101 by 360 degrees in a predetermined direction And recognizes the face of the re-selected problem descriptor by checking the similarity of the face image of the user who has been re-selected as the problem descriptor of each user thus obtained.

다음으로, 설명자 선정부(407)는 재선정한 문제 설명자(즉, 정답자)의 얼굴 이미지와 일치도가 임계값 이상인 얼굴 이미지가 인식되면, 카메라(101)를 통해 촬영한 이미지에서 상기 재선정한 문제 설명자(즉, 정답자)의 얼굴이 인식된 방향을 확인하고, 상기 정답자의 거리를 측정한다. 이때, 설명자 선정부(407)는 얼굴 인식을 위해 촬영한 문제 설명자의 이미지를 분석하여, 이동 로봇(400)과 문제 설명자 간의 거리를 측정할 수 있으며, 자체 구비한 거리측정 센서(도면에 도시되지 않음)를 이용하여 이동 로봇(400)과 문제 설명자 간의 거리를 측정할 수도 있다. 다음으로, 설명자 선정부(407)는 상기 재선정한 문제 설명자의 얼굴이 인식한 방향과 이 문제 설명자의 거리에 근거하여, 상기 재선정한 문제 설명자의 위치를 인식한다(S537). Next, the descriptor selection unit 407 extracts, from the image photographed through the camera 101, the re-selected question descriptor ((the right answer candidate)) if the face image whose agreement degree with the re- I.e., the face of the correct answer), and measures the distance of the correct answer. At this time, the descriptor selection unit 407 can analyze the image of the problem descriptor photographed for face recognition, and can measure the distance between the mobile robot 400 and the problem descriptor. May be used to measure the distance between the mobile robot 400 and the problem descriptor. Next, the descriptor selection unit 407 recognizes the position of the re-selected problem descriptor on the basis of the direction recognized by the face of the re-selected problem descriptor and the distance between the problem descriptor (S537).

이어서, 설명자 선정부(407)는 상기 재선정한 문제 설명자의 얼굴을 인식한 방향으로 이동 로봇(400)이 바라보도록 상기 구동부(102)를 제어하여 이동 로봇(400)을 회전시킨다. 다음으로, 설명자 선정부(407)는 구동부(102)를 제어하여, 재선정한 문제 설명자의 위치와 소정 거리(예컨대, 20cm) 이격된 위치로 이동 로봇(400)을 이동시킨다(S539). 바람직하게, 설명자 선정부(407)는 구동부(102)를 제어하여, 표시부(105)가 상기 재선정한 사용자의 정면에 위치하도록 구동부(102)를 제어하여 이동 로봇(400)을 이동시킨다.Next, the descriptor selection unit 407 controls the driving unit 102 to rotate the mobile robot 400 so that the mobile robot 400 looks in the direction in which the face of the re-selected problem descriptor is recognized. Next, the descriptor selection unit 407 controls the driving unit 102 to move the mobile robot 400 to a position spaced a predetermined distance (for example, 20 cm) from the position of the re-selected problem descriptor (S539). The descriptor selection unit 407 controls the driving unit 102 to move the mobile robot 400 by controlling the driving unit 102 so that the display unit 105 is positioned on the front face of the reselected user.

이동 로봇(400)의 이동이 완료되면, 설명자 선정부(407)는 문제 제공부(108)로 문제 출력을 지시하고, 이전에 출력된 문제와 다른 문제를 저장부(103)에서 추출하여 표시부(105)에 출력한다(S541). When the movement of the mobile robot 400 is completed, the descriptor selection unit 407 instructs the problem provision unit 108 to output a problem, extracts a problem other than the previously outputted problem from the storage unit 103, 105 (S541).

그러면, 정답 판정부(109)는 표시부(105)에 출력중인 문제에 대한 정답을 저장부(103)에서 확인하고, 이 정답과 일치하는 음성이 인식되는지 여부를 음성인식 모듈(109a)을 이용하여 지속적으로 모니터링하는 S515 단계를 재진행한다.Then, the correct answer determining section 109 confirms the correct answer to the question being outputted to the display section 105 in the storage section 103, and whether or not the voice corresponding to the correct answer is recognized is determined by using the speech recognition module 109a Proceed to step S515 for continuous monitoring.

한편, 정답 판정부(109)는 정답으로 인식된 음성의 패턴과 임계값(예컨대, 70%) 이상으로 일치하는 음성 패턴이 저장부(103)의 사용자 정보에 저장되지 되지 않은 경우, 이 사용자가 미등록된 사용자인 것으로 판단하여, 사용자 정보를 입력을 요구하는 메시지를 표시부(105) 또는 스피커로 출력한다. 그리고 정답 판정부(109)는 정답을 발화한 사용자로부터 얼굴을 촬영 받고 성명을 입력받아, 상기 정답으로 인식된 음성의 패턴, 상기 사용자의 얼굴 이미지 및 성명을 매핑하여 저장부(103)의 사용자 정보에 저장한다.On the other hand, if the correct pattern is not stored in the user information of the storage unit 103, the correct answer determining unit 109 determines that the user does not agree with the pattern of the recognized speech, It is determined that the user is an unregistered user, and a message requesting input of user information is output to the display unit 105 or the speaker. Then, the correct answer determining unit 109 captures a face from the user who has uttered the correct answer, receives the name, maps the pattern of the recognized voice as the correct answer, the face image and the name of the user, .

본 명세서는 많은 특징을 포함하는 반면, 그러한 특징은 본 발명의 범위 또는 특허청구범위를 제한하는 것으로 해석되어서는 안 된다. 또한, 본 명세서에서 개별적인 실시예에서 설명된 특징들은 단일 실시예에서 결합되어 구현될 수 있다. 반대로, 본 명세서에서 단일 실시예에서 설명된 다양한 특징들은 개별적으로 다양한 실시예에서 구현되거나, 적절히 결합되어 구현될 수 있다.While the specification contains many features, such features should not be construed as limiting the scope of the invention or the scope of the claims. In addition, the features described in the individual embodiments herein may be combined and implemented in a single embodiment. Conversely, various features described in the singular < Desc / Clms Page number 5 > embodiments herein may be implemented in various embodiments individually or in combination as appropriate.

도면에서 동작들이 특정한 순서로 설명되었으나, 그러한 동작들이 도시된 바와 같은 특정한 순서로 수행되는 것으로, 또는 일련의 연속된 순서, 또는 원하는 결과를 얻기 위해 모든 설명된 동작이 수행되는 것으로 이해되어서는 안 된다. 특정 환경에서 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 아울러, 상술한 실시예에서 다양한 시스템 구성요소의 구분은 모든 실시예에서 그러한 구분을 요구하지 않는 것으로 이해되어야 한다. 상술한 프로그램 구성요소 및 시스템은 일반적으로 단일 소프트웨어 제품 또는 멀티플 소프트웨어 제품에 패키지로 구현될 수 있다.Although the operations have been described in a particular order in the figures, it should be understood that such operations are performed in a particular order as shown, or that all described operations are performed to obtain a sequence of sequential orders, or a desired result . In certain circumstances, multitasking and parallel processing may be advantageous. It should also be understood that the division of various system components in the above embodiments does not require such distinction in all embodiments. The above-described program components and systems can generally be implemented as a single software product or as a package in multiple software products.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(시디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.The method of the present invention as described above can be implemented by a program and stored in a computer-readable recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto optical disk, etc.). Such a process can be easily carried out by those skilled in the art and will not be described in detail.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.

100, 400 : 이동 로봇 101 : 카메라
102 : 구동부 103 : 저장부
104 : 마이크 105 : 표시부
106 : 참여자 인식부 107, 407 : 설명자 선정부
108 : 문제 제공부 109 : 정답 판정부
109a : 음성인식 모듈 110 : 게임결과 제공부
406 : 음성방향 분석부
100, 400: mobile robot 101: camera
102: driving unit 103:
104: microphone 105:
106: participant recognition unit 107, 407: descriptor selection unit
108: Problem Solving 109: Correct Answer Government
109a: Speech recognition module 110:
406: Voice direction analyzing unit

Claims (19)

이동 로봇에서 복수의 사용자에게 퀴즈 게임 서비스를 제공하는 방법으로서,
문제 설명자에게 화면이 노출된 위치에서, 문제를 상기 화면에 출력하는 첫 문제 출력 단계;
상기 출력중인 문제에 대한 정답 음성이 인식되는지 여부를 확인하는 정답 확인 단계;
상기 확인 결과 상기 정답 음성이 인식되면 이 정답 음성을 발화한 사용자를 문제 설명자로 재선정하고, 상기 재선정한 문제 설명자의 위치를 인식하는 위치 인식 단계;
상기 재선정한 문제 설명자에게 상기 화면이 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 이동하는 이동 단계; 및
상기 이동한 지역에서 다음 문제를 상기 화면에 출력하는 다음 문제 출력 단계;를 포함하는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법.
A method of providing a quiz game service to a plurality of users in a mobile robot,
A first problem output step of outputting a problem to the screen at a position where the screen is exposed to the problem descriptor;
A correct answer confirming step of confirming whether a correct answer voice is recognized for the question being outputted;
A location recognizing step of re-selecting a user who has uttered the correct answer voice as a problem descriptor and recognizing a position of the re-selected problem descriptor when the correct answer voice is recognized as the confirmation result;
Moving to a position distant from the recognized position by a predetermined distance so that the screen is exposed to the re-selected problem descriptor; And
And outputting a next question on the screen in the moved area. The method for providing a quiz game service in a mobile robot,
제 1 항에 있어서,
상기 위치 인식 단계는,
저장중인 사용자별 위치정보를 토대로, 상기 재선정한 문제 설명자의 위치를 인식하는 것을 특징으로 하는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법.
The method according to claim 1,
The position recognition step may include:
And recognizing the position of the re-selected problem descriptor on the basis of the stored user-specific location information.
제 2 항에 있어서,
상기 첫 문제 출력 단계 이전에,
카메라를 이용하여 게임에 참여한 각 사용자의 얼굴을 인식하여 각각의 사용자를 식별하는 단계; 및
퀴즈 게임이 진행되는 공간의 좌표정보가 기록된 맵 데이터를 참조하여, 상기 인식한 각각의 사용자의 위치정보를 확인하여 저장하는 단계;를 더 포함하는 것을 특징으로 하는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법.
3. The method of claim 2,
Before the first question output step,
Identifying each user by recognizing faces of each user participating in the game using a camera; And
Further comprising confirming and storing position information of each of the recognized users with reference to map data in which coordinates information of a space in which the quiz game is played is recorded, and storing the quiz game service in the mobile robot Way.
제 3 항에 있어서,
상기 식별하는 단계는,
게임에 참여한 사용자의 얼굴이 인식되지 않으면, 인식되지 않은 사용자의 음성 패턴, 성명 및 얼굴 이미지를 획득하여 저장하는 것을 특징으로 하는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법.
The method of claim 3,
Wherein the identifying comprises:
And if the face of the user who participated in the game is not recognized, acquires and stores the voice pattern, the name and the face image of the unrecognized user.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 위치 인식 단계는,
상기 정답 음성에 대한 패턴을 확인하고, 이 정답 음성의 패턴과 매핑된 사용자 성명을 자체 저장중인 사용자 정보에서 확인하여 정답을 발화한 사용자를 식별하는 단계; 및
상기 식별한 사용자의 정답 횟수 또는 퀴즈 점수를 증가시키는 단계;를 포함하는 것을 특징으로 하는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법.
4. The method according to any one of claims 1 to 3,
The position recognition step may include:
Identifying a pattern of the correct answer voice and identifying a user who has uttered the correct answer by confirming the user name mapped with the pattern of the correct answer voice in the user information being stored; And
And increasing a number of correct answers or a quiz score of the identified user.
제 5 항에 있어서,
상기 다음 문제 출력 단계 이후에,
퀴즈 게임이 종료되면 퀴즈 게임에 참여한 사용자별 정답 횟수 또는 퀴즈 점수를 확인하여 출력하는 단계;를 더 포함하는 것을 특징으로 하는 이동 로봇에서의 퀴즈 게임 서비스 제공 방법.
6. The method of claim 5,
After the next problem output step,
And checking and outputting a correct answer number or a quiz score for each user participating in the quiz game when the quiz game ends, and outputting the quiz game.
복수의 사용자에게 퀴즈 게임 서비스를 제공하는 이동 로봇으로서,
문제를 출력하는 표시부;
복수의 문제를 저장부;
상기 표시부를 문제 설명자에게 노출한 위치에서, 상기 저장부에서 문제를 추출하여 상기 표시부에 출력하는 문제 제공부;
상기 출력중인 문제에 대한 정답 음성이 인식되는지 여부를 확인하여 정답 음성이 인식되면, 이 정답 음성을 발화한 사용자를 정답자로 식별하는 정답 판정부; 및
정답 판정부에 의해 식별된 정답자를 문제 설명자로 재선정하여 상기 재선정한 문제 설명자의 위치를 인식하고, 상기 재선정한 문제 설명자에게 상기 표시부가 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 상기 이동 로봇을 이동시키는 설명자 선정부;를 포함하고,
상기 문제 제공부는, 재선정된 문제 설명자의 방향으로 상기 이동 로봇의 이동이 완료되면, 다음 문제를 상기 저장부에서 추출하여 상기 표시부에 출력하는 것을 특징으로 하는 이동 로봇.
A mobile robot for providing a quiz game service to a plurality of users,
A display unit for outputting a problem;
Storing a plurality of problems;
A problem-solving unit for extracting a problem from the storage unit at a location where the display unit is exposed to the problem descriptor and outputting the extracted problem to the display unit;
A correct answer determining unit for determining whether a correct answer voice for the question in the output is recognized and, when a correct answer voice is recognized, a user who has uttered the correct answer voice as a correct answer; And
And a control unit that recognizes the position of the re-selected problem descriptor by re-selecting the correct answer identified by the correct answer determination unit as a problem descriptor, And a descriptor selection unit for moving the robot,
Wherein when the movement of the mobile robot is completed in the direction of the reselected problem descriptor, the problem providing unit extracts the next problem from the storage unit and outputs the extracted problem to the display unit.
제 7 항에 있어서,
상기 저장부는 사용자별 위치정보를 저장하고,
상기 설명자 선정부는, 상기 사용자별 위치정보를 토대로 상기 재선정한 문제 설명자의 위치를 인식하는 것을 특징으로 하는 이동 로봇.
8. The method of claim 7,
The storage unit stores location information for each user,
Wherein the descriptor selection unit recognizes the position of the re-selected problem descriptor based on the per-user location information.
제 8 항에 있어서,
카메라를 이용하여 게임에 참여한 각 사용자의 얼굴을 인식하여 각각의 사용자를 식별하고, 퀴즈 게임이 진행되는 공간의 좌표정보가 기록된 맵 데이터를 참조하여 상기 인식한 각 사용자의 위치정보를 확인하여 상기 저장부에 저장하는 참여자 인식부;를 더 포함하는 것을 특징으로 하는 이동 로봇.
9. The method of claim 8,
Recognizing the faces of each user participating in the game using the camera, identifying each user, checking the position information of each recognized user with reference to the map data in which the coordinate information of the space in which the quiz game is performed is recorded, And a participant recognition unit for storing the participant information in a storage unit.
제 9 항에 있어서,
상기 참여자 인식부는,
게임에 참여한 사용자의 얼굴이 인식되지 않으면, 인식되지 않은 사용자의 음성 패턴, 성명 및 얼굴 이미지를 획득하여, 상기 저장부에 저장하는 것을 특징으로 하는 이동 로봇.
10. The method of claim 9,
The participant recognizing unit,
And if the face of the user participating in the game is not recognized, acquires the voice pattern, the name and the face image of the unrecognized user, and stores the voice pattern, the name and the face image in the storage unit.
제 8 항에 있어서,
상기 정답 판정부는,
상기 정답 음성의 패턴과 매핑된 사용자 성명을 상기 저장부에서 확인하여 정답을 발화한 사용자를 식별하고, 상기 식별한 사용자의 정답 횟수 또는 퀴즈 점수를 증가시키는 것을 특징으로 하는 이동 로봇.
9. The method of claim 8,
Wherein,
Identifying a user who has uttered the correct answer by checking the user name mapped with the pattern of the correct answer voice in the storage unit, and increasing the correct answer frequency or quiz score of the identified user.
제 11 항에 있어서,
퀴즈 게임이 종료되면 퀴즈 게임에 참여한 사용자별 정답 횟수 또는 퀴즈 점수를 확인하여 출력하는 게임결과 제공부;를 더 포함하는 것을 특징으로 하는 이동 로봇.
12. The method of claim 11,
And a game result providing unit for confirming and outputting a correct answer number or a quiz score for each user participating in the quiz game when the quiz game ends.
복수의 사용자에게 퀴즈 게임 서비스를 제공하는 이동 로봇으로서,
문제를 출력하는 표시부;
복수의 문제를 저장부;
상기 이동 로봇의 왼쪽 측면과 오른쪽 측면에 각각 설치된 복수의 마이크;
상기 표시부를 문제 설명자에게 노출한 위치에서, 상기 저장부에서 문제를 추출하여 상기 표시부에 출력하는 문제 제공부;
상기 문제에 대한 정답 음성이 인식되는지 여부를 확인하여 정답 음성이 인식되면, 이 정답 음성을 발화한 사용자를 정답자로 식별하는 정답 판정부;
상기 복수의 마이크에서 수신한 상기 정답 음성의 주파수를 분석하여 상기 정답 음성의 발화 방향을 판단하는 음성방향 분석부; 및
상기 정답 판정부에 의해 식별된 정답자를 문제 설명자로 재선정하고, 상기 음성방향 분석부에서 분석한 상기 정답 음성의 발화 방향으로 촬영각도를 변경시켜 문제 설명자의 얼굴과 위치를 인식한 후, 상기 재선정한 문제 설명자에게 상기 표시부가 노출되도록 상기 인식한 위치와 일정 거리만큼 이격된 위치로 상기 이동 로봇을 이동시키는 설명자 선정부;를 포함하고,
상기 문제 제공부는, 재선정된 문제 설명자의 방향으로 상기 이동 로봇의 이동이 완료되면, 다음 문제를 상기 저장부에서 추출하여 상기 표시부에 출력하는 것을 특징으로 하는 이동 로봇.
A mobile robot for providing a quiz game service to a plurality of users,
A display unit for outputting a problem;
Storing a plurality of problems;
A plurality of microphones mounted on left and right sides of the mobile robot, respectively;
A problem-solving unit for extracting a problem from the storage unit at a location where the display unit is exposed to the problem descriptor and outputting the extracted problem to the display unit;
A correct answer determining unit for determining whether a correct answer voice for the question is recognized and, when a correct answer voice is recognized, a user who has uttered the correct answer voice as a correct answer;
A voice direction analyzer for analyzing a frequency of the correct answer voice received from the plurality of microphones to determine a speaking direction of the correct answer voice; And
The face recognition unit recognizes the face and the position of the problem descriptor by re-selecting the correct answer identified by the correct answer determination unit as the problem descriptor, changing the photographing angle in the speaking direction of the correct answer voice analyzed by the voice direction analyzing unit, And a descriptor selection unit for moving the mobile robot to a position spaced apart from the recognized position by a predetermined distance so that the display unit is exposed to the problem descriptor,
Wherein when the movement of the mobile robot is completed in the direction of the reselected problem descriptor, the problem providing unit extracts the next problem from the storage unit and outputs the extracted problem to the display unit.
제 13 항에 있어서,
상기 음성방향 분석부는,
상기 정답 음성이 고주파수이고 왼쪽 측면에 설치된 마이크와 오른쪽 측면에 설치된 마이크에서 수신된 상기 정답 음성 세기의 차이가 사전에 설정된 임계세기 이상이면 상기 정답 음성의 세기가 더 크게 수신된 마이크 방향이 상기 정답 음성의 발화 방향인 것으로 판단하는 것을 특징으로 하는 이동 로봇.
14. The method of claim 13,
The voice direction analyzing unit,
If the difference between the right answer voice and the right answer voice received from the microphone installed on the left side face and the microphone installed on the right side face is higher than a predetermined threshold strength, Is determined to be the ignition direction of the mobile robot.
제 13 항에 있어서,
상기 음성방향 분석부는,
상기 정답 음성이 고주파수이고 왼쪽 측면에 설치된 마이크와 오른쪽 측면에 설치된 마이크에서 수신된 상기 정답 음성 세기의 차이가 사전에 설정된 임계세기 미만이면, 상기 정답 음성의 발화 방향이 상기 이동 로봇의 뒤쪽 방향인 것으로 판단하는 것을 특징으로 하는 이동 로봇.
14. The method of claim 13,
The voice direction analyzing unit,
If the difference between the correct answer voice and the right answer speech strength received from the microphone installed on the left side face and the microphone installed on the right side face is lower than a predetermined threshold strength, then the speaking direction of the correct answer voice is the backward direction of the mobile robot The mobile robot comprising:
제 13 항에 있어서,
상기 음성방향 분석부는,
상기 정답 음성이 저주파수이고 왼쪽 측면에 설치된 마이크와 오른쪽 측면에 설치된 마이크에서 상기 정답 음성이 수신한 시간 차가 사전에 설정된 임계시간 이상이면, 상기 정답 음성이 먼저 수신된 마이크의 방향이 상기 정답 음성의 발화 방향인 것으로 판단하는 것을 특징으로 하는 이동 로봇.
14. The method of claim 13,
The voice direction analyzing unit,
If the time difference of the correct answer voice received by the microphone provided on the left side face and the microphone provided on the right side face is lower than a preset threshold time, the direction of the microphone where the correct answer voice is first received is the speech of the correct answer voice Direction of the mobile robot.
제 13 항에 있어서,
상기 음성방향 분석부는,
상기 정답 음성이 저주파수이고 왼쪽 측면에 설치된 마이크와 오른쪽 측면에 설치된 마이크에서 상기 정답 음성이 수신한 시간 차가 사전에 설정된 임계시간 미만이면, 상기 정답 음성의 발화 방향이 상기 이동 로봇의 뒤쪽 방향인 것으로 판단하는 것을 특징으로 하는 이동 로봇.
14. The method of claim 13,
The voice direction analyzing unit,
If the time difference of the correct answer speech received by the microphone provided on the left side face and the microphone provided on the right side face is lower than a preset threshold time, the speech direction of the correct answer voice is determined to be the backward direction of the mobile robot Wherein the mobile robot is a mobile robot.
제 13 항 내지 제 17 항 중 어느 한 항에 있어서,
상기 정답 판정부는,
상기 정답 음성의 패턴과 매핑된 사용자 성명을 상기 저장부에서 확인하여 정답을 발화한 사용자를 식별하고, 상기 식별한 사용자의 정답 횟수 또는 퀴즈 점수를 증가시키는 것을 특징으로 하는 이동 로봇.
18. The method according to any one of claims 13 to 17,
Wherein,
Identifying a user who has uttered the correct answer by checking the user name mapped with the pattern of the correct answer voice in the storage unit, and increasing the correct answer frequency or quiz score of the identified user.
제 13 항 내지 제 17 항 중 어느 한 항에 있어서,
상기 설명자 선정부는,
상기 정답 음성의 패턴과 매핑된 사용자의 얼굴 이미지를 상기 저장부에서 확인하여, 이 얼굴 이미지에 근거하여 상기 재선정한 문제 설명자의 얼굴을 인식하고, 상기 얼굴이 인식된 방향과 상기 문제 설명자 간의 거리를 토대로, 상기 재선정한 문제 설명자의 위치를 인식하는 것을 특징으로 하는 이동 로봇.
18. The method according to any one of claims 13 to 17,
The descriptor selection unit
Recognizing a face of the re-selected problem descriptor based on the face image by checking the face image of the user mapped with the pattern of the correct answer voice in the storage unit and recognizing the face of the re- And recognizes the position of the re-selected problem descriptor on the basis of the position of the problem descriptor.
KR1020130021133A 2013-02-27 2013-02-27 Method for providing quiz game service in movable robot and movable robot apparatus KR101505078B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130021133A KR101505078B1 (en) 2013-02-27 2013-02-27 Method for providing quiz game service in movable robot and movable robot apparatus
PCT/KR2013/006567 WO2014133231A1 (en) 2013-02-27 2013-07-23 Method for providing quiz game service at mobile robot and mobile robot for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130021133A KR101505078B1 (en) 2013-02-27 2013-02-27 Method for providing quiz game service in movable robot and movable robot apparatus

Publications (2)

Publication Number Publication Date
KR20140106891A KR20140106891A (en) 2014-09-04
KR101505078B1 true KR101505078B1 (en) 2015-03-23

Family

ID=51428473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130021133A KR101505078B1 (en) 2013-02-27 2013-02-27 Method for providing quiz game service in movable robot and movable robot apparatus

Country Status (2)

Country Link
KR (1) KR101505078B1 (en)
WO (1) WO2014133231A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616403B1 (en) * 2016-12-27 2023-12-21 삼성전자주식회사 Electronic device and method for delivering message thereof
KR20200101221A (en) * 2019-02-19 2020-08-27 삼성전자주식회사 Method for processing user input and electronic device supporting the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001310283A (en) 2000-02-14 2001-11-06 Sony Corp Robot system, robot device, and control method thereof, and device and method of information processing
JP2003241833A (en) 2002-02-18 2003-08-29 Hitachi Ltd Information distribution service by mobile robot and information gathering system
KR20050044034A (en) * 2003-11-07 2005-05-12 구지영 Internet quiz system and operating method therefor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271773A (en) * 2002-03-18 2003-09-26 Dainippon Printing Co Ltd Game operation system
KR101170686B1 (en) * 2010-03-15 2012-08-07 모빌토크(주) Method for Guide Service for Person using Moving Robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001310283A (en) 2000-02-14 2001-11-06 Sony Corp Robot system, robot device, and control method thereof, and device and method of information processing
JP2003241833A (en) 2002-02-18 2003-08-29 Hitachi Ltd Information distribution service by mobile robot and information gathering system
KR20050044034A (en) * 2003-11-07 2005-05-12 구지영 Internet quiz system and operating method therefor

Also Published As

Publication number Publication date
WO2014133231A1 (en) 2014-09-04
KR20140106891A (en) 2014-09-04

Similar Documents

Publication Publication Date Title
US10783476B2 (en) System for customized interactions-related assistance
US20220254158A1 (en) Learning situation analysis method, electronic device, and storage medium
US20170188173A1 (en) Method and apparatus for presenting to a user of a wearable apparatus additional information related to an audio scene
CN112653902B (en) Speaker recognition method and device and electronic equipment
US11232790B2 (en) Control method for human-computer interaction device, human-computer interaction device and human-computer interaction system
JP5294315B2 (en) Dialogue activation robot
JP2018205638A (en) Concentration ratio evaluation mechanism
CN113052085A (en) Video clipping method, video clipping device, electronic equipment and storage medium
CN111156441A (en) Desk lamp, system and method for assisting learning
JP2023055910A (en) Robot, dialogue system, information processing method, and program
KR101505078B1 (en) Method for providing quiz game service in movable robot and movable robot apparatus
TW200411627A (en) Robottic vision-audition system
JP2010109898A (en) Photographing control apparatus, photographing control method and program
CN211289676U (en) Desk lamp and system for assisting learning
CN110491384B (en) Voice data processing method and device
CN111861666A (en) Vehicle information interaction method and device
CN116996702A (en) Concert live broadcast processing method and device, storage medium and electronic equipment
Slaney et al. A model of attention-driven scene analysis
CN111078992B (en) Dictation content generation method and electronic equipment
Virkkunen Automatic speech recognition for the hearing impaired in an augmented reality application
JP6962849B2 (en) Conference support device, conference support control method and program
KR20160025203A (en) System and method for billiard coaching by wearable glass device
CN113053186A (en) Interaction method, interaction device and storage medium
JP6867543B1 (en) Information processing equipment, information processing methods and programs
KR200287165Y1 (en) language learning appliance for multi-person

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right