WO2018124473A1 - 이동 로봇 장치 및 그것의 동작 제어 방법 - Google Patents

이동 로봇 장치 및 그것의 동작 제어 방법 Download PDF

Info

Publication number
WO2018124473A1
WO2018124473A1 PCT/KR2017/013143 KR2017013143W WO2018124473A1 WO 2018124473 A1 WO2018124473 A1 WO 2018124473A1 KR 2017013143 W KR2017013143 W KR 2017013143W WO 2018124473 A1 WO2018124473 A1 WO 2018124473A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
image
user
robot device
distance
Prior art date
Application number
PCT/KR2017/013143
Other languages
English (en)
French (fr)
Inventor
윤주현
이민구
이현규
사민철
파블로세라노
류치치
Original Assignee
서울대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교 산학협력단 filed Critical 서울대학교 산학협력단
Priority to KR1020197022317A priority Critical patent/KR102281746B1/ko
Publication of WO2018124473A1 publication Critical patent/WO2018124473A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/003Manipulators for entertainment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Definitions

  • the present invention relates to a mobile robot device and a motion control method thereof. More specifically, the present invention relates to a mobile robot device capable of providing a play function to a user, and a motion control method thereof.
  • Korean Laid-Open Patent Publication No. 2003-0007300 describes a robot toy given a combat function.
  • the robot toys described in the prior art provide a play function to a child, but induce interest by utilizing energy change through battle with other robot toys.
  • the background art described above is technical information that the inventors possess for the derivation of the present invention or acquired in the derivation process of the present invention, and is not necessarily a publicly known technique disclosed to the general public before the application of the present invention. .
  • One embodiment of the present invention is to provide a mobile robot device and its motion control method.
  • One embodiment of the present invention is to provide a mobile robot device and a motion control method thereof that can make a user to move actively.
  • One embodiment of the present invention is to provide a mobile robot device and a motion control method thereof that can exchange emotions with a user.
  • One embodiment of the present invention is to provide a mobile robot device and a motion control method thereof that can provide a hide and seek game to the user.
  • the mobile robot device As a technical means for achieving the above-described technical problem, according to a first aspect of the present invention, the mobile robot device according to an embodiment of the present invention, the camera, processing the captured image of the camera, the processed image An image processor for generating a display image according to a result, an image display unit for outputting the display image, a distance measuring sensor for measuring a distance to an object, a driver for moving the mobile robot device, and the measured distance from the photographed image And an operation control unit for controlling the driving unit to perform hide and seek play for the user's operation based on the control unit.
  • the operation control method of the mobile robot device receiving a user input for the hide-and-seek play, one of the operation of finding and hiding according to the user input Determining to perform the operation, if it is determined to perform the search operation, moving the mobile robot device to perform a search operation for detecting the user from the photographed image of the camera, if it determines to perform the hiding operation, the distance detection sensor And moving the mobile robot device to perform the hiding operation of the mobile robot device based on the distance value with the surrounding object acquired through the.
  • an embodiment of the present invention can propose a mobile robot device and its motion control method.
  • any one of the problem solving means of the present invention it is possible to provide a mobile robot device and a motion control method thereof that can actively move the user through hide and seek play.
  • any one of the problem solving means of the present invention it is possible to provide a mobile robot device and a motion control method thereof that can provide a change in facial expression of the robot to exchange emotions with the user.
  • FIG. 1 is a block diagram showing a mobile robot device according to an embodiment of the present invention.
  • FIG. 2 is a view showing a mobile robot device according to an embodiment of the present invention.
  • FIG. 3 is a block diagram showing a driving unit according to an embodiment of the present invention.
  • FIG. 4 is a view showing a housing of the mobile robot device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an internal structure of a mobile robot device according to an embodiment of the present invention by way of example.
  • FIG. 6 is a diagram illustrating a structure in which an image display unit is disposed in a mobile robot apparatus according to an embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a color adjustment module according to an embodiment of the present invention.
  • FIG. 8 is a flowchart illustrating a hiding operation of the mobile robot device according to an embodiment of the present invention.
  • FIG. 9 is a view for explaining the play with the user according to the hiding operation of the mobile robot device according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a search operation of a mobile robot apparatus according to an embodiment of the present invention.
  • FIG. 11 is a diagram illustrating play with a user according to a find operation of a mobile robot device according to an exemplary embodiment.
  • FIG. 12 is a diagram illustrating the output of the facial expression image in the mobile robot device according to an embodiment of the present invention.
  • FIG. 13 is a view showing the output of the facial expression image using a sticker in the mobile robot device according to an embodiment of the present invention.
  • FIG. 14 is a view illustrating various expressions displayed in the mobile robot device according to an embodiment of the present invention.
  • 15 is a view showing a color change of the mobile robot device according to an embodiment of the present invention.
  • FIG. 1 shows the best mode for carrying out the invention.
  • FIG. 1 is a block diagram showing a mobile robot device according to an embodiment of the present invention.
  • the mobile robot apparatus 100 may include a camera 110, an image display unit 120, an image processor 130, a distance measuring sensor 140, a driver 150, an operation controller 160,
  • the color adjusting module 170 may include a user input unit 180 and a speaker 190.
  • the camera 110 may generate a photographed image by photographing a front image, and may include a plurality of cameras for generating a plurality of images as necessary.
  • the captured image may include a still image or a video.
  • the image display unit 120 may output an image and may be implemented in the form of a screen (or a screen) for playing an image.
  • the image display unit 120 may output an image generated by the image processor 130.
  • the image display unit 120 may output an image captured by the camera 110.
  • the image display unit 120 may output an expression image representing an expression.
  • the facial expression image is an image in which facial expressions corresponding to various human emotions are implemented in an image form.
  • the image display unit 120 may output an image indicating an on or off state of the power source, an image indicating an operation error, or an image indicating an operation message according to a hide and seek game.
  • the image display unit 120 may output various other images.
  • the image processor 130 may process the captured image captured by the camera 110. In addition, the image processor 130 may output the display image generated through image processing or a separate display image generated therein to the image display unit 120.
  • the image processor 130 may check the current bright, dark, day, night or the like around the mobile robot device 100 from the captured image.
  • the illuminance checked through the image processor 130 may be used to be less visible to the user during the hiding operation.
  • the image processor 130 may use an illuminance sensor (not shown) to check illuminance.
  • the image processor 130 may check the brightness around the mobile robot apparatus 100 using the illuminance value measured by the illuminance sensor.
  • the distance measuring sensor 140 may measure a distance from a surrounding object (or an obstacle).
  • the distance measuring sensor 140 may be implemented as at least two or more sensors measuring distances to surrounding objects in different directions.
  • the distance measuring sensor 140 may be implemented as an ultrasonic sensor capable of measuring distance.
  • the driving unit 150 may move the mobile robot apparatus 100 by driving a wheel or the like. In addition, the driving unit 150 may also change or rotate the direction for the movement of the mobile robot apparatus 100. Therefore, the driving unit 150 may be used to move the mobile robot apparatus 100.
  • the operation controller 160 may control an operation of the mobile robot device based on a distance between the photographed image of the camera 110 and the surrounding object detected by the distance measuring sensor 140.
  • the motion controller 160 may provide a hide-and-seek play that performs a find operation or a hide operation together with a user (eg, a child) of the mobile robot apparatus 100.
  • a user eg, a child
  • the mobile robot device 100 performs a hiding operation
  • the mobile robot device 100 May perform a find operation.
  • the operation controller 160 may control the driving unit 150 to move the mobile robot device 100.
  • the operation controller 160 may control the movement path of the mobile robot apparatus 100 using the distance value measured by the distance measuring sensor 140.
  • the color adjustment module 170 may variously change the appearance color of the mobile robot device 100 according to the control of the operation controller 160 or the like.
  • the color control module 170 may be implemented as an organic light emitting diode (LED) module and the like, and may output various colors according to the type of LED module provided. Through this, the color adjustment module 170 may adjust the color of the mobile robot device 100 to have a color similar to the color of the surrounding when the hiding operation.
  • LED organic light emitting diode
  • the user input unit 180 may receive various user inputs for controlling the operation of the mobile robot apparatus 100 from the user, and may be implemented in various forms such as a button, a switch, a touch pad, a microphone (voice input), and the like. .
  • the user input unit 180 may receive various user input signals, and the user input signal may control a power control signal (for example, a power on signal or a power off signal) and an operation mode of the mobile robot device.
  • a control signal for example, a learning command signal, a learning data input signal, etc.
  • a control signal for example, a learning command signal, a learning data input signal, etc.
  • It may further include other various user input signals.
  • the speaker 190 may output a voice signal generated during the operation of the mobile robot apparatus 100. For example, when the speaker 190 is found by the user during the hiding operation, the speaker 190 outputs various audio signals such as “I have found!”, “I have found it!”, “Pikabu (Picabot)!” And “Ding dong ⁇ ”. In the search operation, you can output various audio signals such as “Where are you?”, “I found!”, “Here you are!”, “Pikabu (Pikabot)!”, And “Tiri Ring ⁇ ”.
  • the mobile robot device 100 may provide a hide-and-seek game to the user, thereby providing a play that allows the user to move more actively with the user (eg, a child).
  • the above-described mobile robot apparatus 100 may further include a power supply unit or a battery for supplying operating power.
  • FIG. 2 is a view showing a mobile robot device according to an embodiment of the present invention.
  • the mobile robot apparatus 100 may include a camera 110 and an image display unit 120 on a front surface thereof.
  • the mobile robot device 100 may include a wheel 102 for movement at the bottom.
  • FIG. 2 shows a mobile robotic device 100 including three wheels 102.
  • the number of wheels 102 of the mobile robot device 100 may be adjusted to various numbers depending on the implementation.
  • the mobile robot device 100 has a shape similar to a cat, which is illustrated by way of example and may be implemented in other various forms.
  • FIG 3 is a view showing a driving unit according to an embodiment of the present invention.
  • the driving unit 150 may include a motor drive 151 and a motor 152.
  • the motor drive 151 may be connected to the motor 152 to control the driving of the motor 152.
  • the motor drive 151 may operate under the control of the operation controller 160.
  • the motor drive 151 may control the rotation direction or the rotation speed of the motor, or control the movement direction of the mobile robot apparatus 100 by adjusting the position of the motor or the wheel.
  • the motor 152 may be connected to the wheel 102, for example, and generates power to drive the wheel 102 by a drive signal of the motor drive 151.
  • the motor 152 may drive the wheels 102 to move the mobile robot device 100.
  • FIG. 4 is a view showing a housing of the mobile robot device according to an embodiment of the present invention.
  • a housing 101 for introducing the respective modules of the mobile robot apparatus 100 therein is shown.
  • the housing 101 has an insertion groove 1011 for inserting the image display unit 120.
  • a camera hole 1012 for introducing a lens of the camera 110 is formed at an upper end of the insertion groove 1011.
  • (b) the front side of the housing 101 is shown. Looking at the front of the housing 101, the image display insertion groove 1011 and the camera hole 1012 is located.
  • (c) the left side of the housing 101 is shown. Looking at the left side of the housing 101, it can be seen that the image display unit insertion groove 1011 for inserting the image display unit 120 is formed.
  • Such a housing 101 may introduce elements or modules constituting the mobile robot apparatus 100 as shown in FIG. 1.
  • the housing 101 may be made of a white-based material that is easy to absorb color for color change by the color control module 170, and may be implemented in a translucent form. Such a housing 101 has a structure capable of absorbing light of a color output from the color control module 170. Therefore, the mobile robot device 100 may be shown to the user in the color output from the color adjustment module 170.
  • FIG. 5 is a diagram illustrating an internal structure of a mobile robot device according to an embodiment of the present invention by way of example.
  • the mobile robot apparatus 100 includes a camera 110, an image display unit 120, an image processor 130, a distance measuring sensor 140, a driver 150, and an operation controller 160. It may include.
  • the mobile robot device 100 may include a base plate 103 coupled with the housing 101.
  • the base plate 103 is coupled with the wheels 102.
  • the camera 110, the image display unit 120, the image processor 130, the distance measuring sensor 140, the driver 150, the operation controller 160, and the like of the mobile robot apparatus 100 may have a bottom plate 103. It can be located relative to.
  • the camera 110 may be coupled to be located at the front of the housing 101.
  • the camera 110 may be a Pi camera operable with low power.
  • the image display unit 120 may be coupled to position the screen on the front surface of the housing 101.
  • the image display unit 120 may be a Pi screen.
  • the image processor 130 may be connected to the camera 110 and the image display unit 120, may process an image received from the camera 110, and generate an image to be output through the image display unit 120.
  • the image processor 130 may be implemented in the form of a processor that processes an image, or may be implemented in a Raspberry Pi B processor.
  • the distance measuring sensor 140 may be implemented with one or more sensors.
  • the distance measuring sensor 140 may be implemented as an infrared sensor using two infrared sensors.
  • the distance measuring sensor 140 may be implemented as an HC SR04 ultrasonic sensor.
  • the two infrared sensors shown may be positioned spaced apart from each other as shown in the figure.
  • the two infrared sensors can measure distances to each other in different directions.
  • the driving unit 150 may include a driving drive 151 and a motor 152 for driving wheels.
  • the driving drive 151 is connected to the motor 152 to control the driving of the motor 152.
  • the motor drive 151 may be an L298N (L298N) motor drive.
  • the motor 152 may be driven for the movement of the mobile robot device 100 and may cause the wheels 102 to move.
  • the motor 152 may include at least two or more as necessary.
  • the motor may be a direct current (DC) motor.
  • the operation controller 160 may provide the hide and seek game using the image inputted through the image processor 130 and at least two distance values measured by the distance measuring sensor 140.
  • the operation controller 160 may control the mobile robot apparatus 100 to move by using the driving unit 150 to perform a search or hide operation of the hide and seek game.
  • the operation controller 160 may be implemented as an chicken Uno processor.
  • FIG. 6 is a diagram illustrating a structure in which an image display unit is disposed in a mobile robot apparatus according to an embodiment of the present invention.
  • the image display unit 120 may be fixed through the support 104 coupled to the bottom plate 103 of the mobile robot apparatus 100.
  • the image display unit 120 and the operation control unit 160 are positioned in the housing 101 by way of example.
  • the remaining components of the mobile robot apparatus 100 are not shown for convenience of description.
  • the side of the support 104 is coupled to the image display unit 120 is shown.
  • the support 104 may be coupled to the image display unit 120 so that the screen is located on the inclined surface (H).
  • the support 104 is shown, the support 104 is coupled to a plurality of support rods (1042, 1043, 1044, 1045) for fixing the image display unit 120 relative to the support base plate 1041 Has a structure.
  • the two support rods 1042 and 1043 positioned on the front side may have a shorter length than the two support rods 1044 and 1045 positioned on the rear side.
  • the first supporting rods 1042 and the third supporting rods 1044 may form inclined surfaces H1 at the end surfaces thereof, and the second supporting rods 1043 and the fourth supporting rods 1045 may have the inclined surfaces H2 formed at their ends. have.
  • the inclined surfaces H1 and H2 may be parallel to each other.
  • the end portion of the support is about 45 degrees (an angle between XX ') of the display base plate 1041 (or base plate 103), ie, a plane parallel to the ground X. It can be combined to form a slope.
  • the inclination of about 45 degrees is shown by way of example, and depending on the implementation, the inclination may have other various angles.
  • the inclined surfaces H, H1, and H2 with respect to the ground may all form an angle of about 45 degrees.
  • the mobile robot apparatus 100 since the mobile robot apparatus 100 is positioned on the floor based on the line of sight of the user, when the image display unit 120 is inclined, the image displayed from the image display unit 120 does not need to be tilted or lowered by the user. Can be easily identified.
  • FIG. 7 is a diagram illustrating a color adjustment module according to an embodiment of the present invention.
  • the color control module 170 may be implemented as an organic light emitting diode (LED) module.
  • the color control module 170 may implement various colors using the LED module.
  • the image processor 130 may detect the color or brightness of the surroundings by using the captured image received from the camera 110.
  • the image processor 130 may adjust the color of the color adjustment module 170 to represent the color corresponding to the detected color by using the information about the detected color or brightness.
  • the image processor 130 may adjust the brightness of the color control module 170 according to the brightness, that is, the illuminance.
  • the color adjustment module 170 may change the color of the mobile robot device 100 according to the surrounding color when the hiding operation of the mobile robot device 100 is performed through color adjustment, thereby making it difficult for the user to find.
  • the operation control unit 160 may adjust the color or brightness of the color control module 170 using the color or brightness detected by the image processing unit. have.
  • the housing 101 may be made of a material that can easily absorb the color output from the color control module 170. Therefore, the mobile robot device 100 may be shown to the user in the color output from the color adjustment module 170.
  • the mobile robot apparatus 100 may change the color of the mobile robot apparatus 100 by adjusting the color or the brightness using the color adjusting module 170.
  • the mobile robot device 100 may perform a hiding operation so as not to be easy to find from a user by adjusting color or brightness according to a surrounding environment.
  • FIG. 8 is a flowchart illustrating a hiding operation of the mobile robot device according to an embodiment of the present invention.
  • the mobile robot apparatus 100 rotates for a preset time t at the start position (S210).
  • the mobile robot device 100 acquires at least two distance values with surrounding objects when the rotation ends after a predetermined time elapses (S220).
  • the mobile robot device 100 may obtain the distance value with the surrounding object by using the distance measuring sensor 140, and when the distance measuring sensor 140 includes a plurality of sensors, each of the plurality of sensors The distance value can be obtained.
  • the mobile robot apparatus 100 determines whether at least one distance value d of the plurality of distance values measured with the surrounding object through the distance measuring sensor is less than the reference distance value D (D ⁇ D) (S230).
  • step S230 if the distance value of at least one of the measured distance values is not less than the reference distance value, the mobile robot apparatus 100 proceeds to step S220 to obtain a distance value with surrounding objects and move.
  • step S230 if at least one of the measured distance values is less than the reference distance value, the mobile robot apparatus 100 proceeds to step S240.
  • step S240 the mobile robot device 100 moves after the distance value is rotated in a direction larger than the other distance value.
  • the mobile robot apparatus 100 determines whether all measured distance values are less than the reference distance value (S250).
  • step S250 if the measured distance values are not all less than the reference distance value, the mobile robot apparatus 100 proceeds to step S240. However, in step S250, if the measured distance values are all less than the reference distance value, the mobile robot apparatus 100 proceeds to step S260.
  • the mobile robot apparatus 100 photographs a front image to measure a brightness value, that is, illuminance at the current location (S260). If the mobile robot apparatus 100 further includes an illumination sensor, the mobile robot device 100 may measure a brightness value using the illumination sensor.
  • the mobile robot apparatus 100 determines whether the brightness value b obtained from the captured image is less than the reference brightness value B (b ⁇ B) (S270).
  • step S270 if the brightness value obtained from the captured image is not less than the reference brightness value, the mobile robot apparatus 100 proceeds to step S210.
  • the mobile robot apparatus 100 may search for another place to hide after the movement through the rotation.
  • the mobile robot apparatus 100 proceeds to step S280.
  • the mobile robot apparatus 100 may selectively perform steps S260 and S270. Therefore, steps S260 and S270 may not be implemented in the mobile robot apparatus 100 or may be set to be selectively performed by a user. If step S260 and step S270 are not performed, the mobile robot apparatus 100 may proceed from step S250 to step S270.
  • the mobile robot device 100 performs a hiding operation at the current location (S280).
  • the mobile robot apparatus 100 may obtain ambient color information from the captured image in addition to the brightness value from the captured image.
  • the mobile robot device 100 may adjust the color of the mobile robot device to have the color of the mobile robot device most similar to the surrounding image.
  • the mobile robot device 100 may output a color corresponding to the detected yellow color and change the color of the appearance of the mobile robot device 100.
  • the mobile robot device 100 may adjust and output the brightness of the yellow color.
  • the mobile robot apparatus 100 may move to a corner place, and may hide in a dark place based on brightness. As such, the mobile robot apparatus 100 may efficiently hide a location that is difficult for the user to find based on the distance value and the brightness value.
  • the mobile robot apparatus 100 completes the search operation by the user corresponding to hiding, and thus ends the operation.
  • the mobile robot apparatus 100 may maintain the current hiding state and wait for the user input.
  • FIG. 9 is a view for explaining the play with the user according to the hiding operation of the mobile robot device according to an embodiment of the present invention.
  • the mobile robot device 100 may perform a hiding operation.
  • the user 10 plays a role of a hide-and-seek play, and the mobile robot device 100 performs a hiding operation so as to be difficult to see from the user 10.
  • the mobile robot device 100 may perform a hiding operation through the operation illustrated in FIG. 9. After the mobile robot device 100 completes the hiding operation, the mobile robot device 100 performs the hiding operation until it is found from the user 10. If it is found from the user 10, the mobile robot device 100 causes the mobile robot device 100 to end the hiding operation if there is a user input such as a touch operation by the hand 11 of the user 10. do.
  • FIG. 10 is a flowchart illustrating a search operation of a mobile robot apparatus according to an embodiment of the present invention.
  • the mobile robot apparatus 100 moves for a preset time t1 (S310).
  • the mobile robot apparatus 100 may move around the object by using the distance value detected by the distance sensor 140.
  • the mobile robot device 100 rotates for a preset time t2 and captures an image (S320).
  • the mobile robot apparatus 100 checks whether a user corresponding to the learned image is found from the captured image (S330). The mobile robot apparatus 100 compares whether there is a user corresponding to the image learned from the captured image. In addition, when shooting is possible while moving as in step 310, the mobile robot apparatus 100 may take an image while moving and use the captured image to find a user.
  • the mobile robot device 100 checks whether the user who is looking for has been detected.
  • step S320 if the mobile robot device 100 does not find the learned user, the mobile robot device 100 proceeds to step S310.
  • the mobile robot apparatus 100 captures an image from a different angle. To this end, the mobile robot apparatus 100 may move or rotate a predetermined distance to take an image from another angle.
  • the mobile robot apparatus 100 reconfirms whether or not the user who learns from the captured image photographed from another angle is sure (S350).
  • step S350 if no learned user is found, the process proceeds to step S310.
  • step S350 when the mobile robot apparatus 100 finds the learned user, the mobile robot apparatus 100 proceeds to step S360.
  • the mobile robot apparatus 100 may complete a search operation when the user is detected in at least two captured images photographed from different angles.
  • Steps S330 and S340 are a kind of verification step for finding the user more accurately, and may be set to be performed or not to be performed according to the implementation of the mobile robot apparatus 100.
  • the mobile robot device 100 As the mobile robot device 100 discovers the learned user, the mobile robot device 100 outputs a voice indicating completion of the search and ends. For example, the mobile robot device 100 may indicate voices indicating completion of the search, “where are you”, “find!”, “Here you are!”, “Pikabu (Pikabot)!”, “Tiri ring ⁇ ”, and the like. You can print
  • FIG. 11 is a diagram illustrating play with a user according to a find operation of a mobile robot device according to an exemplary embodiment.
  • the mobile robot device 100 may perform a search operation.
  • the mobile robot device 100 plays a role of a hide-and-seek game, and the user 10 hides the mobile robot device 100 in order to be difficult to see from the mobile robot device 100.
  • the mobile robot device 100 may perform a search operation through the operation illustrated in FIG. 10. When the user 10 is hidden, the mobile robot device 100 performs a search operation to find the user 10. The user 10 may hide in the cabinet or under the bed. The mobile robot device 100 holds learning data learned about the shape or shape of the user 10. Therefore, the mobile robot apparatus 100 may find the user 10 by comparing the image photographed through the movement with the training data.
  • the mobile robot device 100 finds the user 10, the mobile robot device 100 outputs a voice indicating that the user 10 has been found and ends the search operation.
  • FIG. 12 is a diagram illustrating the output of the facial expression image in the mobile robot device according to an embodiment of the present invention.
  • the mobile robot device 100 photographs an image such as a sticker (S410).
  • the mobile robot apparatus 100 may photograph the sticker using a camera to output an image corresponding to the expression of the sticker.
  • the mobile robot apparatus 100 generates an expression image based on the expression of the photographed sticker and outputs an expression image (S420). By using stickers corresponding to various expressions, the mobile robot device 100 may variously express the facial expression image.
  • the mobile robot device 100 may allow the user to recognize the facial expression image representing the various emotions, and thus may exchange various emotions with the user.
  • the mobile robot apparatus 100 may photograph a face of the user instead of a sticker and output an image corresponding to the facial expression of the user. For example, when recognizing a sad expression of a user, the mobile robot apparatus 100 may output a facial expression image corresponding to the sad expression. On the contrary, when recognizing the sad expression of the user, the mobile robot device 100 may comfort the user by outputting the facial expression image corresponding to the smiley expression opposite to the sad expression.
  • the mobile robot apparatus 100 may output a facial expression image corresponding to the emotion of the user when using the facial expression of the user, and more closely reflect the emotion of the user than when using a sticker. You can exchange.
  • FIG. 13 is a view showing the output of the facial expression image using a sticker in the mobile robot device according to an embodiment of the present invention.
  • the mobile robot apparatus 100 may recognize an expression by using a sticker 500 representing various expressions.
  • the mobile robot device 100 may recognize the sticker 500 using the camera 110.
  • the mobile robot device 100 may output the facial expression image of the sticker 500 through the image display unit 120.
  • the mobile robot apparatus 100 may display the sticker 510 on the screen of the image display unit 120. Expected expression corresponding to) can be displayed (511).
  • the mobile robot device 100 displays the sleepy expression corresponding to the sticker 520 on the screen of the image display unit 512. )can do.
  • FIG. 14 is a view illustrating various expressions displayed in the mobile robot device according to an embodiment of the present invention.
  • the mobile robot device 100 may show a refreshed expression 611.
  • the mobile robot device 100 may exhibit a sleepy facial expression 612.
  • the mobile robot device 100 may show a shameful expression 613.
  • the mobile robot device 100 may display a smiley face 614.
  • the mobile robot device 100 may show an expression 615 in love.
  • the mobile robot device 100 may show a winking expression 616.
  • the mobile robot device 100 may show a sad expression 617. In (h), the mobile robot device 100 may show an angry expression 618. In (i), the mobile robot device 100 may exhibit a poor expression 619. In (j), the mobile robot device 100 may show an obtuse facial expression 620.
  • the mobile robot apparatus 100 may recognize stickers of various expressions using a camera and output a facial expression image corresponding to the recognized stickers on the screen.
  • the sticker is implemented through an RFID tag or the like
  • the mobile robot device 100 includes an RFID reader or the like
  • the mobile robot device 100 may recognize and output various expressions according to the tag operation of the sticker without using a camera.
  • the mobile robot device 100 may be configured to display a sad expression 770 as shown in (g) if a user input signal according to the user's discovery exists even without a tag of the sticker 500 after the hiding operation. Can be.
  • the mobile robot apparatus 100 may be set to display a smiley expression 740 as shown in (d) at the same time as the voice output indicating the search. Therefore, the mobile robot device 100 may output a set facial expression image in various operations including a hide and seek operation.
  • the mobile robot apparatus 100 may display various facial expressions and thus may exchange various emotions with the user, that is, the user.
  • 15 is a view showing a color change of the mobile robot device according to an embodiment of the present invention.
  • the mobile robot apparatus 100 may change the color using the color adjustment module 170.
  • the mobile robot device 100 changes the color to red using the color adjustment module 170 by way of example.
  • the mobile robot device 100 changes the color 720 to green using the color adjustment module 170 by way of example.
  • the mobile robot device 100 changes the color to blue 730 using the color control module 170 by way of example.
  • the mobile robot device 100 may change the color using the color control module 170.
  • the above-described red, blue, and green colors are shown for convenience of description, and other than the above-described colors. It may be changed to various colors.
  • the mobile robot device 100 may provide a function of an inconspicuous protective color in the hide and seek game by adjusting the color of the appearance, but may also provide a function of lighting such as a mood lamp.
  • ' ⁇ part' used in the present embodiment refers to software or a hardware component such as a field programmable gate array (FPGA) or an ASIC, and the ' ⁇ part' performs certain roles.
  • ' ⁇ ' is not meant to be limited to software or hardware.
  • ' ⁇ Portion' may be configured to be in an addressable storage medium or may be configured to play one or more processors.
  • ' ⁇ ' means components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and the like. Subroutines, segments of program patent code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • the functionality provided within the components and 'parts' may be combined into a smaller number of components and 'parts' or separated from additional components and 'parts'.
  • components and ' ⁇ ' may be implemented to play one or more CPUs in the device or secure multimedia card.
  • the motion control method of the mobile robot device may be implemented as a computer program (or computer program product) including instructions executable by a computer.
  • a computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. In particular, it can be implemented in the R language, the Python language, the Ruby language, and the Scheme language.
  • the computer program may also be recorded on tangible computer readable media (eg, memory, hard disks, magnetic / optical media or solid-state drives, etc.).
  • the motion control method of the mobile robot device can be implemented by executing the computer program as described above by the computing device.
  • the computing device may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • a processor may include at least a portion of a processor, a memory, a storage device, a high speed interface connected to the memory and a high speed expansion port, and a low speed interface connected to the low speed bus and the storage device.
  • Each of these components are connected to each other using a variety of buses and may be mounted on a common motherboard or otherwise mounted in a suitable manner.
  • the processor may process instructions within the computing device, such as to display graphical information for providing a graphical user interface (GUI) on an external input, output device, such as a display connected to a high speed interface. Instructions stored in memory or storage. In other embodiments, multiple processors and / or multiple buses may be used with appropriately multiple memories and memory types.
  • the processor may also be implemented as a chipset consisting of chips comprising a plurality of independent analog and / or digital processors.
  • the memory also stores information within the computing device.
  • the memory may consist of a volatile memory unit or a collection thereof.
  • the memory may consist of a nonvolatile memory unit or a collection thereof.
  • the memory may also be other forms of computer readable media, such as, for example, magnetic or optical disks.
  • the storage device can provide a large amount of storage space to the computing device.
  • the storage device may be a computer readable medium or a configuration including such a medium, and may include, for example, devices or other configurations within a storage area network (SAN), and may include a floppy disk device, a hard disk device, an optical disk device, Or a tape device, flash memory, or similar other semiconductor memory device or device array.
  • SAN storage area network

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이동 로봇 장치 및 그것의 동작 제어 방법에 관한 것이다. 본 발명의 제 1 측면에 따르면, 본 발명의 실시예에 따른 이동 로봇 장치는, 카메라, 카메라의 촬영 영상을 처리하고, 촬영 영상을 처리한 결과에 따라 표시 영상을 생성하는 영상 처리부, 표시 영상을 출력하는 영상 표시부, 주변 사물과의 거리를 측정하는 거리 측정 센서, 이동 로봇 장치를 이동시키는 구동부, 및 촬영 영상과 측정된 거리에 기초하여 사용자의 동작에 대한 숨바꼭질 놀이를 수행하도록 구동부를 제어하는 동작 제어부를 포함할 수 있다.

Description

이동 로봇 장치 및 그것의 동작 제어 방법
본 발명은 이동 로봇 장치 및 그것의 동작 제어 방법에 관한 것이다. 보다 상세하게는, 사용자에게 놀이 기능을 제공할 수 있는 이동 로봇 장치 및 그것의 동작 제어 방법에 관한 것이다.
2017년 과제번호 및 사사표기
1-1. 과제고유번호 : 1711054935
1-2. 사사 국문표기 : "본 연구는 미래창조과학부 및 정보통신기술진흥센터의 정보통신기술인력양성(R&D, 정보화)의 연구결과로 수행되었음" (IITP-2017-2014-0-00743)
1-3. 사사 영문표기 : "This research was supported by the MSIP(Ministry of Science, ICT and Future Planning), Korea, under the ITRC(Information Technology Research Center) support program (IITP-2017-2014-0-00743) supervised by the IITP(Institute for Information & communications Technology Promotion)"
1-4. 기여율 : 3/10
2-1. 과제고유번호 : 600-20170008
2-2. 사사 국문표기 : "이 논문(또는 저서)은 2017년도 융복합 연구과제 지원사업의 지원을 받아 수행된 연구임"
2-3. 사사 영문표기 : "This work was supported by the Seoul National University Research Grant in 2017"
2-4. 기여율 : 4/10
3-1. 과제고유번호 : 1415151099
3-2. 사사 국문표기 : "본 연구는 산업통상자원부(MOTIE)와 한국에너지기술평가원(KETEP)의 지원을 받아 수행한 연구 과제임" (No. 20161210200410)
3-3. 사사 영문표기 : "This work was supported by the Korea Institute ofEnergy Technology Evaluation and Planning(KETEP) and the Ministry of Trade,Industry &Energy(MOTIE) of the Republic of Korea" (No. 20161210200410)
3-4. 기여율 : 3/10
최근 맞벌이 부부의 증가로 인해 부모가 자녀와 함께하는 시간이 줄어들고 있으며, 출산률의 저하로 인해 형제 또는 자매없이 아이 홀로 양육되는 가정이 증가하고 있다. 이와 같이, 아이 혼자만의 시간이 증가함에 따라 정적이고, 타인과의 감정의 교류를 위한 활동이 부족한 측면이 있다.
이와 같이, 혼자 지내는 시간이 많은 아이와 놀이를 할 수 있는 다양한 로봇 장치가 제안되고 있다. 관련하여 선행기술문헌인 한국공개특허 제2003-0007300호에서는 전투 기능을 부여한 로봇 완구를 기재하고 있다. 선행기술에 기재된 로봇 완구는 아이에게 놀이 기능을 제공하지만, 다른 로봇 완구와의 전투를 통한 에너지 변화를 이용하여 흥미를 유발한다.
하지만, 이러한 로봇 완구는 자체적으로 움직임에 따라 아이에게 활발한 움직임을 유발하지 않으며, 단순 전투 기능으로 인해 다양한 감정 교류를 나누는데 한계가 있다. 따라서, 사용자에게 활발한 움직임을 유발하는 동적이고, 감정의 교류까지 가능하도록 하는 놀이 기구에 대한 필요성이 있었다.
따라서 근래에는 이러한 문제점을 해결하기 위한 장치 및 방법이 요구되고 있는 실정이다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 발명의 일실시예는 이동 로봇 장치 및 그것의 동작 제어 방법을 제공하는 데에 그 목적이 있다.
본 발명의 일실시예는 사용자를 활발하게 움직이도록 할 수 있는 이동 로봇 장치 및 그것의 동작 제어 방법을 을 제공하는 데에 그 목적이 있다.
본 발명의 일실시예는 사용자와 함께 감정의 교류를 할 수 있는 이동 로봇 장치 및 그것의 동작 제어 방법을 제공하는 데에 그 목적이 있다.
본 발명의 일실시예는 사용자에게 숨바꼭질 놀이를 제공할 수 있는 이동 로봇 장치 및 그것의 동작 제어 방법을 제공하는 데에 그 목적이 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따르면, 본 발명의 실시예에 따른 이동 로봇 장치는, 카메라, 상기 카메라의 촬영 영상을 처리하고, 상기 촬영 영상을 처리한 결과에 따라 표시 영상을 생성하는 영상 처리부, 상기 표시 영상을 출력하는 영상 표시부, 주변 사물과의 거리를 측정하는 거리 측정 센서, 상기 이동 로봇 장치를 이동시키는 구동부, 및 상기 촬영 영상과 상기 측정된 거리에 기초하여 사용자의 동작에 대한 숨바꼭질 놀이를 수행하도록 상기 구동부를 제어하는 동작 제어부를 포함한다.
본 발명의 제 2 측면에 따르면, 본 발명의 실시예에 따른 이동 로봇 장치의 동작 제어 방법은, 숨바꼭질 놀이를 위한 사용자 입력을 수신하는 단계, 상기 사용자 입력에 따라 찾기 동작과 숨기 동작 중 하나의 동작을 수행하도록 결정하는 단계, 상기 찾기 동작을 수행하도록 결정한 경우, 카메라의 촬영 영상으로부터 사용자를 검출하는 찾기 동작을 수행하도록 상기 이동 로봇 장치를 이동시키고, 상기 숨기 동작의 수행을 결정하면, 거리 감지 센서를 통해 획득된 주변 사물과의 거리값에 기초하여 상기 이동 로봇 장치를 숨기 동작을 수행하도록 하도록 상기 이동 로봇 장치를 이동시키는 단계를 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명의 일실시예는 이동 로봇 장치 및 그것의 동작 제어 방법을 제시할 수 있다.
또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 숨바꼭질 놀이를 통해 사용자를 활발하게 움직이도록 할 수 있는 이동 로봇 장치 및 그것의 동작 제어 방법을 제시할 수 있다.
또한, 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 로봇의 표정 변화를 제공하여 사용자와 감정의 교류를 할 수 있는 이동 로봇 장치 및 그것의 동작 제어 방법을 제시할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 이동 로봇 장치를 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 이동 로봇 장치를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 구동부를 도시한 블록도이다.
도 4는 본 발명의 일실시예에 따른 이동 로봇 장치의 하우징을 도시한 도면이다.
도 5는 본 발명의 일실시예에 따른 이동 로봇 장치의 내부 구조를 예시적으로 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 이동 로봇 장치 내부에 영상 표시부가 배치되는 구조를 도시한 도면이다.
도 7은 본 발명의 일실시예에 따른 색상 조절 모듈을 도시한 도면이다.
도 8은 본 발명의 일실시예에 따른 이동 로봇 장치의 숨기 동작을 도시한 순서도이다.
도 9는 본 발명의 일실시예에 따른 이동 로봇 장치의 숨기 동작에 따른 사용자와의 놀이를 설명하기 위한 도면이다.
도 10은 본 발명의 일실시예에 따른 이동 로봇 장치의 찾기 동작을 도시한 순서도이다.
도 11은 본 발명의 일실시예에 따른 이동 로봇 장치의 찾기 동작에 따른 사용자와의 놀이를 설명하기 위한 도면이다.
도 12는 본 발명의 일실시예에 따른 이동 로봇 장치에서 표정 영상의 출력을 도시한 도면이다.
도 13은 본 발명의 일실시예에 따른 이동 로봇 장치에서 스티커를 이용한 표정 영상의 출력을 도시한 도면이다.
도 14는 본 발명의 일실시예에 따른 이동 로봇 장치에서 표시되는 다양한 표정을 도시한 도면이다.
도 15는 본 발명의 일실시예에 따른 이동 로봇 장치의 색상 변화를 도시한 도면이다.
발명의 실시를 위한 최선의 형태를 보여주는 도면은 도 1이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 이동 로봇 장치를 도시한 블록도이다.
도 1에 도시된 바와 같이, 이동 로봇 장치(100)는 카메라(110), 영상 표시부(120), 영상 처리부(130), 거리 측정 센서(140), 구동부(150), 동작 제어부(160), 색상 조절 모듈(170), 사용자 입력부(180), 및 스피커(190)를 포함할 수 있다.
카메라(110)는 전방의 영상을 촬영하여 촬영 영상을 생성할 수 있으며, 필요에 따라 복수의 영상을 생성하기 위한 복수개의 카메라를 포함할 수도 있다. 여기서, 촬영 영상은 정지영상 또는 동영상을 포함할 수 있다.
영상 표시부(120)는 영상을 출력할 수 있으며, 영상 재생을 위한 화면(또는, 스크린)의 형태로 구현될 수 있다. 영상 표시부(120)는 영상 처리부(130)를 통해 생성된 영상을 출력할 수 있다. 또한, 영상 표시부(120)는 카메라(110)를 통해 촬영된 영상을 출력할 수도 있다.
예를 들어, 영상 표시부(120)는 표정을 나타내는 표정 영상을 출력할 수 있다. 여기서, 표정 영상은 인간의 다양한 감정에 대응되는 얼굴 표정을 이미지 형태로 구현한 영상이다. 또한, 영상 표시부(120)는 전원의 온 또는 오프 상태를 나타내는 영상, 동작 오류를 나타내는 영상, 숨바꼭질 놀이에 따른 동작 메시지를 나타내는 영상을 출력할 수 있다. 상술한 영상들 이외에도, 영상 표시부(120)는 다양한 다른 영상들을 출력할 수 있다.
영상 처리부(130)는 카메라(110)를 통해 촬영된 촬영 영상을 영상 처리할 수 있다. 또한, 영상 처리부(130)는 영상 처리를 통해 생성된 표시 영상 또는 내부에서 생성된 별도의 표시 영상을 영상 표시부(120)로 출력할 수 있다.
또한, 영상 처리부(130)는 촬영 영상으로부터 이동 로봇 장치(100) 주변이 현재 밝음, 어두움, 주간, 야간 등을 확인할 수도 있다. 영상 처리부(130)를 통해 확인된 조도는 숨기 동작 시 사용자의 눈에 잘 띄지 않기 위해 이용될 수 있다.
한편, 영상 처리부(130)는 조도를 확인하기 위해 조도 센서(미도시)를 이용할 수도 있다. 영상 처리부(130)는 조도 센서를 통해 측정된 조도값을 이용하여 이동 로봇 장치(100) 주변의 밝기를 확인할 수도 있다.
거리 측정 센서(140)는 주변 사물(또는, 장애물)과의 거리를 측정할 수 있다. 거리 측정 센서(140)는 서로 다른 방향에서 주변 사물과의 거리를 측정하는 적어도 두 개 이상의 센서로 구현될 수 있다. 예를 들어, 거리 측정 센서(140)는 거리 측정이 가능한 초음파 센서 등으로 구현될 수 있다.
구동부(150)는 바퀴 등을 구동하여 이동 로봇 장치(100)를 이동시킬 수 있다. 또한, 구동부(150)는 이동 로봇 장치(100)의 이동을 위한 방향의 전환 또는 회전도 할 수 있다. 그러므로, 구동부(150)는 이동 로봇 장치(100)를 이동시키기 위해 이용될 수 있다.
동작 제어부(160)는 카메라(110)의 촬영 영상과 거리 측정 센서(140)를 통해 감지된 주변 사물과의 거리값에 기초하여 이동 로봇 장치의 동작을 제어할 수 있다. 예를 들어, 동작 제어부(160)는 이동 로봇 장치(100)의 사용자(예를들면, 아이)와 함께 찾기 동작 또는 숨기 동작을 수행하는 숨바꼭질 놀이 등을 제공할 수 있다. 예를 들어, 사용자가 술래가 되어 이동 로봇 장치(100)를 찾는 경우, 이동 로봇 장치(100)는 숨기 동작을 수행하고, 이동 로봇 장치(100)가 술래가 되어 사용자를 찾는 경우, 이동 로봇 장차는 찾기 동작을 할 수 있다.
특히, 동작 제어부(160)는 구동부(150)를 제어하여 이동 로봇 장치(100)를 이동시킬 수 있다. 이를 위해, 동작 제어부(160)는 거리 측정 센서(140)로부터 측정된 거리값을 이용하여 이동 로봇 장치(100)의 이동 경로를 제어할 수 있다.
색상 조절 모듈(170)은 동작 제어부(160) 등의 제어에 따라 이동 로봇 장치(100)의 외형 색상을 다양하게 변화시킬 수 있다. 예를 들어, 색상 조절 모듈(170)은 유기발광다이오드(LED) 모듈 등으로 구현될 수 있으며, 구비된 LED 모듈의 종류에 따라 다양한 색상을 출력할 수 있다. 이를 통해, 색상 조절 모듈(170)은 숨기 동작 등을 할 때, 주변의 색상과 유사한 색상을 갖도록 이동 로봇 장치(100)의 색상을 조절할 수 있다.
사용자 입력부(180)는 사용자로부터의 이동 로봇 장치(100)의 동작 제어를 위한 다양한 사용자 입력을 수신할 수 있으며, 버튼, 스위치, 터치 패드, 마이크(음성 입력) 등의 다양한 형태로 구현될 수 있다. 예를 들어, 사용자 입력부(180)는 다양한 사용자 입력 신호를 수신할 수 있으며, 사용자 입력 신호는 이동 로봇 장치의 전원 제어 신호(예를 들어, 전원 온 신호 또는 전원 오프 신호 등), 동작 모드를 제어하는 신호(예를 들어, 숨기 동작, 찾기 동작, 및 표정 영상 출력 등을 제어하는 신호), 설정을 위한 제어 신호(예를 들어, 학습 명령 신호, 학습 데이터 입력 신호 등) 등을 포함할 수 있으며, 다른 다양한 사용자 입력 신호를 더 포함할 수도 있다.
스피커(190)는 이동 로봇 장치(100)의 동작 중에 발생되는 음성 신호를 출력할 수 있다. 예를 들어, 스피커(190)는 숨기 동작 시 사용자에게 발견되면, “들켰네!”, “찾았네!”, “피카부(피카봇)!” 및 “딩동~” 과 같은 다양한 오디오 신호를 출력할 수 있고, 찾기 동작 시 “어디있니”, “찾았다!”, “여기있네!”, “피카부(피카봇)!”, “띠리링~”와 같은 다양한 오디오 신호를 출력할 수 있다.
이와 같은, 이동 로봇 장치(100)는 사용자에게 숨바꼭질 놀이를 제공할 수 있어, 사용자(예를 들어, 아이)와 보다 활발하게 움직일 수 있도록 하는 놀이를 제공할 수 있다.
한편, 상술한 이동 로봇 장치(100)는 동작 전원을 공급하는 전원 공급부 또는 배터리 등을 추가로 포함할 수도 있다.
도 2는 본 발명의 일실시예에 따른 이동 로봇 장치를 도시한 도면이다.
도 2를 참조하면, 이동 로봇 장치(100)는 전면에 카메라(110)와 영상 표시부(120)를 포함할 수 있다.
또한, 이동 로봇 장치(100)는 하단에는 이동을 위한 바퀴(102)를 포함할 수 있다. 예를 들어, 도 2에서는 세 개의 바퀴(102)를 포함한 이동 로봇 장치(100)를 도시한다. 하지만, 이동 로봇 장치(100)의 바퀴(102)의 개수는 구현에 따라 다양한 개수로 조절될 수 있다.
또한, 이동 로봇 장치(100)는 고양이와 유사한 형상을 가지고 있으며, 이는 예시적으로 도시된 것으로 다른 다양한 형태의 외형으로 구현될 수 있다.
도 3은 본 발명의 일실시예에 따른 구동부를 도시한 도면이다.
도 3에 도시된 바와 같이, 구동부(150)는 모터 드라이브(151)와 모터(152)를 포함할 수 있다.
모터 드라이브(151)는 모터(152)에 연결되어, 모터(152)의 구동을 제어할 수 있다. 이때, 모터 드라이브(151)는 동작 제어부(160)의 제어에 따라 동작할 수 있다. 예를 들어, 모터 드라이브(151)는 모터의 회전 방향 내지는 회전 속도를 제어하거나, 모터 또는 바퀴의 위치를 조절하여 이동 로봇 장치(100)의 이동 방향을 제어할 수도 있다.
모터(152)는 일예로, 바퀴(102)에 연결될 수 있고, 모터 드라이브(151)의 구동 신호에 의해 바퀴(102)를 구동할 수 있는 동력을 발생시킨다. 모터(152)는 바퀴(102)를 구동시켜, 이동 로봇 장치(100)를 이동시킬 수 있다.
도 4는 본 발명의 일실시예에 따른 이동 로봇 장치의 하우징을 도시한 도면이다.
도 4에 도시된 바와 같이, (a)에서, 이동 로봇 장치(100)의 각 모듈들을 내부에 인입하기 위한 하우징(101)이 도시된다. 이때, 하우징(101)은 영상 표시부(120)의 삽입을 위한 삽입홈(1011)이 형성된다. 또한, 삽입홈(1011)의 상단에는 카메라(110)의 렌즈를 인입하기 위한 카메라홀(1012)이 형성된다.
(b)에서, 하우징(101)의 정면이 도시된다. 하우징(101)의 전면을 살펴보면, 영상표시부삽입홈(1011)과 카메라홀(1012)이 위치한다.
(c)에서, 하우징(101)의 좌측면이 도시된다. 하우징(101)의 좌측면을 살펴보면, 영상 표시부(120)가 삽입되기 위한 영상표시부삽입홈(1011)이 형성된 것을 확인할 수 있다.
(d)에서, 하우징(101)의 후면이 도시된다.
이러한 하우징(101)은 도 1에 도시된 바와 같은 이동 로봇 장치(100)를 구성하는 엘리먼트들 또는 모듈들을 내부에 인입할 수 있다.
또한, 하우징(101)은 색상 조절 모듈(170)에 의한 색상 변화를 위해 색상의 흡수가 용이한 흰색 계열의 물질로 구성될 수 있고, 반투명한 형태로 구현될 수 있다. 이와 같은 하우징(101)은 색상 조절 모듈(170)에서 출력되는 색상의 빛을 흡수할 수 있는 구조를 갖는다. 그러므로, 이동 로봇 장치(100)는 사용자에게 색상 조절 모듈(170)에서 출력되는 색상으로 보여질 수 있다.
도 5는 본 발명의 일실시예에 따른 이동 로봇 장치의 내부 구조를 예시적으로 도시한 도면이다.
도 5에 도시된 바와 같이, 이동 로봇 장치(100)는 카메라(110), 영상 표시부(120), 영상 처리부(130), 거리 측정 센서(140), 구동부(150), 및 동작 제어부(160)를 포함할 수 있다.
이동 로봇 장치(100)는 하우징(101)과 결합되는 밑판(103)을 포함할 수 있다. 밑판(103)은 바퀴(102)와 결합된다. 따라서, 이동 로봇 장치(100)의 카메라(110), 영상 표시부(120), 영상 처리부(130), 거리 측정 센서(140), 구동부(150), 및 동작 제어부(160) 등은 밑판(103)을 기준으로 위치할 수 있다.
카메라(110)는 하우징(101)의 전면에 위치하도록 결합될 수 있다. 예를 들어, 카메라(110)는 저전력으로 동작 가능한 피아이(Pi) 카메라일 수 있다.
영상 표시부(120)는 하우징(101)의 전면에 스크린이 위치하도록 결합될 수 있다. 예를 들어, 영상 표시부(120)는 피아이(Pi) 스크린일 수 있다.
영상 처리부(130)는 카메라(110)와 영상 표시부(120)에 연결될 수 있고, 카메라(110)로부터 수신된 영상을 처리하고, 영상 표시부(120)를 통해 출력될 영상을 생성할 수 있다. 예를 들어, 영상 처리부(130)는 영상을 처리하는 프로세서의 형태로 구현될 수 있으며, 라스베리 피아이 비(Raspberry Pi B) 프로세서 등으로 구현될 수 있다.
거리 측정 센서(140)는 하나 이상의 센서로 구현될 수 있다. 예를 들어, 거리 측정 센서(140)는 두 개의 적외선 센서를 이용하여 적외선 센서로 구현될 수 있다. 예를 들어, 거리 측정 센서(140)는 에이치씨 에스알04(HC SR04) 초음파 센서로 구현될 수 있다. 이때, 도시된 두 개의 적외선 센서는 도면에 도시된 바와 같이 서로 일정 간격 이격되어 위치할 수 있다. 따라서, 두 개의 적외선 센서는 상호 간에 다른 방향에 대한 거리를 측정할 수 있다.
구동부(150)는 바퀴 등의 구동을 위한 구동 드라이브(151)와 모터(152)를 포함할 수 있다.
구동 드라이브(151) 모터(152)에 연결되어 모터(152)의 구동을 제어한다. 예를 들어, 모터 드라이브(151)는 엘298엔(L298N) 모터 드라이브가 사용될 수 있다.
모터(152)는 이동 로봇 장치(100)의 이동을 위해 구동될 수 있으며, 바퀴(102)를 움직이도록 할 수 있다. 모터(152)는 필요에 따라 적어도 두 개 이상을 포함할 수도 있다. 예를 들어, 모터는 직류(DC: Direct Current) 모터일 수 있다.
동작 제어부(160)는 영상 처리부(130)를 통해 입력된 영상과 거리 측정 센서(140)를 통해 측정된 적어도 두 개의 거리값을 이용하여 숨바꼭질 놀이를 제공할 수 있다. 동작 제어부(160)는 숨바꼭질 놀이의 찾기 동작 또는 숨기 동작을 수행하도록 구동부(150)를 이용하여 이동 로봇 장치(100)를 이동하도록 제어할 수 있다. 예를 들어, 동작 제어부(160)는 아두이노 우노(Arduino Uno) 프로세서로 구현될 수 있다.
도 6은 본 발명의 일실시예에 따른 이동 로봇 장치 내부에 영상 표시부가 배치되는 구조를 도시한 도면이다.
도 6에 도시된 바와 같이, (a)에서, 이동 로봇 장치(100)의 밑판(103)에 결합된 지지대(104)를 통해 영상 표시부(120)가 고정될 수 있다. 하우징(101) 내부에서 영상 표시부(120)와 동작 제어부(160)가 위치된 것을 예시적으로 도시하고 있으며, 이동 로봇 장치(100)의 나머지 구성 요소들은 설명의 편의를 위하여 도시되지 않았다.
(b)에서, 지지대(104)가 영상 표시부(120)에 결합된 측면을 도시한다. 이때, 지지대(104)는 경사면(H)을 기준으로 화면이 위치하도록 영상 표시부(120)를 결합시킬 수 있다.
(c)에서, 지지대(104)가 도시되며, 지지대(104)는 지지대 밑판(1041)을 기준으로 영상 표시부(120)를 고정하기 위한 복수의 지지봉(1042, 1043, 1044, 1045)이 결합된 구조를 갖는다.
이때, 영상 표시부(120)를 기울어진 형태로 결합시키기 위해, 전면에 위치한 두 개의 지지봉(1042, 1043)은 후면에 위치한 두 개의 지지봉(1044, 1045)보다 짧은 길이를 가질 수 있다. 이때, 제 1 지지봉(1042)과 제 3 지지봉(1044)은 끝면이 경사면(H1)을 형성하고, 제 2 지지봉(1043)과 제 4 지지봉(1045)은 끝면이 경사면(H2)을 형성할 수 있다. 또한, 경사면들(H1, H2)은 서로 평행할 수 있다.
또한, 지지대의 끝부분은 지지대 밑판(1041)(또는, 밑판(103)), 즉 지면(X)에 평행한 면을 기준으로 영상 표시부(120)를 약 45도(X-X' 사이의 각도)의 경사도를 형성하도록 결합할 수 있다. 하지만, 약 45도의 경사도는 예시적으로 도시된 것으로, 구현에 따라 경사도는 다른 다양한 각도를 가질 수도 있다.
따라서, 지면을 기준으로 경사면들(H, H1, H2)은 모두 약 45도의 각도를 형성할 수 있다.
이와 같이, 이동 로봇 장치(100)는 사용자의 시선을 기준으로 바닥에 위치하게 되므로, 영상 표시부(120)를 기울어지도록 배치하면, 사용자가 몸을 기울이거나 낮추지 않아도 영상 표시부(120)로부터 표시되는 영상을 쉽게 확인할 수 있게 할 수 있다.
도 7은 본 발명의 일실시예에 따른 색상 조절 모듈을 도시한 도면이다.
도 7에 도시된 바와 같이, 색상 조절 모듈(170)은 유기발광다이오드(LED) 모듈로 구현될 수 있다. 여기서, 색상 조절 모듈(170)은 LED 모듈을 이용하여 다양한 색상을 구현할 수 있다.
영상 처리부(130)는 카메라(110)로부터 수신된 촬영 영상을 이용하여 주변의 색채 또는 밝기를 검출할 수 있다. 영상 처리부(130)는 검출된 색채 또는 밝기에 관련된 정보를 이용하여 검출된 색채에 대응되는 색상을 나타낼 수 있도록 색상 조절 모듈(170)의 색상을 조절할 수 있다. 또한, 영상 처리부(130)는 밝기, 즉 조도에 맞추어 색상 조절 모듈(170)의 밝기를 조절할 수도 있다.
이와 같이, 색상 조절 모듈(170)은 색상 조절을 통해 이동 로봇 장치(100)의 숨기 동작 시 주변 색상에 맞추어 이동 로봇 장치(100)의 색상을 변화시켜 사용자가 찾기 어렵게 할 수 있다.
한편, 동작 제어부(160)에 의해 색상 조절 모듈(170)이 제어되는 경우, 동작 제어부(160)는 영상 처리부에서 검출된 색채 또는 밝기를 이용하여 색상 조절 모듈(170)의 색상 또는 밝기를 조절할 수도 있다.
예를 들어, 하우징(101)은 색상 조절 모듈(170)에서 출력되는 색상의 흡수가 용이한 물질로 구성될 수 있다. 그러므로, 이동 로봇 장치(100)는 색상 조절 모듈(170)에서 출력되는 색상으로 사용자에게 보여질 수 있다.
이와 같이, 이동 로봇 장치(100)는 색상 조절 모듈(170)을 이용하여 색상 또는 밝기를 조절하여 이동 로봇 장치(100)의 색상을 변화시킬 수 있다. 이동 로봇 장치(100)는 주변 환경에 맞추어 색상 또는 밝기 조절을 하여 사용자로부터 찾는 것이 쉽지 않도록 숨기 동작을 할 수 있다.
도 8은 본 발명의 일실시예에 따른 이동 로봇 장치의 숨기 동작을 도시한 순서도이다.
도 8에 도시된 바와 같이, 이동 로봇 장치(100)는 숨기 동작이 시작되면, 시작 위치에서 미리 설정된 시간(t) 동안 회전한다(S210).
이동 로봇 장치(100)는 미리 설정된 시간이 경과하여 회전을 종료하면, 주변 사물과의 적어도 두 개의 거리값을 획득하며 이동한다(S220). 여기서, 이동 로봇 장치(100)는 주변 사물과의 거리값은 거리 측정 센서(140)를 이용하여 획득할 수 있으며, 거리 측정 센서(140)가 복수의 센서를 포함하는 경우, 복수의 센서 각각으로부터 거리값을 획득할 수 있다.
이동 로봇 장치(100)는 거리 측정 센서를 통해 주변 사물과 측정된 복수의 거리값 중 적어도 하나의 거리값(d)이 기준 거리값(D) 미만(d < D)인지 판단한다(S230).
S230단계의 판단결과, 측정된 거리값 중 적어도 하나의 거리값이 기준 거리값 미만이 아니면, 이동 로봇 장치(100)는 S220단계로 진행하여 주변 사물과의 거리값을 획득하며 이동한다.
S230단계의 판단결과, 측정된 거리값 중 적어도 하나의 거리값이 기준 거리값 미만이면, 이동 로봇 장치(100)는 S240단계로 진행한다. 그러나, S240단계에서, 이동 로봇 장치(100)는 거리값이 다른 거리값보다 큰쪽의 방향으로 회전한 후 이동한다.
이후, 이동 로봇 장치(100)는 측정된 거리값들이 모두 기준 거리값 미만이지 판단한다(S250단계).
S250단계에서, 측정된 거리값들이 모두 기준 거리값 미만이 아니면, 이동 로봇 장치(100)는 S240단계로 진행한다. 그러나, S250단계에서, 이동 로봇 장치(100)는 측정된 거리값이 모두 기준 거리값 미만이면, S260단계로 진행한다.
이동 로봇 장치(100)는 현재 위치에서 밝기값, 즉 조도를 측정하기 위해 전방 영상을 촬영한다(S260). 만약, 이동 로봇 장치(100)는 조도 센서 등을 추가로 구비하는 경우에는 조도 센서를 이용하여 밝기값를 측정할 수도 있다.
이동 로봇 장치(100)는 촬영 영상으로부터 획득된 밝기값(b)이 기준 밝기값(B) 미만(b < B)인지 판단한다(S270).
S270단계의 판단결과, 촬영 영상으로부터 획득된 밝기값이 기준 밝기값 미만이 아니면, 이동 로봇 장치(100)는 S210단계로 진행한다. 이동 로봇 장치(100)는 회전을 통해 이동 후, 숨기 위한 다른 장소를 검색할 수 있다. 그러나, S270단계의 판단결과, 촬영 영상으로부터 획득된 밝기값이 기준 밝기값 미만이면, 이동 로봇 장치(100)는 S280단계로 진행한다.
이동 로봇 장치(100)는 S260단계와 S270단계는 선택적으로 수행될 수 있다. 따라서, S260단계와 S270단계는 이동 로봇 장치(100)에서 구현되지 않거나, 사용자 등에 의해 선택적으로 수행되도록 설정될 수도 있다. 만약, S260단계와 S270단계가 수행되지 않는 경우, 이동 로봇 장치(100)는 S250단계에서 S270단계로 진행할 수 있다.
이동 로봇 장치(100)는 현재 위치에 숨기 동작을 한다(S280). 또한, 이동 로봇 장치(100)는 촬영 영상으로부터 밝기값 이외에 촬영 영상으로부터 주변의 색상 정보를 획득할 수도 있다. 이때, 이동 로봇 장치(100)는 이동 로봇 장치의 색상을 주변 영상과 가장 유사한 색상을 갖도록 이동 로봇 장치의 색상을 조절할 수도 있다.
예를 들어, 주변에 노란색 사물이 존재하면, 이동 로봇 장치(100)는 검출된 노란색에 대응되는 색상을 출력하여, 이동 로봇 장치(100)의 외형의 색상을 변경할 수 있다. 또한, 이동 로봇 장치(100)는 노란색의 색상을 출력할 때, 노란색의 밝기까지 조절하여 출력할 수도 있다.
이와 같이, 이동 로봇 장치(100)는 적어도 두 개의 거리값을 사용하면, 구석진 장소로 이동할 수 있으며, 밝기를 기준으로 어두운 장소에 숨을 수 있다. 이와 같이, 이동 로봇 장치(100)는 거리값과 밝기값에 기초하여 사용자가 찾기 어려운 장소로 효율적인 숨기 동작을 할 수 있다.
이동 로봇 장치(100)는 사용자로부터 찾기를 완료하였음을 나타내는 사용자 입력이 존재하면(S280), 숨기에 대응되는 사용자에 의한 찾기 동작을 완료하였으므로 동작을 종료한다.
이와 달리, S280단계에서, 찾기의 완료에 따른 사용자 입력이 존재하지 않으면, 이동 로봇 장치(100)는 현 숨기 상태를 유지하고, 사용자 입력을 대기할 수 있다.
도 9는 본 발명의 일실시예에 따른 이동 로봇 장치의 숨기 동작에 따른 사용자와의 놀이를 설명하기 위한 도면이다.
도 9를 참조하면, 숨바꼭질 놀이를 위해, 이동 로봇 장치(100)는 숨기 동작을 할 수 있다. 이러한 경우, 사용자(10)는 숨바꼭질 놀이의 술래 역할을 하게 되고, 이동 로봇 장치(100)는 사용자(10)로부터 잘 보이지 않기 위해 숨기 동작을 한다.
이동 로봇 장치(100)는 도 9에 도시된 동작을 통해 숨기 동작을 할 수 있다. 이동 로봇 장치(100)가 숨기 동작을 완료한 후, 사용자(10)로부터 발견되기 전까지 숨기 동작을 한다. 만약, 사용자(10)로부터 발견되면, 이동 로봇 장치(100)는 사용자(10)의 손(11)에 의한 터치 동작과 같은 사용자 입력이 존재하면, 이동 로봇 장치(100)는 숨기 동작을 종료하게 된다.
도 10은 본 발명의 일실시예에 따른 이동 로봇 장치의 찾기 동작을 도시한 순서도이다.
도 10에 도시된 바와 같이, 이동 로봇 장치(100)는 미리 설정된 시간(t1) 동안 이동한다(S310). 이때, 이동 로봇 장치(100)는 거리 감지 센서(140)를 통해 감지된 거리값을 이용하여 주변 사물을 회피하며 이동할 수 있다.
이동 로봇 장치(100)는 미리 설정된 시간(t2) 동안 회전하며 영상을 촬영한다(S320).
이동 로봇 장치(100)는 촬영된 영상으로부터 학습된 영상에 대응되는 사용자를 발견하였는지 확인한다(S330). 이동 로봇 장치(100)는 촬영된 영상으로부터 학습된 영상에 대응되는 사용자가 존재하는지 비교한다. 또한, 310단계에서와 같은 이동 중에 촬영이 가능한 경우, 이동 로봇 장치(100)는 이동 중에 영상을 촬영하고, 촬영된 영상을 사용자를 발견하기 위해 이용할 수도 있다.
즉, 이동 로봇 장치(100)는 찾고자 하는 사용자를 검출하였는지 확인한다.
S320단계의 확인결과, 이동 로봇 장치(100)는 학습한 사용자를 발견하지 못하면, S310단계로 진행한다.
S330단계의 확인결과, 학습한 사용자를 발견하면, 이동 로봇 장치(100)는 다른 각도에서 영상을 촬영한다. 이를 위해, 이동 로봇 장치(100)는 다른 각도에서 영상을 촬영하기 위해 일정 거리 이동하거나 회전할 수 있다.
이동 로봇 장치(100)는 다른 각도에서 촬영된 촬영 영상으로부터 학습한 사용자가 확실한지 재확인한다(S350).
S350단계의 확인결과, 학습한 사용자를 발견하지 못하면, S310단계로 진행한다. S350단계의 확인결과, 이동 로봇 장치(100)는 학습한 사용자를 발견하면, S360단계로 진행한다. 이와 같이, 이동 로봇 장치(100)는 서로 다른 각도에서 촬영한 적어도 두 개의 촬영 영상에서 상기 사용자가 검출되는 경우, 찾기 동작을 완료하도록 할 수도 있다.
S330단계와 S340단계는 사용자를 보다 정확히 찾기 위한 일종의 검증 단계로서, 이동 로봇 장치(100)의 구현에 따라 수행되거나 수행되지 않도록 설정될 수 있다.
이동 로봇 장치(100)는 학습한 사용자를 발견함에 따라 찾기 완료를 나타내는 음성을 출력하고 종료한다. 예를 들어, 이동 로봇 장치(100)는 찾기 완료를 나타내는 음성인 “어디있니”, “찾았다!”, “여기있네!”, “피카부(피카봇)!”, “띠리링~” 등을 출력할 수 있다.
도 11은 본 발명의 일실시예에 따른 이동 로봇 장치의 찾기 동작에 따른 사용자와의 놀이를 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 숨바꼭질 놀이를 위해, 이동 로봇 장치(100)는 찾기 동작을 할 수 있다. 이러한 경우, 이동 로봇 장치(100)는 숨바꼭질 놀이의 술래 역할을 하게 되고, 사용자(10)는 이동 로봇 장치(100)로부터 잘 보이지 않기 위해 숨기 동작을 한다.
이동 로봇 장치(100)는 도 10에 도시된 동작을 통해 찾기 동작을 할 수 있다. 사용자(10)가 숨으면, 이동 로봇 장치(100)는 사용자(10)를 찾기 위해 찾기 동작을 수행한다. 사용자(10)는 수납장에 숨을 수도 있고, 침대 밑에 숨을 수도 있다. 이동 로봇 장치(100)는 사용자(10)의 모습 또는 형상에 대해 학습한 학습 데이터를 보유한다. 따라서, 이동 로봇 장치(100)는 이동을 통해 촬영된 영상을 학습 데이터와 비교하여 사용자(10)를 찾을 수 있다.
만약, 이동 로봇 장치(100)는 사용자(10)를 발견하면, 사용자(10)를 발견하였음을 나타내는 음성을 출력하여 찾기 동작을 종료하게 된다.
도 12는 본 발명의 일실시예에 따른 이동 로봇 장치에서 표정 영상의 출력을 도시한 도면이다.
도 12에 도시된 바와 같이, 이동 로봇 장치(100)는 사용자 입력 신호가 표정 인식 동작이면, 이동 로봇 장치는 스티커 등의 영상 촬영을 한다(S410). 이동 로봇 장치(100)는 스티커의 표정에 대응되는 영상을 출력하기 위해 카메라를 이용하여 스티커를 촬영할 수 있다.
이동 로봇 장치(100)는 촬영된 스티커의 표정을 기준으로 표정 영상을 생성하고, 표정 영상을 출력한다(S420). 다양한 표정에 대응되는 스티커를 활용하면, 이동 로봇 장치(100)에서 표정 영상을 다양하게 표현할 수 있다.
이에 따라, 이동 로봇 장치(100)를 통해 다양한 감정을 나타내는 표정 영상을 사용자에게 인지하도록 할 수 있어, 사용자와 다양한 감정의 교류를 할 수 있다.
한편, 이동 로봇 장치(100)는 스티커 대신에 사용자의 얼굴을 촬영하여, 사용자의 얼굴 표정에 대응되는 영상을 출력할 수도 있다. 예를 들어, 사용자의 슬픈 표정을 인식하는 경우, 이동 로봇 장치(100)는 슬픈 표정에 대응하는 표정 영상을 출력할 수 있다. 이와 달리, 사용자의 슬픈 표정을 인식하는 경우, 이동 로봇 장치(100)는 슬픈 표정에 반대되는 웃는 표정에 대응되는 표정 영상을 출력하여 사용자를 위로할 수도 있다.
이와 같이, 이동 로봇 장치(100)는 사용자의 얼굴 표정을 이용하면, 사용자의 감정에 대응되는 표정 영상을 출력할 수 있어, 스티커를 사용하는 경우보다 사용자의 감정을 반영하여 더욱 더 친근하게 감정의 교류를 할 수 있다.
도 13은 본 발명의 일실시예에 따른 이동 로봇 장치에서 스티커를 이용한 표정 영상의 출력을 도시한 도면이다.
도 13에 도시된 바와 같이, 이동 로봇 장치(100)는 다양한 표정을 나타내는 스티커(500)를 이용하여 표정을 인식시킬 수 있다.
이동 로봇 장치(100)는 스티커(500)를 카메라(110)를 이용하여 인식할 수 있다. 이동 로봇 장치(100)는 스티커(500)의 표정 영상을 영상 표시부(120)를 통해 출력할 수 있다.
예를 들어, 스티커(500) 중에서 무엇을 기대하는 표정을 나타내는 스티커(510)를 카메라(110)에 근접하게 위치시키면, 이동 로봇 장치(100)는 영상 표시부(120)의 화면을 통해 스티커(510)에 대응되는 기대하는 표정을 표시(511)할 수 있다.
스티커(500) 중에서 졸린 표정을 나타내는 스티커(520)를 카메라(110)에 근접하게 위치시키면, 이동 로봇 장치(100)는 영상 표시부의 화면을 통해 스티커(520)에 대응되는 졸린 표정을 표시(512)할 수 있다.
도 14는 본 발명의 일실시예에 따른 이동 로봇 장치에서 표시되는 다양한 표정을 도시한 도면이다.
도 14에 도시된 바와 같이, (a)에서, 이동 로봇 장치(100)는 새침한 표정(611)을 나타낼 수 있다. (b)에서, 이동 로봇 장치(100)는 졸린 표정(612)을 나타낼 수 있다. (c)에서, 이동 로봇 장치(100)는 부끄러운 표정(613)을 나타낼 수 있다.
(d)에서, 이동 로봇 장치(100)는 웃는 표정(614)을 나타낼 수 있다. (e)에서, 이동 로봇 장치(100)는 사랑에 빠진 표정(615)을 나타낼 수 있다. (f)에서, 이동 로봇 장치(100)는 윙크하는 표정(616)을 나타낼 수 있다.
(g)에서, 이동 로봇 장치(100)는 슬픈 표정(617)을 나타낼 수 있다. (h)에서, 이동 로봇 장치(100)는 화난 표정(618)을 나타낼 수 있다. (i)에서, 이동 로봇 장치(100)는 불쌍한 표정(619)을 나타낼 수 있다. (j)에서, 이동 로봇 장치(100)는 삐친 표정(620)을 나타낼 수 있다.
이와 같이, 도 14에 도시된 바와 같이, 이동 로봇 장치(100)는 카메라를 이용하여 다양한 표정의 스티커를 인식하고, 인식된 스티커에 대응되는 표정 영상을 화면을 통해 출력할 수 있다. 하지만, 스티커가 RFID 태그 등을 통해 구현된 경우, 이동 로봇 장치(100)는 RFID 리더 등을 구비하면, 카메라를 사용하지 않고도 스티커의 태그 동작에 따라 다양한 표정을 인식시켜 화면에 출력할 수도 있다.
예를 들어, 이동 로봇 장치(100)는 숨기 동작 이후, 스티커(500)의 태그 없이도 사용자의 발견에 따른 사용자 입력 신호가 존재하면, (g)에서와 같은 슬픈 표정(770)을 표시하도록 설정될 수 있다. 또한, 이동 로봇 장치(100)는 찾기 동작에 따라 사용자를 발견하면, 찾기를 나타내는 음성 출력과 동시에 (d)에서와 같은 웃는 표정(740)을 표시하도록 설정될 수도 있다. 따라서, 숨바꼭질 동작을 포함한 다양한 동작 시 이동 로봇 장치(100)는 설정된 표정 영상을 출력할 수도 있다.
이와 같이, 이동 로봇 장치(100)는 다양한 표정을 표시할 수 있으므로 사용자, 즉 사용자와 다양한 감정을 교류할 수 있다.
도 15는 본 발명의 일실시예에 따른 이동 로봇 장치의 색상 변화를 도시한 도면이다.
도 15에 도시한 바와 같이, 이동 로봇 장치(100)는 색상 조절 모듈(170)을 이용하여 색상을 변경시킬 수 있다.
(a)에서는, 이동 로봇 장치(100)가 색상 조절 모듈(170)을 이용하여 색상을 붉은색으로 변경(710)한 것을 예시적으로 도시한다.
(b)에서는, 이동 로봇 장치(100)가 색상 조절 모듈(170)을 이용하여 색상을 녹색으로 변경(720)한 것을 예시적으로 도시한다.
(c)에서는, 이동 로봇 장치(100)가 색상 조절 모듈(170)을 이용하여 색상을 파란색(730)으로 변경한 것을 예시적으로 도시한다.
이와 같이, 이동 로봇 장치(100)는 색상 조절 모듈(170)을 이용하여 색상을 변경할 수 있으며, 상술한 붉은색, 파란색, 녹색은 설명의 편의를 위하여 도시된 것으로, 상술한 색상들 이외의 다른 다양한 색상으로 변경될 수도 있다. 이동 로봇 장치(100)는 외형의 색상을 조절하여 숨바꼭질 놀이에서 눈에 띄지 않는 보호색의 기능을 제공할 수 있나, 무드등과 같은 조명의 기능을 제공할 수도 있다.
본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성 요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.
또한 본 발명의 일실시예에 따르는 이동 로봇 장치의 동작 제어 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있으며, 특히, R 언어, Python 언어, Ruby 언어, Scheme 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 본 발명의 일실시예에 따르는 이동 로봇 장치의 동작 제어 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명은 사용자에게 다양한 놀이 기능을 제공할 수 있는 이동 로봇 장치에 적용될 수 있음으로 산업상 이용 가능성이 있다.

Claims (17)

  1. 이동 로봇 장치에 있어서,
    카메라;
    상기 카메라의 촬영 영상을 처리하고, 상기 촬영 영상을 처리한 결과에 따라 표시 영상을 생성하는 영상 처리부;
    상기 표시 영상을 출력하는 영상 표시부;
    주변 사물과의 거리를 측정하는 거리 측정 센서;
    상기 이동 로봇 장치를 이동시키는 구동부; 및
    상기 촬영 영상과 상기 측정된 거리에 기초하여 사용자의 동작에 대한 숨바꼭질 놀이를 수행하도록 상기 구동부를 제어하는 동작 제어부를 포함하는 이동 로봇 장치.
  2. 제 1 항에 있어서,
    상기 동작 제어부는,
    상기 촬영 영상 내에서 상기 사용자를 검출할 때까지 이동하여 찾기 동작을 수행하도록 상기 구동부를 제어하는 이동 로봇 장치.
  3. 제 1 항에 있어서,
    상기 동작 제어부는,
    서로 다른 각도에서 촬영한 적어도 두 개의 촬영 영상에서 상기 사용자가 검출되는 경우, 상기 찾기 동작을 완료하는 이동 로봇 장치.
  4. 제 2 항에 있어서,
    상기 이동 로봇 장치는,
    상기 사용자를 검출하면, 상기 찾기 동작의 완료를 나타내는 음성 신호를 출력하는 스피커를 더 포함하는 이동 로봇 장치.
  5. 제 1 항에 있어서,
    상기 동작 제어부는,
    상기 거리 측정 센서를 통해 수신된 적어도 두 개의 거리값에 기초하여 상기 이동 로봇 장치의 진행 방향을 결정하고, 결정된 진행 방향으로 이동하도록 상기 구동부를 제어하는 이동 로봇 장치.
  6. 제 5 항에 있어서,
    상기 거리 측정 센서는,
    서로 다른 방향에서 주변 사물과의 거리값을 측정하는 적어도 두 개의 센서를 포함하고,
    상기 동작 제어부는,
    상기 적어도 두 개의 센서들에 의해 측정된 거리값들이 모두 미리 설정된 거리값 미만인 위치에서 숨기 동작을 수행하도록 하는 이동 로봇 장치.
  7. 제 6 항에 있어서,
    상기 동작 제어부는,
    상기 촬영 영상으로부터의 밝기값이 미리 설정된 밝기값 미만이 되는 위치에서 숨기 동작을 수행하도록 하는 이동 로봇 장치.
  8. 제 6 항에 있어서,
    상기 동작 제어부는,
    상기 적어도 두 개의 센서들에 의해 측정된 거리값들 중 적어도 하나가 미리 설정된 거리값 미만이면, 상기 미리 설정된 거리값 미만의 거리값이 측정된 센서의 방향으로 회전하여 이동하는 이동 로봇 장치.
  9. 제 6 항에 있어서,
    상기 이동 로봇 장치는,
    상기 숨기 동작을 완료한 후, 상기 숨기 동작에 대응되는 사용자의 찾기 완료를 위한 사용자 입력 신호를 수신하는 사용자 입력부를 더 포함하는 이동 로봇 장치.
  10. 제 6 항에 있어서,
    상기 이동 로봇 장치는,
    상기 숨기 동작 시 상기 촬영 영상으로부터 검출된 주변 색상에 기초하여 상기 이동 로봇 장치의 색상을 변화시키기 위한 색상 조절 모듈을 더 포함하는 이동 로봇 장치.
  11. 제 1 항에 있어서,
    상기 영상 처리부는,
    상기 촬영 영상을 통해 검출된 표정에 대응되는 표정 이미지를 표시하는 표정 영상을 상기 영상 표시부로 출력하는 이동 로봇 장치.
  12. 이동 로봇 장치의 동작 제어 방법에 있어서,
    숨바꼭질 놀이를 위한 사용자 입력을 수신하는 단계;
    상기 사용자 입력에 따라 찾기 동작과 숨기 동작 중 하나의 동작을 수행하도록 결정하는 단계;
    상기 찾기 동작을 수행하도록 결정한 경우, 카메라의 촬영 영상으로부터 사용자를 검출하는 찾기 동작을 수행하도록 상기 이동 로봇 장치를 이동시키고, 상기 숨기 동작의 수행을 결정하면, 거리 감지 센서를 통해 획득된 주변 사물과의 거리값에 기초하여 상기 이동 로봇 장치를 숨기 동작을 수행하도록 하도록 상기 이동 로봇 장치를 이동시키는 단계를 포함하는 방법.
  13. 제 12 항에 있어서,
    상기 찾기 동작을 수행하도록 이동시키는 단계는,
    일정 시간 이동 및 회전하여 상기 촬영 영상을 획득하는 단계,
    상기 촬영 영상에서 사용자를 검출하면, 상기 찾기 동작을 완료하는 단계; 및
    상기 촬영 영상에서 사용자를 검출하지 못하면, 촬영 영상으로부터 사용자를 검출할 때까지 상기 이동 및 회전을 통해 촬영 영상을 획득하는 단계를 포함하는 방법.
  14. 제 13 항에 있어서,
    상기 찾기 동작을 완료하는 단계는;
    상기 검출된 사용자를 상기 카메라를 이용하여 다른 각도에서 재촬영하는 단계; 및
    상기 재촬영된 촬영 영상에서 상기 사용자를 검출하면 상기 찾기 동작을 완료하는 단계를 포함하는 방법.
  15. 제 12 항에 있어서,
    상기 이동 로봇 장치를 숨기 동작하도록 이동시키는 단계는,
    적어도 두 개의 거리 감지 센서를 통해 획득된 거리값들이 모두 미리 설정된 거리값 미만이 될 때까지 이동시키는 단계를 포함하는 방법.
  16. 제 15 항에 있어서,
    상기 미리 설정된 거리값 미만이 될 때까지 이동시키는 단계는,
    상기 거리값들 중 적어도 하나가 미리 설정된 거리값 미만이면, 상기 미리 설정된 거리값 미만이 아닌 거리 감지 센서가 위치한 방향을 기준으로 이동시키는 단계를 포함하는 방법.
  17. 제 15 항에 있어서,
    상기 이동 로봇 장치를 숨기 동작하도록 이동시키는 단계는,
    상기 거리값들이 모두 미리 설정된 거리값 미만이면 상기 카메라를 통해 촬영 영상을 획득하는 단계; 및
    상기 획득된 촬영 영상에 대응 되는 색상으로 상기 이동 로봇 장치의 색상을 변경하는 단계를 더 포함하는 방법.
PCT/KR2017/013143 2016-12-29 2017-11-17 이동 로봇 장치 및 그것의 동작 제어 방법 WO2018124473A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020197022317A KR102281746B1 (ko) 2016-12-29 2017-11-17 이동 로봇 장치 및 그것의 동작 제어 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0183089 2016-12-29
KR20160183089 2016-12-29

Publications (1)

Publication Number Publication Date
WO2018124473A1 true WO2018124473A1 (ko) 2018-07-05

Family

ID=62709824

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/013143 WO2018124473A1 (ko) 2016-12-29 2017-11-17 이동 로봇 장치 및 그것의 동작 제어 방법

Country Status (2)

Country Link
KR (1) KR102281746B1 (ko)
WO (1) WO2018124473A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112060090A (zh) * 2020-09-01 2020-12-11 深圳优地科技有限公司 机器人避让方法、装置及计算机可读存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102311251B1 (ko) * 2019-10-08 2021-10-12 엘지전자 주식회사 로봇 청소기 및 이의 제어방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090061355A (ko) * 2007-12-11 2009-06-16 포스데이타 주식회사 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇
US20090163111A1 (en) * 2007-12-20 2009-06-25 Hallmark Card, Incorporated Interactive toy with positional sensor
KR20140077726A (ko) * 2012-12-14 2014-06-24 한국전자통신연구원 유아용 모니터링 로봇
KR20150056115A (ko) * 2013-11-14 2015-05-26 (주)바램시스템 양방향 카메라를 이용한 객체 추적 시스템
KR20150124013A (ko) * 2014-04-25 2015-11-05 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101200491B1 (ko) * 2008-12-22 2012-11-16 한국전자통신연구원 사람 검출 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090061355A (ko) * 2007-12-11 2009-06-16 포스데이타 주식회사 이동로봇의 주행 제어 방법 및 이를 이용한 이동 로봇
US20090163111A1 (en) * 2007-12-20 2009-06-25 Hallmark Card, Incorporated Interactive toy with positional sensor
KR20140077726A (ko) * 2012-12-14 2014-06-24 한국전자통신연구원 유아용 모니터링 로봇
KR20150056115A (ko) * 2013-11-14 2015-05-26 (주)바램시스템 양방향 카메라를 이용한 객체 추적 시스템
KR20150124013A (ko) * 2014-04-25 2015-11-05 에브리봇 주식회사 거리 센서, 로봇 청소기 및 이의 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112060090A (zh) * 2020-09-01 2020-12-11 深圳优地科技有限公司 机器人避让方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
KR102281746B1 (ko) 2021-07-26
KR20190104177A (ko) 2019-09-06

Similar Documents

Publication Publication Date Title
WO2019209041A1 (ko) 플렉서블 디스플레이 및 이를 구비하는 전자 장치
WO2014204047A1 (en) Foldable display device and method of controlling therefor
WO2021015505A1 (en) Foldable electronic device and photographing method using multiple cameras in foldable electronic device
WO2015115698A1 (en) Portable device and method of controlling therefor
WO2021096233A1 (en) Electronic apparatus and control method thereof
WO2017007101A1 (ko) 스마트 디바이스 및 이의 제어방법
WO2015190668A1 (ko) 이동 단말기
WO2018124473A1 (ko) 이동 로봇 장치 및 그것의 동작 제어 방법
WO2020190028A1 (ko) 변형가능한 디스플레이 패널 내의 화면의 표시를 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
WO2021157904A1 (en) Electronic apparatus and controlling method thereof
WO2016190676A1 (ko) 로봇, 스마트 블록 완구 및 이를 이용한 로봇 제어 시스템
WO2021049730A1 (ko) 영상 인식 모델을 학습하는 전자 장치 및 그 동작 방법
WO2021118187A1 (ko) 회전이 가능한 카메라를 구비한 폴더블 전자 장치 및 이를 이용한 촬영 방법
WO2020096192A1 (ko) 전자 장치 및 그 제어 방법
WO2018131747A1 (ko) 이동 단말기 및 그 제어 방법
WO2020241973A1 (en) Display apparatus and control method thereof
WO2022035054A1 (ko) 로봇 및 이의 제어 방법
WO2022086045A1 (ko) 전자 장치 및 이의 제어 방법
WO2021091105A1 (en) Electronic apparatus and control method thereof
WO2020122513A1 (ko) 2차원 이미지 처리 방법 및 이 방법을 실행하는 디바이스
WO2020141808A1 (ko) 외부 장치의 콘텐트를 편집하는 전자 장치 및 방법
WO2024080592A1 (ko) 맵을 공유하는 로봇 및 그의 맵 공유 방법
WO2024111893A1 (ko) 맵을 이용하여 공간을 주행하는 로봇 및 그의 위치 식별 방법
WO2019203395A1 (en) Image acquiring device
WO2023121053A1 (ko) 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17887095

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20197022317

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17887095

Country of ref document: EP

Kind code of ref document: A1