JP7189620B2 - An image processing device that corrects the distortion of a celestial image and a robot equipped with it - Google Patents

An image processing device that corrects the distortion of a celestial image and a robot equipped with it Download PDF

Info

Publication number
JP7189620B2
JP7189620B2 JP2019520273A JP2019520273A JP7189620B2 JP 7189620 B2 JP7189620 B2 JP 7189620B2 JP 2019520273 A JP2019520273 A JP 2019520273A JP 2019520273 A JP2019520273 A JP 2019520273A JP 7189620 B2 JP7189620 B2 JP 7189620B2
Authority
JP
Japan
Prior art keywords
image
celestial
robot
camera
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019520273A
Other languages
Japanese (ja)
Other versions
JPWO2018216710A1 (en
Inventor
淳哉 林
要 林
克則 藁谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Groove X Inc
Original Assignee
Groove X Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Groove X Inc filed Critical Groove X Inc
Publication of JPWO2018216710A1 publication Critical patent/JPWO2018216710A1/en
Application granted granted Critical
Publication of JP7189620B2 publication Critical patent/JP7189620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Image Processing (AREA)

Description

本発明は、天球画像に基づく画像認識を支援する技術、に関する。 The present invention relates to technology for supporting image recognition based on celestial images.

人間は、癒やしを求めてペットを飼う。その一方、ペットの世話をする時間を十分に確保できない、ペットを飼える住環境にない、アレルギーがある、死別がつらい、といったさまざまな理由により、ペットをあきらめている人は多い。もし、ペットの役割が務まるロボットがあれば、ペットを飼えない人にもペットが与えてくれるような癒やしを与えられるかもしれない(特許文献1参照)。 Humans keep pets for comfort. On the other hand, many people give up pets for a variety of reasons, such as not having enough time to take care of pets, lack of living environments that allow pets, allergies, and the pain of bereavement. If there is a robot that can play the role of a pet, it may be possible to give people who cannot have pets the comfort that pets give them (see Patent Document 1).

特開2000-323219号公報JP-A-2000-323219 特開2013-198062号公報JP 2013-198062 A

生物の行動の前提は、外界の認知である。ロボットにおいても人間的・生物的な行動を実現するためには、ロボットに外界を正確に認識させる必要がある。本発明者らは、ユーザを中心とした天球面を一度に撮像可能な全天球カメラ(特許文献2参照)をロボットに搭載すれば、ロボットの認知能力を飛躍的に拡大できると想到した。しかし、全天球カメラによる天球画像は歪みが大きいため、天球画像を対象とした画像認識処理は難しい。 The premise of the behavior of living things is the cognition of the external world. In order to realize human-like and biological behavior in robots, it is necessary to make robots accurately recognize the external world. The inventors of the present invention conceived that if a robot is equipped with an omnidirectional camera (see Patent Document 2) capable of capturing an image of the celestial sphere centering on the user at once, the cognitive ability of the robot can be dramatically expanded. However, since the celestial image obtained by the omnidirectional camera is highly distorted, image recognition processing for the celestial image is difficult.

本発明は、本発明者らの上記着想とそれにともなう課題認識に基づいて完成された発明であり、その主たる目的は、天球画像の歪みを補正する技術、特に、天球画像の歪みを補正することによりロボットの天球画像に基づく外界認識を支援するための技術、を提供することにある。 The present invention is an invention that was completed based on the above-mentioned ideas of the present inventors and the recognition of problems associated therewith, and the main purpose thereof is to provide a technique for correcting distortion in celestial images, in particular, correcting distortion in celestial images. To provide a technology for assisting a robot in recognizing the external world based on a celestial image.

本発明のある態様における画像処理装置は、カメラを中心とする天球面の撮像画像として天球画像を取得する画像取得部と、カメラに対して異なる角度にて対向する複数の平面に対して、天球画像の画素を投影することにより、複数の投影画像を取得する画像変換部と、を備える。 An image processing apparatus according to an aspect of the present invention includes an image acquisition unit that acquires a celestial image as a captured image of a celestial sphere centered on a camera; an image converter that obtains a plurality of projected images by projecting pixels of the images.

本発明の別の態様における画像処理装置は、カメラを中心とする天球面の撮像画像として天球画像を取得する画像取得部と、カメラに対して異なる角度にてカメラを包囲する複数の円筒画像に対して、天球画像の画素を投影することにより、複数の投影画像を取得する画像変換部と、を備える。 An image processing apparatus according to another aspect of the present invention includes an image acquisition unit that acquires a celestial image as a captured image of a celestial sphere centered on a camera, and a plurality of cylindrical images that surround the camera at different angles with respect to the camera. An image conversion unit that obtains a plurality of projection images by projecting pixels of the celestial image.

本発明のある態様におけるロボットは、ロボット上方の略全域を同時に撮像可能なカメラと、ロボット上方を覆う天球面の撮像画像である天球画像をカメラから取得し、天球画像を多面体画像に変換する画像変換部と、多面体画像から外部物体を画像認識する認識部と、を備える。
画像変換部は、ロボット上方を覆う多面体を撮像面とした画像を多面体画像として設定し、天球画像の画素を多面体のいずれかの面に投影することにより、天球画像を多面体画像に変換する。
A robot according to one aspect of the present invention has a camera capable of simultaneously capturing substantially the entire area above the robot, and a celestial image, which is a captured image of the celestial sphere covering the upper part of the robot, acquired from the camera, and the celestial image is converted into a polyhedral image. An image conversion unit for conversion and a recognition unit for image recognition of an external object from a polyhedral image are provided.
The image conversion unit sets an image whose imaging surface is the polyhedron covering the upper part of the robot as a polyhedral image, and converts the celestial image into a polyhedral image by projecting the pixels of the celestial image onto one of the surfaces of the polyhedron.

本発明の別の態様におけるロボットは、ロボット上方の略全域を同時に撮像可能なカメラと、ロボット上方を覆う天球面の撮像画像である天球画像をカメラから取得し、天球画像を多重円筒画像に変換する画像変換部と、多重円筒画像から外部物体を画像認識する認識部と、を備える。
画像変換部は、ロボットを包囲する円筒の側面に天球画像の画素を投影することにより円筒画像を形成し、円筒と天球の複数の相対角度に対応する複数の円筒画像の集合を前記多重円筒画像として設定することにより、天球画像を多重円筒画像に変換する。
According to another aspect of the present invention, a robot acquires a camera capable of simultaneously capturing substantially the entire area above the robot, and a celestial image, which is a captured image of a celestial sphere surface covering the upper part of the robot, from the camera, and obtains the celestial image from the camera. An image conversion unit that converts the image into an image, and a recognition unit that recognizes an external object from the multiple cylindrical images are provided.
The image transforming unit forms a cylindrical image by projecting the pixels of the celestial image onto the side surface of a cylinder surrounding the robot, and transforms a set of a plurality of cylindrical images corresponding to a plurality of relative angles between the cylinder and the celestial sphere into the multiple cylindrical image. The celestial image is converted to a multiple cylindrical image by setting as .

本発明のある態様における測定装置は、カメラを中心とする天球画像を撮像可能な第1および第2のカメラと、天球画像を第1および第2のカメラそれぞれから取得し、カメラに対して異なる角度にて対向する複数の平面に対して、天球画像の画素を投影することにより、複数の投影画像を取得する画像変換部と、複数の投影画像から外部物体を画像認識する認識部と、外部物体が含まれる第1のカメラによる天球画像に基づいて生成された第1の投影画像と、同一の外部物体が含まれる第2のカメラによる天球画像に基づいて生成された第2の投影画像に基づく三角測距により、外部物体までの距離を測定する測距部と、を備える。 A measurement device according to an aspect of the present invention includes first and second cameras capable of capturing celestial images centering on the cameras, acquiring the celestial images from the first and second cameras, respectively, and obtaining different images for the cameras. an image conversion unit that acquires a plurality of projected images by projecting pixels of a celestial image onto a plurality of planes that face each other at an angle; a recognition unit that recognizes an external object from the plurality of projected images; A first projected image generated based on a celestial image captured by a first camera including an object, and a second projected image generated based on a celestial image captured by a second camera including the same external object. a distance measuring unit that measures the distance to an external object by triangulation based on the distance.

本発明によれば、天球画像に対して、画像認識を行う上で好適な補正を施すことできる。 According to the present invention, the celestial image can be subjected to suitable correction for image recognition.

ロボットの正面外観図である。It is a front external view of a robot. ロボットの側面外観図である。It is a side external view of a robot. ロボットの構造を概略的に表す断面図である。It is a cross-sectional view schematically showing the structure of the robot. ロボットシステムの構成図である。1 is a configuration diagram of a robot system; FIG. 感情マップの概念図である。It is a conceptual diagram of an emotion map. ロボットのハードウェア構成図である。It is a hardware block diagram of a robot. ロボットシステムの機能ブロック図である。1 is a functional block diagram of a robot system; FIG. 天球画像の生成方法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a method of generating a celestial image; 天球画像の模式図である。FIG. 4 is a schematic diagram of a celestial image; 正距円筒図法における円筒面と天球面の関係を説明するための模式図である。FIG. 3 is a schematic diagram for explaining the relationship between a cylindrical surface and a celestial sphere in the equirectangular projection; 正距円筒図法による天球画像から単一円筒画像への画像投影方法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a method of projecting an image from a celestial image onto a single cylindrical image using equirectangular projection. 斜方立法八面体の斜視図である。1 is a perspective view of an orthorhombic octahedron; FIG. 斜方立法八面体の展開図である。It is a developed view of a rhombicoctahedron. 斜方立法八面体と天球面の側断面図である。It is a side cross-sectional view of the rhombicoctahedron and the celestial sphere. 拡大平方面の部分切り出しを説明するための模式図である。FIG. 10 is a schematic diagram for explaining partial clipping of an enlarged square plane; 多面体投影法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a polyhedral projection method; 第1実施形態における画像処理過程を示すフローチャートである。4 is a flow chart showing an image processing process in the first embodiment; 多重円筒投影法を説明するための第1の模式図である。FIG. 3 is a first schematic diagram for explaining the multiple cylindrical projection method; 多重円筒投影法を説明するための第2の模式図である。FIG. 4 is a second schematic diagram for explaining the multiple cylindrical projection method; 多重円筒投影法により生成される多重円筒画像の概念図である。FIG. 2 is a conceptual diagram of a multiple cylindrical image generated by multiple cylindrical projection; 第2実施形態における画像処理過程を示すフローチャートである。9 is a flow chart showing an image processing process in the second embodiment; 第3実施形態におけるロボットの正面外観図である。It is a front external view of the robot in 3rd Embodiment. 第3実施形態におけるロボットの側面外観図である。It is a side external view of the robot in 3rd Embodiment. ロボットから外部物体までの距離を測定する方法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a method of measuring the distance from the robot to an external object; 五角錐台の斜視図である。It is a perspective view of a truncated pentagonal pyramid. 五角錐台(t1)を上から見たときの模式図である。It is a schematic diagram when a truncated pentagonal pyramid (t1) is viewed from above. 五角錐台(t2)を上から見たときの模式図である。It is a schematic diagram when a truncated pentagonal pyramid (t2) is viewed from above. 五角錐台の展開図である。FIG. 4 is a developed view of a truncated pentagonal pyramid; 拡大天頂面の回転を説明するための模式図である。FIG. 4 is a schematic diagram for explaining rotation of an enlarged zenith plane; 複数の拡大側面のつなぎ合わせを示す模式図である。It is a schematic diagram which shows joining of several enlarged side surfaces.

図1(a)は、ロボット100の正面外観図である。図1(b)は、ロボット100の側面外観図である。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
FIG. 1(a) is a front external view of the robot 100. FIG. FIG. 1B is a side external view of the robot 100. FIG.
The robot 100 in this embodiment is an autonomous robot that determines actions and gestures based on the external environment and internal state. The external environment is recognized by various sensors such as cameras and thermosensors. The internal state is quantified as various parameters that express the robot's 100 emotions. These will be described later.

ロボット100は、原則として、オーナー家庭の家屋内を行動範囲とする。以下、ロボット100に関わる人間を「ユーザ」とよび、特に、ロボット100が所属する家庭の構成員となるユーザのことを「オーナー」とよぶ。 In principle, the robot 100 has an action range within the owner's house. Hereinafter, a person involved in the robot 100 will be referred to as a "user", and in particular, a user who will be a member of the household to which the robot 100 belongs will be referred to as an "owner".

ロボット100のボディ104は、全体的に丸みを帯びた形状を有し、ウレタンやゴム、樹脂、繊維などやわらかく弾力性のある素材により形成された外皮を含む。ロボット100に服を着せてもよい。丸くてやわらかく、手触りのよいボディ104とすることで、ロボット100はユーザに安心感とともに心地よい触感を提供する。 A body 104 of the robot 100 has an overall rounded shape and includes an outer skin made of a soft and elastic material such as urethane, rubber, resin, or fiber. The robot 100 may be dressed. By making the body 104 round, soft, and pleasant to the touch, the robot 100 provides the user with a sense of security and a pleasant touch.

ロボット100は、総重量が15キログラム以下、好ましくは10キログラム以下、更に好ましくは、5キログラム以下である。生後13ヶ月までに、赤ちゃんの過半数は一人歩きを始める。生後13ヶ月の赤ちゃんの平均体重は、男児が9キログラム強、女児が9キログラム弱である。このため、ロボット100の総重量が10キログラム以下であれば、ユーザは一人歩きできない赤ちゃんを抱きかかえるのとほぼ同等の労力でロボット100を抱きかかえることができる。生後2ヶ月未満の赤ちゃんの平均体重は男女ともに5キログラム未満である。したがって、ロボット100の総重量が5キログラム以下であれば、ユーザは乳児を抱っこするのと同等の労力でロボット100を抱っこできる。 Robot 100 has a total weight of 15 kilograms or less, preferably 10 kilograms or less, and more preferably 5 kilograms or less. By 13 months of age, the majority of babies begin walking on their own. The average weight of a 13-month-old baby is just over 9 kilograms for boys and just under 9 kilograms for girls. Therefore, if the total weight of the robot 100 is 10 kg or less, the user can hold the robot 100 with approximately the same effort as holding a baby who cannot walk alone. Babies under 2 months of age weigh less than 5 kilograms on average for both sexes. Therefore, if the total weight of the robot 100 is 5 kg or less, the user can hold the robot 100 with the same effort as holding an infant.

適度な重さと丸み、柔らかさ、手触りのよさ、といった諸属性により、ユーザがロボット100を抱きかかえやすく、かつ、抱きかかえたくなるという効果が実現される。同様の理由から、ロボット100の身長は1.2メートル以下、好ましくは、0.7メートル以下であることが望ましい。本実施形態におけるロボット100にとって、抱きかかえることができるというのは重要なコンセプトである。 Various attributes such as appropriate weight, roundness, softness, and good touch realize the effect that the user can easily hold the robot 100 and want to hold it. For the same reason, it is desirable that the height of the robot 100 is 1.2 meters or less, preferably 0.7 meters or less. It is an important concept for the robot 100 in this embodiment that it can be held.

ロボット100は、3輪走行するための3つの車輪を備える。図示のように、一対の前輪102(左輪102a,右輪102b)と、一つの後輪103を含む。前輪102が駆動輪であり、後輪103が従動輪である。前輪102は、操舵機構を有しないが、回転速度や回転方向を個別に制御可能とされている。後輪103は、いわゆるオムニホイールからなり、ロボット100を前後左右へ移動させるために回転自在となっている。左輪102aよりも右輪102bの回転数を大きくすることで、ロボット100は左折したり、左回りに回転できる。右輪102bよりも左輪102aの回転数を大きくすることで、ロボット100は右折したり、右回りに回転できる。 The robot 100 has three wheels for traveling on three wheels. As shown, it includes a pair of front wheels 102 (left wheel 102a, right wheel 102b) and one rear wheel 103. As shown in FIG. The front wheels 102 are driving wheels and the rear wheels 103 are driven wheels. The front wheels 102 do not have a steering mechanism, but can be individually controlled in rotation speed and rotation direction. The rear wheel 103 is a so-called omni wheel, and is rotatable to move the robot 100 forward, backward, leftward, and rightward. The robot 100 can turn left or rotate counterclockwise by making the rotation speed of the right wheel 102b greater than that of the left wheel 102a. By increasing the rotation speed of the left wheel 102a more than the right wheel 102b, the robot 100 can turn right or rotate clockwise.

前輪102および後輪103は、駆動機構(回動機構、リンク機構)によりボディ104に完全収納できる。走行時においても各車輪の大部分はボディ104に隠れているが、各車輪がボディ104に完全収納されるとロボット100は移動不可能な状態となる。すなわち、車輪の収納動作にともなってボディ104が降下し、床面Fに着座する。この着座状態においては、ボディ104の底部に形成された平坦状の着座面108(接地底面)が床面Fに当接する。 The front wheels 102 and rear wheels 103 can be completely housed in the body 104 by means of drive mechanisms (rotating mechanisms, link mechanisms). Most of the wheels are hidden by the body 104 even during running, but when the wheels are completely housed in the body 104, the robot 100 cannot move. That is, the body 104 descends and seats on the floor surface F as the wheels are retracted. In this seated state, a flat seating surface 108 (grounding bottom surface) formed on the bottom of the body 104 contacts the floor surface F. As shown in FIG.

ロボット100は、2つの手106を有する。手106には、モノを把持する機能はない。手106は上げる、振る、振動するなど簡単な動作が可能である。2つの手106も個別制御可能である。 Robot 100 has two hands 106 . The hand 106 does not have the function of grasping an object. The hand 106 can be raised, shaken, or vibrated for simple actions. The two hands 106 are also individually controllable.

目110は、液晶素子または有機EL素子による画像表示が可能である。ロボット100は、音源方向を特定可能なマイクロフォンアレイや超音波センサなどさまざまなセンサを搭載する。また、スピーカーを内蔵し、簡単な音声を発することもできる。 The eye 110 can display an image using a liquid crystal element or an organic EL element. The robot 100 is equipped with various sensors such as a microphone array and an ultrasonic sensor that can identify the sound source direction. It also has a built-in speaker that can emit simple sounds.

ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。ツノ112には全天球カメラが取り付けられ、ロボット100の上部全域を一度に撮像可能である。 A horn 112 is attached to the head of the robot 100 . Since the robot 100 is lightweight as described above, the user can lift the robot 100 by grasping the horns 112 . An omnidirectional camera is attached to the horn 112 so that the entire upper area of the robot 100 can be imaged at once.

図2は、ロボット100の構造を概略的に表す断面図である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
FIG. 2 is a cross-sectional view schematically showing the structure of the robot 100. As shown in FIG.
As shown in FIG. 2 , the body 104 of the robot 100 includes a base frame 308 , a body frame 310 , a pair of resin wheel covers 312 and an outer skin 314 . The base frame 308 is made of metal, constitutes the axis of the body 104, and supports the internal mechanism. The base frame 308 is configured by vertically connecting an upper plate 332 and a lower plate 334 with a plurality of side plates 336 . Sufficient spacing is provided between the plurality of side plates 336 to allow for ventilation. Inside the base frame 308, the battery 118, the control circuit 342 and various actuators are accommodated.

本体フレーム310は、樹脂材からなり、頭部フレーム316および胴部フレーム318を含む。頭部フレーム316は、中空半球状をなし、ロボット100の頭部骨格を形成する。胴部フレーム318は、段付筒形状をなし、ロボット100の胴部骨格を形成する。胴部フレーム318は、ベースフレーム308と一体に固定される。頭部フレーム316は、胴部フレーム318の上端部に相対変位可能に組み付けられる。 Body frame 310 is made of a resin material and includes head frame 316 and body frame 318 . The head frame 316 has a hollow hemispherical shape and forms the head skeleton of the robot 100 . The torso frame 318 has a stepped tubular shape and forms the torso skeleton of the robot 100 . A torso frame 318 is fixed integrally with the base frame 308 . The head frame 316 is attached to the upper end of the body frame 318 so as to be relatively displaceable.

頭部フレーム316には、ヨー軸320、ピッチ軸322およびロール軸324の3軸と、各軸を回転駆動するためのアクチュエータ326が設けられる。アクチュエータ326は、各軸を個別に駆動するための複数のサーボモータを含む。首振り動作のためにヨー軸320が駆動され、頷き動作のためにピッチ軸322が駆動され、首を傾げる動作のためにロール軸324が駆動される。 The head frame 316 is provided with three axes, a yaw axis 320, a pitch axis 322 and a roll axis 324, and an actuator 326 for rotationally driving each axis. Actuator 326 includes multiple servo motors to drive each axis individually. The yaw axis 320 is driven for the swing motion, the pitch axis 322 is driven for the nod motion, and the roll axis 324 is driven for the tilt motion.

頭部フレーム316の上部には、ヨー軸320を支持するプレート325が固定されている。プレート325には、上下間の通気を確保するための複数の通気孔327が形成される。 A plate 325 that supports the yaw axis 320 is fixed to the top of the head frame 316 . A plurality of ventilation holes 327 are formed in the plate 325 to ensure ventilation between the upper and lower sides.

頭部フレーム316およびその内部機構を下方から支持するように、金属製のベースプレート328が設けられる。ベースプレート328は、クロスリンク機構329(パンタグラフ機構)を介してプレート325と連結される一方、ジョイント330を介してアッパープレート332(ベースフレーム308)と連結されている。 A metal base plate 328 is provided to support the head frame 316 and its internal mechanisms from below. The base plate 328 is connected to the plate 325 via a cross link mechanism 329 (pantograph mechanism) and is connected to an upper plate 332 (base frame 308 ) via a joint 330 .

胴部フレーム318は、ベースフレーム308と車輪駆動機構370を収容する。車輪駆動機構370は、回動軸378およびアクチュエータ379を含む。胴部フレーム318の下半部は、ホイールカバー312との間に前輪102の収納スペースSを形成するために小幅とされている。 Torso frame 318 houses base frame 308 and wheel drive mechanism 370 . Wheel drive mechanism 370 includes a pivot shaft 378 and an actuator 379 . A lower half portion of the body frame 318 is made narrow in order to form a storage space S for the front wheel 102 between the wheel cover 312 and the wheel cover 312 .

外皮314は、ウレタンゴムからなり、本体フレーム310およびホイールカバー312を外側から覆う。手106は、外皮314と一体成形される。外皮314の上端部には、外気を導入するための開口部390が設けられる。 Outer skin 314 is made of urethane rubber and covers body frame 310 and wheel cover 312 from the outside. Hand 106 is integrally molded with skin 314 . An opening 390 for introducing outside air is provided at the upper end of the outer skin 314 .

図3は、ロボットシステム300の構成図である。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
FIG. 3 is a configuration diagram of the robot system 300. As shown in FIG.
Robotic system 300 includes robot 100 , server 200 and a plurality of external sensors 114 . A plurality of external sensors 114 (external sensors 114a, 114b, . . . , 114n) are installed in advance in the house. The external sensor 114 may be fixed to the wall surface of the house or placed on the floor. The position coordinates of the external sensor 114 are registered in the server 200 . The positional coordinates are defined as x, y coordinates in a house assumed as the action range of the robot 100 .

サーバ200は、家屋内に設置される。本実施形態におけるサーバ200とロボット100は、通常、1対1で対応する。ロボット100の内蔵するセンサおよび複数の外部センサ114から得られる情報に基づいて、サーバ200がロボット100の基本行動を決定する。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
The server 200 is installed inside the house. The server 200 and the robot 100 in this embodiment are normally in one-to-one correspondence. The server 200 determines the basic actions of the robot 100 based on the information obtained from the sensors built into the robot 100 and the plurality of external sensors 114 .
The external sensor 114 is for reinforcing the sensory organs of the robot 100 , and the server 200 is for reinforcing the brain of the robot 100 .

外部センサ114は、定期的に外部センサ114のID(以下、「ビーコンID」とよぶ)を含む無線信号(以下、「ロボット探索信号」とよぶ)を送信する。ロボット100はロボット探索信号を受信するとビーコンIDを含む無線信号(以下、「ロボット返答信号」とよぶ)を返信する。サーバ200は、外部センサ114がロボット探索信号を送信してからロボット返答信号を受信するまでの時間を計測し、外部センサ114からロボット100までの距離を測定する。複数の外部センサ114とロボット100とのそれぞれの距離を計測することで、ロボット100の位置座標を特定する。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
The external sensor 114 periodically transmits a radio signal (hereinafter referred to as a "robot search signal") including an ID of the external sensor 114 (hereinafter referred to as a "beacon ID"). Upon receiving the robot search signal, the robot 100 returns a radio signal including the beacon ID (hereinafter referred to as "robot response signal"). The server 200 measures the time from when the external sensor 114 transmits the robot search signal to when it receives the robot reply signal, and measures the distance from the external sensor 114 to the robot 100 . By measuring the respective distances between the plurality of external sensors 114 and the robot 100, the position coordinates of the robot 100 are specified.
Of course, a system in which the robot 100 periodically transmits its own position coordinates to the server 200 may be used.

図4は、感情マップ116の概念図である。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
FIG. 4 is a conceptual diagram of the emotion map 116. As shown in FIG.
Emotion map 116 is a data table stored in server 200 . The robot 100 selects actions according to the emotion map 116 . The emotion map 116 shown in FIG. 4 indicates the magnitude of the likes and dislikes for the location of the robot 100 . The x-axis and y-axis of the emotion map 116 indicate two-dimensional spatial coordinates. The z-axis indicates the magnitude of likes and dislikes. A positive z-value indicates a high degree of liking for the location, and a negative z-value indicates dislike of the location.

図4の感情マップ116において、座標P1は、ロボット100の行動範囲としてサーバ200が管理する屋内空間のうち好感情が高い地点(以下、「好意地点」とよぶ)である。好意地点は、ソファの陰やテーブルの下などの「安全な場所」であってもよいし、リビングのように人が集まりやすい場所、賑やかな場所であってもよい。また、過去にやさしく撫でられたり、触れられたりした場所であってもよい。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
In the emotion map 116 of FIG. 4, a coordinate P1 is a point with a high degree of favorability (hereinafter referred to as a “favorable point”) in the indoor space managed by the server 200 as the action range of the robot 100 . The favored point may be a "safe place" such as behind a sofa or under a table, or a place where people tend to gather, such as a living room, or a lively place. It may also be a place that was gently stroked or touched in the past.
The definition of what kind of place the robot 100 likes is arbitrary, but generally, it is desirable to set places preferred by small children and small animals such as dogs and cats as favorable points.

座標P2は、悪感情が高い地点(以下、「嫌悪地点」とよぶ)である。嫌悪地点は、テレビの近くなど大きな音がする場所、お風呂や洗面所のように濡れやすい場所、閉鎖空間や暗い場所、ユーザから乱暴に扱われたことがある不快な記憶に結びつく場所などであってもよい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
Coordinate P2 is a point of high ill feeling (hereinafter referred to as "disgust point"). Disgust points include places with loud noises such as near a TV, places where it is easy to get wet such as baths and washrooms, closed or dark places, and places associated with unpleasant memories of being treated roughly by the user. There may be.
The definition of what kind of place the robot 100 dislikes is arbitrary, but in general, it is desirable to set places where small children and small animals such as dogs and cats are afraid as disgust points.

座標Qは、ロボット100の現在位置を示す。複数の外部センサ114が定期的に送信するロボット探索信号とそれに対するロボット返答信号により、サーバ200はロボット100の位置座標を特定する。たとえば、ビーコンID=1の外部センサ114とビーコンID=2の外部センサ114がそれぞれロボット100を検出したとき、2つの外部センサ114からロボット100の距離を求め、そこからロボット100の位置座標を求める。 A coordinate Q indicates the current position of the robot 100 . The server 200 identifies the position coordinates of the robot 100 based on the robot search signal and the robot reply signal corresponding to the robot search signal periodically transmitted by the plurality of external sensors 114 . For example, when the external sensor 114 with the beacon ID=1 and the external sensor 114 with the beacon ID=2 each detect the robot 100, the distance to the robot 100 is obtained from the two external sensors 114, and the position coordinates of the robot 100 are obtained therefrom. .

図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。 When the emotion map 116 shown in FIG. 4 is given, the robot 100 moves in the direction of being attracted to the favorable point (coordinates P1) and in the direction away from the disgusting point (coordinates P2).

感情マップ116は動的に変化する。ロボット100が座標P1に到達すると、座標P1におけるz値(好感情)は時間とともに低下する。これにより、ロボット100は好意地点(座標P1)に到達して、「感情が満たされ」、やがて、その場所に「飽きてくる」という生物的行動をエミュレートできる。同様に、座標P2における悪感情も時間とともに緩和される。時間経過とともに新たな好意地点や嫌悪地点が生まれ、それによってロボット100は新たな行動選択を行う。ロボット100は、新しい好意地点に「興味」を持ち、絶え間なく行動選択する。 The emotion map 116 changes dynamically. When the robot 100 reaches the coordinate P1, the z value (positivity) at the coordinate P1 decreases with time. As a result, the robot 100 can emulate the biological behavior of reaching the favored point (coordinate P1), being “satisfied with emotions”, and eventually becoming “bored” at that place. Similarly, the bad feeling at coordinate P2 is mitigated over time. With the passage of time, new points of favor and points of dislike are created, and the robot 100 makes new action selections accordingly. The robot 100 is "interested" in new favored points, and continuously selects actions.

感情マップ116は、ロボット100の内部状態として、感情の起伏を表現する。ロボット100は、好意地点を目指し、嫌悪地点を避け、好意地点にしばらくとどまり、やがてまた次の行動を起こす。このような制御により、ロボット100の行動選択を人間的・生物的なものにできる。 The emotion map 116 expresses emotional ups and downs as the internal state of the robot 100 . The robot 100 aims at the favored point, avoids the disliked point, stays at the favored point for a while, and then takes the next action again. With such control, action selection of the robot 100 can be made human and biological.

なお、ロボット100の行動に影響を与えるマップ(以下、「行動マップ」と総称する)は、図4に示したようなタイプの感情マップ116に限らない。たとえば、好奇心、恐怖を避ける気持ち、安心を求める気持ち、静けさや薄暗さ、涼しさや暖かさといった肉体的安楽を求める気持ち、などさまざまな行動マップを定義可能である。そして、複数の行動マップそれぞれのz値を重み付け平均することにより、ロボット100の目的地点を決定してもよい。 Note that the map that affects the action of the robot 100 (hereinafter collectively referred to as the "action map") is not limited to the emotion map 116 of the type shown in FIG. For example, curiosity, avoidance of fear, need for reassurance, need for physical comforts such as silence/darkness, coolness/warmth, etc., can be defined in various behavioral maps. Then, the destination point of the robot 100 may be determined by weighting and averaging the z values of each of the plurality of action maps.

ロボット100は、行動マップとは別に、さまざまな感情や感覚の大きさを示すパラメータを有する。たとえば、寂しさという感情パラメータの値が高まっているときには、安心する場所を評価する行動マップの重み付け係数を大きく設定し、目標地点に到達することでこの感情パラメータの値を低下させる。同様に、つまらないという感覚を示すパラメータの値が高まっているときには、好奇心を満たす場所を評価する行動マップの重み付け係数を大きく設定すればよい。 The robot 100 has parameters indicating the magnitude of various emotions and sensations in addition to the action map. For example, when the value of the emotional parameter of loneliness is increasing, the weighting factor of the action map for evaluating places where people feel safe is set large, and the value of this emotional parameter is lowered by reaching the target point. Similarly, when the value of the parameter indicating the sense of boredom is high, the weighting factor of the activity map that evaluates places that satisfy curiosity can be set high.

図5は、ロボット100のハードウェア構成図である。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
FIG. 5 is a hardware configuration diagram of the robot 100. As shown in FIG.
Robot 100 includes internal sensors 128 , communicator 126 , storage device 124 , processor 122 , drive mechanism 120 and battery 118 . Drive mechanism 120 includes wheel drive mechanism 370 described above. Processor 122 and storage device 124 are included in control circuitry 342 . Each unit is connected to each other by a power line 130 and a signal line 132 . A battery 118 supplies power to each unit via a power line 130 . Each unit transmits and receives control signals via signal line 132 . The battery 118 is a lithium ion secondary battery and is the power source of the robot 100 .

内部センサ128は、ロボット100が内蔵する各種センサの集合体である。具体的には、カメラ(全天球カメラ)、マイクロフォンアレイ、測距センサ(赤外線センサ)、サーモセンサ、タッチセンサ、加速度センサ、ニオイセンサなどである。タッチセンサは、外皮314と本体フレーム310の間に設置され、ユーザのタッチを検出する。ニオイセンサは、匂いの元となる分子の吸着によって電気抵抗が変化する原理を応用した既知のセンサである。 The internal sensor 128 is a collection of various sensors built into the robot 100 . Specifically, they are cameras (omnidirectional cameras), microphone arrays, ranging sensors (infrared sensors), thermosensors, touch sensors, acceleration sensors, odor sensors, and the like. A touch sensor is installed between the outer skin 314 and the body frame 310 to detect a user's touch. An odor sensor is a known sensor that applies the principle that electrical resistance changes due to the adsorption of odor-causing molecules.

通信機126は、サーバ200や外部センサ114、ユーザの有する携帯機器など各種の外部機器を対象として無線通信を行う通信モジュールである。記憶装置124は、不揮発性メモリおよび揮発性メモリにより構成され、コンピュータプログラムや各種設定情報を記憶する。プロセッサ122は、コンピュータプログラムの実行手段である。駆動機構120は、内部機構を制御するアクチュエータである。このほかには、表示器やスピーカーなども搭載される。 The communication device 126 is a communication module that performs wireless communication with various external devices such as the server 200, the external sensor 114, and a user's portable device. The storage device 124 is composed of non-volatile memory and volatile memory, and stores computer programs and various setting information. The processor 122 is means for executing computer programs. The drive mechanism 120 is an actuator that controls internal mechanisms. It also has a display and speakers.

プロセッサ122は、通信機126を介してサーバ200や外部センサ114と通信しながら、ロボット100の行動選択を行う。内部センサ128により得られるさまざまな外部情報も行動選択に影響する。駆動機構120は、主として、車輪(前輪102)と頭部(頭部フレーム316)を制御する。駆動機構120は、2つの前輪102それぞれの回転速度や回転方向を変化させることにより、ロボット100の移動方向や移動速度を変化させる。また、駆動機構120は、車輪(前輪102および後輪103)を昇降させることもできる。車輪が上昇すると、車輪はボディ104に完全に収納され、ロボット100は着座面108にて床面Fに当接し、着座状態となる。また、駆動機構120は、ワイヤ135を介して、手106を制御する。 The processor 122 selects actions of the robot 100 while communicating with the server 200 and the external sensor 114 via the communication device 126 . A variety of external information obtained by internal sensors 128 also influences behavioral choices. Drive mechanism 120 primarily controls the wheels (front wheels 102) and the head (head frame 316). The driving mechanism 120 changes the moving direction and moving speed of the robot 100 by changing the rotating speed and rotating direction of each of the two front wheels 102 . The drive mechanism 120 can also move the wheels (the front wheels 102 and the rear wheels 103) up and down. When the wheels are raised, the wheels are completely housed in the body 104, and the robot 100 comes into contact with the floor surface F on the seating surface 108 and is in a seated state. Drive mechanism 120 also controls hand 106 via wire 135 .

図6は、ロボットシステム300の機能ブロック図である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
FIG. 6 is a functional block diagram of the robot system 300. As shown in FIG.
As described above, robotic system 300 includes robot 100 , server 200 and a plurality of external sensors 114 . Each component of the robot 100 and the server 200 includes computing units such as a CPU (Central Processing Unit) and various coprocessors, storage devices such as memory and storage, hardware including wired or wireless communication lines connecting them, and storage. It is implemented by software that is stored in the device and that supplies processing instructions to the calculator. A computer program may consist of a device driver, an operating system, various application programs located in their higher layers, and a library that provides common functions to these programs. Each block described below represents a functional block rather than a hardware configuration.
A part of the functions of the robot 100 may be realized by the server 200 , and a part or all of the functions of the server 200 may be realized by the robot 100 .

(サーバ200)
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
(Server 200)
Server 200 includes communication unit 204 , data processing unit 202 and data storage unit 206 .
The communication unit 204 is in charge of communication processing with the external sensor 114 and the robot 100 . A data storage unit 206 stores various data. The data processing unit 202 executes various processes based on data acquired by the communication unit 204 and data stored in the data storage unit 206 . Data processing unit 202 also functions as an interface for communication unit 204 and data storage unit 206 .

データ格納部206は、モーション格納部232、マップ格納部216および個人データ格納部218を含む。
ロボット100は、複数の動作パターン(モーション)を有する。手106を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
Data store 206 includes motion store 232 , map store 216 and personal data store 218 .
The robot 100 has a plurality of action patterns (motions). Various motions are defined, such as shaking the hand 106, approaching the owner while meandering, and staring at the owner while tilting the neck.

モーション格納部232は、モーションの制御内容を定義する「モーションファイル」を格納する。各モーションは、モーションIDにより識別される。モーションファイルは、ロボット100のモーション格納部160にもダウンロードされる。どのモーションを実行するかは、サーバ200で決定されることもあるし、ロボット100で決定されることもある。 The motion storage unit 232 stores a “motion file” that defines the content of motion control. Each motion is identified by a motion ID. The motion files are also downloaded to the motion store 160 of the robot 100 . Which motion to perform may be determined by the server 200 or may be determined by the robot 100 .

ロボット100のモーションの多くは、複数の単位モーションを含む複合モーションとして構成される。たとえば、ロボット100がオーナーに近づくとき、オーナーの方に向き直る単位モーション、手を上げながら近づく単位モーション、体を揺すりながら近づく単位モーション、両手を上げながら着座する単位モーションの組み合わせとして表現されてもよい。このような4つのモーションの組み合わせにより、「オーナーに近づいて、途中で手を上げて、最後は体をゆすった上で着座する」というモーションが実現される。モーションファイルには、ロボット100に設けられたアクチュエータの回転角度や角速度などが時間軸に関連づけて定義される。モーションファイル(アクチュエータ制御情報)にしたがって、時間経過とともに各アクチュエータを制御することで様々なモーションが表現される。 Most of the motions of the robot 100 are configured as compound motions including multiple unit motions. For example, when the robot 100 approaches the owner, it may be expressed as a combination of a unit motion of turning toward the owner, a unit motion of approaching while raising hands, a unit motion of approaching while shaking the body, and a unit motion of sitting while raising both hands. . By combining these four motions, a motion of "approaching the owner, raising a hand in the middle, finally shaking the body and sitting down" is realized. In the motion file, the rotation angles and angular velocities of the actuators provided in the robot 100 are defined in association with the time axis. Various motions are expressed by controlling each actuator over time according to a motion file (actuator control information).

先の単位モーションから次の単位モーションに変化するときの移行時間を「インターバル」とよぶ。インターバルは、単位モーション変更に要する時間やモーションの内容に応じて定義されればよい。インターバルの長さは調整可能である。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御に関わる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
The transition time when changing from the previous unit motion to the next unit motion is called "interval". The interval may be defined according to the time required to change the unit motion and the contents of the motion. The interval length is adjustable.
Hereinafter, settings related to action control of the robot 100, such as when and which motion to select, output adjustment of each actuator for realizing the motion, etc., are collectively referred to as "behavior characteristics". The behavioral characteristics of the robot 100 are defined by motion selection algorithms, motion selection probabilities, motion files, and the like.

モーション格納部232は、モーションファイルのほか、各種のイベントが発生したときに実行すべきモーションを定義するモーション選択テーブルを格納する。モーション選択テーブルにおいては、イベントに対して1以上のモーションとその選択確率が対応づけられる。 The motion storage unit 232 stores motion files as well as motion selection tables that define motions to be executed when various events occur. In the motion selection table, one or more motions and their selection probabilities are associated with events.

マップ格納部216は、複数の行動マップのほか、椅子やテーブルなどの障害物の配置状況を示すマップも格納する。個人データ格納部218は、ユーザ、特に、オーナーの情報を格納する。具体的には、ユーザに対する親密度とユーザの身体的特徴・行動的特徴を示すマスタ情報を格納する。年齢や性別などの他の属性情報を格納してもよい。 The map storage unit 216 stores a plurality of action maps as well as maps showing the arrangement of obstacles such as chairs and tables. The personal data storage unit 218 stores user information, especially owner information. Specifically, it stores master information indicating familiarity with the user and the user's physical features/behavioral features. Other attribute information such as age and gender may be stored.

ロボット100は、ユーザごとに親密度という内部パラメータを有する。ロボット100が、自分を抱き上げる、声をかけてくれるなど、自分に対して好意を示す行動を認識したとき、そのユーザに対する親密度が高くなる。ロボット100に関わらないユーザや、乱暴を働くユーザ、出会う頻度が低いユーザに対する親密度は低くなる。 The robot 100 has an internal parameter of intimacy for each user. When the robot 100 recognizes an action showing goodwill toward the user, such as picking the user up or calling out to the user, the degree of intimacy with the user increases. The degree of intimacy is low for users who do not interact with the robot 100, users who behave violently, and users whom they rarely meet.

データ処理部202は、位置管理部208、マップ管理部210、認識部212、動作制御部222、親密度管理部220および状態管理部244を含む。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
Data processing unit 202 includes location management unit 208 , map management unit 210 , recognition unit 212 , operation control unit 222 , familiarity management unit 220 and state management unit 244 .
The position management unit 208 identifies the position coordinates of the robot 100 by the method described using FIG. The location manager 208 may also track the user's location coordinates in real time.

状態管理部244は、充電率や内部温度、プロセッサ122の処理負荷などの各種物理状態など各種内部パラメータを管理する。状態管理部244は、感情管理部234を含む。
感情管理部234は、ロボット100の感情(寂しさ、好奇心、承認欲求など)を示すさまざまな感情パラメータを管理する。これらの感情パラメータは常に揺らいでいる。感情パラメータに応じて複数の行動マップの重要度が変化し、行動マップによってロボット100の移動目標地点が変化し、ロボット100の移動や時間経過によって感情パラメータが変化する。
The state management unit 244 manages various internal parameters such as the charging rate, internal temperature, and various physical states such as the processing load of the processor 122 . State manager 244 includes emotion manager 234 .
The emotion management unit 234 manages various emotion parameters indicating the emotions of the robot 100 (loneliness, curiosity, desire for approval, etc.). These emotional parameters are constantly fluctuating. The importance of a plurality of action maps changes according to the emotion parameter, the movement target point of the robot 100 changes depending on the action map, and the emotion parameter changes according to the movement of the robot 100 and the passage of time.

たとえば、寂しさを示す感情パラメータが高いときには、感情管理部234は安心する場所を評価する行動マップの重み付け係数を大きく設定する。ロボット100が、この行動マップにおいて寂しさを解消可能な地点に至ると、感情管理部234は寂しさを示す感情パラメータを低下させる。また、後述の応対行為によっても各種感情パラメータは変化する。たとえば、オーナーから「抱っこ」をされると寂しさを示す感情パラメータは低下し、長時間にわたってオーナーを視認しないときには寂しさを示す感情パラメータは少しずつ増加する。 For example, when the emotion parameter indicating loneliness is high, the emotion management unit 234 sets a large weighting factor for the action map that evaluates the safe place. When the robot 100 reaches a point where loneliness can be resolved on this action map, the emotion management unit 234 lowers the emotion parameter indicating loneliness. In addition, various emotion parameters change depending on the later-described response behavior. For example, when the owner hugs the pet, the emotional parameter indicating loneliness decreases, and when the owner is not seen for a long time, the emotional parameter indicating loneliness gradually increases.

マップ管理部210は、複数の行動マップについて図4に関連して説明した方法にて各座標のパラメータを変化させる。マップ管理部210は、複数の行動マップのいずれかを選択してもよいし、複数の行動マップのz値を加重平均してもよい。たとえば、行動マップAでは座標R1、座標R2におけるz値が4と3であり、行動マップBでは座標R1、座標R2におけるz値が-1と3であるとする。単純平均の場合、座標R1の合計z値は4-1=3、座標R2の合計z値は3+3=6であるから、ロボット100は座標R1ではなく座標R2の方向に向かう。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5-1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
The map management unit 210 changes the parameter of each coordinate by the method described in relation to FIG. 4 for a plurality of action maps. The map management unit 210 may select one of the plurality of action maps, or may weight-average the z values of the plurality of action maps. For example, on action map A, the z values at coordinates R1 and R2 are 4 and 3, and on action map B, the z values at coordinates R1 and R2 are -1 and 3. In the simple average, the total z value of coordinate R1 is 4−1=3 and the total z value of coordinate R2 is 3+3=6, so robot 100 is directed toward coordinate R2 instead of coordinate R1.
When action map A is given five times more weight than action map B, the total z value of coordinate R1 is 4×5−1=19, and the total z value of coordinate R2 is 3×5+3=18. in the direction of

認識部212は、外部環境を認識する。外部環境の認識には、温度や湿度に基づく天候や季節の認識、光量や温度に基づく物陰(安全地帯)の認識など多様な認識が含まれる。ロボット100の認識部156は、内部センサ128により各種の環境情報を取得し、これを一次処理した上でサーバ200の認識部212に転送する。 The recognition unit 212 recognizes the external environment. Recognition of the external environment includes various recognitions such as recognition of weather and seasons based on temperature and humidity, and recognition of shadows (safe zones) based on light intensity and temperature. The recognition unit 156 of the robot 100 acquires various environmental information from the internal sensor 128 , performs primary processing on the information, and transfers it to the recognition unit 212 of the server 200 .

具体的には、ロボット100の認識部156は、画像から移動物体、特に、人物や動物に対応する画像領域を抽出し、抽出した画像領域から移動物体の身体的特徴や行動的特徴を示す特徴量の集合として「特徴ベクトル」を抽出する。特徴ベクトル成分(特徴量)は、各種身体的・行動的特徴を定量化した数値である。たとえば、人間の目の横幅は0~1の範囲で数値化され、1つの特徴ベクトル成分を形成する。人物の撮像画像から特徴ベクトルを抽出する手法については、既知の顔認識技術の応用である。ロボット100は、特徴ベクトルをサーバ200に送信する。 Specifically, the recognition unit 156 of the robot 100 extracts an image area corresponding to a moving object, particularly a person or an animal, from the image, and extracts the physical characteristics and behavioral characteristics of the moving object from the extracted image area. Extract a "feature vector" as a set of quantities. A feature vector component (feature amount) is a numerical value obtained by quantifying various physical/behavioral features. For example, the width of the human eye is digitized in the range of 0 to 1 to form one feature vector component. A technique for extracting feature vectors from a captured image of a person is an application of known face recognition technology. Robot 100 transmits the feature vector to server 200 .

サーバ200の認識部212は、更に、人物認識部214と応対認識部228を含む。
人物認識部214は、ロボット100の内蔵カメラによる撮像画像から抽出された特徴ベクトルと、個人データ格納部218にあらかじめ登録されているユーザ(クラスタ)の特徴ベクトルと比較することにより、撮像されたユーザがどの人物に該当するかを判定する(ユーザ識別処理)。人物認識部214は、表情認識部230を含む。表情認識部230は、ユーザの表情を画像認識することにより、ユーザの感情を推定する。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についてもユーザ識別処理を行う。
The recognition unit 212 of the server 200 further includes a person recognition unit 214 and a reception recognition unit 228 .
The person recognition unit 214 compares the feature vector extracted from the image captured by the built-in camera of the robot 100 with the feature vector of users (clusters) registered in advance in the personal data storage unit 218, thereby identifying the imaged user. to which person corresponds (user identification processing). Person recognition unit 214 includes facial expression recognition unit 230 . The facial expression recognition unit 230 estimates the user's emotion by performing image recognition of the user's facial expression.
The person recognition unit 214 also performs user identification processing on moving objects other than people, such as pets such as cats and dogs.

応対認識部228は、ロボット100になされたさまざまな応対行為を認識し、快・不快行為に分類する。応対認識部228は、また、ロボット100の行動に対するオーナーの応対行為を認識することにより、肯定・否定反応に分類する。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
The response recognition unit 228 recognizes various response actions performed by the robot 100 and classifies them into pleasant and unpleasant actions. The response recognition unit 228 also recognizes the owner's response to the behavior of the robot 100 and classifies it into positive and negative responses.
Pleasant/unpleasant behavior is determined by whether the user's response behavior is biologically pleasant or unpleasant. For example, being hugged is a pleasant action for the robot 100, and being kicked is an unpleasant action for the robot 100. A positive/negative reaction is determined depending on whether the user's behavior indicates a user's pleasant feeling or an unpleasant feeling. For example, being hugged is a positive response that indicates a user's pleasant feeling, and being kicked is a negative response that indicates a user's unpleasant feeling.

サーバ200の動作制御部222は、ロボット100の動作制御部150と協働して、ロボット100のモーションを決定する。サーバ200の動作制御部222は、マップ管理部210による行動マップ選択に基づいて、ロボット100の移動目標地点とそのための移動ルートを作成する。動作制御部222は、複数の移動ルートを作成し、その上で、いずれかの移動ルートを選択してもよい。 The motion control unit 222 of the server 200 cooperates with the motion control unit 150 of the robot 100 to determine the motion of the robot 100 . The operation control unit 222 of the server 200 creates a movement target point for the robot 100 and a movement route therefor based on the action map selection by the map management unit 210 . The operation control unit 222 may create a plurality of moving routes and select one of the moving routes.

動作制御部222は、モーション格納部232の複数のモーションからロボット100のモーションを選択する。各モーションには状況ごとに選択確率が対応づけられている。たとえば、オーナーから快行為がなされたときには、モーションAを20%の確率で実行する、気温が30度以上となったとき、モーションBを5%の確率で実行する、といった選択方法が定義される。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
The motion control unit 222 selects a motion for the robot 100 from multiple motions in the motion storage unit 232 . Each motion is associated with a selection probability for each situation. For example, a selection method is defined such that when the owner makes a pleasurable act, motion A is executed with a probability of 20%, and when the temperature reaches 30°C or higher, motion B is executed with a probability of 5%. .
A movement target point and a movement route are determined on the action map, and motions are selected according to various events described later.

親密度管理部220は、ユーザごとの親密度を管理する。上述したように、親密度は個人データ格納部218において個人データの一部として登録される。快行為を検出したとき、親密度管理部220はそのオーナーに対する親密度をアップさせる。不快行為を検出したときには親密度はダウンする。また、長期間視認していないオーナーの親密度は徐々に低下する。 The familiarity management unit 220 manages the familiarity of each user. As described above, the degree of intimacy is registered as part of personal data in personal data storage unit 218 . When a pleasant act is detected, the degree of intimacy management unit 220 increases the degree of intimacy with the owner. The degree of intimacy is lowered when an unpleasant act is detected. In addition, the intimacy level of the owner who has not seen it for a long time gradually decreases.

(ロボット100)
ロボット100は、通信部142、データ処理部136、データ格納部148、内部センサ128および駆動機構120を含む。
通信部142は、通信機126(図5参照)に該当し、外部センサ114、サーバ200および他のロボット100との通信処理を担当する。データ格納部148は各種データを格納する。データ格納部148は、記憶装置124(図5参照)に該当する。データ処理部136は、通信部142により取得されたデータおよびデータ格納部148に格納されているデータに基づいて各種処理を実行する。データ処理部136は、プロセッサ122およびプロセッサ122により実行されるコンピュータプログラムに該当する。データ処理部136は、通信部142、内部センサ128、駆動機構120およびデータ格納部148のインタフェースとしても機能する。
(robot 100)
Robot 100 includes communication portion 142 , data processing portion 136 , data storage portion 148 , internal sensors 128 and drive mechanism 120 .
The communication unit 142 corresponds to the communication device 126 (see FIG. 5) and takes charge of communication processing with the external sensor 114, the server 200 and other robots 100. FIG. The data storage unit 148 stores various data. The data storage unit 148 corresponds to the storage device 124 (see FIG. 5). The data processing unit 136 executes various processes based on data acquired by the communication unit 142 and data stored in the data storage unit 148 . The data processing unit 136 corresponds to the processor 122 and computer programs executed by the processor 122 . Data processing unit 136 also functions as an interface for communication unit 142 , internal sensor 128 , drive mechanism 120 and data storage unit 148 .

データ格納部148は、ロボット100の各種モーションを定義するモーション格納部160と画像格納部172を含む。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
The data store 148 includes a motion store 160 and an image store 172 that define various motions of the robot 100 .
Various motion files are downloaded from the motion storage unit 232 of the server 200 to the motion storage unit 160 of the robot 100 . A motion is identified by a motion ID. Sitting with the front wheels 102 retracted, lifting the hand 106, rotating the robot 100 by rotating the two front wheels 102 in reverse, or rotating only one of the front wheels 102, with the front wheels 102 retracted. In order to express various motions such as trembling by rotating the front wheel 102 with the , stopping and looking back when moving away from the user, operation timing, operation time, operation direction, etc. of various actuators (driving mechanism 120) are adjusted. It is defined chronologically in the motion file.

データ格納部148には、マップ格納部216および個人データ格納部218からも各種データがダウンロードされてもよい。画像格納部172は、全天球カメラ134により取得される天球画像(後述)およびその処理過程における各種画像を一時的に格納する。 Various data may also be downloaded to the data storage unit 148 from the map storage unit 216 and the personal data storage unit 218 . The image storage unit 172 temporarily stores a celestial image (described later) acquired by the omnidirectional camera 134 and various images in the process of the processing.

内部センサ128は、全天球カメラ134を含む。本実施形態における全天球カメラ134は、ツノ112に取り付けられる。 Internal sensors 128 include omnidirectional camera 134 . The omnidirectional camera 134 in this embodiment is attached to the horn 112 .

データ処理部136は、認識部156、動作制御部150、画像取得部152、画像変換部154および測距部158を含む。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
Data processing unit 136 includes recognition unit 156 , operation control unit 150 , image acquisition unit 152 , image conversion unit 154 and distance measurement unit 158 .
The motion control unit 150 of the robot 100 determines the motion of the robot 100 in cooperation with the motion control unit 222 of the server 200 . Some motions may be determined by the server 200 and other motions may be determined by the robot 100 . Also, although the robot 100 determines the motion, the server 200 may determine the motion when the processing load of the robot 100 is high. A base motion may be determined at the server 200 and an additional motion may be determined at the robot 100 . How the server 200 and the robot 100 share the motion determination process may be designed according to the specifications of the robot system 300 .

ロボット100の動作制御部150は、サーバ200の動作制御部222とともにロボット100の移動方向を決める。行動マップに基づく移動をサーバ200で決定し、障害物をよけるなどの即時的移動をロボット100の動作制御部150により決定してもよい。駆動機構120は、動作制御部150の指示にしたがって前輪102を駆動することで、ロボット100を移動目標地点に向かわせる。 The motion control unit 150 of the robot 100 determines the moving direction of the robot 100 together with the motion control unit 222 of the server 200 . The movement based on the action map may be determined by the server 200 , and the immediate movement such as avoiding obstacles may be determined by the motion control section 150 of the robot 100 . The drive mechanism 120 drives the front wheels 102 in accordance with instructions from the motion control unit 150 to direct the robot 100 to the movement target point.

ロボット100の動作制御部150は選択したモーションを駆動機構120に実行指示する。駆動機構120は、モーションファイルにしたがって、各アクチュエータを制御する。 The motion control unit 150 of the robot 100 instructs the driving mechanism 120 to execute the selected motion. The drive mechanism 120 controls each actuator according to the motion file.

動作制御部150は、親密度の高いユーザが近くにいるときには「抱っこ」をせがむ仕草として両方の手106をもちあげるモーションを実行することもできるし、「抱っこ」に飽きたときには左右の前輪102を収容したまま逆回転と停止を交互に繰り返すことで抱っこをいやがるモーションを表現することもできる。駆動機構120は、動作制御部150の指示にしたがって前輪102や手106、首(頭部フレーム316)を駆動することで、ロボット100にさまざまなモーションを表現させる。 The motion control unit 150 can also execute a motion of raising both hands 106 as a gesture of pleading for a hug when a user with a high degree of intimacy is nearby, and can move the left and right front wheels 102 when the user gets tired of hugging. By alternately repeating reverse rotation and stopping while stored, it is possible to express a motion that does not want to be hugged. The drive mechanism 120 drives the front wheels 102, hands 106, and neck (head frame 316) according to instructions from the motion control unit 150, thereby causing the robot 100 to express various motions.

画像取得部152は、全天球カメラ134から天球画像を取得する。画像変換部154は、天球画像を各種の投影画像に変換する(詳細後述)。測距部158は、ロボット100が複数の全天球カメラ134を搭載するとき、三角測距の原理により外部物体までの距離を測定する(第3実施形態に関連して後述)。 The image acquisition unit 152 acquires a celestial image from the omnidirectional camera 134 . The image conversion unit 154 converts the celestial image into various projection images (details will be described later). When the robot 100 is equipped with a plurality of omnidirectional cameras 134, the rangefinder 158 measures the distance to an external object based on the principle of triangulation (described later in connection with the third embodiment).

ロボット100の認識部156は、内部センサ128から得られた外部情報を解釈する。認識部156は、視覚的な認識(視覚部)、匂いの認識(嗅覚部)、音の認識(聴覚部)、触覚的な認識(触覚部)が可能である。 A recognition unit 156 of the robot 100 interprets external information obtained from the internal sensor 128 . The recognition unit 156 is capable of visual recognition (visual unit), smell recognition (olfactory unit), sound recognition (auditory unit), and tactile recognition (tactile unit).

認識部156は、全天球カメラ134による天球画像に基づいて、人やペットなどの移動物体を検出する。認識部156は、特徴抽出部146を含む。特徴抽出部146は、移動物体の撮像画像から特徴ベクトルを抽出する。上述したように、特徴ベクトルは、移動物体の身体的特徴と行動的特徴を示すパラメータ(特徴量)の集合である。移動物体を検出したときには、ニオイセンサや内蔵の集音マイク、温度センサ等からも身体的特徴や行動的特徴が抽出される。これらの特徴も定量化され、特徴ベクトル成分となる。 A recognition unit 156 detects a moving object such as a person or a pet based on the celestial image obtained by the omnidirectional camera 134 . Recognition unit 156 includes feature extraction unit 146 . The feature extraction unit 146 extracts feature vectors from the captured image of the moving object. As described above, a feature vector is a set of parameters (feature quantities) representing physical features and behavioral features of a moving object. When a moving object is detected, physical characteristics and behavioral characteristics are also extracted from an odor sensor, a built-in sound collecting microphone, a temperature sensor, and the like. These features are also quantified into feature vector components.

ロボットシステム300は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
たとえば、ひげが生えている移動物体(ユーザ)は早朝に活動すること(早起き)が多く、赤い服を着ることが少ないのであれば、早起きでひげが生えていて赤い服をあまり着ないクラスタ(ユーザ)、という第1のプロファイルができる。一方、メガネをかけている移動物体はスカートを履いていることが多いが、この移動物体にはひげが生えていない場合、メガネをかけていてスカートを履いているが絶対ひげは生えていないクラスタ(ユーザ)、という第2のプロファイルができる。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
The robot system 300 clusters frequently appearing users as "owners" based on physical and behavioral features obtained from a large amount of image information and other sensing information.
For example, if moving objects with beards (users) tend to be active in the early morning (early risers) and rarely wear red clothes, then a cluster (users) who wake up early in the morning, grow beards and rarely wear red clothes ( user). On the other hand, a moving object wearing glasses often wears a skirt, but if this moving object does not have a beard, a cluster that wears glasses and wears a skirt but never has a beard is found. (user), a second profile is created.
Although the above is a simple example, the method described above creates a first profile corresponding to the father and a second profile corresponding to the mother, and there are at least two users (owners) in this house. The robot 100 recognizes this.

ただし、ロボット100は第1のプロファイルが「父親」であると認識する必要はない。あくまでも、「ひげが生えていて早起きすることが多く、赤い服を着ることはめったにないクラスタ」という人物像を認識できればよい。プロファイルごとに、プロファイルを特徴づける特徴ベクトルが定義される。 However, robot 100 need not recognize that the first profile is "father". Ultimately, it is sufficient to recognize the image of a person as "a cluster that has a beard, often wakes up early, and rarely wears red clothes." For each profile, a feature vector is defined that characterizes the profile.

このようなクラスタ分析が完了している状態において、ロボット100が新たに移動物体(ユーザ)を認識したとする。
このとき、サーバ200の人物認識部214は、新たな移動物体の特徴ベクトルに基づいてユーザ識別処理を実行し、移動物体がどのプロファイル(クラスタ)に該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
Assume that the robot 100 newly recognizes a moving object (user) in a state where such cluster analysis is completed.
At this time, the person recognition unit 214 of the server 200 executes user identification processing based on the feature vector of the new moving object, and determines which profile (cluster) the moving object corresponds to. For example, when a moving object with a beard is detected, there is a high probability that this moving object is the father. If this moving object moves early in the morning, it is more certain that it corresponds to the father. On the other hand, when a moving object wearing glasses is detected, this moving object may be the mother. If this moving object has a beard, it is neither a mother nor a father, so it is determined to be a new person who has not undergone cluster analysis.

特徴抽出によるクラスタ(プロファイル)の形成(クラスタ分析)と、特徴抽出にともなうクラスタへの当てはめは同時並行的に実行されてもよい。 Formation of clusters (profiles) by feature extraction (cluster analysis) and fitting to clusters accompanying feature extraction may be executed in parallel.

検出・分析・判定を含む一連の認識処理のうち、ロボット100の認識部156は認識に必要な情報の取捨選択や抽出を行い、判定等の解釈処理はサーバ200の認識部212により実行される。認識処理は、サーバ200の認識部212だけで行ってもよいし、ロボット100の認識部156だけで行ってもよいし、上述のように双方が役割分担をしながら上記認識処理を実行してもよい。 Among a series of recognition processes including detection, analysis, and judgment, the recognition unit 156 of the robot 100 selects and extracts information necessary for recognition, and interpretation processing such as judgment is executed by the recognition unit 212 of the server 200. . The recognition process may be performed only by the recognition unit 212 of the server 200, or may be performed only by the recognition unit 156 of the robot 100. As described above, the recognition process may be performed while both of them share roles. good too.

ロボット100に対する強い衝撃が与えられたとき、認識部156は内蔵の加速度センサによりこれを認識し、サーバ200の応対認識部228は、近隣にいるユーザによって「乱暴行為」が働かれたと認識する。ユーザがツノ112を掴んでロボット100を持ち上げるときにも、乱暴行為と認識してもよい。ロボット100に正対した状態にあるユーザが特定音量領域および特定周波数帯域にて発声したとき、サーバ200の応対認識部228は、自らに対する「声掛け行為」がなされたと認識してもよい。また、体温程度の温度を検知したときにはユーザによる「接触行為」がなされたと認識し、接触認識した状態で上方への加速度を検知したときには「抱っこ」がなされたと認識する。ユーザがボディ104を持ち上げるときの物理的接触をセンシングしてもよいし、前輪102にかかる荷重が低下することにより抱っこを認識してもよい。
まとめると、ロボット100は内部センサ128によりユーザの行為を物理的情報として取得し、サーバ200の応対認識部228は快・不快を判定し、サーバ200の認識部212は特徴ベクトルに基づくユーザ識別処理を実行する。
When a strong impact is applied to the robot 100, the recognizing unit 156 recognizes this with a built-in acceleration sensor, and the response recognizing unit 228 of the server 200 recognizes that a nearby user has acted violently. When the user grabs the horn 112 and lifts the robot 100, it may be recognized as a violent act. When the user facing the robot 100 speaks in a specific sound volume range and a specific frequency band, the response recognition unit 228 of the server 200 may recognize that the user has made a "calling action" to himself/herself. Also, when a temperature of about body temperature is detected, it is recognized that the user has made a "contact action", and when an upward acceleration is detected while contact is being recognized, it is recognized that a "hold" has been made. Physical contact when the user lifts the body 104 may be sensed, and the holding may be recognized by reducing the load applied to the front wheels 102 .
In summary, the robot 100 acquires the behavior of the user as physical information by the internal sensor 128, the response recognition unit 228 of the server 200 determines whether it is pleasant or unpleasant, and the recognition unit 212 of the server 200 performs user identification processing based on the feature vector. to run.

サーバ200の応対認識部228は、ロボット100に対するユーザの各種応対を認識する。各種応対行為のうち一部の典型的な応対行為には、快または不快、肯定または否定が対応づけられる。一般的には快行為となる応対行為のほとんどは肯定反応であり、不快行為となる応対行為のほとんどは否定反応となる。快・不快行為は親密度に関連し、肯定・否定反応はロボット100の行動選択に影響する。 The response recognition unit 228 of the server 200 recognizes various responses of the user to the robot 100 . Pleasant or unpleasant, affirmative or negative are associated with a part of typical responses among various responses. In general, most of the reception behaviors that are pleasant behaviors are positive reactions, and most of the reception behaviors that are unpleasant behaviors are negative reactions. Pleasant/unpleasant actions are related to intimacy, and affirmative/negative reactions influence the action selection of the robot 100 .

認識部156により認識された応対行為に応じて、サーバ200の親密度管理部220はユーザに対する親密度を変化させる。原則的には、快行為を行ったユーザに対する親密度は高まり、不快行為を行ったユーザに対する親密度は低下する。 The familiarity management unit 220 of the server 200 changes the familiarity with the user according to the behavior recognized by the recognition unit 156 . In principle, the degree of intimacy with a user who has performed a pleasant act increases, and the degree of intimacy with a user who has performed an unpleasant act decreases.

サーバ200の認識部212は、応対に応じて快・不快を判定し、マップ管理部210は「場所に対する愛着」を表現する行動マップにおいて、快・不快行為がなされた地点のz値を変化させてもよい。たとえば、リビングにおいて快行為がなされたとき、マップ管理部210はリビングに好意地点を高い確率で設定してもよい。この場合、ロボット100はリビングを好み、リビングで快行為を受けることで、ますますリビングを好む、というポジティブ・フィードバック効果が実現する。 The recognizing unit 212 of the server 200 determines pleasantness/unpleasantness according to the reception, and the map management unit 210 changes the z value of the point where the pleasantness/unpleasant action is performed in the action map expressing “attachment to the place”. may For example, when a pleasant act is performed in the living room, the map management unit 210 may set a favorable point in the living room with a high probability. In this case, the robot 100 likes the living room, and the positive feedback effect that the robot 100 likes the living room more and more by receiving pleasant behavior in the living room is realized.

移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。 The level of intimacy with the user changes depending on what kind of action is performed by the moving object (user).

ロボット100は、よく出会う人、よく触ってくる人、よく声をかけてくれる人に対して高い親密度を設定する。一方、めったに見ない人、あまり触ってこない人、乱暴な人、大声で叱る人に対する親密度は低くなる。ロボット100はセンサ(視覚、触覚、聴覚)によって検出するさまざまな外界情報にもとづいて、ユーザごとの親密度を変化させる。 The robot 100 sets a high degree of intimacy to people who meet frequently, people who often touch them, and people who often talk to them. On the other hand, intimacy is low for people who are rarely seen, rarely touched, violent, or scolded loudly. The robot 100 changes the degree of intimacy for each user based on various external world information detected by sensors (visual, tactile, and auditory).

実際のロボット100は行動マップにしたがって自律的に複雑な行動選択を行う。ロボット100は、寂しさ、退屈さ、好奇心などさまざまなパラメータに基づいて複数の行動マップに影響されながら行動する。ロボット100は、行動マップの影響を除外すれば、あるいは、行動マップの影響が小さい内部状態にあるときには、原則的には、親密度の高い人に近づこうとし、親密度の低い人からは離れようとする。 The actual robot 100 autonomously selects complex actions according to the action map. The robot 100 behaves while being influenced by a plurality of action maps based on various parameters such as loneliness, boredom, and curiosity. If the influence of the action map is excluded, or when the robot 100 is in an internal state where the influence of the action map is small, in principle, the robot 100 will try to approach a person with a high degree of intimacy and move away from a person with a low degree of intimacy. and

ロボット100の行動は親密度に応じて以下に類型化される。
(1)親密度が非常に高いユーザ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いユーザ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いユーザ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いユーザ
ロボット100は、離脱行動を行う。
The behavior of the robot 100 is categorized as follows according to familiarity.
(1) A user with a very high intimacy The robot 100 approaches a user (hereinafter referred to as "proximity behavior") and performs an affection gesture defined in advance as a gesture of showing goodwill to a person. strongly express.
(2) A user robot 100 with a relatively high degree of intimacy performs only close behavior.
(3) The user robot 100 with relatively low degree of intimacy does not perform any particular action.
(4) A user robot 100 with a particularly low degree of intimacy performs a withdrawal action.

以上の制御方法によれば、ロボット100は、親密度が高いユーザを見つけるとそのユーザに近寄り、逆に親密度が低いユーザを見つけるとそのユーザから離れる。このような制御方法により、いわゆる「人見知り」を行動表現できる。また、来客(親密度が低いユーザA)が現れたとき、ロボット100は、来客から離れて家族(親密度が高いユーザB)の方に向かうこともある。この場合、ユーザBはロボット100が人見知りをして不安を感じていること、自分を頼っていること、を感じ取ることができる。このような行動表現により、ユーザBは、選ばれ、頼られることの喜び、それにともなう愛着の情を喚起される。 According to the control method described above, when the robot 100 finds a user with a high degree of intimacy, it approaches that user, and conversely, when it finds a user with a low degree of intimacy, it moves away from that user. With such a control method, so-called "shyness" can be expressed in behavior. Also, when a visitor (user A with a low degree of intimacy) appears, the robot 100 may leave the visitor and head toward his family (user B with a high degree of intimacy). In this case, user B can perceive that the robot 100 is shy and feels uneasy, and that it relies on him. Such a behavioral expression arouses user B's joy of being selected and relied upon, and the feeling of attachment associated therewith.

一方、来客であるユーザAが頻繁に訪れ、声を掛け、タッチをするとロボット100のユーザAに対する親密度は徐々に上昇し、ロボット100はユーザAに対して人見知り行動(離脱行動)をしなくなる。ユーザAも自分にロボット100が馴染んできてくれたことを感じ取ることで、ロボット100に対する愛着を抱くことができる。 On the other hand, when the user A, who is a visitor, frequently visits, speaks to, and touches the robot 100, the intimacy of the robot 100 with the user A gradually increases, and the robot 100 ceases to behave shyly (withdrawal behavior) toward the user A. . User A can feel attachment to the robot 100 by feeling that the robot 100 has become familiar to him/herself.

なお、以上の行動選択は、常に実行されるとは限らない。たとえば、ロボット100の好奇心を示す内部パラメータが高くなっているときには、好奇心を満たす場所を求める行動マップが重視されるため、ロボット100は親密度に影響された行動を選択しない可能性もある。また、玄関に設置されている外部センサ114がユーザの帰宅を検知した場合には、ユーザのお出迎え行動を最優先で実行するかもしれない。 Note that the above action selection is not always executed. For example, when the internal parameter indicating the curiosity of the robot 100 is high, there is a possibility that the robot 100 will not select actions that are influenced by intimacy because the action map for searching for a place that satisfies the curiosity is emphasized. . Also, when the external sensor 114 installed at the entrance detects that the user has returned home, the behavior of welcoming the user may be performed with the highest priority.

[天球画像からの一般的な投影処理]
以下においては、まず、全天球カメラ134による撮像画像である天球画像を正距円筒図法に基づいて円筒面に投影することにより、投影画像を生成する一般的な方法について説明する。次に、正距円筒図法の問題点を指摘した上で、ロボットシステム300において新たに採用した投影方法について説明する。
以下、「投影画像」とは、天球画像を画像変換することにより生成され、画像認識の直接的な対象となることが予定される画像を意味するものとする。
[General projection processing from celestial images]
First, a general method of generating a projected image by projecting a celestial image, which is an image captured by the omnidirectional camera 134, onto a cylindrical surface based on the equirectangular projection will be described below. Next, the projection method newly employed in the robot system 300 will be described after pointing out the problems of the equirectangular projection.
Hereinafter, the term "projection image" means an image that is generated by transforming a celestial image and is expected to be a direct object of image recognition.

図7は、天球画像の生成方法を説明するための模式図である。
天球面140は、中心点Oに全天球カメラ134を設置したときの概念的な撮像面である。全天球カメラ134は、天球面140(撮像面)の上の座標点を結像面138に投影する。結像面138は全天球カメラ134を含む水平面である。天球面140は上半分側の上天球140aと下半分側の下半球140bに分けることができる。図7においては、上天球140aの座標点P1は、結像面138の座標点Q1に投影される。同様にして、上天球140aの座標点P2、P3、PZ(天頂)は、結像面138(表面)の座標点Q2、Q3、O(中心点)に投影される。
FIG. 7 is a schematic diagram for explaining a method of generating a celestial image.
A celestial sphere 140 is a conceptual imaging plane when the omnidirectional camera 134 is installed at the center point O. FIG. The omnidirectional camera 134 projects the coordinate points on the celestial sphere 140 (imaging plane) onto the imaging plane 138 . Imaging plane 138 is the horizontal plane containing omnidirectional camera 134 . The celestial sphere 140 can be divided into an upper celestial sphere 140a on the upper half side and a lower hemisphere 140b on the lower half side. In FIG. 7, the coordinate point P1 of the upper celestial sphere 140a is projected onto the coordinate point Q1 of the imaging plane 138. In FIG. Similarly, the coordinate points P2, P3, PZ (zenith) of the upper celestial sphere 140a are projected onto the coordinate points Q2, Q3, O (center point) of the imaging plane 138 (surface).

下半球140bも同様の方式にて結像面138に投影される。下半球140bの座標点P4、P5、P6、PN(天底)は、結像面138(裏面)の座標点Q1、Q2、Q3、O(中心点)に投影される。 Lower hemisphere 140b is also projected onto image plane 138 in a similar fashion. The coordinate points P4, P5, P6, PN (nadir) of the lower hemisphere 140b are projected onto the coordinate points Q1, Q2, Q3, O (center point) of the imaging plane 138 (back surface).

上天球140aのすべての座標点は結像面138の表面側に投影され、下半球140bのすべての座標点は結像面138の裏面側に投影される。3次元の天球面140上の座標点(画素)を二次元の結像面138に投影することにより、二次元の「天球画像」を生成する。このような天球画像の生成方法は魚眼レンズなどでよく知られている。 All coordinate points of the upper celestial sphere 140 a are projected onto the front side of the imaging plane 138 , and all coordinate points of the lower hemisphere 140 b are projected onto the back side of the imaging plane 138 . A two-dimensional “celestial image” is generated by projecting the coordinate points (pixels) on the three-dimensional celestial sphere 140 onto the two-dimensional imaging plane 138 . A method of generating such a celestial image is well known for a fisheye lens or the like.

図8は、天球画像170の模式図である。
天球画像170は、真円形状の上天球画像170aと下天球画像170bを含む。上天球画像170aは上天球140a(上部撮像面)を結像面138の表面へ投影した画像である。下天球画像170bは下半球140b(下部撮像面)を結像面138の裏面へ投影した画像である。上天球画像170aの中心点Oは上天球140aの天頂PZに対応し、下天球画像170bの中心点Oは下半球140bの天底PNに対応する。天球中央線174は、上天球140aと下半球140bの境界線である。
FIG. 8 is a schematic diagram of the celestial image 170. As shown in FIG.
The celestial image 170 includes a perfectly circular upper celestial image 170a and a lower celestial image 170b. The upper celestial sphere image 170 a is an image obtained by projecting the upper celestial sphere 140 a (upper imaging plane) onto the surface of the imaging plane 138 . A lower celestial sphere image 170 b is an image obtained by projecting the lower hemisphere 140 b (lower imaging surface) onto the back surface of the imaging surface 138 . The center point O of the upper celestial sphere image 170a corresponds to the zenith PZ of the upper celestial sphere 140a, and the center point O of the lower celestial sphere image 170b corresponds to the nadir PN of the lower hemisphere 140b. A celestial sphere centerline 174 is a boundary line between the upper celestial sphere 140a and the lower hemisphere 140b.

なお、ロボット100の全天球カメラ134は上天球140aのみを撮像対象としてもよい。その場合には、天球画像170は上天球画像170aのみから構成される。天球画像170は、天球面140の一部、少なくとも、天球面140の表面積の35%以上をカバーする撮像画像であればよい。天球画像170は、ロボット100の上方、すなわち、天球面140の天頂PZを含む範囲を対象とした撮像画像であることが望ましい。 Note that the omnidirectional camera 134 of the robot 100 may capture only the upper celestial sphere 140a. In that case, the celestial image 170 is composed only of the upper celestial image 170a. The celestial sphere image 170 may be a captured image that covers a part of the celestial sphere 140 , at least 35% or more of the surface area of the celestial sphere 140 . The celestial image 170 is desirably a captured image covering the area above the robot 100 , that is, the range including the zenith PZ of the celestial surface 140 .

図9は、正距円筒図法における円筒面162と天球面140の関係を説明するための模式図である。
まず、天球面140に外接する円筒面162を想定する。円筒面162は天球面140を環囲し、かつ、上面と下面を有さない。正距円筒図法においては、天球面140の座標点を円筒面162に投影する。いいかえれば、天球画像170の座標点に対応する円筒面162の座標点を特定する。
FIG. 9 is a schematic diagram for explaining the relationship between the cylindrical surface 162 and the celestial surface 140 in the equirectangular projection.
First, a cylindrical surface 162 that circumscribes the celestial sphere 140 is assumed. Cylindrical surface 162 surrounds celestial surface 140 and does not have upper and lower surfaces. In the equirectangular projection, the coordinate points of the celestial sphere 140 are projected onto the cylindrical surface 162 . In other words, the coordinate points on cylindrical surface 162 corresponding to the coordinate points on celestial image 170 are identified.

円筒中央線180は、円筒面162の中心を通る線である。正距円筒図法では、天球中央線174と円筒中央線180は一致する。したがって、円筒中央線180(天球中央線174)の近辺においては、天球面140と円筒面162はほとんど一致している。しかし、天頂PZまたは天底PN(以下、まとめていうときには「極点」とよぶ)に近づくほど、天球面140と円筒面162の乖離が大きくなる。正距円筒図法は、球体の緯度・経度を平面(円筒の側面)のX座標とY座標に読み替える投影法である。このため、円筒面162に天球面140の画像を投影すると、極点付近においては、投影画像が横方向に大きく引き伸ばされてしまうという欠点がある。 Cylindrical centerline 180 is a line passing through the center of cylindrical surface 162 . In an equirectangular projection, the celestial centerline 174 and the cylinder centerline 180 coincide. Therefore, in the vicinity of the cylinder center line 180 (the celestial sphere center line 174), the celestial sphere surface 140 and the cylindrical surface 162 almost coincide. However, the closer the zenith PZ or the nadir PN (hereinafter collectively referred to as "polar point"), the greater the divergence between the celestial sphere 140 and the cylindrical surface 162. FIG. The equirectangular projection is a projection method that translates the latitude and longitude of a sphere into the X and Y coordinates of a plane (side surface of a cylinder). Therefore, when the image of the celestial sphere 140 is projected onto the cylindrical surface 162, there is a drawback that the projected image is greatly stretched in the lateral direction near the poles.

図10は、天球画像170から単一円筒画像164への正距円筒図法に基づく画像投影方法を説明するための模式図である。
単一円筒画像164は、天球面140から円筒面162への投影画像である。単一円筒画像164は、図9の円筒面162を展開した画像である。図10においては、天球面140の座標点A1と座標点A2をそれぞれ単一円筒画像164に投影する方法について説明する。
FIG. 10 is a schematic diagram for explaining an image projection method based on the equirectangular projection from the celestial image 170 to the single cylindrical image 164. FIG.
A single cylindrical image 164 is a projection image from the celestial sphere 140 onto the cylindrical surface 162 . A single cylindrical image 164 is an unfolded image of the cylindrical surface 162 in FIG. Referring to FIG. 10, a method of projecting coordinate points A1 and A2 on the celestial sphere 140 onto a single cylindrical image 164 will be described.

点A1は点A2よりも天球中央線174に近い。天球面140の点A1は天球画像170においては点B1に対応し、単一円筒画像164においては点C1に対応する。点A2は天球画像170においては点B2に対応し、単一円筒画像164においては点C2に対応する。実際には、天球画像170の点B1の単一円筒画像164における対応点C1を求めるときには、まず、点B1に対応する天球面140の点A1の座標を求め、次に、天球面140から円筒面162への座標変換により、単一円筒画像164の点C1の座標を計算する。 Point A1 is closer to the celestial centerline 174 than point A2. Point A1 on celestial surface 140 corresponds to point B1 on celestial image 170 and to point C1 on single cylinder image 164 . Point A2 corresponds to point B2 on the celestial image 170 and to point C2 on the single cylindrical image 164. FIG. Actually, when obtaining the corresponding point C1 on the single cylindrical image 164 of the point B1 of the celestial sphere image 170, first, the coordinates of the point A1 on the celestial sphere 140 corresponding to the point B1 are obtained, and then from the celestial sphere 140 to the cylinder By transforming the coordinates to the surface 162, the coordinates of the point C1 of the single cylindrical image 164 are calculated.

正距円筒図法は、極点付近(図中の斜線部)において、単一円筒画像164が大きく歪む。このため、天球画像170の点B2は、単一円筒画像164においては横方向に引き伸ばされてしまう。いいかえれば、点B2に対応する点C2は、横方向に引き伸ばされる。 In the equirectangular projection, the single cylindrical image 164 is greatly distorted in the vicinity of the poles (shaded areas in the figure). Therefore, the point B2 of the celestial image 170 is stretched horizontally in the single cylindrical image 164 . In other words, point C2 corresponding to point B2 is stretched laterally.

撮像画像から外部物体を検出するための画像認識プログラムとしては、さまざまな製品が提供されている。一般的な画像認識プログラムは、解析対象となる撮像画像(投影画像)に歪みがないことを前提としている。したがって、天球画像170は言うまでもなく、正距円筒図法による単一円筒画像164を対象として画像認識を行うことは困難である。この問題に対する第1の対策は天球画像170や単一円筒画像164の歪みを考慮に入れて画像認識が可能なプログラムを新たに開発することである。第2の対策は、正距円筒図法にこだわらず、天球画像170から歪みのない、または、歪みの少ない投影画像を生成する画像補正プログラムを開発することである。第2の対策には、既存のさまざまな画像認識プログラムを利用できるメリットがある。本実施形態においては、第2の対策を採用し、天球画像170の歪みを補正する方法を2種類示す。 Various products are provided as image recognition programs for detecting external objects from captured images. A general image recognition program assumes that there is no distortion in the captured image (projected image) to be analyzed. Therefore, it is difficult to perform image recognition on the single cylindrical image 164 by equirectangular projection, let alone the celestial image 170 . A first countermeasure for this problem is to develop a new program capable of image recognition taking into consideration the distortion of the celestial image 170 and the single cylindrical image 164 . A second countermeasure is to develop an image correction program that generates a projection image with no or little distortion from the celestial image 170, regardless of the equirectangular projection. The second measure has the advantage of being able to use various existing image recognition programs. In this embodiment, the second countermeasure is adopted, and two types of methods for correcting the distortion of the celestial sphere image 170 are shown.

天球画像170の歪みを補正する方法として、第1の実施形態において斜方立方八面体への投影方法(以下、「多面体投影法」とよぶ)について説明する。次に、第2の実施形態として多重円筒への投影方法(以下、「多重円筒投影法」とよぶ)について説明する。 As a method of correcting the distortion of the celestial image 170, a method of projecting onto the rhombicoctahedron (hereinafter referred to as "polyhedral projection method") in the first embodiment will be described. Next, a method of projecting onto multiple cylinders (hereinafter referred to as "multiple cylinder projection method") will be described as a second embodiment.

(第1実施形態:多面体投影法)
図11は、斜方立法八面体166の斜視図である。図12は、斜方立法八面体166の展開図である。
第1実施形態においては、全天球カメラ134を包囲する斜方立法八面体166を想定する。斜方立法八面体166は天球面140と中心を同じくする多面体である。斜方立法八面体166は、18面の正方形の面(以下、「正方形面」ともよぶ)と8面の正三角形の面(以下、「正三角形面」ともよぶ)の合計26面を有する。18面の正方形面の内訳は、上面Tと下面B、中央部にある8枚の中央側面F、FR、R、BR、B、BL、L、FL、上面Tと中央側面をつなぐ4面の上側面TF、TR、TB、TL、下面Bと中央側面をつなぐ4枚の下側面BF、BR、BB、BLである。
(First Embodiment: Polyhedral Projection Method)
FIG. 11 is a perspective view of an orthorhombic octahedron 166 . FIG. 12 is a developed view of the rhombicoctahedron 166. As shown in FIG.
In the first embodiment, an oblique cubic octahedron 166 surrounding the omnidirectional camera 134 is assumed. Rhombic octahedron 166 is a polyhedron concentric with celestial sphere 140 . The rhombocubic octahedron 166 has 18 square faces (hereinafter also referred to as "square faces") and 8 equilateral triangular faces (hereinafter also referred to as "regular triangular faces"), for a total of 26 faces. The breakdown of the 18 square surfaces is the top surface T and bottom surface B, the eight central side surfaces F, FR, R, BR, B, BL, L, FL, and the four surfaces connecting the top surface T and the central side surface. Four lower surfaces BF, BR, BB, and BL connecting the upper surface TF, TR, TB, and TL, the lower surface B, and the center surface.

上面Tは、中心Oと天頂PZをつなぐ軸に対して垂直な水平面である。同様に、下面Bは中心Oと天底PNをつなぐ軸に対して垂直な水平面である。第1実施形態においては、すべての正方形面に対して、平行方向に拡大させた拡大平行面168を想定する。拡大平行面168は互いに交差する。図11に示す拡大平行面168(TF)は上側面TFを縦横方向に平行拡大させた面である。また、拡大平行面168(F)は中央側面Fを縦横方向に平行拡大させた面である。拡大平行面168(TF)と拡大平行面168(F)は互いに交差している。同様にして、図12に示す拡大平行面168(B)は中央側面Bを縦横方向に平行拡大させた面である。
第1実施形態においては、天球画像170上の座標点(画素)を合計18面の拡大平行面168に投影する。すなわち、18面の拡大平行面168の集合体が天球画像170の投影画像となる。
The top surface T is a horizontal plane perpendicular to the axis connecting the center O and the zenith PZ. Similarly, the lower surface B is a horizontal plane perpendicular to the axis connecting the center O and the nadir PN. In the first embodiment, enlarged parallel planes 168 are assumed to be enlarged in the parallel direction with respect to all square planes. Enlarged parallel planes 168 intersect each other. An enlarged parallel plane 168 (TF) shown in FIG. 11 is a plane obtained by parallel-enlarging the upper side surface TF in the vertical and horizontal directions. An enlarged parallel plane 168 (F) is a plane obtained by parallel-enlarging the central side surface F in the vertical and horizontal directions. Enlarged parallel surface 168(TF) and enlarged parallel surface 168(F) intersect each other. Similarly, an enlarged parallel surface 168(B) shown in FIG. 12 is a surface obtained by parallelly enlarging the central side surface B in the vertical and horizontal directions.
In the first embodiment, coordinate points (pixels) on the celestial image 170 are projected onto a total of 18 enlarged parallel planes 168 . In other words, the projection image of the celestial image 170 is an aggregation of the 18 enlarged parallel planes 168 .

図13は、斜方立法八面体166と天球面140の側断面図である。
天球面140の座標点Aから拡大平行面168(TF)に垂線を引いたときの交点が点S(TF)である。天球面140の座標点Aから拡大平行面168(F)に垂線を引いたときの交点が点S(F)である。結像面138(天球画像170)において、点Aに対応するのは点Qであるとする。
FIG. 13 is a side sectional view of rhombicoctahedron 166 and celestial sphere 140. FIG.
The point S (TF) is the point of intersection when a perpendicular line is drawn from the coordinate point A of the celestial sphere 140 to the enlarged parallel plane 168 (TF). The point S(F) is the point of intersection when a perpendicular line is drawn from the coordinate point A of the celestial sphere 140 to the enlarged parallel plane 168(F). Assume that point Q corresponds to point A on the imaging plane 138 (celestial image 170).

画像変換部154は、拡大平行面168(TF)および拡大平行面168(F)それぞれにおいて点A(点Q)に対応する点S(TF)と点S(F)を特定する。より具体的には、拡大平行面168(TF)における点S(TF)の座標を計算するための変換関数fTF、拡大平行面168(F)における点S(F)の座標を計算するための変換関数fがあらかじめ用意されている。画像変換部154は、複数の拡大平行面168に対応する複数の変換関数により、各拡大平行面168における投影点の座標を計算する。Image converter 154 identifies point S(TF) and point S(F) corresponding to point A (point Q) on enlarged parallel plane 168(TF) and enlarged parallel plane 168(F), respectively. More specifically, the transformation function f TF for calculating the coordinates of point S(TF) on enlarged parallel plane 168(TF), the coordinate of point S(F) on enlarged parallel plane 168(F) is prepared in advance. The image transformation unit 154 calculates the coordinates of the projection point on each enlarged parallel plane 168 using a plurality of transformation functions corresponding to the multiple enlarged parallel planes 168 .

画像変換部154は、天球画像170において座標点Aの画素(撮像情報)を拡大平行面168(TF)の点S(TF)および拡大平行面168(F)の点S(F)にコピーすることにより、天球画像170を拡大平行面168に投影する。すなわち、天球画像170の座標点Qの画素は、拡大平行面168(TF)の座標点S(TF)における画素となり、かつ、拡大平行面168(F)の座標点S(F)における画素となる。多面体投影法の場合、天球画像170の1つの画素(座標点)が複数の拡大平行面168に多重投影されることもある。 The image conversion unit 154 copies the pixel (imaging information) of the coordinate point A in the celestial image 170 to the point S(TF) on the enlarged parallel plane 168(TF) and the point S(F) on the enlarged parallel plane 168(F). By doing so, the celestial image 170 is projected onto the enlarged parallel plane 168 . That is, the pixel at the coordinate point Q of the celestial sphere image 170 becomes the pixel at the coordinate point S(TF) on the enlarged parallel plane 168(TF) and the pixel at the coordinate point S(F) on the enlarged parallel plane 168(F). Become. In the case of the polyhedral projection method, one pixel (coordinate point) of the celestial image 170 may be multiple-projected onto a plurality of enlarged parallel planes 168 .

図13においては、点S(TF)よりも点S(F)の方が天球面140から近い。このため、S(F)の方が点S(TF)よりも画像の歪みが少ない。また、点S(TF)は拡大平行面168(TF)の端部に近く、点S(F)は拡大平行面168(F)の中央に近いため、点A付近の画像は拡大平行面168(TF)よりも拡大平行面168(F)の方が好適に投影されている可能性が高い。点Aは拡大平行面168(TF)と点Aは拡大平行面168(F)の双方に投影されるが、このほかにも図示しない拡大平行面168(FR)にも投影されているかもしれない。この場合には、3枚の拡大平行面168により多角的にオブジェクトを認識できる。なお、図12において示した正三角形面に対しても拡大平行面168を設定してもよい。この場合には、単一のオブジェクトを更に多くの拡大平行面168に同時投影できる。 In FIG. 13, the point S(F) is closer to the celestial sphere 140 than the point S(TF). Therefore, S(F) has less image distortion than point S(TF). Also, since point S(TF) is close to the edge of enlarged parallel plane 168(TF) and point S(F) is close to the center of enlarged parallel plane 168(F), the image near point A is the enlarged parallel plane 168 Enlarged parallel plane 168 (F) is likely to be projected better than (TF). Point A is projected onto both enlarged parallel plane 168 (TF) and point A is projected onto enlarged parallel plane 168 (F), but may also be projected onto enlarged parallel plane 168 (FR) (not shown). do not have. In this case, the three enlarged parallel planes 168 allow the object to be recognized from multiple angles. The enlarged parallel plane 168 may also be set for the equilateral triangular plane shown in FIG. In this case, a single object can be projected onto more parallel planes 168 simultaneously.

多面体投影法では、天球面140に沿って想定される複数の拡大平行面168により中心点O(全天球カメラ134)を包囲する。天頂PZは拡大平行面168(T)に投影される。図9の円筒面162と異なり、拡大平行面168(T)は天頂PZにおいて天球面140と一致するため、天頂PZ付近における投影画像(拡大平行面168(T))の歪みは正距円筒図法に比べると格段に小さくなる。天底PNについても同様である。 In the polyhedral projection method, a plurality of enlarging parallel planes 168 envisioned along the celestial sphere 140 surround the center point O (omnidirectional camera 134 ). The zenith PZ is projected onto the enlarged parallel plane 168(T). Unlike the cylindrical surface 162 in FIG. 9, the enlarged parallel surface 168(T) coincides with the celestial surface 140 at the zenith PZ, so the distortion of the projected image (enlarged parallel surface 168(T)) near the zenith PZ is the equirectangular projection. is considerably smaller than that of The same applies to the nadir PN.

図14は、拡大平行面168の部分切り出しを説明するための模式図である。
画像変換部154は、拡大平行面168の全部ではなくその一部分を切り出してもよい。図14においては、拡大平行面168(F)の範囲は0≦x≦x(F)、0≦y≦y(F)である。画像変換部154は、このうち、x1≦x≦x2(0<x1,x2<x(F))、y1≦y≦y2(0<y1,y2<y(F))を切り出している。画像変換部154は、拡大平行面168のうち歪みが大きいことがあらかじめわかっている部分を変換対象外として、拡大平行面168の一部のみを画像処理の対象としてもよい。あるいは、画像変換部154は拡大平行面168のうち、重要な情報が映っていない部分、たとえば、所定範囲以上にわたって同一色しか映っていない単調な部分を画像処理の対象から除外してもよい。
FIG. 14 is a schematic diagram for explaining partial cutting of the enlarged parallel plane 168. As shown in FIG.
The image conversion unit 154 may cut out a portion of the enlarged parallel plane 168 instead of the entirety. In FIG. 14, the range of enlarged parallel plane 168(F) is 0≤x≤x(F), 0≤y≤y(F). The image conversion unit 154 cuts out x1≦x≦x2 (0<x1, x2<x(F)) and y1≦y≦y2 (0<y1, y2<y(F)). The image conversion unit 154 may exclude a portion of the enlarged parallel plane 168 that is known to have a large distortion from being converted, and subject only a part of the enlarged parallel plane 168 to image processing. Alternatively, the image conversion unit 154 may exclude portions of the enlarged parallel plane 168 in which important information is not shown, such as monotonous portions in which only the same color is shown over a predetermined range or more, from the object of image processing.

図15は、多面体投影法を説明するための模式図である。
多面体画像190(投影画像)は、18面の拡大平行面168の集合体である。すなわち、多面体画像190は、天球面140から18面の拡大平行面168への投影画像である。図15においては、天球面140の座標点A1と座標点A2をそれぞれ多面体画像190に投影するとして説明する。
FIG. 15 is a schematic diagram for explaining the polyhedral projection method.
A polyhedral image 190 (projected image) is a collection of 18 enlarged parallel planes 168 . That is, the polyhedral image 190 is a projected image from the celestial sphere 140 onto the enlarged parallel plane 168 of 18 planes. In FIG. 15, it is assumed that the coordinate points A1 and A2 of the celestial sphere 140 are projected onto the polyhedral image 190 respectively.

点A1は点A2よりも天球中央線174に近い。天球面140の点A1は天球画像170においては点B1に対応し、多面体画像190においては点S1、S12に対応する。点A2は天球画像170においては点B2に対応し、多面体画像190においては点S21、S22に対応する。天球画像170の点B1の多面体画像190における対応点S11、S12を求めるときには、まず、点B1に対応する天球面140の点A1の座標を求め、次に、天球面140から拡大平行面168への座標変換により、拡大平行面168(多面体画像190)の点S11、S12の座標を計算する。点A2も同様である。多面体投影法の場合、単一の外部物体の一部が、複数の拡大平行面168に重複投影されることもある。 Point A1 is closer to the celestial centerline 174 than point A2. A point A1 on the celestial sphere 140 corresponds to a point B1 on the celestial image 170, and points S1 and S12 on the polyhedral image 190. FIG. The point A2 corresponds to the point B2 in the celestial image 170, and corresponds to the points S21 and S22 in the polyhedron image 190. FIG. When finding the corresponding points S11 and S12 on the polyhedral image 190 of the point B1 of the celestial sphere image 170, first find the coordinates of the point A1 on the celestial sphere 140 corresponding to the point B1, and then from the celestial sphere 140 to the enlarged parallel plane 168. coordinates of points S11 and S12 on the enlarged parallel plane 168 (polyhedral image 190) are calculated by the coordinate conversion of . The point A2 is also the same. In the case of polyhedral projection, portions of a single external object may be overprojected onto multiple enlarged parallel planes 168 .

図16は、第1実施形態における画像処理過程を示すフローチャートである。
画像取得部152は定期的に天球画像170を取得する。図16に示す画像処理は、天球画像170が取得されるごとに繰り返し実行される。
FIG. 16 is a flow chart showing the image processing process in the first embodiment.
The image acquisition unit 152 periodically acquires the celestial image 170 . The image processing shown in FIG. 16 is repeatedly executed each time the celestial image 170 is obtained.

まず、画像取得部152は、全天球カメラ134から天球画像170を取得する(S10)。画像変換部154は、天球画像170を多面体画像190、すなわち、18面の拡大平行面168に画像変換する(S12)。上述のように拡大平行面168ごとに変換関数が定義されており、画像変換部154は18種類の変換関数により天球画像170上の点を1以上の拡大平行面168に投影する。多面体画像190に含まれる拡大平行面168それぞれについて画像認識処理を実行する前に、認識部156は画像認識の処理順を決める(S14)。 First, the image acquisition unit 152 acquires the celestial image 170 from the omnidirectional camera 134 (S10). The image conversion unit 154 converts the celestial sphere image 170 into a polyhedral image 190, that is, an enlarged parallel plane 168 with 18 planes (S12). As described above, a transformation function is defined for each enlarged parallel plane 168 , and the image transformation unit 154 projects points on the celestial sphere image 170 onto one or more enlarged parallel planes 168 using 18 kinds of transformation functions. Before executing image recognition processing for each of the enlarged parallel planes 168 included in the polyhedral image 190, the recognition unit 156 determines the processing order of image recognition (S14).

たとえば、処理時点t1において拡大平行面168(R)においてオーナーXが検出され、次回の処理時点t2において再度画像処理を実行するときには、認識部156は拡大平行面168(R)の画像認識を最優先に設定する。これは、処理時点t2においても、拡大平行面168(R)においてオーナーXが検出される可能性が高いためである。ロボット100はオーナーXの位置や動き、表情等に基づいて行動特性を変化させるため、認識部156はオーナーXの視認を最優先させる。認識部156は、拡大平行面168(R)の次には、拡大平行面168(R)に隣接する拡大平行面168(TR)等に処理順位を割り当てる。 For example, when the owner X is detected on the enlarged parallel plane 168(R) at the processing time t1 and the image processing is executed again at the next processing time t2, the recognition unit 156 performs the image recognition of the enlarged parallel plane 168(R) to the maximum. set priority. This is because there is a high possibility that the owner X will be detected on the enlarged parallel plane 168(R) even at the processing time t2. Since the robot 100 changes its behavioral characteristics based on the position, movement, facial expression, etc. of the owner X, the recognition unit 156 gives top priority to the owner X's visual recognition. After the enlarged parallel plane 168(R), the recognizing unit 156 assigns the processing order to the enlarged parallel plane 168(TR) adjacent to the enlarged parallel plane 168(R), and so on.

処理順を決定したあと、認識部156は、サーバ200と連携して画像認識を実行する(S16)。具体的には、認識部156は処理順位1位の拡大平行面168からユーザなどの移動物体を抽出し、この拡大平行面168に移動物体が映っていれば特徴抽出部146は特徴ベクトルを抽出する。通信部142は特徴ベクトルをサーバ200に送信し、サーバ200のユーザ識別処理等を実行する。識別結果に応じて、ロボット100はモーション選択等を決定する。未処理の拡大平行面168が残っている限り(S18のN)、他の拡大平行面168についても同様の画像認識が実行される。すべての拡大平行面168について確認すると(S18のY)、処理は終了する。 After determining the processing order, the recognition unit 156 executes image recognition in cooperation with the server 200 (S16). Specifically, the recognition unit 156 extracts a moving object such as a user from the enlarged parallel plane 168 ranked first in the processing order, and if the moving object is reflected on this enlarged parallel plane 168, the feature extraction unit 146 extracts a feature vector. do. The communication unit 142 transmits the feature vector to the server 200 and executes user identification processing of the server 200 and the like. The robot 100 determines motion selection and the like according to the identification result. As long as unprocessed enlarged parallel planes 168 remain (N of S18), similar image recognition is performed for other enlarged parallel planes 168 as well. When all enlarged parallel planes 168 have been confirmed (Y in S18), the process ends.

オーナーXが拡大平行面168(TF)と拡大平行面168(F)の両方に映り込むときには、拡大平行面168(TF)と拡大平行面168(F)の双方に基づいて、オーナーXに関する画像処理が可能である。たとえば、拡大平行面168(F)にはオーナーXの口元が映っており、拡大平行面168(TF)にはオーナーXの顔全体が映っている状態を想定する。この場合には、認識部156は拡大平行面168(F)からオーナーXを抽出できず、拡大平行面168(TF)からオーナーXを抽出できる。認識部156は、各拡大平行面168から抽出した結果を総合して認識をおこなう。また、各拡大平行面168の配置関係は既知なので、オーナーXの抽出に成功した拡大平行面168(TF)からオーナーXが存在する方向も特定可能である。斜方立法八面体166は天球画像170を完全に包囲するため、多面体画像190に対して外界を死角なく投影できる。更に、拡大平行面168は、斜方立法八面体166の各正方形面を拡大しているため、天球画像170の画素によっては、複数の拡大平行面168に多重投影される。このため、外部物体を画像認識に好適なアングルから撮像(キャプチャ)しやすくなる。 When owner X is reflected in both enlarged parallel plane 168 (TF) and enlarged parallel plane 168 (F), an image of owner X is displayed based on both enlarged parallel plane 168 (TF) and enlarged parallel plane 168 (F). can be processed. For example, it is assumed that owner X's mouth is shown on enlarged parallel plane 168(F), and owner X's entire face is shown on enlarged parallel plane 168(TF). In this case, the recognition unit 156 cannot extract the owner X from the enlarged parallel plane 168(F), but can extract the owner X from the enlarged parallel plane 168(TF). The recognition unit 156 performs recognition by synthesizing the results extracted from each enlarged parallel plane 168 . Moreover, since the arrangement relationship of each enlarged parallel plane 168 is known, the direction in which the owner X exists can also be specified from the enlarged parallel plane 168 (TF) in which the owner X has been successfully extracted. Since the rhombicoctahedron 166 completely surrounds the celestial image 170, the external world can be projected onto the polyhedral image 190 without blind spots. Furthermore, since the enlarged parallel plane 168 is an enlarged square face of the rhomboctahedron 166 , some pixels of the celestial image 170 are multi-projected onto a plurality of enlarged parallel planes 168 . Therefore, it becomes easier to image (capture) an external object from an angle suitable for image recognition.

(第2実施形態:多重円筒投影法)
図17は、多重円筒投影法を説明するための第1の模式図である。
多重円筒投影法においては、図10に関連して説明した正距円筒図法と同様にして、天球画像170を単一円筒画像164に投影する。多重円筒投影法では、1つの天球画像170に対して複数の円筒面162を設定することにより、複数の単一円筒画像164を生成する。図17においては、図10と同様、円筒面162の円筒中央線180と天球面140の天球中央線174が一致している。多重円筒投影法においては、円筒中央線180の付近は歪みが少なく、円筒中央線180から離れるほど歪みが大きくなる点に着目する。
(Second Embodiment: Multiple Cylindrical Projection Method)
FIG. 17 is a first schematic diagram for explaining the multiple cylindrical projection method.
In the multiple cylindrical projection, the celestial image 170 is projected onto a single cylindrical image 164, similar to the equirectangular projection described in connection with FIG. In the multiple cylindrical projection method, multiple single cylindrical images 164 are generated by setting multiple cylindrical surfaces 162 for one celestial image 170 . 17, similarly to FIG. 10, the cylinder center line 180 of the cylindrical surface 162 and the celestial sphere center line 174 of the celestial sphere surface 140 are aligned. Note that in the multiple cylindrical projection method, there is little distortion near the cylinder center line 180, and the distortion increases as the distance from the cylinder center line 180 increases.

図17において、天球面140の点A1は点A2よりも円筒中央線180に近い。天球面140の点A1は天球画像170においては点B1に対応し、単一円筒画像164aにおいては点S1に対応する。点A2は天球画像170においては点B2に対応するが、単一円筒画像164aへの投影はなされない。上述したように、円筒中央線180と天球中央線174を一致させた状態で正距円筒図法による画像変換を行うと、円筒中央線180から遠い点A2付近では単一円筒画像164aが大きく歪んでしまうためである。そこで、多重円筒投影法においては、画像変換部154は円筒中央線180を含む所定幅の中央部分画像176a(歪みの小さい部分)だけを対象として画像変換を実行する。すなわち、円筒中央線180と天球中央線174が一致するときには、多重円筒投影法では極点付近の画像変換を行わない。 In FIG. 17, point A1 on celestial sphere 140 is closer to cylinder center line 180 than point A2. Point A1 on celestial surface 140 corresponds to point B1 on celestial image 170 and to point S1 on single cylindrical image 164a. Point A2 corresponds to point B2 in celestial image 170, but is not projected onto single cylindrical image 164a. As described above, when image conversion is performed using the equirectangular projection with the cylinder center line 180 and the celestial center line 174 aligned, the single cylindrical image 164a is greatly distorted near the point A2 far from the cylinder center line 180. to put away. Therefore, in the multiple cylindrical projection method, the image conversion unit 154 performs image conversion on only the center partial image 176a (portion with small distortion) of a predetermined width including the cylinder center line 180. FIG. That is, when the cylinder center line 180 and the celestial sphere center line 174 coincide, the multiple cylindrical projection method does not perform image transformation near the poles.

多重円筒投影法では、円筒中央線180と天球中央線174の相対角度を変化させながら、円筒中央線180を含む中央部分画像176だけを対象として画像変換を行う。いいかえれば、画像変換部154は、画像変換時の歪みの少ない部分だけを対象として画像変換を行う。そして、複数の中央部分画像176の集合体として、後述の多重円筒画像400(投影画像)が形成される。 In the multiple cylindrical projection method, while changing the relative angle between the cylinder center line 180 and the celestial sphere center line 174, image conversion is performed only for the central partial image 176 including the cylinder center line 180. FIG. In other words, the image conversion unit 154 performs image conversion only on portions with little distortion during image conversion. A multiple cylindrical image 400 (projection image), which will be described later, is formed as an aggregation of the plurality of central partial images 176 .

図18は、多重円筒投影法を説明するための第2の模式図である。
図18においては、円筒面162の円筒中央線180と天球面140の天球中央線174は垂直交差している。このため、天球面140の極点は、円筒中央線180上に位置する。
FIG. 18 is a second schematic diagram for explaining the multiple cylindrical projection method.
In FIG. 18, the cylinder centerline 180 of the cylindrical surface 162 and the celestial sphere centerline 174 of the celestial sphere 140 intersect perpendicularly. Therefore, the poles of the celestial sphere 140 are located on the cylinder center line 180 .

図18において、天球面140の点A3は円筒中央線180の上に位置する。天球面140の点A3は天球画像170においては点B3に対応し、単一円筒画像164bにおいては点S3に対応する。一方、円筒中央線180から遠い点A4は天球画像170においては点B4に対応するが、単一円筒画像164bへの投影はされない。図18においても、画像変換部154は円筒中央線180を含む所定幅の中央部分画像176bだけを対象として画像変換を実行する。 In FIG. 18, point A3 on celestial sphere 140 is located on cylinder center line 180. In FIG. Point A3 on celestial surface 140 corresponds to point B3 in celestial image 170 and to point S3 in single cylindrical image 164b. On the other hand, point A4, far from cylinder centerline 180, corresponds to point B4 in celestial image 170, but is not projected onto single cylinder image 164b. In FIG. 18 as well, the image conversion unit 154 performs image conversion on only the center partial image 176b of a predetermined width including the cylinder center line 180. FIG.

図19は、多重円筒投影法により生成される多重円筒画像400の概念図である。
画像変換部154は、天球面140と円筒面162の相対角度を変更しながら、いいかえれば、円筒中央線180と天球中央線174の相対角度を変化させながら複数の中央部分画像176を生成する。第2実施形態においては、円筒中央線180と天球中央線174の相対角度が0(度)、30(度)、60(度)および90(度)の4回について、4つの中央部分画像176(中央部分画像176a~176d)を生成する。このように、歪みの小さな中央部分画像176を集めることにより、歪みの小さな投影画像としての多重円筒画像400を生成できる。多重円筒投影法の場合にも、単一の外部物体の一部が、複数の中央部分画像176に重複投影されることもある。
FIG. 19 is a conceptual diagram of a multiple cylindrical image 400 generated by the multiple cylindrical projection method.
The image conversion unit 154 generates a plurality of central partial images 176 while changing the relative angle between the celestial sphere 140 and the cylindrical surface 162 , in other words, while changing the relative angle between the cylinder center line 180 and the celestial sphere center line 174 . In the second embodiment, four central partial images 176 are obtained for four relative angles of 0 (degrees), 30 (degrees), 60 (degrees), and 90 (degrees) between the cylinder center line 180 and the celestial center line 174. (Central partial images 176a to 176d) are generated. By collecting central partial images 176 with small distortion in this way, it is possible to generate a multiple cylindrical image 400 as a projection image with small distortion. Even with multiple cylindrical projections, portions of a single external object may be overprojected onto multiple central partial images 176 .

図20は、第2実施形態における画像処理過程を示すフローチャートである。
第2実施形態においても、画像取得部152は定期的に天球画像170を取得する。図20に示す画像処理は、天球画像170が取得されるごとに繰り返し実行される。
FIG. 20 is a flow chart showing the image processing process in the second embodiment.
Also in the second embodiment, the image acquisition unit 152 periodically acquires the celestial image 170 . The image processing shown in FIG. 20 is repeatedly executed each time the celestial image 170 is acquired.

まず、画像取得部152は、全天球カメラ134から天球画像170を取得する(S20)。画像変換部154は、円筒面162と天球面140(円筒中央線180と天球中央線174)の相対角度を設定する(S22)。画像変換部154は、指定された相対角度にて、天球画像170を中央部分画像176に画像変換する(S24)。上述した4つの相対角度について画像変換が完了していなければ(S26のN)、処理はS22に戻り、次の相対角度が設定される(S22)。4つの相対角度すべてについて画像変換が完了すると(S26のY)、認識部156は各中央部分画像176について画像認識の処理順を決める(S28)。処理順の決定方法は、多面体投影法に関連して説明した方法と同様である。 First, the image acquisition unit 152 acquires the celestial image 170 from the omnidirectional camera 134 (S20). The image converter 154 sets the relative angle between the cylindrical surface 162 and the celestial sphere 140 (the cylinder center line 180 and the celestial sphere center line 174) (S22). The image converter 154 image-converts the celestial sphere image 170 into a central partial image 176 at the specified relative angle (S24). If image conversion has not been completed for the above four relative angles (N of S26), the process returns to S22 and the next relative angle is set (S22). When image conversion is completed for all four relative angles (Y of S26), the recognition unit 156 determines the processing order of image recognition for each central partial image 176 (S28). The method of determining the processing order is the same as the method described in relation to the polyhedral projection method.

処理順を決定したあと、認識部156は、サーバ200と連携して画像認識を実行する(S30)。認識結果に応じて、ロボット100はモーション選択等を決定する。未処理の中央部分画像176が残っている限り(S32のN)、他の中央部分画像176についても同様の画像認識が実行される。すべての中央部分画像176について確認すると(S32のY)、処理は終了する。 After determining the processing order, the recognition unit 156 executes image recognition in cooperation with the server 200 (S30). The robot 100 determines motion selection and the like according to the recognition result. As long as an unprocessed central partial image 176 remains (N of S32), similar image recognition is performed for other central partial images 176 as well. When all central partial images 176 have been confirmed (Y of S32), the process ends.

中央部分画像176は部分的に重複するため、天球画像170の画素によっては、複数の中央部分画像176に多重投影される。このため、多面体投影法と同様、多重円筒投影法においても外部物体を画像認識に好適なアングルから撮像(キャプチャ)しやすくなる。 Since the central partial images 176 partially overlap each other, some pixels of the celestial image 170 are multiple projected onto a plurality of central partial images 176 . Therefore, like the polyhedral projection method, the multiple cylindrical projection method also makes it easier to image (capture) an external object from an angle suitable for image recognition.

(第3実施形態:三角測距)
第3実施形態においては、複数の全天球カメラ134により三角測距方式にて外部物体までの距離を測定する方法について説明する。2台のカメラを用いた三角測距は広く知られている。しかし、歪みのない画像を前提とした一般的な三角測距方式をそのまま天球画像170に適用することはできない。第1実施形態では、天球画像170を斜方立法八面体166に投影することで、歪みの小さな18枚の投影画像を得た。これは、実質的には、18枚の投影画像(拡大平行面168)を18台のカメラによって撮影したと見なすことができる。したがって、2台の全天球カメラ134を用いれば、18方向を18×2台のカメラで撮影したペア画像を得ていると考えることができる。各方向についてペアになる投影画像の視差をもとめることで、全天球カメラ134に基づく三角測距が可能になる。
(Third Embodiment: Triangulation)
In the third embodiment, a method of measuring the distance to an external object by triangulation using a plurality of omnidirectional cameras 134 will be described. Triangulation using two cameras is widely known. However, a general triangulation method that assumes an image without distortion cannot be applied to the celestial image 170 as it is. In the first embodiment, by projecting the celestial image 170 onto the rhombicoctahedron 166, 18 projected images with little distortion were obtained. Substantially, it can be considered that 18 projection images (enlarged parallel plane 168) are captured by 18 cameras. Therefore, if two omnidirectional cameras 134 are used, it can be considered that a pair of images captured by 18×2 cameras in 18 directions is obtained. Triangulation based on the omnidirectional camera 134 becomes possible by obtaining the parallax of the paired projection images for each direction.

図21(a)は、第3実施形態におけるロボット100の正面外観図である。図21(b)は、第3実施形態におけるロボット100の側面外観図である。
第3実施形態におけるロボット100は、2本のツノ112(ツノ112aおよびツノ112b)を有する。ツノ112aおよびツノ112bにはそれぞれ全天球カメラ134(全天球カメラ134aと全天球カメラ134b)が内蔵される。全天球カメラ134aと全天球カメラ134bの間の距離は既知である。
FIG. 21(a) is a front external view of the robot 100 in the third embodiment. FIG. 21(b) is a side external view of the robot 100 in the third embodiment.
The robot 100 in the third embodiment has two horns 112 (horns 112a and 112b). Omnidirectional cameras 134 (omnidirectional camera 134a and omnidirectional camera 134b) are incorporated in horns 112a and 112b, respectively. The distance between omnidirectional camera 134a and omnidirectional camera 134b is known.

図22は、ロボット100から外部物体250までの距離を測定する方法を説明するための模式図である。
図22においては、座標Z1に外部物体250aがある。外部物体250aはユーザやペットであってもよいし、家具や窓などの固定物であってもよい。ツノ112bに内蔵される全天球カメラ134bの場合、外部物体250aは拡大平行面168(F)に映る。このとき、拡大平行面168(F)における投影点の座標(空間座標)をX1(F)とする。また、ツノ112aに内蔵される全天球カメラ134aの場合も、外部物体250aは拡大平行面168(F)に映る。このときの拡大平行面168(F)における投影点の座標(空間座標)をX2(F)とする。X1(F)とX2(F)の距離は既知であり、この距離をrとする。X1(F)、X2(F)は、ツノ112b、112aの位置座標により代用してもよい。以上は、ツノ112bに位置し、拡大平行面168(F)を撮像方向とするカメラB1と、ツノ112aに位置し、拡大平行面168(F)を撮像方向とするカメラA1により、外部物体250aを多重撮像したのと同じである。直線X1(F)-X2(F)と直線X1(F)-Z1が形成する角度をPとする。直線X2(F)―X1(F)と直線X2(F)-Z1が形成する角度をQとする。線分X1(F)―X2(F)とその両端の角度P、Qを定義できれば三角形X1(F)-X2(F)-Z1が定まるため、測距部158はこれらのデータから、ロボット100から250aまでの距離dを算出できる。
FIG. 22 is a schematic diagram for explaining a method of measuring the distance from the robot 100 to the external object 250. FIG.
In FIG. 22, there is an external object 250a at coordinate Z1. The external object 250a may be a user, a pet, or a fixed object such as furniture or a window. In the case of the omnidirectional camera 134b built into the horn 112b, the external object 250a is reflected in the enlarged parallel plane 168(F). At this time, let X1(F) be the coordinates (spatial coordinates) of the projection point on the enlarged parallel plane 168(F). Also in the case of the omnidirectional camera 134a built into the horn 112a, the external object 250a is reflected on the enlarged parallel plane 168(F). Let X2(F) be the coordinates (spatial coordinates) of the projection point on the enlarged parallel plane 168(F) at this time. The distance between X1(F) and X2(F) is known, and let this distance be r. X1(F) and X2(F) may be substituted by position coordinates of horns 112b and 112a. The camera B1 located at the horn 112b and taking the enlarged parallel plane 168(F) as the imaging direction and the camera A1 located at the horn 112a and taking the enlarged parallel plane 168(F) as the imaging direction are used to capture the external object 250a. is the same as multiple imaging. Let P be the angle formed by the straight line X1(F)-X2(F) and the straight line X1(F)-Z1. Let Q be the angle formed by the straight line X2(F)-X1(F) and the straight line X2(F)-Z1. If the line segment X1(F)-X2(F) and the angles P and Q at both ends thereof can be defined, the triangle X1(F)-X2(F)-Z1 can be determined. to 250a can be calculated.

外部物体250bは座標Z2にある。全天球カメラ134bの拡大平行面168(FR)に外部物体250bは映る。また、全天球カメラ134aの拡大平行面168(FR)に外部物体250bが映る。以上は、ツノ112bに位置し、拡大平行面168(FR)を撮像方向とするカメラB2と、ツノ112aに位置し、拡大平行面168(FR)を撮像方向とするカメラA1により、外部物体250aを多重撮像したのと同じである。したがって、上記と同様にして、ロボット100から外部物体250bまでの距離を測定できる。このような手法により、少ない機材でロボット100の周囲の3次元計測が可能となる。オブジェクトの抽出に距離情報を用いることができ、オブジェクトの認識精度が向上する。 External object 250b is at coordinate Z2. The external object 250b is captured on the enlarged parallel plane 168 (FR) of the omnidirectional camera 134b. Also, an external object 250b is captured on the enlarged parallel plane 168 (FR) of the omnidirectional camera 134a. The camera B2 located at the horn 112b and taking the enlarged parallel plane 168 (FR) in the imaging direction and the camera A1 located at the horn 112a and taking the enlarged parallel plane 168 (FR) in the imaging direction are used to capture the external object 250a. is the same as multiple imaging. Therefore, the distance from the robot 100 to the external object 250b can be measured in the same manner as described above. Such a method enables three-dimensional measurement of the surroundings of the robot 100 with a small amount of equipment. Distance information can be used for object extraction, and object recognition accuracy is improved.

以上、実施形態に基づいてロボット100およびロボット100を含むロボットシステム300について説明した。
上述したように、三次元の天球面140を二次元の天球画像170に投影した場合、天球画像170は部分的に歪みが大きくなってしまう。天球画像170を正距円筒図法により単一円筒画像164に更に投影した場合には、単一円筒画像164は極点付近で大きく歪む。第1の実施形態(多角形投影法)においては、天球面140を覆う斜方立法八面体166を想定し、斜方立法八面体166の側面(拡大平行面168)に天球面140(天球画像170)の画素を投影している。斜方立法八面体166は、円筒面162に比べると天球面140からの乖離が小さいため、いいかえれば、天球面140から極端に乖離する座標がないため、歪みの少ない多面体画像190(投影画像)を取得できる。
The robot 100 and the robot system 300 including the robot 100 have been described above based on the embodiment.
As described above, when the three-dimensional celestial sphere 140 is projected onto the two-dimensional celestial image 170, the celestial image 170 is partially distorted. When the celestial image 170 is further projected onto the single cylindrical image 164 by equirectangular projection, the single cylindrical image 164 is greatly distorted near the poles. In the first embodiment (polygonal projection method), a rhombic octahedron 166 covering the celestial sphere 140 is assumed, and the celestial sphere 140 (celestial sphere image 170) are projected. Since the rhombic octahedron 166 deviates less from the celestial sphere 140 than the cylindrical surface 162, in other words, since there are no coordinates that deviate extremely from the celestial sphere 140, a less distorted polyhedron image 190 (projection image) is obtained. can be obtained.

歪みの少ない投影画像があれば、既存の画像認識プログラムを適用できる。多角形投影法によれば、ロボット100を覆う天球面140の撮像画像を複数の拡大平行面168(投影画像)に映すことができるため、ロボット100は多面体画像190に基づいて周辺環境を広域的に視認できる。画像認識プログラムを歪みのある天球画像170等に対応させるよりも、天球画像170の歪みを補正する方が、既存の画像認識プログラムを有効活用しやすい。 Existing image recognition programs can be applied if there is a projection image with little distortion. According to the polygonal projection method, the captured image of the celestial sphere 140 covering the robot 100 can be projected onto a plurality of enlarged parallel planes 168 (projected images). can be visually recognized. Correcting the distortion of the celestial image 170 makes it easier to effectively utilize the existing image recognition program than adapting the image recognition program to the distorted celestial image 170 or the like.

第1実施形態においては、斜方立法八面体166の側面を拡大させた複数の拡大平行面168を設定することにより、外部物体を複数の拡大平行面168に重複投影させることができる。このため、1つの拡大平行面168では映りが悪くても、別の拡大平行面168では好適に画像認識できる可能性があるため、画像認識の精度を高めることができる。 In the first embodiment, by setting a plurality of enlarged parallel planes 168 obtained by enlarging the side surfaces of the orthorhombic octahedron 166 , an external object can be overlapped and projected onto the plurality of enlarged parallel planes 168 . For this reason, even if the image is poor on one enlarged parallel plane 168, there is a possibility that the image can be properly recognized on another enlarged parallel plane 168, so that the accuracy of image recognition can be improved.

第2の実施形態(多重円筒投影法)においては、天球面140と円筒面162の相対角度をさまざまに変化させることにより、複数の中央部分画像176を取得する。正距円筒図法であっても、円筒中央線180付近は画像の歪みが小さい。そこで、円筒中央線180近辺の所定幅の中央部分画像176を複数の相対角度に対応して複数生成することにより、全体として歪みの少ない多重円筒画像400(投影画像)を生成できる。 In a second embodiment (multiple cylindrical projection method), a plurality of central partial images 176 are acquired by varying the relative angles of the celestial sphere 140 and the cylindrical surface 162 . Even in the equirectangular projection, distortion of the image is small near the cylinder center line 180 . Therefore, by generating a plurality of central partial images 176 having a predetermined width near the cylinder center line 180 corresponding to a plurality of relative angles, it is possible to generate a multiple cylindrical image 400 (projection image) with little distortion as a whole.

天球画像170から拡大平行面168や中央部分画像176への画像変換は、GPU(Graphics Processing Unit)を用いて並列的に実行されてもよい。また、複数のGPUを用いることで、更に高速に画像変換が可能になる。たとえば、第1~第4GPUそれぞれが中央部分画像176a~176dの画像変換処理を並列実行してもよい。また、拡大平行面168ごとに用意される変換関数とGPUを一対一にて対応付け、複数のGPUにより画像変換処理を並列実行してもよい。GPUは画像変換などの単純作業は高速実行可能であるため、ロボット100に複数のGPUを搭載させることで画像処理速度を高速化させやすい。 Image conversion from the celestial sphere image 170 to the enlarged parallel plane 168 and the central partial image 176 may be performed in parallel using a GPU (Graphics Processing Unit). Also, by using a plurality of GPUs, image conversion can be performed at a higher speed. For example, each of the first to fourth GPUs may execute image conversion processing of the central partial images 176a to 176d in parallel. Alternatively, the transformation function prepared for each enlarged parallel plane 168 may be associated with the GPU on a one-to-one basis, and image transformation processing may be executed in parallel by a plurality of GPUs. Since GPUs can perform simple tasks such as image conversion at high speed, it is easy to increase the image processing speed by mounting multiple GPUs on the robot 100 .

第3実施形態において説明したように、ロボット100に複数の全天球カメラ134を搭載することにより、全方位にて外部物体250からロボット100までの距離を測定できる。通常のカメラは全天球カメラ134よりも画角が狭いため、2つのカメラによって距離測定可能な範囲が限定される。一方、全天球カメラ134は実質的に死角がない。このため、ロボット100に2つの全天球カメラ134を搭載することにより、ロボット100の周辺にあるほとんどの外部物体250を距離測定対象とすることができる。この結果、ロボット100は、周辺環境をより精緻に把握しやすくなる。 As described in the third embodiment, by mounting a plurality of omnidirectional cameras 134 on the robot 100, the distance from the external object 250 to the robot 100 can be measured in all directions. Since a normal camera has a narrower angle of view than the omnidirectional camera 134, the distance measurable range is limited by the two cameras. On the other hand, the omnidirectional camera 134 has substantially no blind spots. Therefore, by mounting the two omnidirectional cameras 134 on the robot 100, most of the external objects 250 around the robot 100 can be used for distance measurement. As a result, it becomes easier for the robot 100 to grasp the surrounding environment more precisely.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。 It should be noted that the present invention is not limited to the above-described embodiments and modifications, and can be embodied by modifying constituent elements without departing from the scope of the invention. Various inventions may be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments and modifications. Also, some constituent elements may be deleted from all the constituent elements shown in the above embodiments and modifications.

1つのロボット100と1つのサーバ200、複数の外部センサ114によりロボットシステム300が構成されるとして説明したが、ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部がロボット100に割り当てられてもよい。1つのサーバ200が複数のロボット100をコントロールしてもよいし、複数のサーバ200が協働して1以上のロボット100をコントロールしてもよい。 Although the robot system 300 has been described as being composed of one robot 100, one server 200, and a plurality of external sensors 114, part of the functions of the robot 100 may be implemented by the server 200, or the functions of the server 200 may be implemented by the server 200. may be assigned to the robot 100 . One server 200 may control multiple robots 100 , or multiple servers 200 may cooperate to control one or more robots 100 .

ロボット100やサーバ200以外の第3の装置が、機能の一部を担ってもよい。図6において説明したロボット100の各機能とサーバ200の各機能の集合体は大局的には1つの「ロボット」として把握することも可能である。1つまたは複数のハードウェアに対して、本発明を実現するために必要な複数の機能をどのように配分するかは、各ハードウェアの処理能力やロボットシステム300に求められる仕様等に鑑みて決定されればよい。 A third device other than the robot 100 and the server 200 may take part of the functions. The aggregate of each function of the robot 100 and each function of the server 200 described with reference to FIG. 6 can also be grasped as one "robot" from a broad perspective. How to distribute a plurality of functions necessary for realizing the present invention to one or more pieces of hardware is determined in consideration of the processing capability of each piece of hardware and the specifications required for the robot system 300. It should be decided.

上述したように、「狭義におけるロボット」とはサーバ200を含まないロボット100のことであるが、「広義におけるロボット」はロボットシステム300のことである。サーバ200の機能の多くは、将来的にはロボット100に統合されていく可能性も考えられる。 As described above, the “robot in a narrow sense” refers to the robot 100 that does not include the server 200 , but the “robot in a broad sense” refers to the robot system 300 . It is conceivable that many of the functions of the server 200 will be integrated into the robot 100 in the future.

第1実施形態(多面体投影法)においては、天球面140を斜方立法八面体166に投影するとして説明した。多面体投影法は、斜方立法八面体166に限らず、さまざまな多面体に対して適用可能である。たとえば、天球面140は6面体に投影されてもよいし、20面体に投影されてもよい。投影面が多くなるほど、いいかえれば、多面体が球体に近づくほど、天球面140と多面体の乖離が小さくなるため、投影画像の歪みを抑制しやすい。 In the first embodiment (polyhedral projection method), the celestial sphere 140 is projected onto the rhombic octahedron 166 . The polyhedral projection method is applicable not only to the rhombicoctahedron 166 but also to various polyhedrons. For example, the celestial sphere 140 may be projected onto a hexahedron or an icosahedron. As the number of projection planes increases, in other words, as the polyhedron approaches a sphere, the divergence between the celestial sphere 140 and the polyhedron becomes smaller, making it easier to suppress distortion of the projected image.

多面体投影法は、更に、多角形以外にも応用可能である。全天球カメラ134に対して異なる角度にて対向する複数の平面(投影面)を想定し、天球面140(天球画像170)の画素をこれらの平面に投影することにより、複数の投影画像を取得できる。このとき、複数の平面が多面体を構成することは必須ではない。たとえば、ロボット100の後方に投影面を設定しない場合には、全天球カメラ134によって後方を撮像できるけれども視認できなくなる。このような設定によれば、ロボット100は、視野は広くても死角を有することになる。死角を有するロボット100の方が生物性を感じられるかもしれない。したがって、ロボット100が全方位を視認できる必須はない。一方、複数の投影面により天球面140を覆うとき、すなわち、複数の投影面が多面体を形成するときには、ロボット100は全方位を視認できる。 Polyhedral projection is also applicable to non-polygons. Assuming a plurality of planes (projection planes) facing the omnidirectional camera 134 at different angles, and projecting the pixels of the celestial sphere 140 (celestial sphere image 170) onto these planes, a plurality of projection images can be obtained. can be obtained. At this time, it is not essential that a plurality of planes form a polyhedron. For example, if the projection plane is not set behind the robot 100, the omnidirectional camera 134 can take an image of the rear, but cannot be visually recognized. With such a setting, the robot 100 has a blind spot even though it has a wide field of view. The robot 100 with blind spots may feel more alive. Therefore, it is not essential that the robot 100 can visually recognize all directions. On the other hand, when the celestial sphere 140 is covered with a plurality of projection planes, that is, when the plurality of projection planes form a polyhedron, the robot 100 can visually recognize all directions.

認識部156は、複数の拡大平行面168のうち、所定の拡大平行面168の処理を優先してもよい。たとえば、認識部156は、上部側面に対応する拡大平行面168に対して他の拡大平行面168よりも高い処理順位を設定してもよい。ロボット100は人間よりも背が低いため、ユーザなどの認識すべき外部物体は、通常、上部側面方向(ロボット100の斜め上方)に視認される可能性が高いと考えられる。このため、拡大平行面168(TF)等の上部側面に対応する拡大平行面168の処理順位を優先することにより、認識すべきユーザを検出しやすくなる。複数の中央部分画像176に処理順位を設定するときも同様である。 The recognition unit 156 may preferentially process a predetermined enlarged parallel plane 168 among the plurality of enlarged parallel planes 168 . For example, the recognition unit 156 may set a higher processing priority to the enlarged parallel plane 168 corresponding to the upper side surface than to the other enlarged parallel planes 168 . Since the robot 100 is shorter than humans, it is highly likely that an external object to be recognized such as a user is normally viewed in the upper lateral direction (diagonally above the robot 100). Therefore, by prioritizing the processing order of the enlarged parallel plane 168 corresponding to the upper side surface such as the enlarged parallel plane 168 (TF), it becomes easier to detect the user to be recognized. The same applies when setting the processing order for the plurality of central partial images 176 .

多重円筒投影法においては、人の特性が現れる部分、たとえば、顔を示す肌色の画素を多重円筒画像400が多く含むように、円筒中央線180と天球中央線174の相対角度を任意に調整してもよい。このような制御方法によれば、画像認識の対象となりやすい人の顔を中央部分画像176に収めやすくなる。 In the multiple cylindrical projection method, the relative angle between the cylindrical center line 180 and the celestial sphere center line 174 is arbitrarily adjusted so that the multiple cylindrical image 400 includes many skin-colored pixels representing human characteristics, for example, the face. may According to such a control method, a person's face, which is likely to be an object of image recognition, can be easily included in the central partial image 176 .

本実施形態においては、ロボット100を対象として説明したが、画像取得部152、画像変換部154および認識部156の機能は、画像認識装置として部品化されてもよい。 In the present embodiment, the robot 100 is described as a target, but the functions of the image acquisition unit 152, the image conversion unit 154, and the recognition unit 156 may be componentized as an image recognition device.

ロボットシステム300は、多面体投影法や多重円筒投影法等の画像補正機能を工場出荷の段階から備える必要はない。ロボットシステム300の出荷後に、画像補正機能を実現する画像処理プログラムをロボット100にインストールすることにより、ロボットシステム300の機能強化が実現されてもよい。 The robot system 300 does not need to be equipped with image correction functions such as polyhedral projection and multiple cylindrical projection when shipped from the factory. After the robot system 300 is shipped, the robot system 300 may be enhanced in functionality by installing an image processing program that implements the image correction function in the robot 100 .

(第4実施形態:回転式多面体投影法)
第4実施形態においては、第1実施形態において説明した多面体投影法を改良した「回転式多面体投影法」について説明する。
回転式多面体投影法(第4実施形態)においては、多面体投影法(第1実施形態)と同様、天球画像170を多面体の各面に投影する。第4実施形態においては、天球画像170が投影される多面体の面を「展開面」、多面体の展開面に投影される撮影画像を「展開画像」とよぶ。多面体投影法(第1実施形態)においては、展開画像(投影画像)と展開画像のつなぎ目が画像認識上の死角になりやすいため、展開面を拡大して拡大平行面168を生成した。いわば、大きな拡大平行面168により、天球面140を大きく漏れなく包み込む方式である。
(Fourth Embodiment: Rotational Polyhedral Projection Method)
In the fourth embodiment, a "rotational polyhedral projection method", which is an improvement of the polyhedral projection method described in the first embodiment, will be described.
In the rotating polyhedral projection method (fourth embodiment), the celestial image 170 is projected onto each face of the polyhedron, as in the polyhedral projection method (first embodiment). In the fourth embodiment, the surface of the polyhedron on which the celestial image 170 is projected is called a "development surface", and the photographed image projected onto the development surface of the polyhedron is called a "development image". In the polyhedral projection method (first embodiment), since the joint between the developed image (projected image) and the developed image tends to be a blind spot in image recognition, the expanded plane is enlarged to generate an enlarged parallel plane 168 . In other words, it is a system in which the celestial sphere 140 is largely and thoroughly wrapped by the large enlarged parallel surface 168 .

回転式多面体投影法(第4実施形態)においては、大きな拡大平行面168により死角を無くすのではなく、多面体を動かすことで展開画像と展開画像のつなぎ目の位置を変化させる。展開画像と展開画像のつなぎ目(死角)を時系列にてずらせば、たとえば、ある時点の画像変換時(投影時)にはつなぎ目(死角)に投影された物体を、次の時点の画像変換時には展開画像の中央に投影させることができる。多面体を回転させることで死角をなくす方式であるため、大きな拡大平行面168を用意する必要がない。このため、拡大平行面168に生じていた重複部分、いわば、「のりしろ部分」を無くす、または、小さくすることができる。
第4実施形態においては、斜方立法八面体166(図11参照)ではなく、五角錐台402に対して天球画像170を投影する。
In the rotating polyhedral projection method (fourth embodiment), instead of eliminating blind spots with a large enlarged parallel plane 168, the polyhedron is moved to change the position of the joint between the developed images. If the seams (blind spots) between the developed images are shifted in time series, for example, during image conversion (during projection) at one point in time, the projected object at the seams (blind spots) will be displayed at the time of the next image conversion. It can be projected in the center of the developed image. Since the system eliminates blind spots by rotating the polyhedron, there is no need to prepare a large enlarged parallel surface 168 . For this reason, the overlapped portion generated in the enlarged parallel surface 168, the so-called "overlap portion" can be eliminated or reduced.
In the fourth embodiment, the celestial image 170 is projected onto the truncated pentagonal pyramid 402 instead of the rhombicoctahedron 166 (see FIG. 11).

図23は、五角錐台402の斜視図である。
五角錐台402は、五角錐の上部を切り取った形状の立体である。五角錐台402は5枚の側面404(台形)と、1枚の天頂面406(正五角形)の合計6枚の面を有する。底面は想定しない。側面404(台形)を含む正方形の拡大側面408と、天頂面406(正五角形)を含む正方形の拡大天頂面410を想定する。この5枚の拡大側面408と1枚の天頂面406が展開面となる。第4実施形態においても、第1実施形態に示した多面体投影法により天球画像170を5枚の拡大側面408と1枚の拡大天頂面410に投影する。
FIG. 23 is a perspective view of a truncated pentagonal pyramid 402. FIG.
The truncated pentagonal pyramid 402 is a three-dimensional shape obtained by cutting off the upper part of the pentagonal pyramid. The pentagonal truncated pyramid 402 has a total of six surfaces, including five side surfaces 404 (trapezoid) and one zenith surface 406 (regular pentagon). The bottom is not assumed. Assume a square enlarged side surface 408 containing side surface 404 (trapezoid) and a square enlarged zenith surface 410 containing zenith surface 406 (regular pentagon). The five enlarged side surfaces 408 and the one zenith surface 406 are developed surfaces. Also in the fourth embodiment, the celestial image 170 is projected onto five enlarged side surfaces 408 and one enlarged zenith plane 410 by the polyhedral projection method shown in the first embodiment.

第4実施形態の画像取得部152(全天球カメラ134)は、1秒あたり、30~50枚程度の天球画像170を取得する。画像取得部152が1秒あたりに取得する天球画像170の枚数を「天球画像レート」とよぶ。取得タイミングtc1、tc2・・・tcnにおいて連続的に取得される天球画像170をそれぞれ天球画像170(tc1)、天球画像170(tc2)・・・天球画像170(tcn)のように表記する。天球画像レートは、CPUなど計算リソースの状況に応じて変動してもよい。 The image acquisition unit 152 (omnidirectional camera 134) of the fourth embodiment acquires about 30 to 50 celestial images 170 per second. The number of celestial images 170 acquired by the image acquisition unit 152 per second is called a “celestial image rate”. The celestial images 170 continuously acquired at acquisition timings tc1, tc2, . The celestial image rate may vary depending on the status of computational resources such as CPUs.

画像変換部154は、画像取得部152が取得したすべての天球画像170を画像変換するのではなく、連続的に取得される複数の天球画像170から一部を変換対象として選択する。たとえば、画像変換部154は、天球画像170(tc1)、天球画像170(tc5)、天球画像170(tc9)のように、5回に1回のペースで変換対象とすべき天球画像170をピックアップしてもよい。この場合、天球画像170(tc2)等は画像変換処理および画像認識処理の対象外となる。 The image conversion unit 154 does not convert all the celestial images 170 acquired by the image acquiring unit 152, but selects some of the continuously acquired celestial images 170 as conversion targets. For example, the image conversion unit 154 picks up the celestial image 170 to be converted once every five times, such as the celestial image 170 (tc1), the celestial image 170 (tc5), and the celestial image 170 (tc9). You may In this case, the celestial image 170 (tc2) and the like are excluded from the image conversion processing and image recognition processing.

以下、画像変換部154が変換対象とすべき天球画像170をピックアップするタイミングを「t1,t2,t3・・・」と表記する。上記設例の場合、t1=tc1,t2=tc5,t3=tc9である。画像取得部152が天球画像170を取得するよりも、天球画像170の画像変換および画像認識処理は時間がかかる。また、間引き率を高めるほど、画像変換および画像認識の処理負荷を抑制できる。以下、時刻t1(tc1)に取得された天球画像170を「天球画像170(t1)」のように表記する。
以下、画像変換部154が、1秒間に天球画像170を画像変換する回数を「画像変換レート」とよぶ。画像変換は、画像取得部152が取得した天球画像170を間引きながらおこなうので、画像変換レートは天球画像レートより小さい。
Hereinafter, the timings at which the image conversion unit 154 picks up the celestial image 170 to be converted are expressed as "t1, t2, t3...". In the above example, t1=tc1, t2=tc5, and t3=tc9. Image conversion and image recognition processing of the celestial image 170 take more time than the image acquisition unit 152 acquires the celestial image 170 . Also, the higher the thinning rate, the more the processing load of image conversion and image recognition can be reduced. The celestial image 170 acquired at time t1 (tc1) is hereinafter referred to as "celestial image 170 (t1)".
Hereinafter, the number of times the image conversion unit 154 performs image conversion on the celestial image 170 per second will be referred to as an “image conversion rate”. Image conversion is performed while thinning out the celestial image 170 acquired by the image acquiring unit 152, so the image conversion rate is smaller than the celestial image rate.

図24は、五角錐台402(t1)を上から見たときの模式図である。
五角錐台402は、中心点Oにある全天球カメラ134を囲むように5つの拡大側面408(展開面)を有する。図24においては、拡大側面408(F)と拡大側面408(FL)の境界線414の先に外部物体412(たとえば、人物)が存在する。このため、時刻t1においては、外部物体412は拡大側面408(F)と拡大側面408(FL)の双方の撮影画像の境界付近に映る。
FIG. 24 is a schematic diagram of the truncated pentagonal pyramid 402(t1) viewed from above.
The pentagonal truncated pyramid 402 has five enlarged side surfaces 408 (development surfaces) so as to surround the omnidirectional camera 134 located at the center point O. FIG. In FIG. 24, an external object 412 (eg, a person) exists beyond the boundary line 414 between enlarged side 408(F) and enlarged side 408(FL). Therefore, at time t1, the external object 412 appears near the boundary between the captured images of both the enlarged side surface 408(F) and the enlarged side surface 408(FL).

画像変換部154は、五角錐台402を36度ずつ回転させる。具体的には、まず、画像変換部154は、時刻t1において五角錐台402(t1)の6枚の展開面に対して天球画像170(t1)を投影する。五角錐台402(t1)の5枚の拡大側面408と1枚の拡大天頂面410に投影された計6枚の展開画像が画像認識処理の対象となる。1枚の天球画像170に基づいて生成された6枚の展開画像をまとめて「展開画像群」とよぶ。 The image conversion unit 154 rotates the truncated pentagonal pyramid 402 by 36 degrees. Specifically, first, the image conversion unit 154 projects the celestial image 170(t1) onto the six development planes of the pentagonal frustum 402(t1) at time t1. A total of six developed images projected onto five enlarged side surfaces 408 and one enlarged zenith surface 410 of the pentagonal frustum 402(t1) are subjected to image recognition processing. Six developed images generated based on one celestial image 170 are collectively referred to as a "developed image group".

次に、画像変換部154は、時刻t2において、五角錐台402(t1)の全天球カメラ134に対する相対角度を36度だけ変化させる。いいかえれば、五角錐台402を中心点Oに対して36度だけ自転させる。これにより、ある時点の展開画像群において展開画像の境界に投影された物体は、時系列的に隣り合う展開画像群に含まれるいずれかの展開画像では境界以外の領域に投影される。五角錐台402を36度ずつ回転させるため(以下、「部分回転」とよぶ)、10回の部分回転により五角錐台402は一回転する。したがって、時刻t11の五角錐台402(t11)は五角錐台402(t1)と再度一致する。 Next, at time t2, the image conversion unit 154 changes the relative angle of the pentagonal frustum 402(t1) with respect to the omnidirectional camera 134 by 36 degrees. In other words, the truncated pentagonal pyramid 402 is rotated about the center point O by 36 degrees. As a result, an object projected on the boundary of a developed image group at a certain point in time is projected onto an area other than the boundary in any of the developed images included in the temporally adjacent developed image group. Since the truncated pentagonal pyramid 402 is rotated by 36 degrees (hereinafter referred to as "partial rotation"), the truncated pentagonal pyramid 402 rotates once by ten partial rotations. Therefore, the pentagonal frustum 402(t11) at time t11 coincides with the pentagonal frustum 402(t1) again.

図25は、五角錐台402(t2)を上から見たときの模式図である。
上述したように、五角錐台402(t2)は五角錐台402(t1)よりも36度だけ反時計回りに部分回転している。画像変換レートは、一般的な物体の移動を鑑みれば、比較的高速(短時間の周期)であるため、時刻t1から時刻t2に至る間に外部物体412はほとんど動かない。五角形の中心角は72度であるため、五角錐台402(t2)の拡大側面408(F)は外部物体412に正対する。このため、五角錐台402(t2)においては、外部物体412は拡大側面408(F)に投影される。
FIG. 25 is a schematic diagram of the truncated pentagonal pyramid 402(t2) viewed from above.
As noted above, the pentagonal frustum 402(t2) is partially rotated counterclockwise by 36 degrees from the pentagonal frustum 402(t1). Considering the movement of general objects, the image conversion rate is relatively high (short period), so the external object 412 hardly moves from time t1 to time t2. Since the central angle of the pentagon is 72 degrees, the enlarged side surface 408 (F) of the pentagonal frustum 402 (t 2 ) faces the external object 412 . Thus, in the pentagonal frustum 402(t2), the external object 412 is projected onto the enlarged side surface 408(F).

図26は、五角錐台402の展開図である。
図26においては、五角錐台402(t1)の5枚の拡大側面408と五角錐台402(t2)の5枚の拡大側面408を並べて表示している。五角錐台402(t1)と五角錐台402(t2)は36度だけ回転角(中心点Oに対する相対角度)がずれているため、時刻t1と時刻t2では境界線414の位置が異なる。
FIG. 26 is an exploded view of the truncated pentagonal pyramid 402 .
In FIG. 26, the five enlarged side surfaces 408 of the pentagonal truncated pyramid 402(t1) and the five enlarged side surfaces 408 of the pentagonal truncated pyramid 402(t2) are displayed side by side. Since the truncated pentagonal pyramid 402(t1) and the truncated pentagonal pyramid 402(t2) are shifted by 36 degrees in rotation angle (angle relative to the center point O), the position of the boundary line 414 is different between the time t1 and the time t2.

五角錐台402(t1)においては、外部物体412は拡大側面408(F)と拡大側面408(FL)の境界線414の上に映っている。第1実施形態に関連して説明したように、拡大側面408はその端部において投影画像が歪みやすい。また、拡大側面408(F)および拡大側面408(FL)の2つの展開画像に基づいて画像認識をする必要があり、処理負担が大きい。いいかえれば、境界線414付近は、画像処理上の死角になりやすい。第1実施形態(多面体投影法)においては、大きな拡大平行面168を設定し、複数の拡大平行面168に外部物体412を多重投影させることで死角をカバーした。第1実施形態の多面体投影法は、第4実施形態の回転式多面体投影法に比べると重複部分が多くなるため、画像処理の対象となる撮影画像(展開画像)のサイズが大きくなりやすい。 In the pentagonal frustum 402(t1), the external object 412 is reflected on the boundary 414 between the enlarged side 408(F) and the enlarged side 408(FL). As described in connection with the first embodiment, the enlarged side 408 tends to distort the projected image at its ends. Further, it is necessary to perform image recognition based on the two expanded images of the enlarged side surface 408(F) and the enlarged side surface 408(FL), which increases the processing load. In other words, the vicinity of the boundary line 414 tends to be a blind spot in image processing. In the first embodiment (polyhedral projection method), a large enlarged parallel plane 168 is set, and the external object 412 is multiple-projected onto a plurality of enlarged parallel planes 168 to cover blind spots. Since the polyhedral projection method of the first embodiment has more overlapping parts than the rotating polyhedral projection method of the fourth embodiment, the size of the captured image (expanded image) to be processed tends to be large.

これに対して、第4実施形態(回転型多面体投影法)の五角錐台402(t2)においては、外部物体412は拡大側面408(F)の中央に映る。このため、死角をカバーするために大きな拡大平行面168を用意しなくても、五角錐台402(t2)の投影画像により外部物体412を好適に画像認識できる。いいかえれば、五角錐台402(t1)においては外部物体412を好適に投影できなくても、次回の五角錐台402(t2)においては外部物体412を好適に投影できる。図26に示す例の場合、五角錐台402(t1)に対する展開画像(投影画像)では外部物体412を画像認識できなくても、五角錐台402(t2)に対する展開画像(投影画像)では外部物体412を画像認識できる。 In contrast, in the truncated pentagonal pyramid 402(t2) of the fourth embodiment (rotated polyhedron projection method), the external object 412 appears in the center of the enlarged side surface 408(F). Therefore, the image of the external object 412 can be preferably recognized from the projected image of the truncated pentagonal pyramid 402(t2) without preparing a large enlarged parallel plane 168 to cover the blind spot. In other words, even if the external object 412 cannot be projected properly on the pentagonal frustum 402(t1), the external object 412 can be projected suitably on the next pentagonal frustum 402(t2). In the example shown in FIG. 26, even if the external object 412 cannot be image-recognized in the developed image (projected image) for the pentagonal frustum 402 (t1), the external object 412 cannot be recognized in the developed image (projected image) for the pentagonal frustum 402 (t2). Object 412 can be image-recognized.

図27は、拡大天頂面410の回転を説明するための模式図である。
本実施形態におけるロボット100は、人間に比べて背が低い。ユーザがロボット100を上方からのぞき込む機会が多くなるため、全天球カメラ134が拡大天頂面410(天頂面406)においてユーザの顔画像を取得する機会も多くなる。
FIG. 27 is a schematic diagram for explaining the rotation of the enlarged zenith plane 410. FIG.
The robot 100 in this embodiment is shorter than humans. Since there are more opportunities for the user to look into the robot 100 from above, there are more opportunities for the omnidirectional camera 134 to acquire the user's face image on the enlarged zenith plane 410 (zenith plane 406).

一般的な画像認識プログラムは、人物が逆さまに映る画像における顔認識処理が苦手である。ユーザは後部上方からロボット100をのぞき込む機会も多いため、拡大天頂面410においてもユーザが逆さまに映りやすい。図27においては、拡大天頂面410(t1)においてユーザが逆さまに映っている。上述したように、画像変換部154は五角錐台402を36度ずつ回転させる。このため、拡大天頂面410(t1)では逆さまであっても、拡大天頂面410(t6)においては、ユーザは上下適正にて撮影される。 A general image recognition program is not good at face recognition processing in an image in which a person is reflected upside down. Since the user often looks into the robot 100 from the rear upper part, the user is likely to appear upside down even on the enlarged zenith plane 410 . In FIG. 27, the user is shown upside down on the enlarged zenith plane 410(t1). As described above, the image conversion unit 154 rotates the pentagonal frustum 402 by 36 degrees. Therefore, even if the user is upside down on the enlarged zenith plane 410(t1), the user is photographed in the correct vertical position on the enlarged zenith plane 410(t6).

五角錐台402(t1)から五角錐台402(t10)までで10種類の角度にて10枚の拡大天頂面410を取得できる。画像変換部154は、10枚の拡大天頂面410のそれぞれに対して画像認識処理を実行し、上下適正な拡大天頂面410(t6)を対象としたときに顔を認識できる。五角錐台402を回転させることは、拡大天頂面410において上下適正な被写体画像を取得する上でも有効である。いいかえれば、画像認識のために取得済みの展開画像(投影画像)を回転させるのではなく、拡大天頂面410を部分回転させ続けることで多様な角度にて多数の拡大天頂面410を取得し、それぞれに対して画像認識処理をおこなえば、その中のいずれかが好適な条件を満たし画像認識処理により被写体を正しく認識できる。 From the pentagonal frustum 402(t1) to the pentagonal frustum 402(t10), ten enlarged zenith planes 410 can be acquired at ten different angles. The image conversion unit 154 executes image recognition processing for each of the ten enlarged zenith planes 410, and can recognize a face when the enlarged zenith plane 410 (t6) that is vertically correct is targeted. Rotating the truncated pentagonal pyramid 402 is also effective in obtaining a subject image that is properly vertically positioned on the enlarged zenith plane 410 . In other words, instead of rotating the developed image (projected image) that has already been acquired for image recognition, the enlarged zenith plane 410 is partially rotated to acquire a large number of enlarged zenith planes 410 at various angles, If image recognition processing is performed on each of them, one of them satisfies a suitable condition and the subject can be correctly recognized by the image recognition processing.

図28は、複数の拡大側面408のつなぎ合わせを示す模式図である。
第1実施形態(多面体投影法)においては、拡大平行面168を作るため、1つの被写体が複数の拡大平行面168に同時に投影されることも多い。いいかえれば、複数の拡大平行面168には重複部分が多い。これに対して、第4実施形態(回転型多面体投影法)は五角錐台402の回転によって死角をカバーするため、大きな拡大側面408、拡大天頂面410を用意する必要がなく、したがって、重複も少ない。
FIG. 28 is a schematic diagram showing how a plurality of enlarged side surfaces 408 are spliced together.
In the first embodiment (polyhedral projection method), since enlarged parallel planes 168 are created, one object is often projected onto a plurality of enlarged parallel planes 168 at the same time. In other words, the plurality of enlarged parallel planes 168 have many overlapping portions. In contrast, in the fourth embodiment (rotational polyhedral projection method), blind spots are covered by the rotation of the truncated pentagonal pyramid 402, so there is no need to prepare a large enlarged side surface 408 and enlarged zenith surface 410. Few.

そこで、第4実施形態においては、画像変換部154は、ロボット100の上方にあたる拡大天頂面410(T)と正面にあたる拡大側面408(F)、左右にあたる拡大側面408(FL)と拡大側面408(FR)をつなぎ合わせて合成画像420を作ることができる。各投影画像に重複部分が少ないため、合成画像420はロボット100から実際に見える画像に近くなる。 Therefore, in the fourth embodiment, the image conversion unit 154 includes an enlarged zenith surface 410 (T) above the robot 100, an enlarged side surface 408 (F) corresponding to the front, and an enlarged side surface 408 (FL) and an enlarged side surface 408 (F) corresponding to the left and right sides of the robot 100. FR) can be stitched together to form a composite image 420 . Synthetic image 420 is closer to what the robot 100 actually sees, because each projected image has less overlap.

認識部156は、実質的には、拡大側面408(RL)、拡大側面408(RR)および合成画像420の3つの展開画像を対象として画像認識を実行すればよい。回転型多面体投影法の場合、各撮影画像における重複部分が小さいため、シームレスな合成画像420を作りやすい。6枚の展開画像であっても、実質的に3枚の展開画像として処理できるため画像認識処理にともなう処理コストを抑制できる。 The recognition unit 156 may substantially perform image recognition on three developed images of the enlarged side surface 408 (RL), the enlarged side surface 408 (RR), and the composite image 420 . In the case of the rotational polyhedral projection method, the overlapped portion of each captured image is small, so it is easy to create a seamless composite image 420 . Since even six developed images can be processed as three developed images, the processing cost associated with image recognition processing can be suppressed.

第4実施形態として示した回転型多面体投影法は、五角錐台402を部分回転させることにより大きな拡大平行面168を作らなくても五角錐台402の死角(境界線414)をカバーできる。大きな拡大平行面168を作らなくてもよいため、いいかえれば、複数の撮影画像における重複部分が少ないため、画像認識にともなう処理コストを抑制できる。また、重複部分が少ないことにより、図28に示したような比較的シームレスな合成画像420を作ることができる。大きな合成画像420を作ることにより、画像認識処理の対象となる展開画像の枚数を減らすことも処理コスト削減に寄与する。
また、拡大天頂面410を回転させることにより、ロボット100の上方に存在する物体、特に、人物を画像認識に好適な向きにて撮像できる。
The rotated polyhedral projection method shown as the fourth embodiment can cover the blind spot (boundary line 414) of the truncated pentagonal pyramid 402 by partially rotating the truncated pentagonal pyramid 402 without creating a large enlarged parallel plane 168. Since it is not necessary to create a large enlarged parallel plane 168, in other words, since there are few overlapped portions in a plurality of captured images, the processing cost associated with image recognition can be reduced. In addition, a relatively seamless composite image 420, such as that shown in FIG. 28, can be created due to the small amount of overlap. Reducing the number of developed images to be subjected to image recognition processing by creating a large composite image 420 also contributes to the reduction of processing costs.
In addition, by rotating the enlarged zenith plane 410, an object present above the robot 100, particularly a person, can be imaged in an orientation suitable for image recognition.

第4実施形態においては、拡大側面408は側面404を含む正方形の展開面であるとして説明した。これに限らず、台形の側面404や正五角形の天頂面406に天球画像170を投影してもよい。投影先は五角錐台402である必要はなく、五角錐や五角柱であってもよい。回転式多面体投影法において使用する多角形は複数面を有する多角形であればよいため、斜方立法八面体でもよい。第4実施形態のように底面など、一部の面に欠ける多角形でもよい。画像変換部154は、所定の画像変換レートで展開画像群を作成するごとに、投影先の多面体を、直前に投影した際の多面体の位置に対して所定角度だけ回転させ、展開画像に変換すればよい。 In the fourth embodiment, enlarged side 408 has been described as being a square developed surface that includes side 404 . Alternatively, the celestial image 170 may be projected onto the side surface 404 of the trapezoid or the zenith surface 406 of the regular pentagon. The projection target need not be the truncated pentagonal pyramid 402, and may be a pentagonal pyramid or a pentagonal prism. Polygons used in the rotational polyhedral projection method may be polygons having multiple faces, and may be rhombic octahedrons. A polygon that lacks a part of the surface such as the bottom surface as in the fourth embodiment may also be used. Each time a developed image group is created at a predetermined image conversion rate, the image conversion unit 154 rotates the projection destination polyhedron by a predetermined angle with respect to the position of the polyhedron when it was projected immediately before, and converts it into a developed image. Just do it.

本発明者らによる検討の結果、側面を4面以下とした場合には展開画像(投影画像)の歪みが大きくなる。6面以上の側面を用意してもよいが、5面でも十分な画像認識精度を得られることがわかったため、画像認識精度と処理コストのバランスから現段階では5面がベストと考えられる。 As a result of studies by the present inventors, the distortion of the developed image (projected image) increases when the number of side surfaces is four or less. Six or more sides may be prepared, but since it has been found that sufficient image recognition accuracy can be obtained with five sides, five sides are considered to be the best at this stage from the viewpoint of the balance between image recognition accuracy and processing cost.

展開面は、正方形面として説明したが、長方形面として形成されてもよい。また、第4実施形態においては36度単位で五角錐台402を部分回転させるとしたが、回転角は任意である。ただし、中心角の約数となる角度にて回転させることが望ましい。たとえば、五角形なら中心角は72度であるから、36度(1/2)、24度(1/3)、18度(1/4)、12度(1/6)等、「72度」の約数にあたる角度にて部分回転させることが望ましい。五角錐台402の回転方向も任意であり、横方向回転に限らず、縦方向の回転であってもよい。 Although the developed surface has been described as a square surface, it may be formed as a rectangular surface. Also, in the fourth embodiment, the truncated pentagonal pyramid 402 is partially rotated in units of 36 degrees, but the angle of rotation is arbitrary. However, it is desirable to rotate at an angle that is a divisor of the central angle. For example, a pentagon has a central angle of 72 degrees, so 36 degrees (1/2), 24 degrees (1/3), 18 degrees (1/4), 12 degrees (1/6), etc., "72 degrees" It is desirable to partially rotate by an angle that is a divisor of . The rotation direction of the truncated pentagonal pyramid 402 is also arbitrary, and may be vertical rotation instead of horizontal rotation.

五角錐台402は、36度ずつ自転させてもよいし、中心点Oに対する相対角度を0度と36度の間で繰り返し変化させてもよい。この場合には、五角錐台402は回転型の振動をする。このような振動方式においても、展開画像における画像処理上の死角をカバーできる。振動方式の場合にも、拡大天頂面410については回転させるとしてもよい。 The truncated pentagonal pyramid 402 may be rotated by 36 degrees, or the relative angle to the center point O may be repeatedly changed between 0 degrees and 36 degrees. In this case, the pentagonal truncated pyramid 402 vibrates rotationally. Even in such a vibration method, it is possible to cover blind spots in image processing in the developed image. Even in the case of the vibration method, the enlarged zenith surface 410 may be rotated.

五角錐台402の部分回転の角度が一定である必要はない。たとえば、一定の画像変換レートで五角錐台402を一定の角度で部分回転する場合、ロボット100の周囲を同一の角速度で動いている人が居たとしたら、その人は常に展開画像の同じ領域に位置してしまう。その領域が展開画像の中央部であれば常に認識できるが、境界に位置してしまうと部分回転の効果が得られない。そこで、部分回転の角度を変動させることにより、たとえば、36度を中央値として、30度から42度の範囲でランダムに角速度を変化させることにより、等速で移動する外部物体が展開画像の境界、つまり画像処理上の死角に継続的に位置する状態を避けるようにしてもよい。 The angle of partial rotation of the truncated pentagonal pyramid 402 need not be constant. For example, when the truncated pentagonal pyramid 402 is partially rotated at a constant angle at a constant image conversion rate, if there is a person moving around the robot 100 at the same angular velocity, that person will always be in the same area of the developed image. be positioned. If the area is located at the center of the expanded image, it can always be recognized, but if it is positioned at the boundary, the effect of partial rotation cannot be obtained. Therefore, by varying the angle of partial rotation, for example, by randomly changing the angular velocity in the range of 30 degrees to 42 degrees with the median value of 36 degrees, the external object moving at a constant speed can be moved to the boundary of the unfolded image. , that is, the state of being continuously positioned in a blind spot in image processing may be avoided.

Claims (14)

カメラを中心とする天球面の撮像画像として天球画像を取得する画像取得部と、
前記カメラに対して異なる角度にて対向する複数の平面に対して、前記天球画像の画素を
投影することにより、複数の投影画像を取得する画像変換部と、
前記複数の投影画像それぞれについて画像認識処理を定期的に実行することにより、外
部物体を画像認識する認識部と、を備え、
前記認識部は、第1の時点において第1の投影画像から前記外部物体を検出したときには
、前記第1の時点の次の処理タイミングである第2の時点において前記第1の投影画像に対
する画像認識処理を他の投影画像よりも優先して実行することを特徴とする画像処理装置。
an image acquisition unit that acquires a celestial image as a captured image of the celestial sphere centered on the camera;
an image conversion unit that obtains a plurality of projected images by projecting the pixels of the celestial image onto a plurality of planes that face the camera at different angles;
By periodically executing image recognition processing for each of the plurality of projection images, an external
and a recognition unit that recognizes images of objects,
When the recognition unit detects the external object from the first projection image at a first time point,
, with respect to the first projection image at a second time point that is the processing timing subsequent to the first time point
1. An image processing apparatus characterized in that an image recognition process for a projected image is executed with priority over other projected images .
第1の投影画像と第2の投影画像の双方に投影される単一の外部物体を、前記第1の投影
画像および第2の投影画像それぞれの画像認識処理により検出する認識部、を更に備える
ことを特徴とする請求項1に記載の画像処理装置。
A recognition unit that detects a single external object projected on both the first projection image and the second projection image by image recognition processing of each of the first projection image and the second projection image. 2. The image processing apparatus according to claim 1, characterized by:
前記複数の平面は、前記カメラを覆う多面体を形成することを特徴とする請求項1又は2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the plurality of planes form a polyhedron covering the camera. カメラを中心とする天球面の撮像画像として天球画像を取得する画像取得部と、
前記カメラに対して異なる角度にて対向する複数の平面に対して、前記天球画像の画素を
投影することにより、複数の投影画像を取得する画像変換部と、を備え
前記画像変換部は、更に、前記複数の平面の前記カメラに対する相対角度を時系列的に
変化させることにより、複数の相対角度それぞれに対応して前記複数の投影画像を取得す
ることを特徴とする画像処理装置。
an image acquisition unit that acquires a celestial image as a captured image of the celestial sphere centered on the camera;
Pixels of the celestial image for a plurality of planes facing the camera at different angles
an image conversion unit configured to acquire a plurality of projection images by projecting the image conversion unit, wherein the image conversion unit further changes the relative angles of the plurality of planes with respect to the camera in time series to obtain a plurality of relative projection images; An image processing apparatus that acquires the plurality of projected images corresponding to respective angles.
カメラを中心とする天球面の撮像画像として天球画像を取得する画像取得部と、
前記カメラに対して異なる角度にて前記カメラを包囲する複数の円筒画像に対して、前
記天球画像の画素を投影することにより、複数の投影画像を取得する画像変換部と、を備
えることを特徴とする画像処理装置。
an image acquisition unit that acquires a celestial image as a captured image of the celestial sphere centered on the camera;
an image conversion unit that acquires a plurality of projection images by projecting pixels of the celestial image onto a plurality of cylindrical images surrounding the camera at different angles with respect to the camera. image processing device.
カメラを中心とする天球面の撮像画像として天球画像を取得する機能と、
前記カメラに対して異なる角度にて対向する複数の平面に対して、
前記天球画像の画素を投影することにより、複数の投影画像を取得する機能と、
前記複数の投影画像それぞれについて画像認識処理を定期的に実行することにより、外
部物体を画像認識する認識する機能と、をコンピュータに発揮させ、
前記認識する機能は、第1の時点において第1の投影画像から前記外部物体を検出したときには
、前記第1の時点の次の処理タイミングである第2の時点において前記第1の投影画像に対
する画像認識処理を他の投影画像よりも優先して実行する機能である
ことを特徴とする画像処理プログラム。
A function to acquire a celestial image as a captured image of the celestial surface centered on the camera;
For a plurality of planes facing the camera at different angles,
a function of obtaining a plurality of projected images by projecting the pixels of the celestial image;
By periodically executing image recognition processing for each of the plurality of projection images, an external
Let the computer demonstrate the function of recognizing images of objects,
When the recognizing function detects the external object from the first projection image at a first time point
, with respect to the first projection image at a second time point that is the processing timing subsequent to the first time point
This is a function that gives priority to the image recognition processing that
An image processing program characterized by:
カメラを中心とする天球面の撮像画像として天球画像を取得する機能と、
前記カメラに対して異なる角度にて前記カメラを包囲する複数の円筒画像に対して、前
記天球画像の画素を投影することにより、複数の投影画像を取得する機能と、をコンピュ
ータに発揮させることを特徴とする画像処理プログラム。
A function to acquire a celestial image as a captured image of the celestial surface centered on the camera;
and a function of obtaining a plurality of projection images by projecting the pixels of the celestial image onto a plurality of cylindrical images surrounding the camera at different angles with respect to the camera. An image processing program characterized by:
ロボット上方の略全域を同時に撮像可能なカメラと、
ロボット上方を覆う天球面の撮像画像である天球画像を前記カメラから取得し、前記天
球画像を多面体画像に変換する画像変換部と、
前記多面体画像から外部物体を画像認識する認識部と、を備え、
前記画像変換部は、ロボット上方を覆う多面体を撮像面とした画像を前記多面体画像と
して設定し、前記天球画像の画素を前記多面体のいずれかの面に投影することにより、前
記天球画像を前記多面体画像に変換し、
前記画像変換部は、前記多面体の複数の面をそれぞれ平行に拡大させることにより複数
の拡大平行面を設定し、前記天球画像の画素を2以上の拡大平行面に多重投影させること
を特徴とするロボット。
a camera capable of simultaneously imaging substantially the entire area above the robot;
an image conversion unit that acquires from the camera a celestial image, which is a captured image of the celestial sphere covering above the robot, and converts the celestial image into a polyhedral image;
a recognition unit that recognizes an external object from the polyhedral image,
The image conversion unit sets an image whose imaging plane is a polyhedron that covers the upper part of the robot as the polyhedron image, and projects the pixels of the celestial image onto one of the surfaces of the polyhedron, thereby transforming the celestial image into the polyhedron. convert to image,
The image conversion unit expands the plurality of faces of the polyhedron in parallel to obtain a plurality of images.
, and multiple-projects pixels of the celestial image onto two or more enlarged parallel planes .
前記多面体は、前記天球面の中心と天頂を結ぶ軸に対して垂直な平面を含むことを特徴
とする請求項8に記載のロボット。
9. The robot according to claim 8 , wherein the polyhedron includes a plane perpendicular to an axis connecting the center of the celestial sphere and the zenith.
前記画像変換部は、前記天球画像に含まれる複数の画素それぞれの投影処理を同時実行
することを特徴とする請求項8に記載のロボット。
9. The robot according to claim 8 , wherein the image conversion unit simultaneously executes projection processing for each of a plurality of pixels included in the celestial image.
ロボット上方の略全域を同時に撮像可能なカメラと、
ロボット上方を覆う天球面の撮像画像である天球画像を前記カメラから取得し、前記天
球画像を多重円筒画像に変換する画像変換部と、
前記多重円筒画像から外部物体を画像認識する認識部と、を備え、
前記画像変換部は、ロボットを包囲する円筒の側面に前記天球画像の画素を投影するこ
とにより円筒画像を形成し、円筒と天球の複数の相対角度に対応する複数の円筒画像の集
合を前記多重円筒画像として設定することにより、前記天球画像を前記多重円筒画像に変
換することを特徴とするロボット。
a camera capable of simultaneously imaging substantially the entire area above the robot;
an image conversion unit that acquires from the camera a celestial image, which is a captured image of the celestial sphere covering above the robot, and converts the celestial image into a multiple cylindrical image;
a recognition unit that recognizes an external object from the multiple cylindrical image,
The image conversion unit forms a cylindrical image by projecting the pixels of the celestial image onto a side surface of a cylinder surrounding the robot, and multiplexes a set of a plurality of cylindrical images corresponding to a plurality of relative angles between the cylinder and the celestial sphere. A robot characterized by converting said celestial image into said multiple cylindrical image by setting it as a cylindrical image.
前記画像変換部は、更に、前記複数の円筒画像それぞれの中央から抽出された複数の部
分画像の集合を前記多重円筒画像として設定することを特徴とする請求項11に記載のロボ
ット。
12. The robot according to claim 11 , wherein said image conversion unit further sets a set of a plurality of partial images extracted from the center of each of said plurality of cylindrical images as said multiple cylindrical image.
ロボット上方を覆う天球面の撮像画像である天球画像を取得する機能と、
ロボット上方を覆う多面体を撮像面とした画像を多面体画像として設定し、前記天球画
像の画素を前記多面体のいずれかの面に投影することにより、前記天球画像を前記多面体
画像に変換する機能と、前記多面体画像から外部物体を画像認識する機能と、
前記外部物体に対応して、ロボットのモーションを選択する機能と、をコンピュータに
発揮させ
前記画像認識する機能は、前記多面体の複数の面をそれぞれ平行に拡大させることにより複数
の拡大平行面を設定し、前記天球画像の画素を2以上の拡大平行面に多重投影する機能であることを特徴とするロボットの行動制御プログラム。
A function to acquire a celestial image, which is a captured image of the celestial sphere covering the upper part of the robot;
A function of converting the celestial image into the polyhedral image by setting an image with the polyhedron covering the upper part of the robot as an imaging surface as a polyhedral image and projecting the pixels of the celestial sphere image onto one of the surfaces of the polyhedron; a function of image recognition of an external object from the polyhedral image;
causing a computer to exhibit a function of selecting the motion of the robot in response to the external object ;
The image recognition function is performed by expanding the plurality of faces of the polyhedron in parallel.
A robot action control program characterized by a function of setting an enlarged parallel plane and multiple-projecting the pixels of the celestial sphere image onto two or more enlarged parallel planes .
ロボット上方を覆う天球面の撮像画像である天球画像を、ロボット上方の略全域を同時に撮像可能なカメラから取得する機能と、
ロボットを包囲する円筒の側面に前記天球画像の画素を投影することにより円筒画像を
形成し、円筒と天球の複数の相対角度に対応する複数の円筒画像の集合を多重円筒画
像として設定することにより、前記天球画像を前記多重円筒画像に変換する機能と、
前記多重円筒画像から外部物体を画像認識する機能と、
前記外部物体に対応して、ロボットのモーションを選択する機能と、をコンピュータに
発揮させることを特徴とするロボットの行動制御プログラム。
A function of acquiring a celestial image, which is a captured image of the celestial sphere covering the upper part of the robot, from a camera capable of simultaneously capturing substantially the entire area above the robot ;
Forming a cylindrical image by projecting the pixels of the celestial image onto the side of a cylinder surrounding the robot, and setting a set of a plurality of cylindrical images corresponding to a plurality of relative angles between the cylinder and the celestial sphere as a multiple cylindrical image. a function of converting the celestial image into the multiple cylindrical image by
a function of image recognition of an external object from the multiple cylindrical image;
A behavior control program for a robot, characterized by causing a computer to exhibit a function of selecting a motion of the robot corresponding to the external object.
JP2019520273A 2017-05-24 2018-05-23 An image processing device that corrects the distortion of a celestial image and a robot equipped with it Active JP7189620B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017102556 2017-05-24
JP2017102556 2017-05-24
PCT/JP2018/019751 WO2018216710A1 (en) 2017-05-24 2018-05-23 Image processing device for correcting distortion in omnidirectional image and autonomous travel robot equipped with same

Publications (2)

Publication Number Publication Date
JPWO2018216710A1 JPWO2018216710A1 (en) 2020-04-09
JP7189620B2 true JP7189620B2 (en) 2022-12-14

Family

ID=64396494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019520273A Active JP7189620B2 (en) 2017-05-24 2018-05-23 An image processing device that corrects the distortion of a celestial image and a robot equipped with it

Country Status (2)

Country Link
JP (1) JP7189620B2 (en)
WO (1) WO2018216710A1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242773A (en) 1999-02-19 2000-09-08 Fitto:Kk Image data converting device
WO2000067959A1 (en) 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same
JP2001154768A (en) 1999-11-29 2001-06-08 Nippon Telegr & Teleph Corp <Ntt> Video display, video display method and recording medium
JP2004255486A (en) 2003-02-25 2004-09-16 Honda Motor Co Ltd Automatic working device and automatic working device control program
JP2005182826A (en) 2003-12-23 2005-07-07 Honda Motor Co Ltd Polyhedron recognition device
JP2011254436A (en) 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp Mobile object detection device and mobile object detection method
JP2012198077A (en) 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
JP2012256274A (en) 2011-06-10 2012-12-27 Panasonic Corp Image generation device, image generation method, and computer program
JP2013198062A (en) 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242773A (en) 1999-02-19 2000-09-08 Fitto:Kk Image data converting device
WO2000067959A1 (en) 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same
JP2001154768A (en) 1999-11-29 2001-06-08 Nippon Telegr & Teleph Corp <Ntt> Video display, video display method and recording medium
JP2004255486A (en) 2003-02-25 2004-09-16 Honda Motor Co Ltd Automatic working device and automatic working device control program
JP2005182826A (en) 2003-12-23 2005-07-07 Honda Motor Co Ltd Polyhedron recognition device
JP2011254436A (en) 2010-06-04 2011-12-15 Toshiba Alpine Automotive Technology Corp Mobile object detection device and mobile object detection method
JP2012198077A (en) 2011-03-18 2012-10-18 Ricoh Co Ltd Stereo camera device and parallax image generating method
JP2012256274A (en) 2011-06-10 2012-12-27 Panasonic Corp Image generation device, image generation method, and computer program
JP2013198062A (en) 2012-03-22 2013-09-30 Ricoh Co Ltd Image processing apparatus, image processing method, and imaging apparatus

Also Published As

Publication number Publication date
WO2018216710A1 (en) 2018-11-29
JPWO2018216710A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP7320239B2 (en) A robot that recognizes the direction of a sound source
CN110024000B (en) Behavior autonomous robot for changing pupil
JP6472113B2 (en) Autonomous robots and programs that maintain a natural sense of distance
JP7177497B2 (en) Autonomous action robot that looks at the opponent
JP6671577B2 (en) An autonomous robot that identifies people
JP7236142B2 (en) Autonomous action robot
JP6517457B2 (en) Robot wearing a hull
JP2019171566A (en) Robot having soft outer skin
JP2019214119A (en) Joint structure excellent for robot joint
JP2020014845A (en) Autonomous action type robot for receiving guest
JP2024045160A (en) Robot wearing costume
JP7189620B2 (en) An image processing device that corrects the distortion of a celestial image and a robot equipped with it
JPWO2019138618A1 (en) Animal-type autonomous mobiles, how animal-type autonomous mobiles operate, and programs
JP7414285B2 (en) Robots and charging stations and landmark devices for robots

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221125

R150 Certificate of patent or registration of utility model

Ref document number: 7189620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150