JP2017204085A - Image recognition system - Google Patents
Image recognition system Download PDFInfo
- Publication number
- JP2017204085A JP2017204085A JP2016094791A JP2016094791A JP2017204085A JP 2017204085 A JP2017204085 A JP 2017204085A JP 2016094791 A JP2016094791 A JP 2016094791A JP 2016094791 A JP2016094791 A JP 2016094791A JP 2017204085 A JP2017204085 A JP 2017204085A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- phase
- switching
- image recognition
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像認識システムに関する。 The present invention relates to an image recognition system.
非特許文献1は、抽象的なラベルを上層、具体的なラベルを下層とする階層的なラベル木を作成し、尤度が一定以上となる最も下層のラベルを割り当てる、セマンティックラベリング技術を開示している。 Non-Patent Document 1 discloses a semantic labeling technique that creates a hierarchical label tree with an abstract label as an upper layer and a specific label as a lower layer, and assigns the lowest layer label with a certain likelihood or more. ing.
しかしながら、ラベル木や枝葉の数が多いとラベリングに失敗する可能性が高くなる。 However, there is a high possibility that labeling will fail if the number of label trees or branches and leaves is large.
本発明の目的は、ラベリングの成功率を向上させる技術を提供することにある。 An object of the present invention is to provide a technique for improving the success rate of labeling.
本願発明の観点によれば、複数の作業工程から成る作業を実行可能なロボットが前記作業を実行するのに必要となる、前記ロボットの外部環境に対するセマンティックセグメンテーションを行なう画像認識システムであって、前記ロボットが実行している前記作業工程の切り替わりを検出する作業工程切り替わり検出手段と、前記作業工程切り替わり検出手段によって前記作業工程の切り替わりが検出されたら、切り替わり後の作業工程、又は、切り替わり後の前記ロボットのプロファイルの何れかに対応する、少なくとも1つの認識候補を取得する認識候補取得手段と、前記少なくとも1つの認識候補に対応する識別器を用いて、前記ロボットの前記外部環境を撮像して得られる画像に対してセマンティックセグメンテーションを実行する画像認識手段と、を備えた画像認識システムが提供される。 According to an aspect of the present invention, there is provided an image recognition system that performs semantic segmentation on an external environment of the robot, which is necessary for a robot capable of performing a work including a plurality of work steps to perform the work, When the switching of the work process is detected by the work process switching detection means for detecting the switching of the work process being executed by the robot and the work process switching detection means, the work process after the switching or the switching after the switching Obtained by imaging the external environment of the robot using recognition candidate acquisition means for acquiring at least one recognition candidate corresponding to any one of the profiles of the robot and a classifier corresponding to the at least one recognition candidate. Perform semantic segmentation on the resulting image An image recognition means, an image recognition system with a provided.
本発明によれば、各作業工程毎に異なる認識候補が用いられるので、ラベリングの成功率が向上する。 According to the present invention, since different recognition candidates are used for each work process, the success rate of labeling is improved.
(第1実施形態)
以下、図1及び図2を参照して、第1実施形態を説明する。
(First embodiment)
Hereinafter, the first embodiment will be described with reference to FIGS. 1 and 2.
図1には、画像認識システム1の機能ブロック図を示している。画像認識システム1は、複数のフェイズ(作業工程)から成るタスク(作業)を実行可能なロボットがタスクを実行するのに必要となる、ロボットの外部環境に対するセマンティックセグメンテーション(画像認識、ラベリング)を行なうシステムである。 FIG. 1 shows a functional block diagram of the image recognition system 1. The image recognition system 1 performs semantic segmentation (image recognition and labeling) on the external environment of a robot, which is necessary for a robot capable of executing a task (work) composed of a plurality of phases (work processes) to execute the task. System.
画像認識システム1は、ラベルセットDB2と、ラベル決定プロファイルDB3と、フェイズ検出部4(作業工程切り替わり検出手段)と、ラベル選択部5(認識候補取得手段)と、識別モデル切替部6と、画像認識部7(画像認識手段)と、を備えている。
The image recognition system 1 includes a label set
以下、説明の便宜上、ロボットのタスクは、移動フェイズ、ドア開けフェイズ、物体把持フェイズを含むものとする。移動フェイズは、ロボットのサービス環境内に設置された冷蔵庫の正面にロボットが移動するフェイズである。ドア開けフェイズは、ロボットが冷蔵庫のドアの取っ手を把持してドアを開けるフェイズである。物体把持フェイズは、冷蔵庫内に収納されている物体をロボットが把持するフェイズである。 Hereinafter, for convenience of explanation, it is assumed that the tasks of the robot include a movement phase, a door opening phase, and an object gripping phase. The movement phase is a phase in which the robot moves to the front of a refrigerator installed in the service environment of the robot. The door opening phase is a phase in which the robot grasps the handle of the refrigerator door and opens the door. The object gripping phase is a phase in which the robot grips an object stored in the refrigerator.
ラベルセットDB2は、各フェイズ毎に、複数のラベル(認識候補)によって構成されるラベルセット(認識候補セット)が関連付けて記憶されている。例えば、移動フェイズには、{床、冷蔵庫、棚、障害物}というラベルセットが関連付けられている。ドア開けフェイズには、{ドア、取っ手、床、シール}というラベルセットが関連付けられている。物体把持フェイズには、{テーブル、壁、缶、ペットボトル、その他の物体}というラベルセットが関連付けられている。
The label set
フェイズ検出部4は、ロボットが実行しているフェイズの切り替わりを検出する。具体的には、フェイズ検出部4は、ロボットが実行しているフェイズが移動フェイズからドア開けフェイズへ切り替わること、又は、ロボットが実行しているフェイズがドア開けフェイズから物体把持フェイズへ切り替わること、を検出する。フェイズ検出部4は、例えばロボットの制御部から、現在実行中であるフェイズの完了報告を受けることでフェイズの切り替わりを検出する。
The
ラベル選択部5は、フェイズ検出部4がフェイズの切り替わりを検出したら、切り替わり後のフェイズに対応するラベルセットをラベルセットDB2を参照して取得する。
When the
識別モデル切替部6は、ラベル選択部5が取得したラベルセットに対応した識別モデル(識別器)を取得する。ここで、識別モデルとは、RGBやdepthなどの入力情報をもとに、ラベルを推定して出力する識別器のことである。識別モデル切替部6は、予め生成されている複数の識別モデルから選択して取得してもよいし、都度、識別モデルを生成してもよいし、フェイズの切り替わりの直前に使用していた識別モデルを転移学習させることで新たな識別モデルを生成してもよい。ここで、転移学習とは、出力層の出力数を修正したり、訓練データのGroundTruthをラベルセットに合わせる学習を行なうことを意味する。
The identification
具体的には、ロボットが実行しているフェイズが移動フェイズからドア開けフェイズへ切り替わったら、識別モデル切替部6は、{ドア、取っ手、床、シール}というラベルセットに対応した識別モデルを取得する。同様に、ロボットが実行しているフェイズがドア開けフェイズから物体把持フェイズへ切り替わったら、識別モデル切替部6は、{テーブル、壁、缶、ペットボトル、その他の物体}というラベルセットに対応した識別モデルを取得する。
Specifically, when the phase executed by the robot is switched from the movement phase to the door opening phase, the identification
そして、画像認識部7は、識別モデル切替部6が取得した識別モデルを用いて、ロボットの外部環境を撮像して得られる画像に対してセマンティックセグメンテーションを実行する。
Then, the
次に、図2を参照して、画像認識システム1の動作のフローを説明する。 Next, the operation flow of the image recognition system 1 will be described with reference to FIG.
先ず、ロボットがタスクを開始すると、フェイズ検出部4は、ロボットが現在実行しているフェイズの種別を判定する(S100)。次に、フェイズ検出部4は、前回判定されたフェイズと、今回判定したフェイズが異なっているか判定する(S110)。そして、前回判定したフェイズと、今回判定したフェイズが同じであるとフェイズ検出部4が判定した場合は(S110:NO)、画像認識部7が現在使用している識別モデルをそのまま用いて、ロボットの外部環境を撮像して得られる画像に対してセマンティックセグメンテーションを実行し(S140)、後処理を実行し(S150)、処理をS100に戻す。
First, when the robot starts a task, the
これに対し、S110で、前回判定したフェイズと今回判定したフェイズが異なっているとフェイズ検出部4が判定した場合(S110:YES)、ラベル選択部5は、今回判定したフェイズに対応するラベルセットをラベルセットDB2を参照して取得する(S120)。
On the other hand, in S110, when the
次に、識別モデル切替部6は、ラベル選択部5が取得したラベルセットに対応する識別モデルを取得する(S130)。
Next, the identification
そして、画像認識部7は、識別モデル切替部6が取得した識別モデルを用いて、ロボットの外部環境を撮像して得られる画像に対してセマンティックセグメンテーションを実行する(S140)。
Then, the
以上に、上記第1実施形態を説明したが、上記第1実施形態は、以下の特徴を有する。 Although the first embodiment has been described above, the first embodiment has the following features.
画像認識システム1は、複数のフェイズ(作業工程)から成るタスク(作業)を実行可能なロボットがタスクを実行するのに必要となる、ロボットの外部環境に対するセマンティックセグメンテーションを行なうシステムである。画像認識システム1は、ロボットが実行しているフェイズの切り替わりを検出するフェイズ検出部4(作業工程切り替わり検出手段)と、フェイズ検出部4によってフェイズの切り替わりが検出されたら、切り替わり後のフェイズに対応する、複数のラベル(認識候補)を取得するラベル選択部5(認識候補取得手段)と、複数の認識候補に対応する識別モデル(識別器)を用いて、ロボットの外部環境を撮像して得られる画像に対してセマンティックセグメンテーションを実行する画像認識部7(画像認識手段)と、を備える。以上の構成によれば、各作業工程毎に異なる認識候補が用いられるので、ラベリングの成功率が向上する。
The image recognition system 1 is a system that performs semantic segmentation on the external environment of a robot, which is necessary for a robot capable of executing a task (work) composed of a plurality of phases (work processes) to execute the task. The image recognition system 1 responds to the phase after switching when the phase detection unit 4 (work process switching detection means) that detects the phase switching performed by the robot and the
なお、ラベルセットは、複数のラベルから構成されるとした。ラベルセットは、少なくとも1つのラベルで構成されていればよい。 The label set is composed of a plurality of labels. The label set only needs to be composed of at least one label.
また、フェイズ検出部4は、図3に示すロボットのサービス環境内における位置に基づいて、現在のフェイズを判定するようにしてもよい。例えば、ロボットが冷蔵庫の正面にいない場合は、ロボットが実行しているフェイズは移動フェイズであるとフェイズ検出部4は判定することができる。
The
(第2実施形態)
次に、第2実施形態を説明する。以下、本実施形態が上記第1実施形態と異なる点を中心に説明し、重複する説明は省略する。
(Second Embodiment)
Next, a second embodiment will be described. Hereinafter, the present embodiment will be described with a focus on differences from the first embodiment, and overlapping description will be omitted.
上記第1実施形態において、ラベル選択部5は、フェイズ検出部4によってフェイズの切り替わりが検出されたら、切り替わり後のフェイズに対応するラベルセットを取得するようにしていた。
In the first embodiment, the
しかし、これに代えて、本実施形態では、ラベル選択部5は、切り替わり後のロボットのプロファイルに対応するラベルセットを取得するようにしてもよい。換言すれば、ラベル選択部5は、ロボットのセンサ等で取得できる情報から柔軟に認識候補であるラベルセットを取得するようにしてもよい。ここで、プロファイルとは、フェイズを除くロボットの状態・属性を意味する。ラベル決定プロファイルDB3は、ロボットのプロファイルをラベルセットと関連付けて記憶している。
However, instead of this, in this embodiment, the
例えば、ラベル選択部5は、ロボットがハンドの動作を制御している場合は、ハンドの動作がプロファイルに該当し、ハンドの動作に対応したラベルセットを取得する。ハンドの動作に対応したラベルセットは、例えば、{テーブル、壁、缶、ペットボトル、その他の物体}である。同様に、ラベル選択部5は、ロボットが台車の動作を制御している場合、台車の動作がプロファイルに該当し、台車の動作に対応したラベルセットを取得する。台車の動作に対応したラベルセットは、例えば、{床、冷蔵庫、棚、障害物}である。
For example, when the robot controls the movement of the hand, the
また、ラベル選択部5は、ロボットに備え付けられたカメラの視野が広い場合は、粒度が粗い、即ち、より抽象的なラベルセットを取得し、狭い場合は、粒度が細かい、即ち、より具体的なラベルセットを取得する。抽象的なラベルセットに{家具}が含まれるとしたら、具体的なラベルセットには{冷蔵庫}が含まれることになる。また、図3に示すサービス環境内においてロボットが部屋の左端から冷蔵庫あたりを見ている場合と、中央から冷蔵庫あたりを見ている場合を考えると、前者の場合は、ロボットは冷蔵庫から遠い位置に位置しており、部屋全体を見渡すような視点となるため、ラベル選択部5は、{床、構造物、家具、天井}といった抽象的なラベルセットを取得する。なぜなら、部屋全体を見渡すような視点であるときにラベル選択部5が例えば{冷蔵庫、洗濯機、電子レンジ}のようなラベルセットを取得すると、ラベリングの成功率が著しく低下するからである。これに対し、後者の場合は、ロボットは冷蔵庫から近い位置に位置しており、ラベル選択部5は、{冷蔵庫、洗濯機、電子レンジ}といった具体的なラベルセットを取得する。なお、ラベル選択部5は、ロボットに備え付けられたカメラの視野の広狭を、例えばDepthセンサの出力値の平均値をモニタリングすることで判断することができる。即ち、Depthセンサの出力値の平均値が相対的に大きな値となった場合は、ロボットは部屋全体を見渡していることになり、相対的に小さな値となった場合は、ロボットは部屋の一部を見ていることになる。
Further, the
また、他のプロファイルとしては、単に、ロボットの制御に用いられる変数やフラグ情報であってもよい。即ち、ラベル選択部5は、ロボットの制御に用いられる変数に対応するラベルセットを取得したり、ロボットの制御に用いられるフラグ情報に対応するラベルセットを取得するようにしてもよい。
Further, the other profile may simply be a variable or flag information used for controlling the robot. That is, the
1 画像認識システム
2 ラベルセットDB
3 ラベル決定プロファイルDB
4 フェイズ検出部
5 ラベル選択部
6 識別モデル切替部
7 画像認識部
1
3 Label determination profile DB
4
Claims (1)
前記ロボットが実行している前記作業工程の切り替わりを検出する作業工程切り替わり検出手段と、
前記作業工程切り替わり検出手段によって前記作業工程の切り替わりが検出されたら、切り替わり後の作業工程、又は、切り替わり後の前記ロボットのプロファイルの何れかに対応する、少なくとも1つの認識候補を取得する認識候補取得手段と、
前記少なくとも1つの認識候補に対応する識別器を用いて、前記ロボットの前記外部環境を撮像して得られる画像に対してセマンティックセグメンテーションを実行する画像認識手段と、
を備えた画像認識システム。 An image recognition system for performing semantic segmentation on the external environment of the robot, which is necessary for a robot capable of performing a work consisting of a plurality of work steps to perform the work,
A work process switching detecting means for detecting switching of the work process being executed by the robot;
When the switching of the work process is detected by the work process switching detecting means, the recognition candidate acquisition for acquiring at least one recognition candidate corresponding to either the work process after switching or the profile of the robot after switching. Means,
Image recognition means for performing semantic segmentation on an image obtained by imaging the external environment of the robot using a discriminator corresponding to the at least one recognition candidate;
An image recognition system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016094791A JP6759692B2 (en) | 2016-05-10 | 2016-05-10 | Image recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016094791A JP6759692B2 (en) | 2016-05-10 | 2016-05-10 | Image recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017204085A true JP2017204085A (en) | 2017-11-16 |
JP6759692B2 JP6759692B2 (en) | 2020-09-23 |
Family
ID=60323356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016094791A Active JP6759692B2 (en) | 2016-05-10 | 2016-05-10 | Image recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6759692B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022243A (en) * | 2017-11-23 | 2018-05-11 | 浙江清华长三角研究院 | Method for detecting paper in a kind of image based on deep learning |
WO2019224947A1 (en) * | 2018-05-23 | 2019-11-28 | 株式会社ソニー・インタラクティブエンタテインメント | Training device, image generation device, training method, image generation method and program |
CN111300484A (en) * | 2020-03-13 | 2020-06-19 | 达闼科技成都有限公司 | Method for determining joint positioning error of robot, robot and storage medium |
CN111462265A (en) * | 2020-03-20 | 2020-07-28 | 南京赫曼机器人自动化有限公司 | Multi-mode robot intelligent drawing method |
WO2020217727A1 (en) * | 2019-04-22 | 2020-10-29 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2021032042A (en) * | 2019-08-29 | 2021-03-01 | 株式会社奥村組 | Deterioration state diagnosis method for structures |
CN113221920A (en) * | 2021-05-20 | 2021-08-06 | 北京百度网讯科技有限公司 | Image recognition method, device, equipment, storage medium and computer program product |
JP2023016803A (en) * | 2019-08-29 | 2023-02-02 | 株式会社奥村組 | Deterioration state diagnosis method for structures |
-
2016
- 2016-05-10 JP JP2016094791A patent/JP6759692B2/en active Active
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022243A (en) * | 2017-11-23 | 2018-05-11 | 浙江清华长三角研究院 | Method for detecting paper in a kind of image based on deep learning |
WO2019224947A1 (en) * | 2018-05-23 | 2019-11-28 | 株式会社ソニー・インタラクティブエンタテインメント | Training device, image generation device, training method, image generation method and program |
US11900258B2 (en) | 2018-05-23 | 2024-02-13 | Sony Interactive Entertainment Inc. | Learning device, image generating device, learning method, image generating method, and program |
JPWO2019224947A1 (en) * | 2018-05-23 | 2021-02-12 | 株式会社ソニー・インタラクティブエンタテインメント | Learning device, image generator, learning method, image generation method and program |
US12008702B2 (en) | 2019-04-22 | 2024-06-11 | Sony Group Corporation | Information processing device, information processing method, and program |
WO2020217727A1 (en) * | 2019-04-22 | 2020-10-29 | ソニー株式会社 | Information processing device, information processing method, and program |
JP7219192B2 (en) | 2019-08-29 | 2023-02-07 | 株式会社奥村組 | Structure deterioration diagnosis method |
JP2023016803A (en) * | 2019-08-29 | 2023-02-02 | 株式会社奥村組 | Deterioration state diagnosis method for structures |
JP2021032042A (en) * | 2019-08-29 | 2021-03-01 | 株式会社奥村組 | Deterioration state diagnosis method for structures |
JP7323694B2 (en) | 2019-08-29 | 2023-08-08 | 株式会社奥村組 | Structure deterioration diagnosis method |
CN111300484A (en) * | 2020-03-13 | 2020-06-19 | 达闼科技成都有限公司 | Method for determining joint positioning error of robot, robot and storage medium |
CN111462265A (en) * | 2020-03-20 | 2020-07-28 | 南京赫曼机器人自动化有限公司 | Multi-mode robot intelligent drawing method |
CN113221920A (en) * | 2021-05-20 | 2021-08-06 | 北京百度网讯科技有限公司 | Image recognition method, device, equipment, storage medium and computer program product |
CN113221920B (en) * | 2021-05-20 | 2024-01-12 | 北京百度网讯科技有限公司 | Image recognition method, apparatus, device, storage medium, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
JP6759692B2 (en) | 2020-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017204085A (en) | Image recognition system | |
CN105353634B (en) | Utilize the home appliance and method of gesture identification control operation | |
CN103353935B (en) | A kind of 3D dynamic gesture identification method for intelligent domestic system | |
JP2016533557A5 (en) | ||
EP3188034A1 (en) | Display terminal-based data processing method | |
US11049163B2 (en) | Method, device and computer program for providing image search information | |
JP2015095164A (en) | Gesture recognition device and control method for gesture recognition device | |
EP2309454B1 (en) | Apparatus and method for detecting motion | |
US10013070B2 (en) | System and method for recognizing hand gesture | |
US9449220B2 (en) | Systems and methods for cookware detection | |
CN105116743A (en) | Smart home control system capable of carrying out operation through gestures | |
KR101762010B1 (en) | Method of modeling a video-based interactive activity using the skeleton posture datset | |
CA2882005A1 (en) | Input device, apparatus, input method, and recording medium | |
WO2015062848A1 (en) | Process for generating a video tag cloud representing objects appearing in a video content | |
CN109086725B (en) | Hand tracking method and machine-readable storage medium | |
JP6103765B2 (en) | Action recognition device, method and program, and recognizer construction device | |
CN104866194B (en) | Image searching method and device | |
JP6875058B2 (en) | Programs, devices and methods for estimating context using multiple recognition engines | |
US11790041B2 (en) | Method and system for reducing false positives in object detection neural networks caused by novel objects | |
Noceti et al. | View-invariant robot adaptation to human action timing | |
Li et al. | Labeling Indoor Scenes with Fusion of Out-of-the-Box Perception Models | |
KR102150543B1 (en) | Method and apparatus for indexing moving picture | |
US20160085312A1 (en) | Gesture recognition system | |
Gossain et al. | A novel approach to enhance object detection using integrated detection algorithms | |
CN106331802B (en) | The character input method and system of remote controler |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190321 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200804 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200817 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6759692 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |