JP6075888B2 - 画像処理方法、ロボットの制御方法 - Google Patents

画像処理方法、ロボットの制御方法 Download PDF

Info

Publication number
JP6075888B2
JP6075888B2 JP2014211412A JP2014211412A JP6075888B2 JP 6075888 B2 JP6075888 B2 JP 6075888B2 JP 2014211412 A JP2014211412 A JP 2014211412A JP 2014211412 A JP2014211412 A JP 2014211412A JP 6075888 B2 JP6075888 B2 JP 6075888B2
Authority
JP
Japan
Prior art keywords
model
edge
edge image
image
pattern matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014211412A
Other languages
English (en)
Other versions
JP2016081264A (ja
Inventor
潤 小田切
潤 小田切
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014211412A priority Critical patent/JP6075888B2/ja
Priority to US14/883,033 priority patent/US10207409B2/en
Publication of JP2016081264A publication Critical patent/JP2016081264A/ja
Application granted granted Critical
Publication of JP6075888B2 publication Critical patent/JP6075888B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39393Camera detects projected image, compare with reference image, position end effector
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/27Arm part
    • Y10S901/28Joint
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Description

本発明は、パターンマッチングに使用される検出対象物に基づいて生成したモデルエッジ画像を生成し、このモデルエッジ画像を利用する画像処理方法に関する。また、ロボットの制御方法に関する。
従来、画像処理の分野において、ワーク等のような検出対象物の位置(及び姿勢)を検出する方法として、パターンマッチング方法が周知である。その中でも、形状パターンマッチング(以下、パターンマッチングと呼ぶ)は、照明変化、物体の隠れ、欠けにも強く、ロバスト性が高い手法であることから、広く普及している。
パターンマッチングでは、検出対象物のモデル(参照画像)と被探索画像との形状特徴を利用して、類似度を計算していくので、画像に対する形状特徴を抽出する必要がある。形状特徴を抽出する方法としては、一般的にソーベル(Sobel)フィルタやキャニー(Canny)フィルタ等のエッジ抽出方法が知られている。即ち、これらのエッジ抽出方法をモデル及び被探索画像に適用することにより、モデルエッジ画像及び探索エッジ画像を生成し、これらモデルエッジ画像及び探索エッジ画像同士の類似度を計算する手法が知られている。
しかし、実際には、検出対象物は、ゴミや汚れの付着、照明の変化、個体差といったノイズの影響により表面状態が異なるため、被探索画像の検出対象物のエッジ点とモデルのエッジ点とで位置及びエッジ方向が異なっていることがある。特に、被探索画像の検出対象物のエッジ点とモデルのエッジ点との位置及びエッジ方向の差異が大きい場合、類似度が低いものと誤判定してしまい類似度が低下するため、検出対象物の検出精度が低下するという問題がある。
これを解決するために、モデルに基づくモデルエッジ画像において、ノイズの影響が小さいと考えられる長いエッジを残し、ノイズの影響が大きいと考えられる短いエッジを除外するモデルエッジ画像の生成方法が提案されている(特許文献1参照)。このモデルエッジ画像の生成方法によれば、この生成方法を用いずに生成したモデルエッジ画像を利用する場合に比べて、類似度の低下を防ぎ、検出対象物の検出精度を向上することができる。
特開2010−97438号公報
しかしながら、特許文献1に記載されたモデルエッジ画像の生成方法では、エッジ点を除外するか否かを単にエッジの長さに基づいて判断している。このため、例えば、ノイズの影響を受けていないエッジであっても、短いエッジである場合には除外されてしまうため、類似度が低下してしまい、検出対象物の検出精度が低下してしまうという問題があった。あるいは、ノイズの影響を受けたエッジであっても、長いエッジである場合には除外されないため、類似度が低下してしまい、検出対象物の検出精度が低下してしまうという問題があった。
本発明は、各種ノイズの影響により検出対象物の表面状態が異なる場合でも、検出対象物の検出精度の低下を抑制できる画像処理方法、およびロボットの制御方法を提供することを目的とする。
本発明は、検出対象物を撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、前記モデル撮像エッジ画像と検出対象物に関するモデルエッジ画像とでパターンマッチングを実行する工程と、前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、前記分散が所定値以上か、または前記平均が所定値以下のエッジ点を前記モデルエッジ画像から除外する工程と、前記除外する工程後の前記モデルエッジ画像と、被探索物を撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行する工程と、を備えることを特徴とする画像処理方法である。また、本発明は、検出対象物を撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、前記モデル撮像エッジ画像と検出対象物に関するモデルエッジ画像とでパターンマッチングを実行する工程と、前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、全てのエッジ点のうち、前記分散が大きいほうから所定の割合に含まれるエッジ点か、または前記平均が小さいほうから所定の割合に含まれるエッジ点を、前記モデルエッジ画像から除外する工程と、前記除外する工程後の前記モデルエッジ画像と、被探索物を撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行する工程と、を備えることを特徴とする画像処理方法である。また、本発明は、ワークを撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、前記モデル撮像エッジ画像と前記ワークに関するモデルエッジ画像とでパターンマッチングを実行する工程と、前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、前記分散が所定値以上か、または前記平均が所定値以下のエッジ点を前記モデルエッジ画像から除外する工程と、前記除外する工程後の前記モデルエッジ画像と、被探索物としてのワークを撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行し、前記被探索物としてのワークの位置及び姿勢を検出する工程と、を備えることを特徴とするロボットの制御方法である。また、本発明は、ワークを撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、前記モデル撮像エッジ画像と前記ワークに関するモデルエッジ画像とでパターンマッチングを実行する工程と、前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、全てのエッジ点のうち、前記分散が大きいほうから所定の割合に含まれるエッジ点か、または前記平均が小さいほうから所定の割合に含まれるエッジ点を、前記モデルエッジ画像から除外する工程と、前記除外する工程後の前記モデルエッジ画像と、被探索物としてのワークを撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行し、前記被探索物としてのワークの位置及び姿勢を検出する工程と、を備えることを特徴とするロボットの制御方法である。
本発明によれば、モデルエッジ画像の中の各エッジ点のうちで、類似度に基づいて除外するエッジ点を選別し、選別したエッジ点を除外して得られたエッジ画像を最終的なモデルエッジ画像として生成する。このため、各種ノイズの影響により検出対象物の表面状態が異なる場合でも、検出対象物の検出精度の低下を抑制できるようになる。また、最終的なモデルエッジ画像と探索エッジ画像とのパターンマッチングにおいては、検出対象物の検出精度の低下を抑制することで、高精度のパターンマッチングを実現することができる。
実施の形態に係るロボットシステムの概略構成を示す説明図であり、(a)は全体の側面図、(b)はハンドに把持されたワークの平面図、(c)は(b)を撮像した画像である。 実施の形態に係る制御装置を示す説明図である。 実施の形態に係るパターンマッチング部によりパターンマッチング処理を実行する際の手順を示すフローチャートである。 実施の形態に係るモデルエッジ画像生成部により元のモデルエッジ画像を生成する際の手順を示すフローチャートである。 実施の形態に係るモデルエッジ画像を生成する手順を示す説明図であり、(a)は切り出し画像が切り出された参照画像、(b)は1画素のベクトル、(c)は切り出し画像から生成されたモデルエッジ画像である。 実施の形態に係るモデルエッジ画像生成部によりモデルエッジ画像を生成する際の手順を示すフローチャートである。 実施の形態に係るモデルエッジ画像生成部によりモデルエッジ画像を生成する際のパターンマッチングの手順を示すフローチャートである。 実施の形態に係るモデル撮像エッジ画像を示す説明図である。 実施の形態に係るモデルエッジ画像生成部によりモデルエッジ画像を生成する際のエッジ点を選別する手順を示すフローチャートである。
以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。
図1に示すように、ロボットシステム1は、ロボット本体2と、カメラ4と、ロボット本体2の制御装置(モデルエッジ画像生成部、パターンマッチング部を備えた画像処理装置を具備している)5と、を備えている。本実施の形態では、ロボットシステム1は、ロボット本体2にワーク(検出対象物)6を供給するワーク供給装置3を備えている。
ロボット本体2は、ワーク6に対して作業可能であり、制御装置5は、ロボット本体2及びカメラ4を制御する。図1では、ワーク6は、例えば円環形状を有し、位相の基準となるように一部に径方向外側に突出した突起部6aを備えている。ここでは、ワーク6の位相の基準を突起部6aにより示しているが、これには限られず、例えばマーク等であってもよい。カメラ4は、カメラ固定台40に固定され、ワーク供給装置3によりロボット本体2に供給されたワーク6、即ちハンド23に把持されたワーク6を上方から撮像可能になっている。例えば、図1(c)に示すように、被探索物としてワーク6及びその周辺を撮像した場合に、被探索画像12を得ることができる。尚、ワーク6の形状はどのようなものであってもよい。そのため、以下では説明を簡単にするために、ワーク6の形状を三角柱形状(図5参照)として表している。
ロボット本体2は、6軸の垂直多関節アーム(以下、アームと呼ぶ)22と、エンドエフェクタであるハンド23とを有している。
ハンド23は、アーム22の先端リンク60に取り付けられて支持され、アーム22の動作により位置及び姿勢の少なくとも一自由度が調整されるようになっている。ハンド23は、2本の指23aと、これら指23aの間隔を開閉可能に支持するハンド本体23bとを備え、指23a同士が接近する閉動作によりワーク6を把持可能になっている。尚、本実施の形態では、エンドエフェクタとしてハンド23を適用しているが、これには限られず、ワーク6を保持可能なツールの全般を含めることができる。
アーム22は、例えば、7つのリンクと、各リンクを揺動又は回動可能に連結する6つの関節とを備えている。各リンクとしては、長さが固定されたものを採用している。但し、例えば、直動アクチュエータにより伸縮可能なリンクを採用してもよい。各関節には、図2に示すように、各関節を各々駆動するモータ80と、モータ80の回転角度を検知するエンコーダ81と、制御装置5と信号を送受信してモータ80及びエンコーダ81を制御するモータ制御部82とが設けられている。本実施の形態では、アーム22として6軸の垂直多関節アームを適用しているが、軸数は用途や目的に応じて適宜変更してもよい。
制御装置5は、コンピュータにより構成され、ロボット本体2を制御するようになっている。制御装置5は、CPU(演算部)50と、データを一時的に記憶可能なRAM(記憶部)51と、各部を制御するプログラムを記憶するROM52と、ロボット本体2と通信可能にする入出力インタフェース回路(I/F)53とを備えている。
また、制御装置5は、モデルエッジ画像10eを生成するモデルエッジ画像生成部と、パターンマッチングを実行するパターンマッチング部とを兼ねている。即ち、ここでのモデルエッジ画像生成部は、モデルエッジ画像10eを記憶可能なRAM51と、モデルエッジ画像10eを生成するCPU50と、を備えるようにしている。また、ここでのパターンマッチング部は、少なくとも探索エッジ画像12e及びモデルエッジ画像10eを記憶可能なRAM51と、探索エッジ画像12eと最終的なモデルエッジ画像とでパターンマッチングを実行するCPU50と、を備えている。尚、本実施形態では、制御装置5は、モデルエッジ画像生成部及びパターンマッチング部の各機能を含んでいるが、これらモデルエッジ画像生成部及びパターンマッチング部を制御装置5とは別個に設けてもよい。
ROM52は、後述するモデルエッジ画像生成プログラム52a、パターンマッチングプログラム52b、ロボット本体2の動作を制御するロボット制御プログラム、CPU50が行うワーク6の位置姿勢演算に関する演算プログラム等を保存している。ROM52に記憶されたデータは、CPU50からの書き込みや消去を除き、制御装置5の電源がオフ状態にされても保持されるようになっている。RAM51は、後述する参照画像10とそのモデルエッジ画像10e、モデル撮像画像11とそのモデル撮像エッジ画像11e、被探索画像12とその探索エッジ画像12e等のデータを一時的に記憶するようになっている。
CPU50は、ロボット本体2の動作を制御するロボット制御部54、モデルエッジ画像生成部55、パターンマッチング部56を備えている。ロボット制御部54は、ロボット制御プログラムの実行により、ロボット本体2の動作を制御するようになっている。
詳細には後述するが、モデルエッジ画像生成部55は、ワーク6に関するモデルエッジ画像と探索エッジ画像12eと、でパターンマッチングを実行する前に、モデルエッジ画像生成プログラム52aの実行により、モデルエッジ画像を生成する。
具体的には、モデルエッジ画像生成部55は、ワーク6を撮像して得られたモデル撮像画像11をエッジ抽出処理することにより、モデル撮像エッジ画像11eを生成する。そして、モデルエッジ画像生成部55は、モデル撮像エッジ画像11eとモデルエッジ画像10eとでパターンマッチングを実行する。更に、モデルエッジ画像生成部55は、モデル撮像エッジ画像11eとモデルエッジ画像10eとがパターンマッチングした際のモデルエッジ画像10e中の各エッジ点における類似度を演算する。そして、モデルエッジ画像生成部55は、モデルエッジ画像10e中の各エッジ点のうちで、類似度に基づいて除外するエッジ点を選別し、選別したエッジ点を除外して得られたエッジ画像を最終的なモデルエッジ画像として生成する。
また、詳細には後述するが、パターンマッチング部56は、パターンマッチングプログラム52bの実行により、探索エッジ画像12eと、最終的なモデルエッジ画像とでパターンマッチングを行う。
具体的には、パターンマッチング部56は、ワーク6に関する最終的なモデルエッジ画像と、ワーク6を撮像して得られた被探索画像12に関する探索エッジ画像12eと、でパターンマッチングを実行する。ここで、最終的なモデルエッジ画像は、上述したモデルエッジ画像生成部55により生成されるようになっている。
次に、上述したロボット本体2の制御装置5により、ワーク6のパターンマッチングを実行する手順について、図3に示すフローチャートに沿って説明する。ここでは、大まかな流れを説明し、各工程での詳細な処理については後述する。
まず、モデルエッジ画像生成部55が、ロボットシステム1を利用してワーク6を各種の条件で撮像してモデル撮像画像11を取得し、元のモデルエッジ画像10eから最終的なモデルエッジ画像を生成する(ステップS1)。尚、ここでの最終的なモデルエッジ画像を生成する手順については、後述する。
そして、モデルエッジ画像生成部55は、生成した最終的なモデルエッジ画像をRAM51に入力する(ステップS2)。そして、パターンマッチング部56が、ロボットシステム1を利用して、ワーク6を含む被探索画像12を撮像する(ステップS3)。更に、パターンマッチング部56が、被探索画像12からエッジ抽出を行い(ステップS4)、それにより得られた探索エッジ画像12eをRAM51に入力する(ステップS5)。
そして、パターンマッチング部56は、RAM51に記憶された最終的なモデルエッジ画像と探索エッジ画像12eとで、パターンマッチングを実行する(ステップS6)。CPU50は、パターンマッチングの結果により、ワーク6の位置及び姿勢を検出することができ、その結果に基づいてロボット本体2を適宜制御するようにできる。
次に、ステップS1のモデルエッジ画像10eを生成する手順を、図4、図6、図7、図9に示すフローチャートに沿って詳細に説明する。本実施の形態では、最初に元となるモデルエッジ画像10eを生成し(図4参照)、次に元となるモデルエッジ画像10eに基づいて(図6参照)、最終的なモデルエッジ画像を生成するようになっている。尚、ここでは本実施形態のカメラ4及び制御装置5を利用してモデルエッジ画像10eを生成する場合について説明するが、これには限られず、別のカメラ及びコンピュータを利用してもよい。また、ここでは、元のモデルエッジ画像10eをカメラ4の撮像に基づいて生成しているが、これには限られず、例えば人工的なエッジを付加したCADデータ等を利用してもよい。
図4に示すように、元の参照画像10を用意するために、理想状態の照明条件、位置及び姿勢にワーク6を設置し、カメラ4によりワーク6を撮像する(ステップS10)。モデルエッジ画像生成部55は、カメラ4により撮像された参照画像10(図5(a)参照)をRAM51に入力する(ステップS11)。モデルエッジ画像生成部55は、参照画像10を不図示のディスプレイに表示し、オペレータは検出したいワーク6付近の矩形領域を設定する。設定方法は、制御装置5に付随した不図示のマウスを利用し、図5(a)に示すように、ディスプレイに表示された参照画像10内のワーク6を包含する領域の左上と右下の2点をクリックする。クリックした2点の位置を矩形領域の左上、右下の角の点として、参照画像10から矩形領域のみを切り出し画像10aとして切り出す(ステップS12)。
モデルエッジ画像生成部55は、切り出し画像10aの画素毎に輝度の勾配強度及び勾配方向を算出する。勾配強度は、x軸方向及びy軸方向のソーベルフィルタを使用して算出される。まず、図5(a)に示すように、ある注目画素70でx軸方向勾配強度71とy軸方向勾配強度72とをそれぞれ算出する。そして、図5(b)に示すように、モデルエッジ画像生成部55は、注目画素70の勾配強度73をx軸方向とy軸方向の勾配強度71,72の二乗の和の平方根として算出する。この時の計算式は、数式1となる。
Figure 0006075888
但し、E:勾配強度、E:x軸方向の勾配強度、E:y軸方向の勾配強度
また、この時の勾配方向θは、x軸方向の勾配強度E及びy軸方向の勾配強度Eを用いて、数式2により算出される。
Figure 0006075888
但し、θ:勾配方向
モデルエッジ画像生成部55は、切り出し画像10aの全画素の勾配強度E及び勾配方向θを算出してから、勾配強度Eが所定の閾値以上である画素、即ちエッジを抽出して、元のモデルエッジ画像10eを生成する(ステップS13)。ここで、エッジとは勾配強度Eが所定の閾値以上である画素である。このため、以降では便宜的に、抽出された各画素の座標をエッジ位置座標、勾配強度をエッジ強度、勾配方向をエッジ方向と呼び、エッジ位置座標、エッジ強度、エッジ方向を持つ画像をエッジ画像と呼ぶこととする。
モデルエッジ画像10eのデータの保持のために、画像の画素毎に2チャンネルのデータ領域を設定する。そして、図5(c)にハッチング領域で示すように、モデルエッジ画像10eのエッジ強度が閾値以上の画素74は、有効画素として、1チャンネル目にエッジ強度、2チャンネル目にエッジ方向の値を記憶させる。一方、同図中白色で示すように、エッジ強度が閾値未満の画素75は、無効画素として、無効値(例えば0)を記憶させておく。尚、ここでは画素毎に2チャンネルのデータ領域を設定しているが、これには限られず、例えば、エッジ強度のみを記憶したエッジ強度画像と、エッジ方向のみを記憶したエッジ方向画像と、の2枚の画像を1組としてデータを保持するようにしてもよい。また、エッジ強度のみを記憶したエッジ強度画像と、X方向エッジ強度のみを記憶したX方向エッジ強度画像と、Y方向エッジ強度のみを記憶したY方向エッジ強度画像と、の3枚の画像を1組としてデータを保持するようにしてもよい。また、本実施の形態では、エッジ強度及びエッジ方向の算出にソーベルフィルタを使用しているが、これには限られず、キャニーフィルタ等のエッジ抽出フィルタを使用してもよい。
次に、図6に示すフローチャートに沿って、元となるモデルエッジ画像(ここではモデル撮像画像11)に基づいて最終的なモデルエッジ画像を生成する手順について説明する。尚、図6に示す手順が、モデルエッジ画像生成方法にその特徴を有する画像処理方法に相当する。まず、モデルエッジ画像生成部55は、生成された元のモデルエッジ画像10eをRAM51に入力する(ステップS20)。モデルエッジ画像生成部55は、ワーク6を含むモデル撮像画像11をカメラ4により撮像してRAM51に入力する(ステップS21)。ここで、モデル撮像画像11は、後述するマッチング実行時に入力される被探索画像12を想定して、ゴミや汚れの付着、照明の変化、個体差といったノイズの影響がある画像であることが望ましい。あるいは、カメラ4により撮像された画像をそのまま利用することには限られず、人工的なエッジを付加したり、人工的なノイズを付加したりするようにしてもよい。
モデルエッジ画像生成部55は、モデル撮像画像11に対して、上述したステップS13と同様のエッジ抽出方法により、モデル撮像エッジ画像11eを生成する(ステップS22)。モデルエッジ画像生成部55は、元のモデルエッジ画像10eとモデル撮像エッジ画像11eとについて、パターンマッチングを行う(ステップS23)。
ここで、ステップS23におけるパターンマッチングの手順について、図7に示すフローチャート(サブルーチン)に沿って詳細に説明する。
まず、モデルエッジ画像生成部55は、モデル撮像エッジ画像11e内の全域において(図8参照)、モデルエッジ画像10eをパターンマッチングさせる検出位置をピクセル単位で設定する(ステップS30)。本実施の形態では、検出位置の設定順序は、図8に示すように、モデル撮像エッジ画像11eの左上位置を最初の検出位置とし、そこから右に順に移動させて設定し、右端に達したら1ピクセル下げた左端から右に向けて順に設定するようにする。そして、モデルエッジ画像生成部55は、各検出位置において、スコアを算出する(ステップS31)。本実施の形態では、任意の検出位置(i,j)におけるスコアSijは、数式3よって算出される。
Figure 0006075888
但し、Sij:検出位置(i,j)におけるスコア
N:モデルエッジ画像10eのエッジ点数
:局所スコア
ここで、局所スコアsは、モデルエッジ画像10eのエッジ点毎に算出されるスコアであり、あるエッジ点のモデル撮像エッジ画像11eのエッジ方向とモデルエッジ画像10eのエッジ方向との差のコサイン値であり、数式4によって算出される。
Figure 0006075888
但し、k=1,…,N(モデルエッジ画像10eのエッジ点のインデックス)
θTk:モデル撮像エッジ画像11eのエッジ方向
θMk:モデルエッジ画像10eのエッジ方向
局所スコアsの取り得る値の範囲は、−1〜+1である。スコアSijは、局所スコアsの総和をエッジ点数で除算して正規化しているため、スコアの取り得る値の範囲も−1〜+1になる。
モデルエッジ画像生成部55は、算出したスコアSijが所定の閾値以上であるか否かを判定する(ステップS32)。モデルエッジ画像生成部55は、算出したスコアSijが所定の閾値以上であると判定した場合は、当該検出位置をマッチング候補点に設定し、その検出位置(i,j)、スコアSij、エッジ点毎の局所スコアs等を記憶する(ステップS33)。ステップS33においてマッチング候補点を設定後、あるいはステップS32でスコアSijが所定の閾値以上ではないと判断された場合は、モデルエッジ画像生成部55は、全ての検出位置についてスコア算出が終了したか否かを判定する(ステップS34)。
モデルエッジ画像生成部55が、全ての検出位置についてスコア算出が終了してはいないと判断した場合は、次の検出位置を設定して再度スコアを算出する(ステップS30〜ステップS33)。モデルエッジ画像生成部55が、全ての検出位置についてスコア算出が終了したと判断した場合は、マッチング候補点の中の最大のスコアSijが得られるマッチング候補点の情報を出力する(ステップS35)。具体的には、モデルエッジ画像生成部55は、そのマッチング候補点の検出位置(i,j)、スコアSij、エッジ点毎の局所スコアs等の情報を出力する。そして、モデルエッジ画像生成部55は、処理を元のルーチン(図6のステップS24)に戻す。尚、マッチング候補点が無かった場合は、ステップS35は実行しないものとする。
図6に示すように、モデルエッジ画像生成部55は、ステップS35で出力されたエッジ点毎の局所スコアsを記憶する(ステップS24)。このように、上述したステップS21〜ステップS24の処理により、1枚のモデル撮像画像11に対して、エッジ点毎の局所スコアsを1組得られたことになる。即ち、本実施の形態では、ここでの局所スコアsは、モデル撮像エッジ画像11eとモデルエッジ画像10eとがパターンマッチングした際のモデルエッジ画像10e中の各エッジ点における類似度に相当する。
そして、モデルエッジ画像生成部55は、全てのモデル撮像画像11に対してエッジ点毎の局所スコアsを得る処理が終了したか否かを判断する(ステップS25)。ここでの処理を行うモデル撮像画像11の枚数としては、例えば、統計的に見て信頼できる枚数とすることが好ましい。モデルエッジ画像生成部55が、全てのモデル撮像画像11に対しては処理が終了してはいないと判断した場合は、ステップS21から再び処理を実行する。
モデルエッジ画像生成部55が、全てのモデル撮像画像11に対して処理が終了したと判断した場合は、元のモデルエッジ画像10eから除外すべきエッジ点を選別する(ステップS26)。本実施の形態では、モデルエッジ画像10e中の各エッジ点のうちで、局所スコアs(類似度)に基づいて除外するエッジ点を選別するようになっている。
ここで、ステップS26におけるエッジ点の選別の手順について、図9に示すフローチャート(サブルーチン)に沿って詳細に説明する。
まず、モデルエッジ画像生成部55は、元のモデルエッジ画像10eのエッジ点毎の局所スコアsの平均を算出する(ステップS40)。ここで、本実施の形態では、ステップS21〜ステップS25の処理において、M枚のモデル撮像画像11について局所スコアsを得られたとする。そして、M枚のモデル撮像画像11について、繰り返しのインデックスをL=1,…,Mとする。このとき、元のモデルエッジ画像10eのエッジ点のインデックスkを基準として局所スコアsLkを取り出すと、エッジ点毎の局所スコアsLkの平均mは、数式5によって算出される。
Figure 0006075888
但し、k=1,…,N
つまり、エッジ点数と同じ回数、あるエッジ点の局所スコアsLkの平均mの算出を行う。同様にして、エッジ点毎の局所スコアsLkの分散σ は、数式6によって算出される(ステップS41)。
Figure 0006075888
但し、k=1,…,M
例えば、あるエッジ点が時間方向に不連続なノイズの影響を受けていれば、数式5によって算出される該エッジ点の局所スコアの平均mは小さくなり、分散σ は大きくなる。つまり、平均mと分散σ の値によって、ノイズの影響を受けやすいエッジ点を除外して、エッジ点を選別することができる。
そして、モデルエッジ画像生成部55は、全てのエッジ点について平均mと分散σ を算出したか否かを判定する(ステップS42)。モデルエッジ画像生成部55が、全てのエッジ点について算出が終了してはいないと判断した場合は、次のエッジ点について算出を行う(ステップS40〜ステップS41)。モデルエッジ画像生成部55が、全てのエッジ点について算出が終了したと判断した場合は、算出された平均mと分散σ に基づいて、閾値判定によりエッジ点を選別する(ステップS43)。
本実施の形態では、モデルエッジ画像生成部55は、複数のモデル撮像エッジ画像11e中の各エッジ点におけるモデルエッジ画像10eとの局所スコアsLk(類似度)の平均m及び分散σ の少なくとも一方に基づき、除外するエッジ点を選別している。ここでは、モデルエッジ画像生成部55は、エッジ点の選別の方法として、平均mと分散σ に対して予め閾値を設定しておき、その閾値に基づいて判定するようにしている。具体的には、モデルエッジ画像生成部55は、平均mが設定した閾値以下、もしくは分散σ が設定した閾値以上だった場合、該エッジ点はノイズの影響を受けていると判断して除外する。あるいは、閾値を利用することには限られず、例えば、エッジ点毎の局所スコアsLkの平均mを降順、分散σ を昇順に並べ替えて、下位の任意の割合(例えば20%)のエッジ点を除外するようにしてもよい。そして、モデルエッジ画像生成部55は、処理を元のルーチン(図6のステップS27)に戻す。
図6に示すように、モデルエッジ画像生成部55は、元のモデルエッジ画像10eから、選別された除外すべきエッジ点を除外して、最終的なモデルエッジ画像を生成する(ステップS27)。そして、パターンマッチング部56は、生成された最終的なモデルエッジ画像を利用して、上述したステップS6により、最終的なモデルエッジ画像と探索エッジ画像12eとでパターンマッチングを実行することができる。
上述したように本実施形態の制御装置5によれば、モデルエッジ画像10e中の各エッジ点のうちで、局所スコアsLkに基づいて除外するエッジ点を選別し、選別したエッジ点を除外して得られたエッジ画像を最終的なモデルエッジ画像として生成する。このため、各種ノイズの影響によりワーク6の表面状態が異なる場合でも、ワーク6の検出精度の低下を抑制できるようになる。また、最終的なモデルエッジ画像と探索エッジ画像12eとのパターンマッチングにおいては、ワーク6の検出精度の低下を抑制することで、高精度のパターンマッチングを実現することができる。
上述した本実施形態の制御装置5では、最終的なモデルエッジ画像を生成し、それを利用してパターンマッチング処理を実行した場合について説明したが、これには限られない。例えば、生成したモデルエッジ画像10eをライブラリ等に登録しておいてもよい。
尚、以上述べた本実施形態の各処理動作は具体的にはモデルエッジ画像生成部55及びパターンマッチング部56により実行されるものである。従って、上述した機能を実現するソフトウェアのプログラムを記録した記録媒体をモデルエッジ画像生成部55及びパターンマッチング部56に供給するようにしてもよい。そして、モデルエッジ画像生成部55を構成するCPU50が記録媒体に格納されたモデルエッジ画像生成プログラム52aを読み出し実行することによって達成されるようにしてもよい。あるいは、パターンマッチング部56を構成するCPU50が記録媒体に格納されたパターンマッチングプログラム52bを読み出し実行することによって達成されるようにしてもよい。これらの場合、記録媒体から読み出されたプログラム自体が上述した各実施の形態の機能を実現することになり、プログラム自体及びそのプログラムを記録した記録媒体は本発明を構成することになる。
また、本実施形態では、コンピュータ読み取り可能な記録媒体がROM52であり、ROM52にモデルエッジ画像生成プログラム52a及びパターンマッチングプログラム52bが格納される場合について説明したが、これに限定するものではない。プログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラムを供給するための記録媒体としては、HDD、外部記憶装置、記録ディスク等を用いてもよい。
1…ロボットシステム、2…ロボット本体、4…カメラ、5…制御装置(モデルエッジ画像生成部パターンマッチング部)、6…ワーク(検出対象物)、10…参照画像、10e…モデルエッジ画像、11…モデル撮像画像、11e…モデル撮像エッジ画像、12…被探索画像、12e…探索エッジ画像、50…CPU(演算部)、51…RAM(記憶部)

Claims (4)

  1. 検出対象物を撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、
    前記モデル撮像エッジ画像と検出対象物に関するモデルエッジ画像とでパターンマッチングを実行する工程と、
    前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、
    前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、
    前記分散が所定値以上か、または前記平均が所定値以下のエッジ点を前記モデルエッジ画像から除外する工程と、
    前記除外する工程後の前記モデルエッジ画像と、被探索物を撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行する工程と、
    を備えることを特徴とする画像処理方法。
  2. 検出対象物を撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、
    前記モデル撮像エッジ画像と検出対象物に関するモデルエッジ画像とでパターンマッチングを実行する工程と、
    前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、
    前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、
    全てのエッジ点のうち、前記分散が大きいほうから所定の割合に含まれるエッジ点か、または前記平均が小さいほうから所定の割合に含まれるエッジ点を、前記モデルエッジ画像から除外する工程と、
    前記除外する工程後の前記モデルエッジ画像と、被探索物を撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行する工程と、
    を備えることを特徴とする画像処理方法。
  3. ワークを撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、
    前記モデル撮像エッジ画像と前記ワークに関するモデルエッジ画像とでパターンマッチングを実行する工程と、
    前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、
    前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、
    前記分散が所定値以上か、または前記平均が所定値以下のエッジ点を前記モデルエッジ画像から除外する工程と、
    前記除外する工程後の前記モデルエッジ画像と、被探索物としてのワークを撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行し、前記被探索物としてのワークの位置及び姿勢を検出する工程と、
    を備えることを特徴とするロボットの制御方法。
  4. ワークを撮像して得られたモデル撮像画像をエッジ抽出処理することにより、モデル撮像エッジ画像を生成する工程と、
    前記モデル撮像エッジ画像と前記ワークに関するモデルエッジ画像とでパターンマッチングを実行する工程と、
    前記パターンマッチングの際の前記モデルエッジ画像の中の各エッジ点における類似度を演算する工程と、
    前記モデルエッジ画像の中の各エッジ点の前記モデルエッジ画像との前記類似度の分散及び平均を演算する工程と、
    全てのエッジ点のうち、前記分散が大きいほうから所定の割合に含まれるエッジ点か、または前記平均が小さいほうから所定の割合に含まれるエッジ点を、前記モデルエッジ画像から除外する工程と、
    前記除外する工程後の前記モデルエッジ画像と、被探索物としてのワークを撮像しエッジ抽出処理した探索エッジ画像とでパターンマッチングを実行し、前記被探索物としてのワークの位置及び姿勢を検出する工程と、
    を備えることを特徴とするロボットの制御方法。
JP2014211412A 2014-10-16 2014-10-16 画像処理方法、ロボットの制御方法 Active JP6075888B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014211412A JP6075888B2 (ja) 2014-10-16 2014-10-16 画像処理方法、ロボットの制御方法
US14/883,033 US10207409B2 (en) 2014-10-16 2015-10-14 Image processing method, image processing device, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014211412A JP6075888B2 (ja) 2014-10-16 2014-10-16 画像処理方法、ロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2016081264A JP2016081264A (ja) 2016-05-16
JP6075888B2 true JP6075888B2 (ja) 2017-02-08

Family

ID=55749434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014211412A Active JP6075888B2 (ja) 2014-10-16 2014-10-16 画像処理方法、ロボットの制御方法

Country Status (2)

Country Link
US (1) US10207409B2 (ja)
JP (1) JP6075888B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11200632B2 (en) 2018-11-09 2021-12-14 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP7049983B2 (ja) * 2018-12-26 2022-04-07 株式会社日立製作所 物体認識装置および物体認識方法
US11389965B2 (en) * 2019-07-26 2022-07-19 Mujin, Inc. Post-detection refinement based on edges and multi-dimensional corners
CN111571591B (zh) * 2020-05-22 2021-07-30 中国科学院自动化研究所 四目仿生眼设备、装置及其搜寻目标的方法
JP2023175326A (ja) 2022-05-30 2023-12-12 横河電機株式会社 検出装置、解析方法及び解析プログラム
CN115294162B (zh) * 2022-10-09 2022-12-06 腾讯科技(深圳)有限公司 目标识别方法、装置、设备及存储介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528273A (ja) * 1991-05-13 1993-02-05 Nikon Corp 画像処理方法および装置
JP2001101415A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 画像認識装置および画像処理装置
FR2825817B1 (fr) * 2001-06-07 2003-09-19 Commissariat Energie Atomique Procede de traitement d'images pour l'extraction automatique d'elements semantiques
US6898316B2 (en) * 2001-11-09 2005-05-24 Arcsoft, Inc. Multiple image area detection in a digital image
ES2391556T3 (es) * 2002-05-03 2012-11-27 Donnelly Corporation Sistema de detección de objetos para vehículo
US7409092B2 (en) * 2002-06-20 2008-08-05 Hrl Laboratories, Llc Method and apparatus for the surveillance of objects in images
US7146057B2 (en) * 2002-07-10 2006-12-05 Northrop Grumman Corporation System and method for image analysis using a chaincode
US7672507B2 (en) * 2004-01-30 2010-03-02 Hewlett-Packard Development Company, L.P. Image processing methods and systems
US7292263B2 (en) * 2005-03-16 2007-11-06 The Regents Of The University Of California Robotic CCD microscope for enhanced crystal recognition
US8014590B2 (en) * 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
KR101298642B1 (ko) * 2006-11-21 2013-08-21 삼성전자주식회사 영상 잡음 제거 방법 및 장치
CN101469984B (zh) * 2007-12-24 2010-09-29 鸿富锦精密工业(深圳)有限公司 影像杂质分析系统及方法
US8363728B2 (en) * 2008-04-18 2013-01-29 Sony Corporation Block based codec friendly edge detection and transform selection
US8358307B2 (en) * 2008-04-21 2013-01-22 Sharp Kabushiki Kaisha Image processing device, display device, image processing method, program, and storage medium
US8120679B2 (en) * 2008-08-01 2012-02-21 Nikon Corporation Image processing method
JP5301239B2 (ja) * 2008-08-09 2013-09-25 株式会社キーエンス 画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP5080416B2 (ja) * 2008-10-15 2012-11-21 ファナック株式会社 入力画像から検出対象物の像を検出する画像処理装置
JP5241423B2 (ja) * 2008-10-16 2013-07-17 株式会社キーエンス 画像処理における画像データ縮小率の決定方法、画像処理におけるパターンモデルの位置決め方法、画像処理におけるパターンモデルの作成方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP2010097438A (ja) * 2008-10-16 2010-04-30 Keyence Corp 画像処理を用いた輪郭情報抽出方法、画像処理におけるパターンモデルの作成方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP5169994B2 (ja) * 2009-05-27 2013-03-27 ソニー株式会社 画像処理装置、撮像装置及び画像処理方法
JP5580621B2 (ja) * 2010-02-23 2014-08-27 古野電気株式会社 エコー信号処理装置、レーダ装置、エコー信号処理方法、およびエコー信号処理プログラム
US8649592B2 (en) * 2010-08-30 2014-02-11 University Of Illinois At Urbana-Champaign System for background subtraction with 3D camera
JP5816148B2 (ja) * 2012-09-14 2015-11-18 株式会社神戸製鋼所 出力値予測装置、出力値予測方法およびそのプログラム

Also Published As

Publication number Publication date
JP2016081264A (ja) 2016-05-16
US10207409B2 (en) 2019-02-19
US20160110840A1 (en) 2016-04-21

Similar Documents

Publication Publication Date Title
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
JP5877053B2 (ja) 姿勢推定装置および姿勢推定方法
EP2684651A2 (en) Robot system, robot, robot control device, robot control method, and robot control program
US10306149B2 (en) Image processing apparatus, robot system, robot, and image processing method
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
JP2021000678A (ja) 制御システムおよび制御方法
JP2020135623A (ja) 物体検出装置、制御装置及び物体検出用コンピュータプログラム
JP2017191576A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2015176217A (ja) 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP7010542B2 (ja) 作業分析装置、作業分析方法、及びプログラム
JP2015035211A (ja) パターンマッチング方法及びパターンマッチング装置
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP5939775B2 (ja) 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法
WO2018235219A1 (ja) 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
WO2021117479A1 (ja) 情報処理装置、方法およびプログラム
WO2023273389A1 (zh) 人体躺姿检测方法及使用该方法的移动机器
CN108027647A (zh) 用于与虚拟对象交互的方法和设备
JP2020140283A (ja) 情報処理装置、情報処理方法、および、コンピュータプログラム
US11544913B2 (en) Method and system for wearable device-based manual providing
CN114494857A (zh) 一种基于机器视觉的室内目标物识别和测距方法
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
JP2016142577A (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170106

R151 Written notification of patent or utility model registration

Ref document number: 6075888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151