JP2024043176A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2024043176A
JP2024043176A JP2022148211A JP2022148211A JP2024043176A JP 2024043176 A JP2024043176 A JP 2024043176A JP 2022148211 A JP2022148211 A JP 2022148211A JP 2022148211 A JP2022148211 A JP 2022148211A JP 2024043176 A JP2024043176 A JP 2024043176A
Authority
JP
Japan
Prior art keywords
parallax
image
information processing
stereo
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022148211A
Other languages
English (en)
Inventor
均 中田
Hitoshi Nakada
正彦 南雲
Masahiko Nagumo
秀一 澁井
Shuichi SHIBUI
大岳 北見
Hirotake Kitami
貴志 猿田
Takashi Saruta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2022148211A priority Critical patent/JP2024043176A/ja
Priority to PCT/JP2023/032381 priority patent/WO2024058009A1/ja
Publication of JP2024043176A publication Critical patent/JP2024043176A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】ステレオ測距方式による測距を行う場合において、フォーカシングのためのタイムロスが生じることの防止と、測距精度の低下防止との両立を図る。【解決手段】本技術に係る情報処理装置は、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、ステレオ撮像画像に基づき計算された視差とを入力データとし、視差の補正情報を出力データとして得る人工知能モデルによる推論器を有し、補正情報に基づき視差の補正を行う補正処理部を備えている。【選択図】図7

Description

本技術は、情報処理装置とその方法、及びプログラムに関するものであり、特には、ステレオ測距方式において二つのカメラによる撮像画像に基づき計算される視差について、デフォーカスに伴い生じる誤差を人工知能モデルを用いて補正する技術に関する。
例えば電子機器や各種部品、冷凍食品等といった様々な製品の製造現場においてFA(Factory Automation)化が推進されており、製品としての物体を産業用ロボットによりハンドリングするということが一般的に行われている。例えば、ベルトコンベア等に載置された一又は複数の物体をロボットアームによりピックアップして他の場所に移動させる等といったことが行われている。
このとき、物体の位置の認識はカメラによる撮像画像に基づき行うことができ、一例としては、左右二つのカメラの撮像画像を用いたステレオ測距方式により距離画像(デプス画像)を生成し、該距離画像に基づき物体の輪郭検出(物体領域検出)等を行って物体の位置を認識するということが行われている。
なお、関連する従来技術については下記特許文献1を挙げることができる。下記特許文献1には、異なるカメラパラメータを有するカメラによって得られた画像を用いて、ステレオ視画像を生成する技術が開示されている。
国際公開第2011/096251
ここで、ステレオ測距方式において、対象とする物体に対して合焦位置がずれてピンぼけ(ピントぼけ)の状態となると、撮像画像において対象物体のエッジがなまり視差を適切に求めることができなくなって、対象物体の領域を適切に認識できなくなる。そこで、ステレオカメラとしてAF(Auto Focus)機能を有するカメラを用いることが考えられるが、製造現場において、ロボットアームのように頻繁に動作する物体にステレオカメラを取り付けていると振動等の影響でAFのための機構に負荷がかかり、耐久性の面で問題が生じる。
一方で、ステレオカメラとして固定焦点のカメラを用いるものとし、フォーカシングの制御をロボットアームの高さ調整によって行うということも考えられる。しかしながらその場合、高さ調整には高い精度が要求されるものとなり、ロボットアーム自体のコストアップを助長してしまう。
また、そもそもフォーカシングのためにフォーカスレンズやカメラ自体を動かす手法を採る場合には、対象物体に合焦するまでに少なからずタイムロスが生じるものとなり、製造現場における作業効率向上を図る面で望ましくない。
本技術は上記事情に鑑み為されたものであり、ステレオ測距方式による測距を行う場合において、フォーカシングのためのタイムロスが生じることの防止と、測距精度の低下防止との両立を図ることを目的とする。
本技術に係る情報処理装置は、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器を有し、前記補正情報に基づき前記視差の補正を行う補正処理部を備えたものである。
前述のように、ステレオ測距方式において対象物体に対するデフォーカスが生じていると視差に誤差が生じるものとなる。上記構成によれば、人工知能モデルによる推論器により、そのようなデフォーカスに伴う視差の誤差を補正するための補正情報を得ることができ、対象物体に対するフォーカシング(ピント合わせ)を行わずとも、視差の誤差を補正情報に基づき補正して、距離を適切に算出することが可能となる。
また、本技術に係る情報処理方法は、情報処理装置が、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した前記補正情報に基づき、前記視差の補正を行う情報処理方法である。
このような情報処理方法によっても、上記した本技術に係る情報処理装置と同様の作用が得られる。
本技術に係るプログラムは、コンピュータ装置が読み取り可能なプログラムであって、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した前記補正情報に基づき、前記視差の補正を行う機能を、前記コンピュータ装置に実現させるプログラムである。
このようなプログラムにより、上記した本技術に係る情報処理装置を実現する。
本技術に係る実施形態としての情報処理装置を備えて構成されるハンドリングシステムの構成例を示したブロック図である。 実施形態におけるカメラの内部構成例を示したブロック図である。 実施形態における各カメラの固定焦点位置についての説明図である。 実施形態としての情報処理装置のハードウェア構成例を示したブロック図である。 実施形態における測距可能距離範囲の説明図である。 測距可能距離範囲の意義についての説明図である。 実施形態としての情報処理装置が有する機能を説明するための機能ブロック図である。 実施形態におけるブロックマッチング処理の説明図である。 実施形態における機械学習に用いる学習用入力データの取得手法についての説明図である。 実施形態における機械学習の具体的手法についての説明図である。 実施形態としての視差補正手法を実現するための具体的な処理手順例を示したフローチャートである。 変形例における機械学習手法の説明図である。 変形例における推論時の構成例を示した図である。
以下、添付図面を参照し、本技術に係る実施形態を次の順序で説明する。
<1.実施形態としてのハンドリングシステムの概要>
<2.装置構成例>
<3.実施形態としての視差補正手法>
<4.処理手順>
<5.変形例>
<6.実施形態のまとめ>
<7.本技術>
<1.実施形態としてのハンドリングシステムの概要>
図1は、本技術に係る実施形態としての情報処理装置1を備えて構成される、実施形態としてのハンドリングシステムの構成例を示したブロック図である。
図示のように実施形態としてのハンドリングシステムは、情報処理装置1、ロボットアーム2、ベルトコンベア3、カメラ4l及びカメラ4rを備えている。
ロボットアーム2は、アーム先端部に吸着ハンドとして機能するハンド部2aを有している。ロボットアーム2は、ハンド部2aを対象物体obに押し当てることで対象物体obを吸着することができ、ハンド部2aに吸着された対象物体obをアームの駆動によりピックアップすることが可能とされる。
カメラ4l、カメラ4rは、水平方向において所定距離離間して配置されており、ステレオ測距方式により測距を行うためのステレオ撮像画像、すなわち左目画像(以下「L画像」と表記)、右目画像(以下「R画像」と表記)としての撮像画像を得るためのステレオカメラとして機能し、それぞれデジタルカメラ装置として構成されている。
本例において、ハンドリングシステムは、例えば電子機器や各種部品、冷凍食品等といった製品の製造現場において、該製品としての対象物体obをロボットアーム2によりハンドリングするシステムとされている。
この場合、カメラ4l及びカメラ4rにより撮像対象とする物体である対象物体obは製品であり、これらカメラ4l及びカメラ4rにより得られるL画像及びR画像に基づくステレオ測距方式による測距を行って得られる距離画像に基づき、対象物体obの物体領域(物体存在領域)等を認識する処理が行われる。
本例では、ベルトコンベア3上に載置された製品としての対象物体obをロボットアーム2によりピックアップして他の場所に移動させる用途を前提としているが、ロボットアーム2を用いた対象物体obのハンドリングの態様についてはこれに限定されず、例えばベルトコンベア3上以外の場所に載置された対象物体obをベルトコンベア3上に移動させる等、他の態様も考えられる。
また、本例では、いわゆるハンドアイ方式を前提としており、カメラ4l及びカメラ4rはハンド部2aに対して取り付けられている。図示のようにカメラ4l及びカメラ4rは、ハンド部2aが対象物体obの上方に位置された状態で、対象物体ob側を撮像する向きに取り付けられている。すなわち、下方側を撮像する向きに取り付けられている。
なお、ここではカメラ4l及びカメラ4rがハンド部2aに対して外付けされた例を挙げているが、カメラ4l及びカメラ4rがハンド部2aに一体に設けられた構成も考えられる。
また、ハンドアイ方式に限定されず、カメラ4l及びカメラ4rは、対象物体obを撮像可能であれば、ハンド部2a以外の所定位置に設けることもできる。
情報処理装置1は、コンピュータ装置を有して構成され、カメラ4l及びカメラ4rにより得られるステレオ撮像画像に基づきステレオ測距方式による測距を行って距離画像を生成する機能や、ロボットアーム2の動作制御を行う機能を有している。
ここで、対象物体obを適切にピックアップするためには、ハンド部2aによる吸着位置を、例えば対象物体obの上面中央位置等、対象物体obを安定的に保持できる位置に定めるべきである。或いは、ハンド部2aにより複数の対象物体obを一度にピックアップするということも考えられ、その場合には、ハンド部2aによる吸着位置は、それら複数の対象物体obを保持することのできる所定位置に定めるべきである。
このためには、情報処理装置1において、少なくとも対象物体obの上面視における物体領域が適切に認識されるべきである。本例において情報処理装置1は、このような対象物体obの物体領域の認識を、カメラ4l及びカメラ4rにより得られるステレオ撮像画像から生成した距離画像に基づいて行う。そして、情報処理装置1は、対象物体obの物体領域の認識結果に基づき、ロボットアーム2の動作を制御して、対象物体obのピックアップ動作を実現させる。
<2.装置構成例>
図2は、カメラ4lの内部構成例を示したブロック図である。
なお、ここではカメラ4lとカメラ4rのうちカメラ4lの内部構成例を代表して示すが、カメラ4rの内部構成例はカメラ4lの場合と同様となることから重複説明は避ける。
図示のようにカメラ4lは、撮像部41、画像信号処理部42、メモリ部43、制御部44、及び通信部45を備えている。撮像部41、画像信号処理部42、メモリ部43、制御部44、及び通信部45は、バス46を介して相互にデータ通信を行うことが可能とされる。
撮像部41は、各種レンズ等の撮像のための光学素子が配列された撮像光学系と、撮像光学系を介して入射する光を受光する、例えばCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサ等によるイメージセンサとを有して構成され、被写体を撮像し、デジタル信号による撮像画像信号(デジタルデータによる撮像画像)を生成して出力する。
画像信号処理部42は、撮像部41により得られた撮像画像に対して、所定の画像信号処理を行う。例えば、RGBのカラー画像を得るためのデモザイク処理やNR(ノイズリダクション)処理、AWB(オートホワイトバランス)処理等の所定の画像信号処理を行う。
メモリ部43は、バス46を介して接続された制御部44や画像信号処理部42が利用可能な不揮発性の記憶デバイスを表したものである。特に、メモリ部43は、撮像部41による撮像画像データの記録用メモリとして用いることができる。
制御部44は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等を備えたマイクロコンピュータを有して構成され、CPUが例えばROMに記憶されたプログラムやRAMにロードされたプログラムに従った処理を実行することで、カメラ4lの全体制御を行う。
例えば制御部44は、撮像部41による撮像動作の実行制御を行う。また制御部44は、画像信号処理部42による画像信号処理結果に基づき、露光制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAE(自動露出)処理が行われる。
また、制御部44は、通信部45を介して、カメラ4の外部装置、特に本実施形態では情報処理装置1との間でデータ通信を行うことが可能とされる。
通信部45は、外部装置との間で、有線又は無線による機器間通信やネットワーク通信を行うための通信デバイスとされる。
制御部44は、通信部45を介して、撮像部41により得られた撮像画像を情報処理装置1に送信することが可能とされる。
ここで、本実施形態において、カメラ4l及び4rとしては、焦点位置が固定とされたカメラが用いられる。以下、このような固定の焦点位置について、カメラ4lの焦点位置を「焦点位置Pfl」、カメラ4rの焦点位置を「焦点位置Pfr」と表記する。
本実施形態では、これら焦点位置Pflと焦点位置Pfrは同一位置ではなく、異なる位置に定められている。具体的に本例では、図3に例示するように、焦点位置Pflよりも焦点位置Pfrの方が奥側に位置するように焦点位置Pfl及びPfrが定められている。
ここで、これら焦点位置Pflと焦点位置Pfrとの間隔は、少なくとも、互いの被写界深度範囲が重複しないとの条件を満たす間隔として定める。換言すれば、カメラ4l、4rのうち一方のカメラでピントの合っている被写体については、他方のカメラにおいてピンぼけ(ピントぼけ)が生じるようにするものである。
図4は、情報処理装置1のハードウェア構成例を示したブロック図である。
図示のように情報処理装置1は、CPU11を備えている。CPU11は、各種の処理を実行する演算処理部として機能し、ROM(Read Only Memory)12に記憶されているプログラム、又は記憶部19からRAM(Random Access Memory)13にロードされたプログラムに従って各種の処理を実行する。RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU11、ROM12、及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インタフェース(I/F)15も接続されている。
入出力インタフェース15には、操作子や操作デバイスよりなる入力部16が接続される。例えば、入力部16としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
入力部16によりユーザの操作が検知され、入力された操作に応じた信号はCPU11によって解釈される。
また入出力インタフェース15には、LCD(Liquid Crystal Display)或いは有機EL(Electro-Luminescence)パネルなどよりなる表示部17や、スピーカなどよりなる音声出力部18が一体又は別体として接続される。
表示部17は各種の情報表示に用いられ、例えば情報処理装置1の筐体に設けられるディスプレイデバイスや、情報処理装置1に接続される別体のディスプレイデバイス等により構成される。
表示部17は、CPU11の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部17はCPU11の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
入出力インタフェース15には、HDD(Hard Disk Drive)や固体メモリなどより構成される記憶部19や、モデムなどより構成される通信部20が接続される場合もある。
通信部20は、インターネット等の伝送路を介しての通信処理や、各種機器との有線/無線通信、バス通信などによる通信を行う。
入出力インタフェース15にはまた、必要に応じてドライブ21が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体22が適宜装着される。
ドライブ21により、リムーバブル記録媒体22から各処理に用いられるプログラム等のデータファイルなどを読み出すことができる。読み出されたデータファイルは記憶部19に記憶されたり、データファイルに含まれる画像や音声が表示部17や音声出力部18で出力されたりする。またリムーバブル記録媒体22から読み出されたコンピュータプログラム等は必要に応じて記憶部19にインストールされる。
上記のようなハードウェア構成を有する情報処理装置1では、例えば本実施形態の処理のためのソフトウェアを、通信部20によるネットワーク通信やリムーバブル記録媒体22を介してインストールすることができる。或いは、当該ソフトウェアは予めROM12や記憶部19等に記憶されていてもよい。
CPU11が各種のプログラムに基づいて処理動作を行うことで、後述するような情報処理装置1としての必要な情報処理や通信処理が実行される。
<3.実施形態としての視差補正手法>
ここで、本実施形態では、先の図3に示したようにカメラ4lの焦点位置Pflとカメラ4rの焦点位置Pfrが異なる位置とされているため、同一被写体を撮像した場合に、少なくとも何れか一方のカメラは該被写体に対してピンぼけの状態となる。前述のようにピンぼけが生じると、対象とする被写体、つまり本例では対象物体obのエッジがなまることでステレオ測距方式において算出される視差に誤差が生じるものとなって、適切な距離画像を得ることができない虞がある。
本実施形態では、ステレオ撮像画像にピンぼけが生じる場合であっても、該ピンぼけに伴い生じる視差の誤差を低減するように視差の補正を行うことで、適切な距離画像が得られるようにすることを目的とする。
先ず、本実施形態では、適切な距離画像を得るにあたってピンぼけを許容する範囲を、図5に示すように測距可能距離範囲Rgとして予め定めておく。
図示のように、本例において測距可能距離範囲Rgは、焦点位置Pflから焦点位置Pfrまでの範囲(以下「焦点ずれ範囲」と表記)を含む範囲として定めている。具体的には、焦点ずれ範囲よりも広い範囲として定めている。これは、測距可能距離範囲Rgの上限位置Ur及び下限位置Drについて、上限位置Urをカメラ4l、4rから見て焦点位置Pflよりも手前側となる位置に定め、下限位置Drをカメラ4l、4rから見て焦点位置Pfrよりも奥側となる位置に定めていると換言できる。
なお、上限位置Ur、下限位置Drの設定位置は図5に示す例に限定されるものではなく、例えば上限位置Urを焦点位置Pflと同位置に定め、下限位置Drを焦点位置Pfrと同位置に定めることも可能である。また、上限位置Urを焦点位置Pflよりも奥側(下側)、下限位置Drを焦点位置Pfrよりも手前側(上側)に定めることもあり得る。
図6は、測距可能距離範囲Rgの意義についての説明図である。
例えば、同一のピックアップシステムを複数種の対象物体obに対応させるとした場合には、撮像対象となる対象物体obの高さが、対象物体obの種類によって変わり得る。すなわち、対象物体obの種類に応じて高さにばらつきが生じ得る。
また、同一の対象物体obであっても上面に凹凸がある場合には、高さにばらつきが生じるものとなる。
図6Aから図6Cでは、このように対象物体obの高さにばらつきがあることを表している。
本実施形態では、測距可能距離範囲Rgを定めて、図6Aから図6Cで示すように対象物体obの高さが上限位置Urから下限位置Drまでの範囲内に収まっている場合には、視差の補正が可能となるようにして、適切な距離画像が得られるようにする。
図7は、情報処理装置1のCPU11が有する、実施形態としての視差補正手法を実現するための機能構成の例を示した機能ブロック図である。
図示のようにCPU11は、ブロックマッチング処理部31、視差計算部32、補正処理部F1、及び距離画像生成部F2としての機能を有する。
ブロックマッチング処理部31は、カメラ4lにより得られるL画像とカメラ4rにより得られるR画像とを入力し、ブロックマッチング処理によりL画像とR画像との間の対応点(高相関点)を検出する処理を行う。
図8は、ブロックマッチング処理の説明図である。
ここでは、カメラ4lにより得られるL画像を基準画像、カメラ4rにより得られるR画像を比較画像とする例を挙げるが、逆に、R画像を基準画像、L画像を基準画像とすることも可能である。
この場合のブロックマッチング処理は、基準画像としてのL画像における各画素ごとに、比較画像としてのR画像の画素のうちの対応点としての画素を探索する処理として行われる。
ここでのマッチングは、複数画素で成るブロック単位のマッチングとして行うものとされる。基準画像(L画像)における対応点検出の対象とする画素をn番目画素とすると、ここでのブロックは、該n番目画素を中心とした複数画素で成る画像領域として定義される。図中の例では、ブロックは、n番目画素を中心とした7×7=49画素分の画像領域であるものとしている。
以下、n番目画素に対応したブロックのことをn番目ブロックと表記する。
基準画像における各ブロックに対しては、比較画像(R画像)における探索範囲が予め定められている。ブロックマッチング処理では、基準画像においてn番目画素を対象として選択したことに応じて、n番目ブロックと、比較画像における探索範囲内で選択した比較ブロック(n番目ブロックと同サイズのブロック)とについて、ブロック単位での相関値を求める。このようなn番目ブロックに対する相関値の計算を、探索範囲内において比較ブロックを1画素ずつずらしながら行い、それら相関値の計算結果に基づき、n番目ブロックに対して最も相関性の高い比較ブロックを探索する。そして、探索された比較ブロックにおける中心画素を、基準画像におけるn番目画素(図中、画素L44)の対応点として検出する。例えば、図中の左側に示す比較ブロックがn番目ブロックに対し最も相関性が高かった比較ブロックであるとすれば、該比較ブロックの中心画素である画素R44が対応点として検出される。
なお以下、上記のようなブロック単位でのマッチング処理で特定される、n番目ブロックに対し最も相関性が高かった比較ブロックのことを「対応ブロック」と表記する。
図7において、ブロックマッチング処理部31は、上記のようなブロックマッチング処理による対応点の検出処理を、基準画像としてのL画像における対象とする各画素について行う。そして、n番目画素の座標を示す情報であるn番目画素座標の情報と、n番目画素の対応点の座標を示す情報である対応点画素座標の情報とを視差計算部32に出力する。
また、本実施形態におけるブロックマッチング処理部31は、L画像におけるn番目ブロックの画像と、R画像におけるn番目ブロックの対応ブロックの画像とを補正処理部F1における後述する推論器33に出力する。
視差計算部32は、ブロックマッチング処理部31より入力されるn番目画素座標の情報と対応点画素座標の情報とに基づき、n番目画素の視差を計算する。この視差は、例えばn番目画素と対応点画素とのピクセル単位での離間距離等として計算する。
視差計算部32は、計算したn番目画素の視差を補正処理部F1における推論器33と補正演算部34とに出力する。
補正処理部F1は、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、ステレオ撮像画像に基づき計算された視差とを入力データとし、視差の補正情報を出力データとして得る人工知能モデルによる推論器33を有し、上記補正情報に基づき視差の補正を行う。
本実施形態において、人工知能モデルによる推論器33は、ブロックマッチング処理部31より出力されるn番目ブロックの画像(L画像)及びn番目ブロックの対応ブロックの画像(R画像)と、視差計算部32より出力されるn番目画素の視差とを入力データとして、該n番目画素の視差の補正情報を出力データとして得るように機械学習が行われている。具体的に推論器33は、n番目画素の視差について、L画像やR画像にピンぼけが生じている場合に生じる視差の誤差を補正する(低減する)ための値である「視差補正値」を出力するように機械学習が行われている。
補正演算部34は、視差計算部32より入力したn番目画素の視差を、推論器33より出力されるn番目画素の視差補正値に基づき補正する。具体的には、視差計算部32より入力したn番目画素の視差の値に対し、推論器33より出力されるn番目画素の視差補正値を加算(又は減算)することで、n番目画素の視差に生じるピンぼけ起因の誤差を低減する補正を行う。
距離画像生成部F2は、補正処理部F1による補正後の視差に基づき距離を計算して、距離画像を生成する。具体的に、距離画像生成部F2は、補正処理部F1における補正演算部34がL画像の画素ごとに出力する補正後視差に基づき、画素ごとの距離を計算することで、画素ごとに距離の情報を示す距離画像を生成する。
図9及び図10を参照し、推論器33の機械学習について説明する。
図9は、機械学習に用いる学習用入力データの取得手法についての説明図である。
先の図6で示したような測距可能距離範囲Rg内での対象物体obの高さばらつきに対して視差補正ができること(つまり適切な距離画像を得ること)を保証するためには、測距可能距離範囲Rg内における各高さ位置に対し、カメラ4l、4rそれぞれで生じ得るデフォーカス量(ピンぼけ量)が網羅されるようにして、L画像、R画像のサンプリングを行えばよい。
このため本実施形態では、図9Aから図9Cに示すように、上面高さが一定とされた試料Smに対し、カメラ4l、4rの位置を徐々に変化させながら(本例では徐々に近づけながら)L画像とR画像の取得を行う。例えば、試料Smの上面の高さ位置は、図示のように測距可能距離範囲Rgの中間位置に一致させる。
このとき、図9Aに示すカメラ4l、4rの上限位置は、カメラ4lの試料Smに対するデフォーカス量が、測距可能距離範囲Rg内での対象物体obの高さばらつきに対するカメラ4lの最大デフォーカス量(図6C参照)と一致する位置とする。
また、図9Cに示すカメラ4l、4rの下限位置は、カメラ4rの試料Smに対するデフォーカス量が、測距可能距離範囲Rg内での対象物体obの高さばらつきに対するカメラ4rの最大デフォーカス量(図6A参照)と一致する位置とする。
この場合の学習用入力画像のサンプリングとしては、図9Aに示す上限位置から図9Cに示す下限位置までの間において所定間隔に定めた各カメラ位置ごとに、カメラ4l、4rによる撮像画像をサンプリングするという態様で行う。
また、本実施形態における機械学習では、学習用入力データとして、上記の画像サンプリングで得たカメラ位置ごとのL画像及びR画像(カメラ位置ごとに取得したL画像及びR画像)と共に、それらカメラ位置ごとのL画像及びR画像からそれぞれ計算された視差(カメラ位置ごとに計算された視差)の情報を用意しておく。
図10は、機械学習の具体的手法についての説明図である。
この場合、機械学習に用いる学習器33bとしては、例えばニューラルネットワークとしてのネットワーク構造を有する学習器33bを用いる。一例としては、例えばCNN(Convolutional Neural Network)等のDNN(Deep Neural Network)によるネットワーク構造を有する学習器33bを用いることが考えられる。
この学習器33bに対し、学習用入力データとして、上述したカメラ位置ごとに取得したL画像及びR画像とカメラ位置ごとに計算された視差とを与え、また、教師データとしてカメラ位置ごとの視差の正解値と、各カメラ位置とを与えて、教師あり学習としての機械学習を行う。
ここで、教師データとして与えるカメラ位置ごとの視差の正解値については、例えば、カメラ位置から試料Sm上面までの距離を視差に換算した値を用いること等が考えられる。また、試料Smの上面高さが一定でない場合については、予め別のカメラ等で距離の正解値を取得し、視差に換算しておくことで対応が可能である。
上記のような機械学習により、学習器33bにおいては、L画像及びR画像のピントのぼけ度合いと、そのぼけ度合いのときに計算される視差の正解視差に対する誤差との関係が、L画像とR画像の様々なぼけの組み合わせ(測距可能距離範囲Rg内で生じ得るぼけの組み合わせ)ごとに学習されるものとなる。そして、このような学習の結果、学習器33bにおいては、L画像及びR画像とそれらから計算される視差とを入力データとして、視差誤差を補正するための視差補正値を出力データとして得るアルゴリズムが生成される。
ここで、本例において、各カメラ位置を教師データとして与えているのは、学習器33bが、L画像及びR画像とそれら画像から計算された視差とを入力データとして、視差補正値のみでなく、カメラ位置を推論結果として出力するように構成されているためである。
学習器33bが出力するカメラ位置の情報は、学習精度評価のための情報として用いることができる。例えば、あるカメラ位置XのL画像及びR画像と視差の入力に対して、学習器33bが推論したカメラ位置がカメラ位置Xから乖離している場合には、学習が正しく行われていないと評価することができ、例えば学習をやり直す等の対策を講じることができる。
なお、先の図7の説明から理解されるように推論時に用いるのは視差補正値を求めるアルゴリズムのみであり、カメラ位置を求めるアルゴリズムは学習時にのみ用いられるものである。
<4.処理手順>
図11は、上記により説明した実施形態としての視差補正手法を実現するための具体的な処理手順例を示したフローチャートである。
図11に示す処理は、情報処理装置1のCPU11がROM12等の所定の記憶装置に記憶されたプログラムに基づき実行する。
先ず、CPU11はステップS101で、画素識別子n=1に設定する。画素識別子は、基準画像(L画像)において視差計算の対象とする画素を識別するための識別子である。
ステップS101に続くステップS102でCPU11は、L画像のn番目ブロックについて、R画像とのブロックマッチングを行いn番目ブロックの対応ブロックを特定する。
ステップS102に続くステップS103でCPU11は、n番目画素の視差を計算する。すなわち、n番目画素座標の情報と、ステップS102で特定した対応ブロックにおける中心画素の座標である対応点画素座標の情報とに基づき、n番目画素の視差を計算するものである。
ステップS103に続くステップS104でCPU11は、n番目ブロックの画像、対応ブロックの画像、及び計算した視差を入力データとして、推論器33により視差補正値を推論する。
ステップS104に続くステップS105でCPU11は、計算した視差を視差補正値に基づき補正する。例えば、計算した視差に視差補正値を加算することで、視差を補正する。
ステップS105に続くステップS106でCPU11は、画素識別子nが最大値nMAX以上であるか否かを判定する。最大値nMAXは、視差計算の対象とする総画素数(つまり距離画像の総画素数)と同値であり、従ってステップS106の判定処理は、視差計算の対象とする全ての画素についてステップS102からS105の処理として説明したブロックマッチングや視差計算、視差補正値の推論、及び視差の補正を行ったか否かを判定していることに相当する。
ステップS106において、画素識別子nが最大値nMAX以上ではないと判定した場合、CPU11はステップS107に進んで画素識別子nの値を1インクリメントし、ステップS102に戻る。これにより次の画素を対象として、ブロックマッチングや視差計算、視差補正値の推論、及び視差の補正が行われる。
一方、ステップS106において画素識別子nが最大値nMAX以上であると判定した場合、CPU11はステップS108に進み、画素ごとの距離を計算する処理、すなわち距離画像の生成処理を行い、図11に示す一連の処理を終える。
なお、上記説明では、ブロックマッチング処理部31、視差計算部32、補正演算部34、及び距離画像生成部F2としての機能がCPU11のソフトウェア処理により実現される例を挙げたが、これら各機能のうち一部又は全部がハードウェアで実現されるように構成することもできる。
<5.変形例>
ここで、これまでに説明した具体例はあくまで一例であり、本技術は多様な変形例としての構成を採り得る。
例えば、上記では、L画像とR画像のピンぼけ度合いに応じた視差補正値を推論することを説明したが、L画像とR画像のピンぼけ度合いのみでなく、他の条件も加味して視差補正値を推論することも考えられる。
例えば、L画像やR画像にレンズ歪み等が生じる場合には、画像内の位置に依存して、計算される視差にばらつきが生じ得るものであり、そのようなばらつきを吸収するように、視差の補正を行うことが考えられる。
図12及び図13を参照して、上記のような画像内の位置に依存した視差のばらつき吸収を図る変形例について説明する。
図12は、変形例における機械学習手法の説明図である。
この場合、学習用入力データとしては、各カメラ位置における分割エリアごとのL画像、R画像と、各カメラ位置における分割エリアごとの視差とを用意しておく。ここで、分割エリアとは、基準画像及び比較画像の双方について定めた、画像を分割する複数のエリアを意味する。この場合におけるエリアの分割については、想定する歪みの発生態様等に応じて任意の分割態様を採用可能なものであり、基準画像を任意の等サイズによる複数エリアに分割してもよいし、或いは大まかに、画枠縁部のエリアとその内側のエリアとの二つのエリアに分割する等といったこと等も考えられる。
ここで、学習用入力データとして用意する各カメラ位置における分割エリアごとの視差については、例えば、各分割エリアについて計算される視差の、分割エリアごとの平均値や中央値等の代表値を用いることが考えられる。
この場合、学習器33bAとしては、制御線関連付け学習に対応したものを用いる。
この場合の機械学習は、分割エリアごとに視差補正値を求めるアルゴリズムが生成されるようにして行う。具体的に、対象とする分割エリアをm番目の分割エリアとし、分割エリアの総数をmMAXとすると、この場合の機械学習は、制御線に対する入力値を1からmMAXまで変化させながら、分割エリアごとに対応するアルゴリズムが学習されるようにして行う。より具体的には、先ず、制御線の入力値に「1」を与えた状態で、学習器33bAの学習用入力データとして1番目の分割エリアについてのカメラ位置ごとのL画像、R画像、及び視差を与え、教師データとして1番目の分割エリアについてのカメラ位置ごとの視差の正解値を与えることによる教師あり学習としての機械学習を行う。そして、2番目以降の分割エリアについても、同様に対象とする分割エリアの識別子mを制御線の入力値として与えた状態で、学習器33bAの学習用入力データとしてm番目の分割エリアについてのカメラ位置ごとのL画像、R画像、及び視差を与え、教師データとしてm番目の分割エリアについてのカメラ位置ごとの視差の正解値を与えることによる教師あり学習としての機械学習を行う。
このような機械学習を行うことで、学習器33bAにおいては、制御線の値に関連付けて、分割エリアごとに対応する視差補正値を求めるための複数のアルゴリズムが生成される。
図13は、推論時の構成例を示した図である。
図中、推論器33Aは、図12で説明した制御線関連付け学習によって学習済みとされた学習器33bAの人工知能モデル、すなわち、分割エリアごとに対応する視差補正値を求めるための複数のアルゴリズムを含んだ人工知能モデルを有する推論器である。
推論器33Aについて、入力データとしては、先の図7の場合と同様にL画像におけるn番目ブロックの画像と、R画像における対応ブロックの画像と、n番目画素の視差とを与える。
この場合、推論器33Aの制御線には、補正対象の画素、すなわち推論器33Aに対し対応するブロックのL画像及びR画像と視差とを入力する画素が属する分割エリアの識別子mの値を入力する。
これにより、推論器33Aは、分割エリアごとのアルゴリズムのうちから補正対象の画素が属する分割エリアのアルゴリズムを選択して視差補正値を求めることになる。つまりは、m番目の分割エリアに属する画素の視差は、m番目の分割エリアに対応したアルゴリズムにより求められた視差補正値に基づき補正されるものとなり、結果、画像内の位置に依存して視差にばらつきが生じる場合に対応して、そのようなばらつきを吸収するように、視差の補正を行うことができる。
ここで、これまでの説明では、説明上の一例として、焦点位置Pflと焦点位置Pfrのうち焦点位置Pfrを奥側に定めた例を挙げたが(図3等参照)、逆に焦点位置Pflの方を奥側に定めることも可能である。
また、これまでの説明では、カメラ4l、4rと情報処理装置1とが別体に構成された例を挙げたが、カメラ4l、4rと情報処理装置1を一体に構成することもできる。
また、上記では、ステレオ撮像画像を得るためのカメラに可視光カメラを用いる例を挙げたが、該カメラにはIR(infrared)カメラ等の非可視光カメラを用いることもできる。
また、上記では、距離画像に基づき認識された対象物体obの物体領域の情報をロボットアーム2による対象物体obのピックアップ位置の制御に用いる前提としたが、該物体領域の情報は、例えば、対象物体obへのラベリングやラッピング、印字等を行うために用いることも考えられる。
<6.実施形態のまとめ>
上記のように実施形態としての情報処理装置(同1)は、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、ステレオ撮像画像に基づき計算された視差とを入力データとし、視差の補正情報を出力データとして得る人工知能モデルによる推論器(同33,33A)を有し、補正情報に基づき視差の補正を行う補正処理部(同F1)を備えたものである。
前述のように、ステレオ測距方式において対象物体に対するデフォーカスが生じていると視差に誤差が生じるものとなる。上記構成によれば、人工知能モデルによる推論器により、そのようなデフォーカスに伴う視差の誤差を補正するための補正情報を得ることができ、対象物体に対するフォーカシング(ピント合わせ)を行わずとも、視差の誤差を補正して、距離を適切に算出することが可能となる。
従って、ステレオ測距方式による測距を行う場合において、フォーカシングのためのタイムロスが生じることの防止と、測距精度の低下防止との両立を図ることができる。
また、実施形態としての情報処理装置においては、二つのカメラは焦点位置が固定であるものとされている。
これにより、カメラにAFのための機構を設ける必要がなくなる。
従って、振動等の影響でAFのための機構が劣化してフォーカシングの精度が低下することに伴い測距精度が低下してしまうことの防止を図ることができる。また、AFのための機構が不要となることでカメラの小型化やコスト削減を図ることができる。
さらに、実施形態としての情報処理装置においては、人工知能モデルは、対象物体に対するデフォーカス量の組み合わせが異なる複数組のステレオ撮像画像と各組のステレオ撮像画像ごとに計算された視差とを学習用入力データとし、各組のステレオ撮像画像の正解視差を教師データとする機械学習により生成されている(図10、図13等参照)。
これにより、ステレオ撮像画像と、ステレオ撮像画像に基づき計算された視差とを入力データとし、視差の補正情報を出力データとして得るための推論器を実現することができる。
さらにまた、実施形態としての情報処理装置においては、補正処理部による補正後の視差に基づき距離を計算して距離画像を生成する距離画像生成部(同F2)を備えている。
これにより、対象物体に対してデフォーカスしている状態であっても適切な測距結果を示す距離画像を得ることができる。
また、実施形態としての情報処理装置においては、推論器は、ステレオ撮像画像のうちの基準画像における分割エリアごとに視差の補正情報を求めるアルゴリズムが学習されている(図12、図13等参照)。
これにより、例えばレンズ歪み等の影響で計算される視差に画像内の位置に依存したばらつきが生じる場合に対応して、該ばらつきが吸収されるように視差の補正を行うことが可能となる。
従って、測距精度向上を図ることができる。
さらに、実施形態としての情報処理装置においては、推論器は、制御線に対する入力値に基づき、分割エリアごとのアルゴリズムのうちから補正対象の画素が属する分割エリアのアルゴリズムを選択している。
これにより、分割エリアごとに対応するアルゴリズムを用いて適切に視差の補正情報を求めることができる。すなわち、分割エリアごとに適切な視差の補正情報を用いて視差の補正を行うことができるものであり、従って、測距精度向上を図ることができる。
さらにまた、実施形態としての情報処理装置においては、補正処理部は、ステレオ撮像画像として、ロボットアームのハンド部に設けられた二つのカメラによる撮像画像を推論器に対する入力データとして入力している。
これにより、ロボットアームにおけるハンド部の高さ調整によるフォーカシングを行う必要がなくなる。
従って、ロボットアームについて、ハンド部の高さ調整精度にフォーカシングを実現する程の高精度が要求されないものとなり、その点で、ロボットアームのコストアップ防止を図ることができる。
また、実施形態としての情報処理装置においては、二つのカメラにより撮像対象とする物体が、製造現場においてロボットアームがハンドリングの対象とする製品とされている。
これにより、ロボットアームによって製品をハンドリングする製造現場において、フォーカシングのためのタイムロスが生じることの防止を図ることができ、製造現場における作業効率向上を図ることができる。
また、実施形態としての情報処理方法は、情報処理装置が、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、ステレオ撮像画像に基づき計算された視差とを入力データとし、視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した補正情報に基づき、視差の補正を行う情報処理方法である。
このような実施形態としての情報処理方法によっても、上記した実施形態としての情報処理装置と同様の作用及び効果を得ることができる。
ここで、実施形態としては、先の図11等で説明した補正処理部F1の処理を、例えばCPU、DSP(Digital Signal Processor)等、或いはこれらを含むデバイスに実行させるプログラムを考えることができる。
すなわち、実施形態のプログラムは、コンピュータ装置が読み取り可能なプログラムであって、それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、ステレオ撮像画像に基づき計算された視差とを入力データとし、視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した補正情報に基づき、視差の補正を行う機能を、コンピュータ装置に実現させるプログラムである。
このようなプログラムにより、上述した補正処理部F1としての機能をコンピュータ装置によるソフトウェア処理により実現できる。
上記のようなプログラムは、コンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
或いはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
またこのようなプログラムによれば、実施形態としての情報処理装置1の広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該パーソナルコンピュータ等を、本開示の情報処理装置1としての処理を実現する装置として機能させることができる。
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<7.本技術>
なお本技術は以下のような構成も採ることができる。
(1)
それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器を有し、前記補正情報に基づき前記視差の補正を行う補正処理部を備えた
情報処理装置。
(2)
前記二つのカメラは焦点位置が固定である
前記(1)に記載の情報処理装置。
(3)
前記人工知能モデルは、
対象物体に対するデフォーカス量の組み合わせが異なる複数組の前記ステレオ撮像画像と各組の前記ステレオ撮像画像ごとに計算された視差とを学習用入力データとし、各組の前記ステレオ撮像画像の正解視差を教師データとする機械学習により生成された
前記(1)又は(2)に記載の情報処理装置。
(4)
前記補正処理部による補正後の視差に基づき距離を計算して距離画像を生成する距離画像生成部を備えた
前記(1)に記載の情報処理装置。
(5)
前記推論器は、
前記ステレオ撮像画像のうちの基準画像における分割エリアごとに前記視差の補正情報を求めるアルゴリズムが学習されている
前記(1)から(4)の何れかに記載の情報処理装置。
(6)
前記推論器は、
制御線に対する入力値に基づき、前記分割エリアごとの前記アルゴリズムのうちから補正対象の画素が属する前記分割エリアの前記アルゴリズムを選択する
前記(5)に記載の情報処理装置。
(7)
前記補正処理部は、
前記ステレオ撮像画像として、ロボットアームのハンド部に設けられた前記二つのカメラによる撮像画像を前記推論器に対する入力データとして入力する
前記(1)から(6)の何れかに記載の情報処理装置。
(8)
前記二つのカメラにより撮像対象とする物体が、製造現場において前記ロボットアームがハンドリングの対象とする製品とされている
前記(7)に記載の情報処理装置。
(9)
情報処理装置が、
それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した前記補正情報に基づき、前記視差の補正を行う
情報処理方法。
(10)
コンピュータ装置が読み取り可能なプログラムであって、
それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した前記補正情報に基づき、前記視差の補正を行う機能を、前記コンピュータ装置に実現させる
プログラム。
1 情報処理装置
2 ロボットアーム
2a ハンド部
3 ベルトコンベア
4l カメラ(左目カメラ)
4r カメラ(右目カメラ)
ob 対象物体
11 CPU
12 ROM
13 RAM
20 通信部
21 ドライブ
22 リムーバブル記録媒体
41 撮像部
44 制御部
45 通信部
46 バス
Pfl,Pfr 焦点位置
Rg 測距可能距離範囲
Ur 上限位置
Dr 下限位置
31 ブロックマッチング処理部
32 視差計算部
33,33A 推論器
34 補正演算部
F1 補正処理部
F2 距離画像生成部
Sm 試料
33b,33bA 学習器

Claims (10)

  1. それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器を有し、前記補正情報に基づき前記視差の補正を行う補正処理部を備えた
    情報処理装置。
  2. 前記二つのカメラは焦点位置が固定である
    請求項1の記載の情報処理装置。
  3. 前記人工知能モデルは、
    対象物体に対するデフォーカス量の組み合わせが異なる複数組の前記ステレオ撮像画像と各組の前記ステレオ撮像画像ごとに計算された視差とを学習用入力データとし、各組の前記ステレオ撮像画像の正解視差を教師データとする機械学習により生成された
    請求項1に記載の情報処理装置。
  4. 前記補正処理部による補正後の視差に基づき距離を計算して距離画像を生成する距離画像生成部を備えた
    請求項1に記載の情報処理装置。
  5. 前記推論器は、
    前記ステレオ撮像画像のうちの基準画像における分割エリアごとに前記視差の補正情報を求めるアルゴリズムが学習されている
    請求項1に記載の情報処理装置。
  6. 前記推論器は、
    制御線に対する入力値に基づき、前記分割エリアごとの前記アルゴリズムのうちから補正対象の画素が属する前記分割エリアの前記アルゴリズムを選択する
    請求項5に記載の情報処理装置。
  7. 前記補正処理部は、
    前記ステレオ撮像画像として、ロボットアームのハンド部に設けられた前記二つのカメラによる撮像画像を前記推論器に対する入力データとして入力する
    請求項1に記載の情報処理装置。
  8. 前記二つのカメラにより撮像対象とする物体が、製造現場において前記ロボットアームがハンドリングの対象とする製品とされている
    請求項7に記載の情報処理装置。
  9. 情報処理装置が、
    それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した前記補正情報に基づき、前記視差の補正を行う
    情報処理方法。
  10. コンピュータ装置が読み取り可能なプログラムであって、
    それぞれが異なる焦点位置による撮像を行うステレオ測距のための二つのカメラにより得られる撮像画像であるステレオ撮像画像と、前記ステレオ撮像画像に基づき計算された視差とを入力データとし、前記視差の補正情報を出力データとして得る人工知能モデルによる推論器が推論した前記補正情報に基づき、前記視差の補正を行う機能を、前記コンピュータ装置に実現させる
    プログラム。
JP2022148211A 2022-09-16 2022-09-16 情報処理装置、情報処理方法、及びプログラム Pending JP2024043176A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022148211A JP2024043176A (ja) 2022-09-16 2022-09-16 情報処理装置、情報処理方法、及びプログラム
PCT/JP2023/032381 WO2024058009A1 (ja) 2022-09-16 2023-09-05 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022148211A JP2024043176A (ja) 2022-09-16 2022-09-16 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2024043176A true JP2024043176A (ja) 2024-03-29

Family

ID=90274868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022148211A Pending JP2024043176A (ja) 2022-09-16 2022-09-16 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
JP (1) JP2024043176A (ja)
WO (1) WO2024058009A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3261115B2 (ja) * 1999-09-22 2002-02-25 富士重工業株式会社 ステレオ画像処理装置
JP2012167944A (ja) * 2011-02-10 2012-09-06 Ricoh Co Ltd ステレオカメラ校正方法及び装置
WO2014021134A1 (ja) * 2012-07-30 2014-02-06 オリンパス株式会社 撮像装置及び撮像方法

Also Published As

Publication number Publication date
WO2024058009A1 (ja) 2024-03-21

Similar Documents

Publication Publication Date Title
US8004570B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
JP5866493B2 (ja) 撮像装置
JP4578334B2 (ja) 撮像レンズの合焦位置決定装置およびその方法
US9066000B2 (en) 3D auto-focusing camera module and 3D imaging method using same
US8786959B2 (en) Auto-focusing camera module and auto-focusing method using same
JP2012049773A (ja) 撮像装置および方法、並びにプログラム
JP2008236289A (ja) 撮像装置
JP2007003656A (ja) 撮像レンズの合焦位置決定装置およびその方法
US8264550B2 (en) Shake correction apparatus, image pickup apparatus, and method for controlling shake correction apparatus
JP6564284B2 (ja) 画像処理装置および画像処理方法
JP2015194671A (ja) 撮像装置
JP6326631B2 (ja) 撮像装置
WO2024058009A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6172973B2 (ja) 画像処理装置
WO2017208702A1 (ja) 撮像素子及び撮像装置
JP2008042227A (ja) 撮像装置
JPWO2019135365A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2010134309A (ja) オートフォーカス装置、オートフォーカス方法及び撮像装置
JP5866569B2 (ja) 撮像装置
JP2011205719A (ja) 撮像装置
JP2013219531A (ja) 画像処理装置及び画像処理方法
JP5627357B2 (ja) 撮像装置及びその制御方法
JP2020190652A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2004151183A (ja) 自動合焦装置並びにこれを有するデジタルカメラ及び携帯型情報端末機器
JP2009244434A (ja) 手ぶれ防止装置、電子機器、手ぶれ防止方法、および、手ぶれ防止プログラム